JP2004094667A - Information processor - Google Patents
Information processor Download PDFInfo
- Publication number
- JP2004094667A JP2004094667A JP2002255853A JP2002255853A JP2004094667A JP 2004094667 A JP2004094667 A JP 2004094667A JP 2002255853 A JP2002255853 A JP 2002255853A JP 2002255853 A JP2002255853 A JP 2002255853A JP 2004094667 A JP2004094667 A JP 2004094667A
- Authority
- JP
- Japan
- Prior art keywords
- information
- contour
- extraction
- processing
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は情報処理装置に関し、特に所定の処理対象に対してユーザが処理を行う場合に適用して好適なものである。
【0002】
【従来の技術】
従来、ユーザが所定の処理対象に対して行う処理としては、野球のバッティング練習において処理対象となるボールをバットで打つという処理や、処理対象となる動画像から当該動画像の一部分の表示対象(以下、これをオブジェクトと呼ぶ)を指定するための領域を抽出する処理、さらには処理対象となる動画像からオブジェクトの輪郭を抽出する処理等のように種々のものがある。
【0003】
【発明が解決しようとする課題】
ところでかかる処理を行う際のユーザの処理能力を向上させるには、バットでボールを打つ打法や、動画像からオブジェクトを指定するための領域(以下、これをオブジェクト指定領域と呼ぶ)を抽出する領域抽出手法、動画像からオブジェクトの輪郭を抽出する輪郭抽出手法(以下、これら打法、領域抽出手法及び輪郭抽出手法をまとめて処理手法と呼ぶ)に対して処理能力の高い指導者を探して指導を依頼するような面倒な方法が取られており、ユーザ自身の処理能力を容易には向上させ難いという問題があった。
【0004】
本発明は以上の点を考慮してなされたもので、所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置を提案しようとするものである。
【0005】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示するようにした。
【0006】
従って、特定ユーザに提示した処理手法により当該特定ユーザ自身の処理手法の向上を促すことができる。
【0007】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0008】
(1)第1の実施の形態
図1において、1は全体として第1の実施の形態による情報処理装置を示し、個々のユーザによって行われた野球のバッティング練習(処理対象となるボールをバットで打つという打法)の様子をそれぞれ1台のビデオカメラ(図示せず)で撮像して生成されたバッティング動画像データD1を取り込む毎に、当該取り込んだバッティング動画像データD1を蓄積する。
【0009】
また情報処理装置1は、バッティング動画像データD1を取り込む毎に、すでに蓄積しているバッティング動画像データD1から、その時点にバッティング練習を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の打法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われるバッティング動画像データD1を選択して提示することにより、啓発対象ユーザに自分の打法における改善箇所の啓発を促すようになされている。
【0010】
この場合、情報処理装置1は、情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5及び情報提示部6から構成されており、当該情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5、情報提示部6において啓発対象ユーザに自分の打法の改善箇所を啓発させるために実行する各種処理を第1の啓発促進プログラムに従ってソフトウェア的に実現する。
【0011】
すなわち情報処理装置1は、図2に示すように第1の啓発促進プログラムに従って第1の啓発促進処理手順RT1の開始ステップから入り、続くステップSP1へ移る。
【0012】
ステップSP1において情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込む。
【0013】
この際、情報処理装置1は、図3に示すように、情報入力部2に所定の操作部(図示せず)を介して啓発対象ユーザの氏名及び当該啓発対象ユーザの打法に対する評価値となる打率(例えば野球のペナントレース中におけるその時点までの啓発対象ユーザの打率(成績))のユーザ情報S1が入力される。
【0014】
これにより情報処理装置1は、情報入力部2で取得した啓発対象ユーザの氏名及び打率とバッティング動画像データD1とからなる入力情報を当該情報入力部2から図4に示す入力情報データD2として処理傾向情報抽出部3に送出して、続くステップSP2へ移る。
【0015】
ここで図5に示すように、バッティング動画像データD1に基づくバッティング動画像10は、時間的に連続する複数のフレーム画像10A、……、10N、……により啓発対象ユーザの画像(以下、これをユーザ画像と呼ぶ)11がバッターボックス内で構えた状態からバット12でボール13を打ち終わるまでの様子を2次元平面的に展開している。
【0016】
そして、かかるバッティング動画像10は、各フレーム画像10A、……、10N、……において、ユーザ画像11の腰、肩、肘、膝等の複数の関節や頭頂部及び両手、ボール13、バット12のグリップ12A及び先端12Bにそれぞれ所定の色の丸印等でなるマーク14が予め付けられている。
【0017】
従ってステップSP2において情報処理装置1は、処理傾向情報抽出部3により、入力情報データD2に含まれるバッティング動画像データD1に対して所定の画像処理を施してバッティング動画像10における各マーク14の位置の変化を認識し、これによりユーザ画像11がバッターボックス内で構えた状態からバット12でボール13を打つ瞬間までの腰及び肩の回転角度を検出する。
【0018】
また情報処理装置1は、図6に示すように処理傾向情報抽出部3により、画像処理によって、バッティング動画像10を構成する複数のフレーム画像10A、……、10N、……のうちバット12でボール13を打つ瞬間を捉えたフレーム画像(以下、これを特にインパクト時フレーム画像と呼ぶ)10Nを検出し、当該検出したインパクト時フレーム画像10Nにおいて、ユーザ画像11の両足のつま先を結ぶ基準仮想直線SKL1(この基準仮想直線SKL1は地面に相当する)を引く。
【0019】
そして情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でボール13上のマーク14Aを通るコース検出用仮想直線CKL1を引き、当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1(すなわち基準仮想直線SKL1及びコース検出用仮想直線CKL1の双方と直交する垂線SL1に沿った当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間(すなわちインパクトの瞬間)における当該ボールの地面からの高さ(以下、これをボールコースと呼ぶ)として検出する。
【0020】
これに加えて情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でバット12のグリップ12A上のマーク14Bを通る第1の高低差検出用仮想直線WKL1と、当該基準仮想直線SKL1と並行でバット12の先端12B上のマーク14Cを通る第2の高低差検出用仮想直線WKL2とを引き、当該第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2(すなわち第1及び第2の高低差検出用仮想直線WKL1及びWKL2の双方と直交する垂線SL2に沿った当該第1及び第2の高低差検出用仮想基準WKL1及びWKL2間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間における当該バットのグリップと先端との高低差(以下、これをバット高低差と呼ぶ)として検出する。
【0021】
このようにして情報処理装置1は、図7に示すように処理傾向情報抽出部3により、バッティング動画像10から啓発対象ユーザがバッターボックス内で構えた状態からバットでボールを打つ瞬間までの腰及び肩の回転角度と、ボールコースと、バット高低差とを検出すると、これらを啓発対象ユーザがバットでボールをどのように打っているかを表す処理傾向情報とする。
【0022】
そして情報処理装置1は、処理傾向情報抽出部3により、バッティング動画像10から抽出した処理傾向情報を処理傾向情報データD3とし、当該処理傾向情報データD3及び入力情報データD2同士を対応付けて蓄積情報データD4として情報蓄積部4に送出すると共に、その処理傾向情報データD3をそのまま提示情報選択部5に送出した後、続くステップSP3及びステップSP4へ移る。
【0023】
ステップSP3において情報処理装置1は、情報蓄積部4により、蓄積情報データD4を例えば図8に示すように入力情報データD2同士と処理傾向情報データD3同士とにまとめて記憶してステップSP5へ移る。
【0024】
またステップSP4において情報処理装置1は、ステップSP3の処理と並行して提示情報選択部5により、処理傾向情報データD3に含まれるボールコース(以下、これを比較用基準ボールコースと呼ぶ)及びバット高低差(以下、これを比較用基準バット高低差と呼ぶ)の値と、情報蓄積部4においてステップSP3で記憶した啓発対象ユーザの蓄積情報データD4を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これらを特に過去蓄積情報データと呼ぶ)D4に処理傾向情報データD3として含まれるボールコース(以下、これを過去ボールコースと呼ぶ)及びバット高低差(以下、これを過去バット高低差と呼ぶ)の値とを比較する。
【0025】
これにより情報処理装置1は、図9に示すように提示情報選択部5により、過去蓄積情報データD4の中から、比較用基準ボールコースの値(図6について上述したインパクト時フレーム画像10Nにおける基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1の値)を中心とした所定のコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ比較用基準バット高低差の値(図6について上述したインパクト時フレーム画像10Nにおける第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2の値)を中心とした所定の高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。
【0026】
因みに、図9に示す一対のハッチングの入った丸印D1及びD2は、啓発対象ユーザに対する処理傾向情報である比較用基準ボールコースの値及び比較用基準バット高低差の値を示し、他の一対の三角印や四角印等はそれぞれ1つの過去蓄積情報データD4に処理傾向情報として含まれる過去ボールコースの値及び過去バット高低差の値を示す。
【0027】
次いで情報処理装置1は、提示情報選択部5により、比較用基準ボールコースの値及び比較用基準バット高低差の値を用いて選択した過去蓄積情報データD4の中から、当該過去蓄積情報データD4に含まれる打率の情報同士を比較することにより、最も良い打率(すなわち最も高い評価値)を入力情報データD2の一部として含む過去蓄積情報データD4を選択する。
【0028】
このようにして情報処理装置1は、提示情報選択部5により図10に示すように、情報蓄積部4にすでに蓄積していた全ての過去蓄積情報データD4の中から、啓発対象ユーザの打法に対する処理傾向情報の比較用基準ボールコース及び比較用基準バット高低差を限定基準として用いて当該啓発対象ユーザの打法に類似する打法でバッティング練習を行ったユーザの過去蓄積情報データD4を選択した後(すなわち選択対象の過去蓄積情報データD4の数を限定した後)、当該選択した過去蓄積情報データD4の中からこれらに含まれる打率を選定基準として用いて打率の最も良いユーザの過去蓄積情報データD4を最終的に選択する。
【0029】
これにより情報処理装置1は、図11示すように提示情報選択部5により、情報蓄積部4から、最終的に選択した過去蓄積情報データD4に入力情報データD2として含まれるバッティング動画像データD1及び打率の情報を提示情報データD5として読み出すと共に、当該読み出した提示情報データD5を情報提示部6に送出してステップSP5へ移る。
【0030】
ステップSP5において情報処理装置1は、情報提示部6により提示情報データD5に基づくバッティング動画像及び打率の情報を当該情報提示部6に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示した後、ステップSP6へ移って第1の啓発促進処理手順RT1を終了する。
【0031】
このようにして情報処理装置1は、啓発対象ユーザに例えば打法が似ているものの、当該啓発対象ユーザよりも打率の良い他のユーザのバッティング動画像を再生して提示することにより、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を啓発対象ユーザの打法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの打法に真似て改善させ得るようになされている。
【0032】
因みに第1の実施の形態の場合、情報処理装置1は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C1が入力されることによりこれを情報入力部2に取り込むと、当該追加命令C1を情報入力部2から処理傾向情報抽出部3を介して提示情報選択部5に送出する。
【0033】
そして情報処理装置1は、提示情報選択部5により情報蓄積部4から、最終的に選択した過去蓄積情報データD4に処理傾向情報データD3として含まれる腰及び肩の回転角度の情報を読み出し、当該読み出した腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報データD6として情報提示部6に送出する。
【0034】
これにより情報処理装置1は、情報提示部6により、追加提示情報データD6に基づく腰及び肩の回転角度の情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の打法と、他のユーザの打法との異なる箇所をバッティング動画像のみならずに腰や肩の回転角度の数値としての違いからも見つけさせることができるようになされている。
【0035】
以上の構成において、情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込み、この際、情報入力部2に入力された啓発対象ユーザの打率の情報と共に入力情報データD2とする。
【0036】
そして情報処理装置1は、バッティング動画像データD1に基づくバッティング動画像10から啓発対象ユーザの打法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD3をバッティング動画像データD1と共に蓄積情報データD4として情報蓄積部4に記憶する。
【0037】
このとき情報処理装置1は、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択する。
【0038】
次いで情報処理装置1は、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、その選択した過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにした。
【0039】
従ってこの情報処理装置1は、処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の打法における改善箇所の啓発を促して、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。
【0040】
また情報処理装置1は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C1が入力されると、これに応じて、最終的に選択した過去蓄積情報データD4に処理傾向情報として含まれる腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報として啓発対象ユーザに提示するようにした。
【0041】
従って情報処理装置1は、追加提示情報によっても啓発対象ユーザに自分の打法における改善箇所の啓発を促し、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を、バッティング動画像を目視させて見つけさせることに加えて腰や肩の回転角度の数値としての違いとしても啓発対象ユーザに自分の打法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。
【0042】
以上の構成によれば、啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像10と当該啓発対象ユーザの打率の情報とを、そのバッティング動画像10から抽出した啓発対象ユーザの打法に対する処理傾向情報と共に蓄積情報データD4として情報蓄積部4に記憶すると共に、当該啓発対象ユーザの打法に対する処理傾向情報と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報とを比較して当該過去蓄積情報データD4の中から啓発対象ユーザの打法と類似する他のユーザの打法をバッティング動画像として含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の打法における改善箇所の啓発を促して当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの打法に真似て改善させることができ、かくして処理対象となるボールを打つという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
【0043】
なお上述した第1の実施の形態においては、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択し、当該選択した1又は複数の過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。
【0044】
このようにすれば、啓発対象ユーザに打率の異なる複数のユーザのバッティング動画像を順次提示情報として提示することができるため、上述した第1の実施の形態の場合よりも、啓発対象ユーザに自分の打法における改善箇所を更に多く見つけさせることができる。
【0045】
また啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較して複数の過去蓄積情報データD4の中から最終的な過去蓄積情報データD4を選択することにより、上述した第1の実施の形態に比べて選択時の処理負荷を低減させることもできる。
【0046】
また上述した第1の実施の形態においては、啓発対象ユーザに他のユーザのバッティング動画像を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD4に啓発対象ユーザの過去の蓄積情報データD4が含まれており、当該啓発対象ユーザの過去の蓄積情報データD4を選択したときには、その蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の打法よりも過去の打法の方が打率が良いと、現在の打法における改善箇所を過去の打率の良かったときの打法と比較させて容易に見つけさせることができる。
【0047】
さらに上述した第1の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD4を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD4を除いた他の過去蓄積情報データD4を用いるようしても良い。
【0048】
このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で打法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD4をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。
【0049】
さらに上述した第1の実施の形態においては、図10について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図12に示すような種々の選択条件をいずれか1つ、又は図12に示す種々の選択情報と図10について上述した選択条件と合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。
【0050】
ここで、図12に示す種々の選択条件について詳述すると、情報処理装置1は、まず第1の選択条件を用いる場合、提示情報選択部5により、比較用基準ボールコースの値と、全ての過去蓄積情報データD4に含まれる過去ボールコースの値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4の中から当該過去蓄積情報データD4に含まれる打率の情報同士を比較して最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0051】
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打った複数の打法の中から、打率の最も良い打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。
【0052】
また情報処理装置1は、第2の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる打率(以下、これを過去打率と呼ぶ)の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。
【0053】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4に含まれる過去バット高低差の値と、比較用基準バット高低差の値とを比較することにより、当該選択した過去蓄積情報データD4の中から高低差閾値範囲SH2外の値を示し、かつ比較用基準バット高低差の値との違いが最大である過去バット高低差の情報を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0054】
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から、バットの振り方が最も異なる打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。
【0055】
さらに情報処理装置1は、第3の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる過去打率の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。
【0056】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0057】
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所をある程度偶然性に期待して啓発させることができる。
【0058】
さらに情報処理装置1は、第4の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース及び比較用基準バット高低差の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース及び過去バット高低差の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。
【0059】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最もわるい打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0060】
この場合、情報処理装置1は、啓発対象ユーザの打法と類似する複数の打法の中から打率の最もわるい打法を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した打法の提示により啓発対象ユーザに反面教師的に自分の打法の良い箇所を再確認させることもできる。
【0061】
さらに情報処理装置1は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD3に当該啓発対象ユーザの打率(以下、これを比較用基準打率と呼ぶ)の情報を格納しておき、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース、過去バット高低差及び過去打率の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報と、高低差閾値範囲SH2内の値を示す過去バット高低差と、比較用基準打率の値を中心とした所定の打率閾値範囲内の値を示す過去打率とを共に含む過去蓄積情報データD4を選択する。
【0062】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0063】
この場合、情報処理装置1は、啓発対象ユーザの打法と類似で、かつ実力(すなわち打率)もほとんど同じ複数の打法のうちで最も打率の良い打法を啓発対象ユーザに提示することにより、提示した打法と啓発対象ユーザの打法との違いがわずかであるため、当該啓発対象ユーザに自分の打法における改善箇所を容易に啓発させることができる。
【0064】
さらに情報処理装置1は、第6の選択条件を用いる場合、提示情報選択部5により、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を選択して当該選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0065】
この場合、情報処理装置1は、無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所を全面的に偶然性に期待して啓発させることができる。
【0066】
因みに情報処理装置1では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD3に打率の情報を格納しておかなくても、提示情報選択部5により、情報蓄積部4に蓄積している全ての蓄積情報データD4(啓発対象ユーザの蓄積情報データD4を含む)に含まれている打率の情報を用いることで最終的な蓄積情報データD4の選択を実現することもできる。
【0067】
また上述した各選択条件において打率の情報を用いるときには、打率の最小及び最大や、所定の閾値以上の打率等の規定にしなくても、所定の閾値以下の打率や、啓発対象ユーザの打率よりも良い又はわるい打率、啓発対象ユーザの打率から所定の閾値以上離れた値の打率、啓発対象ユーザの打率から所定の第1の閾値以上離れ、かつ第2の閾値以下の打率、さらには啓発対象ユーザの打率とほぼ同じ(類似する)打率等の条件でも過去蓄積情報データD4を選択することができる。
【0068】
さらに蓄積情報データD4の選択に用いる選択条件としては、図10について上述した選択条件及び図12について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、腰や肩の回転角度を用いる選択条件等のように、この他にも種々の選択条件を用いることができる。
【0069】
これに加えて情報処理装置1では、図10及び図12について上述した選択条件において限定基準のボールコースやバット高低差、打率をそれぞれ個別に用いるようにしたが、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。
【0070】
また情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。
【0071】
さらに情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を中心とした所定のコース閾値範囲SH1、高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去ボールコース、過去バット高低差及び過去打率等の少なくとも2つ以上とを比較して過去蓄積情報データD4を限定するようにしても良い。
【0072】
同様に情報処理装置1では、図10及び図12について上述した選択条件において選定基準のバット高低差及び打率もそれぞれ個別に用いるようにしたが、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
【0073】
また情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
【0074】
さらに情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を中心とした所定の高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去バット高低差及び過去打率等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
【0075】
さらに上述した第1の実施の形態においては、情報蓄積部4に入力情報データD2及び処理傾向情報データD3からなる蓄積情報データD4を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD2を蓄積情報データとして情報蓄積部4に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD2及び蓄積情報データ(すなわち入力情報データD2)から処理傾向情報を抽出すれば良い。
【0076】
さらに上述した第1の実施の形態においては、図2について上述した第1の啓発促進処理手順RT1に示す一連の処理に、啓発対象ユーザにより処理対象(ボール)に対して行われる処理手法を表す情報として、バッティング練習の様子を1台のビデオカメラで撮像して生成されたバッティング動画像10を利用するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザによるバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を2台のビデオカメラで撮像して生成された3次元動画像でなるバッティング動画像を利用し、又はバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を複数の角度から撮像して得られ複数の2次元及び又は3次元動画像を利用するようにしても良い。
【0077】
因みに、かかる3次元動画像でなるバッティング動画像を利用すれば、当該バッティング動画像を画像処理することにより啓発対象ユーザの打法に対する処理傾向を3次元的に捉えた処理傾向情報(例えば、ボールコースとして内角低めや外角高め)を抽出することができる。そして、かかる3次元動画像でなるバッティング動画像と、図10について上述した選択条件や、図12について上述した第1乃至第5の選択条件とを合わせて利用すれば、啓発対象ユーザに自分の打法とほぼ同じ打法を提示することができる。
【0078】
さらに上述した第1の実施の形態においては、啓発対象ユーザに対して野球のバッティングにおける打法の改善箇所の啓発を促して処理能力の向上を図るようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図るようにしても良く、これら種々の処理においても上述した第1の実施の形態による効果と同様の効果を得ることができる。因みに、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図る場合は、評価値として処理に応じたスコアやハンデキャップ、勝率等の成績を用いれば良い。
【0079】
(2)第2の実施の形態
図13において、50は全体として第2の実施の形態による情報処理装置を示し、個々のユーザによって行われた領域抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトを指定するためのオブジェクト指定領域を抽出する領域抽出処理を実行する毎に、当該領域抽出処理の間、適宜表示内容を変化させて表示した一連の領域抽出処理用画面を領域抽出操作の経緯(すなわち処理対象となるオブジェクト抽出用動画像からオブジェクト指定領域を抽出するユーザの領域抽出手法)を表す領域抽出経緯画面データとして蓄積する。
【0080】
また情報処理装置50は、領域抽出処理を実行する毎に、すでに蓄積している領域抽出経緯画面データから、その時点に領域抽出操作を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の領域抽出手法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われる領域抽出経緯画面データを選択して提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促すようになされている。
【0081】
この場合、情報処理装置50は、領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55から構成されており、当該領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55において啓発対象ユーザに自分の領域抽出手法の改善箇所を啓発させるために実行する各種処理を第2の啓発促進プログラムに従ってソフトウェア的に実現する。
【0082】
すなわち情報処理装置50は、図14に示すように第2の啓発促進プログラムに従って第2の啓発促進処理手順RT50の開始ステップから入って続く領域抽出処理ルーチンSRT51へ移る。
【0083】
ここで図15に示すように、情報処理装置50は、画像入力回路60、画像記録回路61、動きベクトル検出記録回路62、設定情報記録回路63、伝播領域決定回路64、ユーザインターフェース回路65、輪郭/領域変換回路66、領域生成記録回路67、領域出力回路68から構成された領域抽出部51によって領域抽出処理ルーチンSRT51を実行する。
【0084】
この際、図16及び図17に示すように、情報処理装置50は、領域抽出処理ルーチンSRT51の開始ステップから入って次のステップSP51へ移り、当該ステップSP51において外部から供給されるオブジェクト抽出用動画像データD50を領域抽出部51の画像入力回路60に取り込む。
【0085】
ここで、図18に示すように、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70は、時間的に連続して抽出対象のオブジェクト71を含む複数のフレーム画像(以下、これを領域抽出用フレーム画像と呼ぶ)70A乃至70G、……から構成されている。
【0086】
この際、情報処理装置50は、画像入力回路60に取り込んだオブジェクト抽出用動画像データD50をフレーム画像データ(以下、これを領域抽出用フレーム画像データと呼ぶ)D51単位で画像記録回路61に送出して記録すると共に、当該画像記録回路61からオブジェクト抽出用動画像データD50を構成する領域抽出用フレーム画像データD51を順次読み出して動きベクトル検出記録回路62に送出する。
【0087】
そして情報処理装置50は、動きベクトル検出処理回路62により、複数の領域抽出用フレーム画像データD51においてそれぞれマクロブロック等の所定単位ブロック毎の動きベクトル(例えば個々の所定単位ブロックについて時間的に過去及び未来の双方で隣接する領域抽出用フレーム画像70A乃至70G、……間の双方向の動きベクトル)を検出し、当該検出した領域抽出用フレーム画像データD51毎の動きベクトをそれぞれ領域抽出用フレーム画像データD51の識別情報と対応付けて記録してステップSP52へ移る。
【0088】
ステップSP52において情報処理装置50は、ユーザインターフェース回路65から領域抽出処理用画面データD52を情報提示部55に送出することにより当該情報提示部55に設けられたモニタ(図示せず)に領域抽出処理用画面データD52に基づいて、命令選択領域やオブジェクト抽出用動画像の画像表示領域等を有する領域抽出処理用画面(図示せず)を表示する。
【0089】
この状態で情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上でオブジェクト指定領域の抽出処理を行うための種々の抽出処理用命令C50が入力されることを待ち受け、当該啓発対象ユーザにより抽出処理用命令C50が入力されると、これをユーザインターフェース回路65に取り込んでステップSP53へ移る。
【0090】
ステップSP53において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト指定領域のもとになるオブジェクト71の輪郭を指定するために例えば1つの領域抽出用フレーム画像70A、……、又は70Gを輪郭指定用の作業フレーム画像として任意に設定する作業フレーム設定命令であるか否かを判断する。
【0091】
ステップSP53において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令であることを表しており、このとき情報処理装置50はステップSP54へ移る。
【0092】
ステップSP54において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を領域抽出用フレーム画像データD51単位で読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0093】
これにより情報処理装置50は、図19に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に領域抽出用フレーム画像70A乃至70Gを例えば所定フレーム数ずつ表示し、かくして啓発対象ユーザにオブジェクト抽出用動画像70を所定フレーム数ずつの領域抽出用フレーム画像70A乃至70Gとして互いを比較させながら目視させる。
【0094】
この結果、情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上で複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト71の輪郭指定用に1つの領域抽出用フレーム画像70Dが当該輪郭の指定のし易さ等で任意に選択されると、その選択された領域抽出用フレーム画像70Dの識別情報等を作業フレーム設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより選択された1つの領域抽出用フレーム画像70Dを輪郭指定用の作業フレーム画像に設定してステップSP52に戻る。
【0095】
これに対して上述したステップSP53において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP55へ移る。
【0096】
ステップSP55において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dで指定された輪郭をもとに、時間的に連続する任意のフレーム数の領域抽出用フレーム画像70A乃至70Gでそれぞれ生成したオブジェクト指定領域の修正の方法を修正モードとして設定する修正モード設定命令であるか否かを判断する。
【0097】
ステップSP55において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が修正モード設定命令であることを表しており、このとき情報処理装置50はステップSP56へ移る。
【0098】
ステップSP56において情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の修正方法として任意に選択された追加又は削除を表す情報をモード設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより啓発対象ユーザの選択した追加又は削除をオブジェクト指定領域に対する修正モードに設定してステップSP52に戻る。
【0099】
また上述したステップSP55において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令及び修正モード設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP57へ移る。
【0100】
ステップSP57において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dに対するオブジェクト指定領域の生成をもとにその生成を伝播させる領域抽出用フレーム画像70A乃至70C、70E乃至70G、……や、いずれかの領域抽出用フレーム画像70A乃至70G、……に対して生成したオブジェクト指定領域に対する修正をもとにその修正を伝播させる他の領域抽出用フレーム画像70A乃至70C、70E乃至70G、……を設定する伝播範囲設定命令であるか否かを判断する。
【0101】
このステップSP57において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が伝播範囲設定命令であることを表しており、このとき情報処理装置50はステップSP58へ移る。
【0102】
ステップSP58において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を構成する複数の領域抽出用フレーム画像データD51を読み出し、当該読み出した各領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出することにより、領域抽出処理用画面内の画像表示領域に、例えば啓発対象ユーザの画像切換要求に応じて所定フレーム数ずつの領域抽出用フレーム画像70A乃至70G、……を表示して啓発対象ユーザに目視させる。
【0103】
この状態で情報処理装置50は、例えば図19に示すように啓発対象ユーザにより領域抽出処理用画面上で、オブジェクト指定領域の生成伝播用又はオブジェクト指定領域の修正伝播用に1又は複数の領域抽出用フレーム画像70B乃至70Fが選択されると、当該選択された領域抽出用フレーム画像70B乃至70Fの識別情報等を伝播範囲設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録する。
【0104】
これにより情報処理装置50は、啓発対象ユーザの選択した1又は時間的に連続する複数の領域抽出用フレーム画像70B乃至70Fを伝播範囲の領域抽出用フレーム画像70B乃至70Fに設定してステップSP52に戻る。
【0105】
因みに情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以前に伝播範囲設定命令が入力されると、その際に選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……をオブジェクト指定領域の生成を伝播させる伝播範囲(以下、これを特に生成伝播範囲と呼ぶ)の領域抽出用フレーム画像70A乃至70G、……に設定する。
【0106】
そして情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以降に伝播範囲設定命令が入力されるまでは、生成伝播範囲をオブジェクト指定領域の修正を伝播させる伝播範囲(以下、これを修正伝播範囲と呼ぶ)に併用し、当該オブジェクト指定基準領域の生成以降に伝播範囲設定命令が入力されると、生成伝播範囲とは別に、その際に新たに選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……を修正伝播範囲の領域抽出用フレーム画像データD70A乃至70G、……に設定する。
【0107】
ただし情報処理装置50は、修正伝播範囲の設定の際に生成伝播範囲を超えて(すなわち生成伝播範囲よりも時間的に過去及び未来)領域抽出用フレーム画像70A乃至70G、……が選択されると、当該選択された領域抽出用フレーム画像70A乃至70G、……に対してはオブジェクト指定領域を生成してはいないことにより、情報提示部55を介して警告音を出力し、及び又は領域抽出処理用画面にエラーメッセージを表示してその選択が無効であることを啓発対象ユーザに通知する。
【0108】
さらに上述したステップSP57において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令及び伝播範囲設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP59へ移る。
【0109】
ステップSP59において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70D中のオブジェクト71の輪郭を指定する輪郭指定命令であるか否かを判断する。
【0110】
このステップSP59において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令及び生成伝播範囲用の伝播範囲設定命令に応じた処理(ステップSP54及びステップSP58で上述した処理)をすでに実行したうえで入力された輪郭指定命令であることを表しており、このとき情報処理装置50はステップSP60へ移る。
【0111】
ステップSP60において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理画面データD52と合成して情報提示部55に送出する。
【0112】
これにより情報処理装置50は、図20に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に生成伝播範囲及び当該生成伝播範囲の前後の領域抽出用フレーム画像70A乃至70Gを表示する。
【0113】
この状態で情報処理装置50は、啓発対象ユーザによってマウス等を介して領域抽出処理用画面上で作業フレーム画像70D中のオブジェクト71の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線73(すなわち啓発対象ユーザのなぞった軌跡)に相当する入力輪郭線信号S50をユーザインターフェース回路65に取り込む。
【0114】
そして情報処理装置50は、ユーザインターフェース回路65により、その入力輪郭線信号S50を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該入力輪郭線信号S50に相当する複数の入力輪郭形成点(作業フレーム画像70D中の座標で表す)を生成し、当該生成した複数の入力輪郭形成点の集合データを入力輪郭形成点群データD53として輪郭/領域変換回路66に送出する。
【0115】
また情報処理装置50は、輪郭/領域変換回路66により入力輪郭形成点群データD53に基づく入力輪郭形成点間を補間することにより入力輪郭線73に相当する入力輪郭補間線を生成すると共に、その入力輪郭補間線で囲まれた領域を所定の色で塗りつぶすことにより作業フレーム画像70D中のオブジェクト71を指定するオブジェクト指定領域(以下、これを特にオブジェクト指定基準領域と呼ぶ)に相当するオブジェクト指定基準領域データD54を生成し、当該生成したオブジェクト指定基準領域データD54を伝播領域決定回路64及び領域生成記録回路67に送出してステップSP61へ移る。
【0116】
ステップSP61において情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から作業フレーム設定情報及び伝播範囲設定情報を読み出すと共に、その作業フレーム設定情報及び伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から生成伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。
【0117】
そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックに対して、生成伝播範囲内で作業フレーム画像70Bを除いた他の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置を検出する。
【0118】
これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、オブジェクト指定基準領域をもとにした他のオブジェクト指定領域の生成を生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して伝播させるための伝播領域情報とし、これを伝播領域情報データD55として領域生成記録回路67に送出する。
【0119】
また情報処理装置50は、領域生成記録回路67により、伝播領域情報データD55に基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックをそれぞれ生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置へ移動させることにより当該オブジェクト指定基準領域を個々の領域抽出用フレーム画像70B、70C及び70E、70Fにそれぞれ伝播させて、当該個々の領域抽出用フレーム画像70B、70C及び70E、70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域(以下、これを特にオブジェクト指定伝播領域と呼ぶ)を生成する。
【0120】
ここで情報処理装置50は、図21に示すように領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、生成伝播範囲の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の変化(すなわち生成伝播範囲におけるオブジェクト71の時間的な動き)に拘わらずに、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単へ移動させている。
【0121】
この際、所定単位ブロック75を単へ移動させたままでは、個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して移動させたこれら所定単位ブロック75同士が離れてオブジェクト指定伝播領域内に所定の色による塗りつぶしが途切れた穴76が生じることがある。
【0122】
このため情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って移動させた後、これら所定単位ブロック75に対して画像処理としての膨張及び縮小処理を施すことにより穴76をほぼ塞いでオブジェクト指定伝播領域を生成する。
【0123】
このようにして情報処理装置50は、生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対するオブジェクト指定伝播領域を生成すると、領域生成記録回路67によりオブジェクト指定基準領域と各オブジェクト指定伝播領域とを生成伝播範囲の領域抽出用フレーム画像データD51の識別情報と対応付けて記録すると共に、当該領域生成記録回路67からオブジェクト指定基準領域及び各オブジェクト指定伝播領域をオブジェクト指定領域データD56としてユーザインターフェース回路65に送出する。
【0124】
そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出す。
【0125】
この際、情報処理装置50は、ユーザインターフェース回路65により、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD56と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0126】
これにより情報処理装置50は、図22に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、指定領域提示画像データに基づいて作業フレーム画像70Dにオブジェクト指定基準領域74を重ねて表示すると共に、生成伝播範囲の他の領域抽出用フレーム画像70B、70C、70E、70Fにそれぞれ対応するオブジェクト指定伝播領域77A乃至77Dを重ねて表示し、さらに生成伝播範囲の前後の領域抽出用フレーム画像70A及び70Gを表示することによりオブジェクト指定領域の生成結果を啓発対象ユーザに提示してステップSP52に戻る。
【0127】
ところで上述したステップSP59において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP62へ移る。
【0128】
ステップSP62において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50がオブジェクト指定基準領域75及びオブジェクト指定伝播領域77A乃至77Dを修正する領域修正命令であるか否かを判断する。
【0129】
このステップSP62において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP56、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域修正命令であることを表しており、このとき情報処理装置50はステップSP63へ移る。
【0130】
ここで情報処理装置50は、領域生成記録回路67によって生成したオブジェクト指定伝播領域77A乃至77Dについて、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単へ移動させた状態で生じた穴76が比較的小さければ、その後の膨張及び縮小処理によりその穴76を塞ぐことができる。
【0131】
しかしながら情報処理装置50は、穴76が比較的大きければ、移動後の所定単位ブロック75に対して膨張及び縮小処理を施してもその穴76を塞ぐことができず、オブジェクト指定伝播領域77A乃至77Dにおいて穴76が残った状態となる(図22)。
【0132】
また情報処理装置50は、領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単へ移動させることにより、図21からも明らかなように所定単位ブロック75のもとの並びが移動先でばらつき、その結果、図22に示すように、オブジェクト指定伝播領域77A乃至77Dの輪郭部分にオブジェクト71よりも外側に突出した箇所(以下、これを突出箇所と呼ぶ)78や当該オブジェクト71の内側に凹んだ箇所(図示せず)が生じる場合がある。
【0133】
そしてオブジェクト指定伝播領域77A乃至77Dに生じる突出箇所78等は、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dにかかる所定単位ブロックが移動してさらに別のオブジェクト指定伝播領域77A乃至77Dが生成されれば、そのオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合がある。
【0134】
このためステップSP63において情報処理装置50は、ユーザインターフェース回路65からその時点で最新の指定領域提示画像データを合成した領域抽出処理用画面データD52を情報提示部55に送出し、当該情報提示部55に例えば図22について上述した領域抽出処理用画面を表示する。
【0135】
この状態で情報処理装置50は、図23(A)及び(B)に示すように啓発対象ユーザにより領域抽出処理用画面上で修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dが指定されると共に、マウス等を介してその修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所(穴76や突出箇所78等)が当該修正箇所の周辺がなぞられて形成された枠79A及び79Bによって指示されると、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像データD51の識別情報と、枠79A及び79Bに相当する枠信号とを含む修正箇所指示信号S51が入力されることによりこれをユーザインターフェース回路65に取り込む。
【0136】
因みに、情報処理装置50は、この際、領域抽出処理用画面内の画像表示領域に生成伝播範囲及びその前後の領域抽出用フレーム画像(作業フレーム画像を含む)70A乃至70Gを表示していることにより、オブジェクト指定基準領域74の形状と、生成伝播範囲前後の領域抽出用フレーム画像70A及び70G中のオブジェクト71の形状とからオブジェクト指定伝播領域77A乃至77Dに対する突出箇所78を比較的容易に類推させて特定させ得るようになされている。
【0137】
情報処理装置50は、ユーザインターフェース回路65により、修正箇所指示信号S51に含まれる枠信号を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該枠信号に相当する複数の枠形成点(領域抽出用フレーム画像70B乃至70F中の座標で表す)を生成し、当該生成した複数の枠形成点の集合データ(以下、これを枠形成点群データと呼ぶ)を、修正箇所指示信号S51に含まれる識別情報と共に修正箇所指示データD57として輪郭/領域変換回路66に送出する。
【0138】
また情報処理装置50は、輪郭/領域変換回路66により、修正箇所指示データD57に基づいて得られた枠形成点群データに基づく枠形成点間を補間することにより枠79A及び79Bに相当する枠補間線を生成し、その枠補間線で囲まれた領域を修正箇所指示領域として表す修正箇所指示領域データと、修正箇所指示データD51に含まれる識別情報とを修正指示データD58として伝播領域決定回路64及び領域生成記録回路67に送出する。
【0139】
情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から伝播範囲設定情報を読み出すと共に、その伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から修正伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。
【0140】
そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、修正箇所指示領域にかかる全ての所定単位ブロックに対して、修正伝播範囲内で修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像70B乃至70Fを除いた他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置を検出する。
【0141】
これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正を修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるための伝播領域情報として領域生成記録回路67に送出する。
【0142】
さらに情報処理装置50は、領域生成記録回路67により、設定情報記録回路63からその時点に設定されている修正モードを表す修正モード設定情報を読み出すと共に、すでに記憶しているオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dのうち修正指示データD58に含まれる識別情報に対応する修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを選択して読み出す。
【0143】
そして情報処理装置50は、領域生成記録回路67により、修正指示データD58に含まれる修正箇所指示領域データを取り出し、当該修正箇所指示領域データに基づく修正箇所指示領域を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと重ねる。
【0144】
この状態で情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが削除であれば、例えば図24(A)に示すように、オブジェクト指定伝播領域77Aにおいて修正箇所指示領域79AXと重なった箇所77AXを削除することにより、突出箇所78を削って修正したオブジェクト指定伝播領域77AYを得る。
【0145】
また情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが追加であれば、例えば図24(B)に示すように、オブジェクト指定伝播領域77Bにおいて修正箇所指示領域79BXと重なった箇所77BXに所定の色の塗りつぶし領域を追加することにより、穴76を塞いで修正したオブジェクト指定伝播領域77BYを得る。
【0146】
そして情報処理装置50は、領域生成記録回路67により、伝播領域情報に基づいて、修正箇所指示領域にかかる全ての所定単位ブロック(修正により新たに塗りつぶした、又は塗りつぶしを解除した所定単位ブロック)をそれぞれ修正伝播範囲の他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置へ移動させることにより修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにおける修正を他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにそれぞれ伝播させる。
【0147】
このようにして情報処理装置50は、修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正要求に応じて当該修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと、修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dとを合わせて修正することができる。
【0148】
すなわち情報処理装置50は、複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれかのオブジェクト指定伝播領域77A乃至77Dに突出箇所78等が生じれば、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dをもとにして生成した他のオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合があるため、これら複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれか1つのオブジェクト指定伝播領域77A乃至77Dに対して修正を要求させるだけで他のオブジェクト指定伝播領域77A乃至77Dもその修正を反映させて容易に修正することができる。
【0149】
そして情報処理装置50は、領域生成記録回路67によりその修正して得た新たなオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを、修正前のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに上書きして記録することにより、記録保持しているオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを更新する。
【0150】
また情報処理装置50は、領域生成記録回路67により、更新したオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを再びオブジェクト指定領域データD59としてユーザインターフェース回路65に送出する。
【0151】
そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD59と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0152】
これにより情報処理装置50は、図25に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応する修正済みのオブジェクト指定基準領域74A及びオブジェクト指定伝播領域77AX、77BX、77CX、77DX又は未だ修正を施していないオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを重ねて表示してステップSP52に戻る。
【0153】
このようにして情報処理装置50は、オブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成した後、修正伝播範囲及び修正モードを適宜設定して修正箇所が指示されれば、その都度、指示に応じてオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所を修正して提示し、啓発対象ユーザが精度等で納得するオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成することができる。
【0154】
これに加えて上述したステップSP62において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令、輪郭指定命令及び領域修正命令以外の命令であることを表しており、このとき情報処理装置50はステップSP64へ移る。
【0155】
ステップSP64において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とするか、又は当該入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とするかを切り換える領域反転命令であるか否かを判断する。
【0156】
このステップSP64において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域反転命令であることを表しており、このとき情報処理装置50はステップSP65へ移る。
【0157】
ステップSP65において情報処理装置50は、ユーザインターフェース回路65から領域反転命令を設定情報記録回路63に送出する。
【0158】
情報処理装置50は、例えば初期状態では入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とする補間線内領域モードに設定しており、その補間線内領域モード時に領域反転命令が入力されると、当該領域反転命令を設定情報記録回路63に取り込んで、オブジェクト指定領域の形態を設定するための指定領域設定情報の内容を変更することにより、入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とする補間線外領域モードに設定を変更する。
【0159】
これに対して情報処理装置50は、補間線外領域モード時に領域反転命令が入力されると、その領域反転命令を設定情報記録回路63に取り込んで指定領域設定情報の内容を変更することにより補間線内領域モードに設定を変更する。
【0160】
そして情報処理装置50は、設定情報記録回路63により、補間線内領域モードを補間線外領域モードに切り換えたとき、これを領域生成記録回路67に通知する。
【0161】
情報処理装置50は、補間線内領域モードから補間線外領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dの外側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを除くオブジェクト71の背景となる領域)を所定の色で塗りつぶすオブジェクト指定領域(以下、これをオブジェクト指定基準領域に対応させてオブジェクト指定基準反転領域と呼び、オブジェクト指定伝播領域に対応させてオブジェクト指定伝播反転領域と呼ぶ)を生成する。
【0162】
そして情報処理装置50は、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を生成すると、領域生成記録回路67によりオブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を、オブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dに上書きして記録する。
【0163】
また情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域をオブジェクト指定領域データD60としてユーザインターフェース回路65に送出する。
【0164】
情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD60と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0165】
これにより情報処理装置50は、図26に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応するオブジェクト指定基準反転領域80及びオブジェクト指定伝播反転領域81A乃至81Dを重ねて表示してステップSP52に戻る。
【0166】
因みに情報処理装置50は、補間線外領域モードから補間線内領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dの内側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dを除くオブジェクト71と重なる領域)を所定の色で塗りつぶすオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを生成する。
【0167】
この場合、情報処理装置50は、図22又は図25について上述した領域抽出処理用画面を啓発対象ユーザに提示してステップSP52に戻る。
【0168】
このようにして情報処理装置50は、啓発対象ユーザによって入力される抽出処理命令C50に応じて上述したステップSP52乃至ステップSP65の処理を順次実行することにより当該啓発対象ユーザに自分で納得のできる精度でオブジェクト指定領域を抽出させることができる。
【0169】
そしてステップSP64において否定結果が得られると、このことはオブジェクト抽出用動画像70から時間的に連続する領域抽出用フレーム画像70B乃至70F中のオブジェクト71の動きに応じて推移させたオブジェクト指定領域が啓発対象ユーザの納得できる精度で抽出されたことにより、当該啓発対象ユーザにより抽出処理用命令C50として領域抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置50はステップSP66へ移る。
【0170】
ステップSP66において情報処理装置50は、領域生成記録回路67により1度の生成又はその後の修正を経て最終的に記録したオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77D、又はオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dをオブジェクト指定領域データD61として領域抽出回路68を介して外部に出力することにより例えばオブジェクト抽出装置(図示せず)においてそのオブジェクト指定領域データD61に基づいてオブジェクト抽出用動画像データD50からオブジェクト71を抽出させるようにしてステップSP67(図14)へ移る。
【0171】
ステップSP67において情報処理装置50は、啓発対象ユーザにより所定の操作部(図示せず)を介して入力される啓発対象ユーザの氏名及び当該啓発対象ユーザの領域抽出手法に対する評価値となる技量のユーザ情報S55をユーザインターフェース回路65に取り込む。
【0172】
ここで啓発対象ユーザの技量の判定には、コンピュータ等により所定の画像生成プログラムに従って生成された領域抽出操作の試行用の動画像(以下、これを領域抽出試行用動画像と呼ぶ)を用いて啓発対象ユーザにより定期的に領域抽出操作が試行的に行われた結果がその都度利用されている。
【0173】
この場合、領域抽出試行用動画像は、時間的に連続して領域指定可能なオブジェクト(以下、これを領域抽出試行用オブジェクトと呼ぶ)を含む複数のフレーム画像(以下、これを試行用フレーム画像と呼ぶ)から構成されており、コンピュータ等によって実行された一般的な画像処理アプリケーションプログラムを利用した画像処理により領域抽出試行用オブジェクトの輪郭をほぼ正確に認識できるように生成されている。
【0174】
従って啓発対象ユーザの技量は、領域抽出試行用動画像を用いて上述した領域抽出処理ルーチンSRT51とほぼ同様に複数の試行用フレーム画像中の領域抽出試行用オブジェクトに対するオブジェクト指定領域の領域抽出操作が試行的に行われた場合、例えば画像処理によってオブジェクト指定領域の形状と、実際の領域抽出試行用オブジェクトの輪郭とを比較し、予め設定された精度(予め設定された閾値内の誤差量)でオブジェクト指定領域が抽出されるまでに要した時間(すなわちオブジェクト指定領域の抽出を試行的に行った領域指定試行処理に要した時間)の逆数を用いて定量的に判定されている。
【0175】
因みに啓発対象ユーザの技量は、比較的短い時間でオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が高いと判定することができ、この場合には領域指定試行処理に要した時間が短いことにより値が大きくなる。
【0176】
また啓発対象ユーザの技量は、比較的長い時間をかけてオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が低いと判定することができ、この場合には領域指定試行処理に要した時間が長いことにより値が小さくなる。
【0177】
そして情報処理装置50は、かかる啓発対象ユーザの技量を含むユーザ情報S55をユーザインターフェース回路65に取り込むと、当該ユーザインターフェース回路65により画像記録回路61からオブジェクト動画像データD51を読み出す。
【0178】
また情報処理装置50は、ユーザインターフェース回路65に上述した領域抽出処理ルーチンSRT51(すなわちオブジェクト抽出用動画像を用いた領域抽出処理)を実行している間、適宜表示内容を変化させて情報提示部55で表示した一連の領域抽出処理用画面を領域抽出処理に要した時間等の情報と共に領域抽出操作の経緯を表す領域抽出経緯画面データとして記録している。
【0179】
従って情報処理装置50は、図27に示すように、ユーザインターフェース回路65により、ユーザ情報S55に含まれる啓発対象ユーザの氏名及び技量と、オブジェクト抽出用動画像データD50と、領域抽出経緯画面データとからなる入力情報を入力情報データD65として処理傾向情報抽出部52(図13)に送出してステップSP68へ移る。
【0180】
ステップSP68において情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれるオブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ所定単位ブロックの周波数成分の和と当該所定単位ブロックの周波数成分のうち予め選定された特定周波数以上の周波数成分の和との比率を算出し、全ての領域抽出用フレーム画像データD51に対するこれら比率の平均値を高周波成分比率として算出する。
【0181】
また情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ輝度の最大値から最小値を減算し、この結果得られた全ての領域抽出用フレーム画像データD51に対する減算結果の平均値を輝度値ダイナミックレンジとして算出する。
【0182】
さらに情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれる領域抽出経緯画面データに対して所定の画像処理を施すことにより啓発対象ユーザにより作業フレーム画像70D中のオブジェクト71の輪郭が指定されたときの輪郭描線時間を検出し、その輪郭描線時間を、当該輪郭描線時間を除く領域抽出処理に要した時間(以下、これを描線除外処理時間と呼ぶ)で除算することにより得られる除算結果を描線及び描線除外処理時間比率として算出する。
【0183】
これに加えて情報処理装置50は、処理傾向情報抽出部52により、啓発対象ユーザによって作業フレーム画像70D中のオブジェクト71の輪郭が指定されて得られた入力輪郭形成点を用いて当該入力輪郭形成点を生成するための所定サンプリング間隔と隣接する入力輪郭形成点間の距離とにより順次隣接する入力輪郭形成点間の描線速度を算出し、各入力輪郭形成点間の描線速度の平均値をオブジェクト71の輪郭が指定されたときの平均描線速度として算出する。
【0184】
そして情報処理装置50は、図28に示すように処理傾向情報抽出部52により、高周波成分比率及び輝度値ダイナミックレンジをオブジェクト抽出用動画像70における絵柄の様子(複雑さや色調等がどのような動画像であるか)を表す画像特徴情報とすると共に、描線及び描線除外処理時間比率や平均描線速度を領域抽出操作の経緯を具体的に表す領域抽出経緯情報とし、これら画像特徴情報及び領域抽出経緯情報を啓発対象ユーザによりどのようなオブジェクト抽出用動画像70からどのようにオブジェクト指定領域が抽出されたかを表す処理傾向情報とする。
【0185】
これにより情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50及び領域抽出経緯画面データから抽出した処理傾向情報を処理傾向情報データD66とし、当該処理傾向情報データD66及び入力情報データD65同士を対応付けて蓄積情報データD67として情報蓄積部53に送出すると共に、その処理傾向情報データD66をそのまま提示情報選択部54に送出した後、続くステップSP69及びステップSP70へ移る。
【0186】
ステップSP69において情報処理装置50は、情報蓄積部53により、蓄積情報データD67を例えば入力情報データD65同士と処理傾向情報データD66同士とにまとめて記憶してステップSP71へ移る。
【0187】
またステップSP70において情報処理装置50は、ステップSP69の処理と並行して提示情報選択部54により、処理傾向情報データD66に含まれる画像特徴情報としての輝度値ダイナミックレンジ(以下、これを比較用基準輝度値ダイナミックレンジと呼ぶ)の値及び領域抽出経緯情報としての平均描線速度(以下、これを比較用基準平均描線速度と呼ぶ)の値と、情報蓄積部53においてステップSP69で記憶した啓発対象ユーザの蓄積情報データD67を除いたすでに蓄積している他の全ての過去蓄積情報データD67に処理傾向情報データD66として含まれる輝度値ダイナミックレンジ(以下、これを過去輝度値ダイナミックレンジと呼ぶ)及び平均描線速度(以下、これを過去平均描線速度と呼ぶ)の値とを比較する。
【0188】
これにより情報処理装置50は、図9について上述した場合と同様に提示情報選択部54により、過去蓄積情報データD67の中から、比較用基準輝度値ダイナミックレンジの値を中心とした所定のダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ比較用基準平均描線速度の値を中心とした所定の描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。
【0189】
次いで情報処理装置50は、提示情報選択部54により、比較用輝度値ダイナミックレンジの値及び比較用基準平均描線速度の値を用いて選択した過去蓄積情報データD67の中から、当該過去蓄積情報データD67に含まれる技量の情報同士を比較することにより、最も高い技量(すなわち最も高い評価値)を入力情報データD65の一部として含む過去蓄積情報データD67を選択する。
【0190】
このようにして情報処理装置50は、図29に示すように提示情報選択部54により、情報蓄積部53にすでに蓄積していた全ての過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法に対する処理傾向情報の比較用輝度値ダイナミックレンジ及び比較用平均描線速度を限定基準として用いて当該啓発対象ユーザの領域抽出手法に類似する領域抽出手法でオブジェクト指定領域の抽出を行ったユーザの過去蓄積情報データD67を選択した後(すなわち選択対象の過去蓄積情報データD67の数を限定した後)、当該選択した過去蓄積情報データD67の中からこれらに含まれる技量を選定基準として用いて技量の最も高いユーザの過去蓄積情報データD67を最終的に選択する。
【0191】
これにより情報処理装置50は、図30示すように提示情報選択部54により、情報蓄積部53から、最終的に選択した過去蓄積情報データD67に入力情報データD65として含まれる領域抽出経緯画面データ及び技量の情報を提示情報データD68として読み出すと共に、当該読み出した提示情報データD68を情報提示部55に送出してステップSP71へ移る。
【0192】
ステップSP71において情報処理装置50は、情報提示部55により提示情報データD68に基づく一連の領域抽出処理用画面及び技量の情報を啓発対象ユーザに提示した後、ステップSP72へ移って第2の啓発促進処理手順RT50を終了する。
【0193】
このようにして情報処理装置50は、啓発対象ユーザに類似する領域抽出手法(例えば啓発対象ユーザがオブジェクト指定領域の抽出に用いたオブジェクト抽出用動画像70の色調と類似する色調のオブジェクト抽出用動画像を用いて、オブジェクト指定領域の抽出処理で最も重要で、かつオブジェクト指定領域のもとになるオブジェクトの輪郭の指定の仕方が類似する)でオブジェクト指定領域を抽出した複数のユーザの中から、最も技量の高いユーザの領域抽出手法として一連の領域抽出処理用画面(処理の経緯やオブジェクト抽出用動画像を含む)を実際にユーザの行った領域抽出操作の時間経過に合わせて再生して提示する。
【0194】
これにより情報処理装置50は、啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所(例えば領域抽出操作で最も重要な、輪郭の指定の仕方や、生成伝播範囲及び修正伝播範囲の設定の仕方等)を啓発対象ユーザの領域抽出手法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの領域抽出手法に真似て改善させ得るようになされている。
【0195】
因みに第2の実施の形態の場合、情報処理装置50は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C51が入力されることによりこれを領域抽出部51のユーザインターフェース回路65に取り込むと、当該追加命令C51をユーザインターフェース回路65から処理傾向情報抽出部52を介して提示情報選択部54に送出する。
【0196】
そして情報処理装置50は、提示情報選択部54により情報蓄積部53から、最終的に選択した過去蓄積情報データD67に処理傾向情報データD66として含まれる画像特徴情報としての高周波成分比率と、領域抽出経緯情報としての描線及び描線除外処理時間比率の情報を読み出し、当該読み出した高周波成分比率と描線及び描線除外処理時間比率とを、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率と共に追加提示情報データD69として情報提示部55に送出する。
【0197】
これにより情報処理装置50は、情報提示部55により、追加提示情報データD69に基づく高周波成分比率と、描線及び描線除外処理時間比率との情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の領域抽出手法と、他のユーザの領域抽出手法との異なる箇所を一連の領域抽出処理用画面の提示のみならずに高周波成分比率や、描線及び描線除外処理時間比率の数値としての違いからも見つけさせることができるようになされている。
【0198】
すなわち情報処理装置50は、啓発対象ユーザに他のユーザがオブジェクト指定領域の抽出処理に用いたオブジェクト抽出用動画像の絵柄の様子(複雑さ)がどう異なるのかや、領域抽出操作においてオブジェクトの輪郭の指定をどのくらい重要視しているか等の違いを数値として判断させ得るようになされている。
【0199】
以上の構成において、情報処理装置50は、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせ、その領域抽出操作に応じた領域抽出処理中に適宜表示内容を変更して提示した一連の領域抽出処理用画面を領域抽出操作の経緯を表す領域抽出経緯画面データとし、当該領域抽出経緯画面データと、領域抽出処理に用いたオブジェクト抽出用動画像データD50と、啓発対象ユーザによって入力された領域抽出手法に対する技量の情報とを入力情報データD65とする。
【0200】
そして情報処理装置50は、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70及び領域抽出経緯画面データから啓発対象ユーザがどのような動画像からどのようにオブジェクト指定領域を抽出しているかを表す当該啓発対象ユーザの領域抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD66を入力情報データD65と共に蓄積情報データD67として情報蓄積部53に記憶する。
【0201】
このとき情報処理装置50は、啓発対象ユーザの処理傾向情報データD66と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD66とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択する。
【0202】
次いで情報処理装置50は、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択し、その選択した過去蓄積情報データD67に含まれる領域抽出経緯画面データ(すなわち領域抽出処理中に提示していた一連の領域抽出処理用画面)を提示情報として啓発対象ユーザに提示するようにした。
【0203】
従ってこの情報処理装置50は、上述した第1の実施の形態と同様に処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。
【0204】
また情報処理装置50は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C51が入力されると、これに応じて、最終的に選択した過去蓄積情報データD67に処理傾向情報として含まれる高周波成分比率と描線及び描線除外処理時間比率との情報を、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率との情報と共に追加提示情報として啓発対象ユーザに提示するようにした。
【0205】
従って情報処理装置50は、追加提示情報によっても啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促し、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所を、領域抽出処理中に提示していた一連の領域抽出処理用画面を目視させて見つけさせることに加えてオブジェクト抽出用動画像に対する高周波成分比率や、領域抽出処理中のオブジェクトの輪郭の指定の重要度を表す描線及び描線除外処理時間の数値としての違いとしても啓発対象ユーザに自分の領域抽出手法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。
【0206】
これに加えて情報処理装置50は、オブジェクト指定領域を抽出する領域抽出処理時、図16及び図17について上述した領域抽出処理ルーチンSRT51を実行し、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……のうちオブジェクト71の輪郭を実際に指定する1つの作業フレーム画像70Dを選択させると共に、オブジェクト指定領域の生成を伝播させる生成伝播範囲の複数の領域抽出用フレーム画像70B、70C、70E、70Fを選択させる。
【0207】
そして情報処理装置50は、作業フレーム画像70D中のオブジェクト71の輪郭がなぞられて指定されると、その結果得られた入力輪郭線に基づいて作業フレーム画像70Dに対するオブジェクト指定基準領域74を生成すると共に、当該オブジェクト指定基準領域74にかかる所定単位ブロックを生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fにおける移動位置に移動させて当該生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fに対するオブジェクト指定伝播領域77A乃至77Dを生成する。
【0208】
従って情報処理装置50は、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の輪郭をそれぞれ指定しなくても、いずれか1つの領域抽出用フレーム画像(作業フレーム画像)70D中のオブジェクト71の輪郭を指定するだけで、複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域を容易に抽出することができる。
【0209】
また情報処理装置50は、修正伝播範囲を設定したうえでいずれか1つの修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正が指示されると、その修正を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dから修正伝播範囲内の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるため、啓発対象ユーザに極力少ない操作で複数のオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dの抽出精度を容易に向上させることができる。
【0210】
以上の構成によれば、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせた際に表示した一連の領域抽出処理用画面と、そのオブジェクト抽出用動画像70と、当該啓発対象ユーザの技量の情報とからなる入力情報を当該一連の領域抽出処理用画面及びオブジェクト抽出用動画像70から抽出した、啓発対象ユーザの領域抽出手法に対する処理傾向情報と共に蓄積情報データD67として情報蓄積部53に記憶すると共に、当該啓発対象ユーザの領域抽出手法に対する処理傾向情報と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報とを比較して当該過去蓄積情報データD67の中から啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法をオブジェクト抽出用動画像及び一連の領域抽出処理用画面として含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの領域抽出手法に真似て改善させることができ、かくして処理対象となるオブジェクト抽出用動画像70からオブジェクト指定領域を抽出するという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
【0211】
なお上述した第2の実施の形態においては、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択し、当該選択した1又は複数の過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。
【0212】
このようにすれば、啓発対象ユーザに技量の異なる複数のユーザの領域抽出処理の経緯を提示情報として提示することができるため、上述した第2の実施の形態の場合よりも、啓発対象ユーザに自分の領域抽出手法における改善箇所を更に多く見つけさせることができる。
【0213】
また啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較して複数の過去蓄積情報データD67の中から最終的な過去蓄積情報データD67を選択することにより、上述した第2の実施の形態に比べて選択時の処理負荷を低減させることもできる。
【0214】
また上述した第2の実施の形態においては、啓発対象ユーザに他のユーザの領域抽出処理における一連の領域抽出処理用画面を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD67に啓発対象ユーザの過去の蓄積情報データD67が含まれており、当該啓発対象ユーザの過去の蓄積情報データD67を選択したときには、その蓄積情報データD67に含まれる過去の領域抽出処理における一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の領域抽出手法よりも過去の領域抽出手法の方が技量が高いと、現在の領域抽出手法における改善箇所を過去の技量の高かったときの領域抽出手法と比較させて容易に見つけさせることができる。
【0215】
さらに上述した第2の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD67を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD67を除いた他の過去蓄積情報データD67を用いるようしても良い。
【0216】
このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で領域抽出手法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD67をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。
【0217】
さらに上述した第2の実施の形態においては、図29について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図31に示すような種々の選択条件をいずれか1つ、又は図31に示す種々の選択情報と図29について上述した選択条件と合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。
【0218】
ここで、図31に示す種々の選択条件について詳述すると、情報処理装置50は、まず第1の選択条件を用いる場合、提示情報選択部54により、比較用基準輝度値ダイナミックレンジの値と、全ての過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67の中から当該過去蓄積情報データD67に含まれる技量の情報同士を比較して最も良い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0219】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から、技量の最も高い領域抽出手法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。
【0220】
また情報処理装置50は、第2の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる技量(以下、これを過去技量と呼ぶ)の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。
【0221】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67に含まれる過去平均描線速度の値と、比較用基準平均描線速度の値とを比較することにより、当該選択した過去蓄積情報データD67の中から描線速度閾値範囲外の値を示し、かつ比較用基準平均描線速度の値との違いが最大である過去平均描線速度の情報を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0222】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から、オブジェクトの輪郭の指定の仕方が最も異なる領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。
【0223】
さらに情報処理装置50は、第3の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる過去技量の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。
【0224】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0225】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所をある程度偶然性に期待して啓発させることができる。
【0226】
さらに情報処理装置50は、第4の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ及び比較用基準平均描線速度の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ及び過去平均描線速度の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。
【0227】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も低い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0228】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から技量の最も低い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した領域抽出手法の提示により啓発対象ユーザに反面教師的に自分の領域抽出手法の良い箇所を再確認させることもできる。
【0229】
さらに情報処理装置50は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD66に当該啓発対象ユーザの技量(以下、これを比較用基準技量と呼ぶ)の情報を格納しておき、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報と、描線速度閾値範囲内の値を示す過去平均描線速度と、比較用基準技量の値を中心とした所定の技量閾値範囲内の値を示す過去技量とを共に含む過去蓄積情報データD67を選択する。
【0230】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も高い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0231】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつ実力(すなわち技量)もほとんど同じ複数の領域抽出手法のうちで最も技量の高い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、提示した領域抽出手法と啓発対象ユーザの領域抽出手法との違いがわずかであるため、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を容易に啓発させることができる。
【0232】
さらに情報処理装置50は、第6の選択条件を用いる場合、提示情報選択部54により、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を選択して当該選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0233】
この場合、情報処理装置50は、無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を全面的に偶然性に期待して啓発させることができる。
【0234】
因みに情報処理装置50では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD66に技量の情報を格納しておかなくても、提示情報選択部54により、情報蓄積部53に蓄積している全ての蓄積情報データD67(啓発対象ユーザの蓄積情報データD67を含む)に含まれている技量の情報を用いることで最終的な蓄積情報データD67の選択を実現することもできる。
【0235】
また上述した各選択条件において技量の情報を用いるときには、技量の最小及び最大や、所定の閾値以上の技量等の規定にしなくても、所定の閾値以下の技量や、啓発対象ユーザの技量よりも高い又は低い技量、啓発対象ユーザの技量から所定の閾値以上離れた値の技量、啓発対象ユーザの技量から所定の第1の閾値以上離れ、かつ第2の閾値以下の技量、さらには啓発対象ユーザの技量とほぼ同じ(類似する)技量等の条件でも過去蓄積情報データD67を選択することができる。
【0236】
さらに蓄積情報データD67の選択に用いる選択条件としては、図29について上述した選択条件及び図31について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、生成伝播範囲及び又は修正伝播範囲腰、修正箇所の指定の様子を用いる選択条件等のように、さらにこの他にも種々の選択条件を用いることができる。
【0237】
これに加えて情報処理装置50では、図29及び図31について上述した選択条件において限定基準の比較用基準輝度値ダイナミックレンジや比較用基準平均描線速度、比較用基準技量をそれぞれ個別に用いるようにしたが、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。
【0238】
また情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。
【0239】
さらに情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を中心とした所定のダイナミックレンジ閾値範囲、描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の少なくとも2つ以上とを比較して過去蓄積情報データD67を限定するようにしても良い。
【0240】
同様に情報処理装置50では、図29及び図31について上述した選択条件において選定基準の平均描線速度及び技量もそれぞれ個別に用いるようにしたが、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
【0241】
また情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
【0242】
さらに情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を中心とした所定の描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
【0243】
さらに上述した第2の実施の形態においては、情報蓄積部53に入力情報データD65及び処理傾向情報データD66からなる蓄積情報データD67を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD65を蓄積情報データとして情報蓄積部53に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD65及び蓄積情報データ(すなわち入力情報データD65)から処理傾向情報を抽出すれば良い。また啓発対象ユーザと他のユーザとがそれぞれ同じオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する場合には、入力情報データDとして領域指定経緯画面データ及び技量の情報を利用すれば良い。
【0244】
さらに上述した第2の実施の形態においては、領域指定処理を行う際に図16乃至図17について上述した領域抽出処理ルーチンSRT51で説明した種々の抽出処理用命令C50を入力し得るようにした場合について述べたが、本発明はこれに限らず、これら各種抽出処理用命令C50の他に一つ前の処理に戻る、いわゆるアンドゥ(undo)等のように、他の種々の命令も抽出処理用命令として入力し得るようにしても良い。
【0245】
さらに上述した第2の実施の形態においては、啓発対象ユーザに対して、選択した領域抽出手法としての一連の領域抽出処理用画面を実際に行われた領域抽出操作の時間経過に合わせて再生して提示するようにした場合について述べたが、本発明はこれに限らず、一連の領域指定処理用画面に対する時間的な表示順序を表す情報を予め記録しておき、啓発対象ユーザに切換要求に応じて個々の領域抽出処理用画面を順次切り換えて提示するようにしても良い。
【0246】
(3)第3の実施の形態
図32において、100は全体として第3の実施の形態による情報処理装置を示し、複数のユーザに、所定の画像生成プログラムに従ってオブジェクトに対する輪郭抽出操作の試行用に生成された動画像(以下、これを輪郭抽出試行用動画像と呼ぶ)中のオブジェクト(以下、これを特に試行用オブジェクトと呼ぶ)の輪郭に対して輪郭抽出操作を試行させ、その結果得られた試行結果を蓄積する。
【0247】
また、情報処理装置100は、実際にユーザによって行われる輪郭抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトの輪郭を抽出する輪郭抽出処理を行う場合、当該輪郭抽出処理の間、ユーザによって入力される各種命令に応じて適宜表示内容を変更して表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯(すなわちオブジェクト輪郭用動画像からオブジェクトの輪郭を抽出するユーザの輪郭抽出手法)を表す輪郭抽出経緯画面データとして蓄積する。
【0248】
そして情報処理装置100は、個々のユーザによって輪郭抽出操作が行われる際、その輪郭抽出操作に先立って、他のユーザによりすでに行われた輪郭抽出操作で蓄積している輪郭抽出経緯画面データのうち試行結果に応じて、その時点で輪郭抽出操作を行うユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の輪郭抽出手法を向上させるために手助けになると思われる輪郭抽出経緯画面データを選択して提示することにより、啓発対象ユーザに対して自分の輪郭抽出手法の向上を促すようになされている。
【0249】
実際上、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105から構成されている。
【0250】
また輪郭生成部101は、図33に示すように、動画像入力回路110、動画像記録回路111、ユーザインターフェース回路112、変換回路113、輪郭線推測生成回路114、輪郭線記録回路115、輪郭線出力回路116及び技量判定回路117から構成されている。
【0251】
そして情報処理装置100は、先ず個々のユーザがオブジェクト抽出用動画像中の抽出対象のオブジェクトの輪郭をどの程度正確に指定するかを示す技量(この技量は輪郭抽出手法の評価値となる)と、当該輪郭を指定する際にどのような傾向を有しているかとを予め推測するために抽出対象のオブジェクトとは異なる輪郭抽出試行用動画像中の試行用オブジェクトの輪郭に対して試行的に輪郭抽出操作(以下、これを特に輪郭抽出試行操作と呼ぶ)を行わせ、その輪郭抽出試行操作に応じた輪郭抽出試行処理を実行する。
【0252】
ここで情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出試行処理を実行するための各種処理を所定の輪郭抽出試行プログラムに従ってソフトウェア的に実現する。
【0253】
すなわち情報処理装置100は、図34に示すように、輪郭抽出試行プログラムに従って輪郭抽出試行処理手順RT100の開始ステップから入り、続くステップSP101へ移って試行モードへ移行する。
【0254】
ステップSP101において情報処理装置100は、輪郭生成部101のユーザインターフェース回路112により、所定の操作部(図示せず)を介して入力されたユーザ名及びユーザIDからなるユーザ情報S100を取得し、次の技量判定処理ルーチンSRT200へ移る。
【0255】
この際、情報処理装置100は、図35に示すように、技量判定処理ルーチンSRT200の開始ステップから入ってステップSP201へ移る。
【0256】
ステップSP201において情報処理装置100は、外部から供給された輪郭抽出試行用動画像データD100を輪郭生成部101の動画像入力回路110に取り込み、当該輪郭抽出試行用動画像データD100を構成するフレーム画像データ(以下、これを試行用フレーム画像データと呼ぶ)D100A単位で動画像記録回路111に記録する。
【0257】
ここで輪郭抽出試行用動画像データD100に基づく輪郭抽出試行用動画像120は、図36に示すように、時間的に連続して試行用オブジェクトTJ1乃至TJ7を含む複数の試行用フレーム画像TF1乃至TF7(試行用フレーム画像データD100Aに相当)から構成されており、当該試行用オブジェクトTJ1乃至TJ7が時間の経過に従ってその形状を次第に変化させながら移動し、一般的な画像処理アプリケーションプログラムを利用した画像処理の実行によって、試行用オブジェクトTJ1乃至TJ7の輪郭を示す輪郭線(以下、これを計測基準輪郭線と呼ぶ)ROL1乃至ROL7を正確に認識させ得るように生成されている。
【0258】
そして情報処理装置100は、ユーザインターフェース回路112から輪郭抽出試行処理用画面データD101を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタ(図示せず)に輪郭抽出試行処理用画面データD101に基づいて、輪郭抽出試行用動画像120の画像表示領域等を有する輪郭抽出試行処理用画面(図示せず)を表示する。
【0259】
また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に試行用先頭フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用先頭フレーム画像データD100Aを選択して読み出し、当該試行用先頭フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105(図32)に送出する。
【0260】
これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用先頭フレーム画像データD100Aに基づく試行用先頭フレーム画像TF1を表示し、かくして試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の形状をユーザに目視させる。
【0261】
この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行先頭入力輪郭線と呼ぶ)に相当する試行先頭入力輪郭線信号S101をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
【0262】
情報処理装置100は、変換回路113により、試行先頭入力輪郭線信号S101を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行先頭入力輪郭線信号S101に相当する複数の試行先頭入力輪郭形成点を生成し、当該生成した複数の試行先頭入力輪郭形成点の集合データを試行先頭入力輪郭形成点群データD102として輪郭線推測生成回路114に送出して次のステップSP202へ移る。
【0263】
ステップSP202において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の試行用フレーム画像データ(以下、これを特に試行用最後尾フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用最後尾フレーム画像データD100Aを選択して読み出し、当該試行用最後尾フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用最後尾フレーム画像データD100Aに基づく試行用最後尾フレーム画像TF7を表示し、かくして当該試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の形状をユーザに目視させる。
【0264】
この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の輪郭がなぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行最後尾入力輪郭線と呼ぶ)に相当する試行最後尾入力輪郭線信号S102をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
【0265】
そして情報処理装置100は、変換回路113により、試行最後尾入力輪郭線信号S102を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行最後尾入力輪郭線信号S102に相当する複数の試行最後尾入力輪郭形成点を生成し、当該生成した複数の試行最後尾入力輪郭形成点の集合データを試行最後尾入力輪郭形成点群データD103として輪郭線推測生成回路114に送出して次の推測輪郭線生成処理ルーチンSRT300へ移る。
【0266】
情報処理装置100は、図37に示すように、推測輪郭線生成処理ルーチンSRT300の開始ステップから入って次のステップSP301に移る。
【0267】
ここで試行用オブジェクトTJ1乃至TJ7は、時間的に連続する試行用フレーム画像TF1乃至TF7中にその形状を次第に変化させながら移動していることから(図36)、図38に示すように試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLを同一フレーム画像上で示した場合、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnIT24との各位置はそれぞれ異なる。
【0268】
また試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLにおいては、試行先頭入力輪郭形成点StTP1乃至StTP20及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24を生成する際のサンプリング間隔が同じであるのに、試行用オブジェクトTJ1及びTJ7をユーザがそれぞれマウス等を介してなぞるときの描線速度や、試行用オブジェクトTJ1及びTJ7の輪郭の大きさ及び形状が異なることから、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との総数がそれぞれ異なるものとなる。
【0269】
従ってステップSP301において情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103に基づいて、試行先頭入力輪郭線StTLを構成する試行先頭入力輪郭形成点StTP1乃至StTP20の総数(以下、これを試行先頭形成点数と呼ぶ)と、試行最後尾入力輪郭線EnTLを構成する試行最後尾入力輪郭形成点EnTP1乃至EnTP24の総数(以下、これを試行最後尾形成点数と呼ぶ)とを比較する。
【0270】
この結果、情報処理装置100は、輪郭線推測生成回路114により、比較した試行先頭形成点数及び試行最後尾形成点数同士のうち数が少ない試行先頭形成点数の試行先頭入力輪郭形成点StTP1乃至StTP20で構成される試行先頭入力輪郭線StTLにおいて、互いに隣接する各試行先頭入力輪郭形成点StTP1乃至StTP20間の距離から当該試行先頭入力輪郭線StTLの全長を算出する。
【0271】
そして情報処理装置100は、輪郭線推測生成回路114により、その算出した全長を数の多い試行最後尾形成点数で除算することにより、試行先頭入力輪郭線StTL上でこれを構成する新たな輪郭形成点(以下、これを新規輪郭形成点と呼ぶ)を生成するための生成間隔を求める。
【0272】
これにより情報処理装置100は、図39に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL上で生成間隔NK毎に順次新規輪郭形成点NSTP1乃至NSTP24を生成し、試行先頭入力輪郭線StTLを構成する新規輪郭形成点NSTP1乃至NSTP24の総数を試行最後尾形成点数に合わせてステップSP302へ移る。
【0273】
ステップSP302において情報処理装置100は、輪郭線推測生成回路114により、図40(A)に示すように、試行先頭入力輪郭線StTLの重心StTC(座標値)と試行最後尾入力輪郭線EnTLの重心EnTCとを算出し、図40(B)に示すように、例えば試行先頭入力輪郭線StTLを、互いの重心StTC及びEnTC間の重心移動距離Lだけ一方の重心StTCから他方の重心EnTCの方向へ移動させることにより互いの重心StTC及びEnTC同士を一致させて試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLとを重ね合わせる。
【0274】
この状態で情報処理装置100は、図41に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTLを構成している複数の新規輪郭形成点NSTP1乃至NSTP24のうち任意の新規輪郭形成点NSTP1を選択した後、当該選択した新規輪郭形成点NSTP1から最短距離にある試行最後尾入力輪郭形成点EnTP1を探索し、これら最短距離の関係にある新規輪郭形成点NSTP1と試行最後尾入力輪郭形成点EnTP1との間の輪郭線間距離Da1を算出する。
【0275】
このようにして情報処理装置100は、輪郭線推測生成回路114により、残りの新規輪郭形成点NSTP2乃至NSTP24に対してもそれぞれ最短距離にある試行最後尾入力輪郭形成点EnTP2乃至EnTP24を探索して同様に輪郭線間距離Da2乃至Da24 を算出した後、最も短い輪郭線間距離(ここでは輪郭線間距離Da1)の関係にある試行最後尾入力輪郭形成点EnTP1と新規輪郭形成点NSTP1とを起点ペアSPP1と決定して次のステップSP303へ移る。
【0276】
ステップSP303において情報処理装置100は、輪郭線推測生成回路114により、図42(A)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて例えば矢印ArwS1に示す反時計回り方向(以下、これを基準方向と呼ぶ)の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwO1に示す反時計回り方向(以下、これを順回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP2乃至EnTP24をそれぞれ順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP2間、新規輪郭形成点NSTP3及び試行最後尾入力輪郭形成点StTP3間、……の距離をそれぞれ順回りペア間距離ODa2乃至ODa24 として算出する。
【0277】
また情報処理装置100は、輪郭線推測生成回路114により、図42(B)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて基準方向の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwR1に示す時計回り方向(以下、これを逆回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP24乃至EnTP2を順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP24間、新規輪郭形成点NSTP3及び試行先頭入力輪郭形成点StTP23間、……の距離をそれぞれ逆回りペア間距離RDa2乃至RDa24 として算出する。
【0278】
そして情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 の総和と逆回りペア間距離RDa2乃至RDa24 の総和とを算出し、当該算出した総和同士を比較する。
【0279】
ここで新規輪郭形成点NSTP1乃至NSTP24と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との対応付けについて考えると、新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24にほぼ正しく対応付けられれば、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24間の順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的小さくなる。
【0280】
これに対して新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24に正しく対応付けられずに異なる他の試行最後尾輪郭形成点EnTP1乃至EnTP24に対応付けられると、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24の位置関係が本来のものとは異なることにより順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的大きくなる。
【0281】
従って情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和のうち当該総和が小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を、各新規輪郭形成点NSTP2乃至NSTP24と、これらが移動した先の試行最後尾入力輪郭形成点EnTP2乃至EnTP24とのほぼ正しい対応付けであると推測して選択し、次のステップSP304へ移る。
【0282】
ステップSP304において情報処理装置100は、輪郭線推測生成回路114により、図43に示すように輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1と試行用最後尾フレーム画像TF7とを除いた試行用フレーム画像(以下、これを特に試行用中間フレーム画像と呼ぶ)TF2乃至TF6の総数で順回りペア間距離ODa2、ODa3、……をそれぞれ除算することにより順番に対応付けた新規輪郭形成点NSTP2乃至NSTP24及び試行最後尾入力輪郭形成点EnTP2乃至EnTP24同士を結ぶ対応付け点間仮想線上で点形成間隔DDa2、DDa3、DDa4、……を求める。
【0283】
そして情報処理装置100は、輪郭線推測生成回路114により、各対応付け点間仮想線上でそれぞれ点形成間隔DDa2、DDa3、DDa4、……毎に試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa2乃至IPe2、IPa3乃至IPe3、IPa4乃至IPe4、……を生成する。
【0284】
また情報処理装置100は、起点ペアSPP1に対しても、新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1間の起点ペア間距離ODa1を試行用中間フレーム画像TF2乃至TF6の総数によって除算することにより新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1同士を結ぶ起点間仮想線上で点形成間隔DDa1を求め、当該起点間仮想線上で試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa1乃至IPe1を生成し、次のステップSP305へ移る。
【0285】
ステップSP305において情報処理装置100は、輪郭線推測生成回路114により、起点間仮想線及び対応付け点間仮想線上の試行推測輪郭形成点IPa1乃至IPe1、IPa2乃至IPe2、……のうち新規輪郭形成点NSTP1乃至NSTP24から同一の順番にある試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、IPc1乃至IPc24 、IPd1乃至IPd24 及びIPe1乃至IPe24 間をそれぞれ補間することにより各試行用中間フレーム画像TF2乃至TF6に対する試行推測輪郭線ITLA1乃至ITLA5を生成する。
【0286】
そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5の重心(座標値)を算出する。
【0287】
ここで試行先頭入力輪郭線StTLの重心StTCは、試行用先頭フレーム画像TF1から試行用最後尾フレーム画像TF7までの間に重心移動距離L1(図40(A))だけ移動し、試行用最後尾フレーム画像TF7において試行最後尾入力輪郭線EnTLの重心EnTCの位置(座標値)に到達したと推測される。
【0288】
従って情報処理装置100は、図44に示すように、輪郭線推測生成回路114により、重心移動距離L1を試行用中間フレーム画像F2乃至F6の総数で除算することにより、試行先頭入力輪郭線StTLの重心StTC及び試行最後尾入力輪郭線EnTLの重心EnTC同士を結ぶ重心間仮想線上で当該試行先頭入力輪郭線StTLの重心StTCに対する試行用中間フレーム画像F2乃至F6での移動位置(すなわち重心間隔TK毎の位置であり、以下、これを推測重心位置と呼ぶ)TO1乃至TO5(座標値)を算出する。
【0289】
そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5をその順番を維持した状態で試行先頭入力輪郭線StTLの重心StTCから試行最後尾入力輪郭線EnTLの重心EnTCの方向へ移動させ、これら各試行推測輪郭線ITLA1乃至ITLA5の各重心をそれぞれ重心間仮想線上の推測重心位置TO1乃至TO5に順番に一致(すなわち試行推測輪郭線ITLA1の重心は重心推測位置TO1に一致)させることにより、これら各試行推測輪郭線ITLA1乃至ITLA5をそれぞれ試行用中間フレーム画像TF2乃至TF6に対応付ける。
【0290】
これに加えて情報処理装置100は、輪郭線推測生成回路114により、試行推測輪郭線ITLA1乃至ITLA5を構成する複数の試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、……、IPe1乃至IPe24 (対応する試行用中間フレーム画像TF2乃至TF6中の座標で表す)の集合データでなる試行推測輪郭形成点群データを、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103と共に、試行用オブジェクト輪郭抽出データD104として輪郭線記録回路115に送出して記録した後、推測輪郭線生成処理ルーチンSRT300を終了して技量判定処理ルーチンRT200のステップSP203(図35)へ移る。
【0291】
このようにして情報処理装置100は、輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7の輪郭がなぞられて指定されることにより得られた試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLから、各試行用中間フレーム画像TF2乃至TF6中のオブジェクトTJ2乃至TJ6の輪郭を抽出するための試行推測輪郭線TLA1乃至TLA5を推測して生成し得るようになされている。
【0292】
ところで試行先頭入力輪郭形成点(新規輪郭形成点NSTP1乃至NSTP24)及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24は、試行用オブジェクトTJ7をユーザがなぞった方向に沿って順番に生成される。
【0293】
このため新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24において、これらを単にその生成の順番に従って対応付けると、試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの描画が互いに逆向き(すなわち試行用オブジェクトTJ1とTJ7とをなぞった方向が逆向き)の場合、これら試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの間の試行推測輪郭線TLA1乃至TLA5が一度反転するように(すなわち裏返しになるように)生成させる。
【0294】
しかしながら情報処理装置100では、上述したように順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和の小さい一方の対応付けを選択することにより、試行用オブジェクトTJ1及びTJ7のなぞられる方向にかかわらずに各新規輪郭形成点NSTP2乃至NSTP24と試行最後尾輪郭形成点EnTP1乃至EnTP24とをほぼ正しく対応付けて試行推測輪郭線ITLA1乃至ITLA5が反転することを防止して対応付けることができる。
【0295】
ステップSP203において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から試行用オブジェクト輪郭抽出データD104を読み出すと共に、動画像記録回路111から全ての試行用フレーム画像データD100Aを読み出し、当該試行用フレーム画像データD100Aを試行用オブジェクト輪郭抽出データD104と合成することにより試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。
【0296】
これにより情報処理装置100は、図45に示すように、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLと試行推測輪郭線TLA1乃至TLA5とを重ねて表示してユーザに目視させる。
【0297】
また情報処理装置100は、技量判定回路117により、輪郭抽出試行処理用画面データD101に基づいて試行先頭入力輪郭線StTL、試行推測輪郭線TLA1乃至TLA5及び試行最後尾入力輪郭線EnTLとそれぞれ対応する試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の計測基準輪郭線ROL1乃至ROL7との平均誤差量を算出し、次のステップSP204へ移る。
【0298】
ここで例えば計測基準輪郭線ROL1と試行先頭入力輪郭線StTLとの平均誤差量とは、当該計測基準輪郭線ROL1の各箇所と試行先頭入力輪郭線StTLの対応する各箇所との誤差を平均化した数値であり、試行先頭入力輪郭線StTLがその一周に渡り計測基準輪郭線ROL1に対して平均的にどの程度ずれているかを表すものである。
【0299】
ステップSP204において情報処理装置100は、技量判定回路117により、試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7の全てにおいて平均誤差量が所定の閾値以下に達したか否かを判断する。
【0300】
このステップSP204において否定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7のうち少なくともいずれか一つにおいて平均誤差量が所定の閾値以下に達していないことを表しており、このとき情報処理装置100は、続くステップSP205へ移る。
【0301】
ステップSP205において情報処理装置100は、技量判定回路117により、入力輪郭要求データD105を生成し、これをユーザインターフェース回路112へ送出する。
【0302】
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出試行操作中のユーザに輪郭抽出試行処理用画面を介して、複数の試行用中間フレーム画像TF2乃至TF6のうち任意の試行用中間フレーム画像TF2乃至TF6で試行用オブジェクトTJ2乃至TJ6の輪郭を指定するように要求する。
【0303】
そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111から試行用中間フレーム画像データD100Aを読み出し、これを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面の画像表示領域に試行用中間フレーム画像データD100Aに基づく試行用中間フレーム画像TF2乃至TF6を表示してユーザに目視させる。
【0304】
この状態で情報処理装置100は、ユーザにより操作部を介して各試行用中間フレーム画像TF2乃至TF6のうち輪郭指定用に任意に選択された1枚の試行用中間フレーム画像TF2、……、又はTF6中の試行用オブジェクトTJ2、……、又はTJ6をなぞらせて指定させる。
【0305】
この結果、情報処理装置100は、ユーザにより選択された試行用中間フレーム画像TF4中の試行用オブジェクトTJ4が任意になぞられて指定されることにより追加の入力輪郭線(以下、これを試行追加入力輪郭線と呼ぶ)に相当する試行追加入力輪郭線信号S103が入力されると、これをユーザインターフェース回路112に取り込んで推測輪郭線生成処理ルーチンSRT300へ戻る。
【0306】
この場合、情報処理装置100は、試行用中間フレーム画像TF4中の試行用オブジェクトTJ4がなぞられて指定されると、この結果得られた追加入力輪郭線信号S103を変換回路113により所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより当該追加入力輪郭線信号S103に相当する複数の追加入力輪郭形成点を生成し、当該生成した複数の追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD106として輪郭線推測生成回路114へ送出する。
【0307】
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からこれに記録している試行用オブジェクト輪郭抽出データD104を読み出し、試行追加入力輪郭線と当該試行用オブジェクト輪郭抽出データD104に含まれる試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLとを用いて上述した推測輪郭線生成処理を行う。
【0308】
これにより情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL及び試行追加入力輪郭線から試行用先頭フレーム画像TF1及び試行用中間フレーム画像TF4間の試行用中間フレーム画像TF2及びTF3中のオブジェクトTJ2及びTJ3の輪郭を抽出するための試行推測輪郭線TLB1及びTLB2を新たに推測して生成する。
【0309】
また情報処理装置100は、輪郭線推測生成回路114により、試行追加入力輪郭線及び試行最後尾入力輪郭線EnTLから試行用中間フレーム画像TF4及び試行用最後尾フレーム画像TF7間の試行用中間フレーム画像TF5及びTF6中のオブジェクトTJ5及びTJ6の輪郭を抽出するための試行推測輪郭線TLB4及びTLB5を新たに推測して生成する。
【0310】
このようにして情報処理装置100は、ステップSP204において肯定結果が得られるまでの間は、新たに試行用中間フレーム画像TF2乃至TF6を選択させてオブジェクトTJ2乃至TJ6の輪郭を指定させることにより試行追加入力輪郭線を得ると共に、当該試行追加入力輪郭線と、その前後の入力輪郭線(試行先頭入力輪郭線StTL、試行最後尾入力輪郭線EnTL又は他の試行追加入力輪郭線)とから新たな試行推測輪郭線を推測し直して生成することにより平均誤差量を小さくし、かくして生成した新たな試行用オブジェクト輪郭抽出データD104を輪郭線記録回路115に記録して更新する。
【0311】
この際、情報処理装置100は、新たな試行推測輪郭線を生成する毎にユーザインターフェース回路112により、輪郭線記録回路115から新たな試行用オブジェクト輪郭抽出データD104を読み出し、当該新たな試行用オブジェクト輪郭抽出データD104と試行用フレーム画像データD100Aとを合成して試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。
【0312】
これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと、試行最後尾入力輪郭線EnTLと、新たに生成した試行推測輪郭線とを重ねて表示してユーザに目視させる。
【0313】
これに対してステップSP204において肯定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7(すなわち全ての試行用フレーム画像TF1乃至TF7)においてそれぞれ平均誤差量が所定の閾値以下に達していることを表しており、このとき情報処理装置100は、次のステップSP206へ移る。
【0314】
ステップSP206において情報処理装置100は、技量判定回路117により、試行用先頭フレームTF1、試行用中間フレームTF2乃至TF6及び試行用最後尾フレームTF7においてそれぞれ平均誤差量が閾値以下になるまでに試行用オブジェクトTJ1乃至TJ7の輪郭がなぞられて指定された試行用フレーム画像(以下、これを入力フレーム画像と呼ぶ)の総数と、予め設定された所定のフレーム画像基準数とを比較する。
【0315】
ここで輪郭抽出試行操作の技量が低いユーザは、平均誤差量が所定の閾値以下に達するまでに何度も試行用先頭フレームTF1、試行用中間フレームTF2乃至TF6及び試行用最後尾フレームTF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定するように要求されることから、入力フレーム画像の総数が多くなる傾向にある。
【0316】
一方、輪郭抽出試行操作の技量が高いユーザは、何度も試行用先頭フレームTF1、試行用中間フレームTF2乃至TF6及び試行用最後尾フレームTF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定しなくても平均誤差量が所定の閾値以下に達することから、入力フレーム画像の総数が少なくなる傾向にある。
【0317】
従って情報処理装置100は、入力フレーム画像の総数がフレーム画像基準数よりも少ない場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が高いと判定し、これに対して入力フレーム画像の総数がフレーム画像基準数よりも多い場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が低いと判定した後、その判定結果を入力フレーム画像の総数と共に技量データD107としてユーザインターフェース回路112に送出して技量判定処理ルーチンSRT200を終了し、続くステップSP102(図34)に移る。
【0318】
ステップSP102において情報処理装置100は、ユーザインターフェース回路112により、技量判定処理の間、適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面をその技量判定処理(すなわちユーザによる輪郭抽出試行操作)に要した時間(以下、これを作業時間と呼ぶ)等の情報を共に、輪郭抽出経緯画面データ(以下、これを特に輪郭抽出試行経緯画面データと呼ぶ)とし、図46に示すように、その輪郭抽出試行経緯画面データと、技量データD107と、輪郭抽出試行用動画像データD100と、ユーザ情報S100とからなる入力情報を入力情報データD108として処理傾向情報抽出部102に送出して次のステップSP103へ移る。
【0319】
ステップSP103において情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行用動画像データD100に所定の画像処理を施すことにより、当該輪郭抽出試行用動画像データD100から試行用フレーム画像データD100A個別の又は全ての試行用フレーム画像データD100Aにおける平均的な色成分ヒストグラム及びエッジ成分比率とからなる画像特徴情報を抽出する。
【0320】
また情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行経緯画面データに対して所定の画像処理を施すことにより、輪郭抽出試行操作に要した作業時間と、入力フレーム画像中の試行用オブジェクトTJ1乃至TJ7の輪郭が指定されたときの輪郭描線時間と、試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7を一度指定した後に、改めて入力フレーム画像中の試行用オブジェクトの指定を行った回数(以下、これを訂正回数と呼ぶ)と、入力フレーム画像を決定するために前後の試行用フレーム画像TF1乃至TF7をモニタに何回表示したかを表す表示回数とを輪郭抽出経緯情報として抽出する。
【0321】
このようにして情報処理装置100は、処理傾向情報抽出部102により、図47に示すように、入力情報から抽出した画像特徴情報と輪郭抽出経緯情報とをユーザによりどのような輪郭抽出試行用動画像120からどのように試行用オブジェクトTJ1乃至TJ7の輪郭が抽出されたかを示す処理傾向情報とする。
【0322】
そして情報処理装置100は、処理傾向情報抽出部102により、入力情報から抽出した処理傾向情報を処理傾向情報データとし、当該処理傾向情報データ及び入力情報データD108を対応付けて、これを蓄積情報データD109として情報蓄積部103に送出した後、次のステップSP104へ移る。
【0323】
これによりステップSP104において情報処理装置100は、情報蓄積部103により、図48に示すように、複数のユーザの蓄積情報データD109をこれに入力情報の技量データD107として含まれる入力フレーム画像の総数が少ない順に並べて、フレーム画像基準数Bor1を基に技量の高いユーザの蓄積情報データD109と、技量の低いユーザの蓄積情報データD109とを区分した状態で記憶してデータベース化し、続くステップSP105へ移って輪郭抽出試行処理手順RT100を終了する。
【0324】
このようにして情報処理装置100は、実際に抽出対象のオブジェクトを含むオブジェクト抽出用動画像に対して輪郭抽出操作が行われる前に輪郭抽出試行操作の結果を基にユーザの輪郭抽出操作に対する技量や輪郭抽出傾向(すなわち処理傾向情報で表される傾向)を推測し、これを蓄積情報データD109として情報蓄積部103に記憶する。
【0325】
因みに情報処理装置100では、一度輪郭抽出試行操作を行ったユーザであっても所定期間以上、抽出対象のオブジェクトに対して輪郭抽出操作を行わなければ、再度輪郭抽出試行操作を行なわせてユーザの輪郭抽出操作に対する技量及び輪郭抽出傾向の推測結果を更新し、これによりユーザの技量を常時適確に把握し得るようになされている。
【0326】
次いで情報処理装置100は、輪郭抽出試行操作を行った啓発対象ユーザによりオブジェクト抽出用動画像に対して輪郭抽出操作が行われる際、当該啓発対象ユーザに他のユーザが輪郭抽出操作を行ったときの一連の輪郭抽出処理用画面を提示する。
【0327】
この場合、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において情報提示処理を実行するための各種処理を所定の情報提示プログラムに従ってソフトウェア的に実現する。
【0328】
すなわち情報処理装置100は、図49に示すように、情報提示処理プログラムに従って情報提示処理手順RT101の開始ステップから入り、続くステップSP110へ移って情報提示モードへ移行する。
【0329】
ステップSP110において情報処理装置100は、外部から供給されたオブジェクト抽出用動画像データD200を輪郭生成部101の動画像入力回路110に取り込み、当該オブジェクト抽出用動画像データD200を構成するフレーム画像データ(以下、これを輪郭抽出用フレーム画像データと呼ぶ)D200A単位で動画像記録回路111に記録する。
【0330】
ここでオブジェクト抽出用動画像データD200に基づくオブジェクト抽出用動画像200は、図50に示すように、時間的に連続して抽出対象のオブジェクトOJ1乃至OJnを含む複数の輪郭抽出用フレーム画像OF1乃至OFnから構成されており、当該輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnが時間の経過に従ってその形状を次第に変化させながら移動する。
【0331】
そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aを順次読み出して情報提示部105に送出することにより当該情報提示部105に設けられたモニタに時間的に連続する輪郭抽出用フレーム画像OF1乃至OFnでなるオブジェクト抽出用動画像200を表示して啓発対象ユーザに目視させることにより当該オブジェクト抽出用動画像200の内容及び抽出対象のオブジェクトOJ1乃至OJnの輪郭を確認させて、続くステップSP111へ移る。
【0332】
ステップSP111において情報処理装置100は、啓発対象ユーザにより操作部(図示せず)を介して入力されたユーザ名及びユーザIDとからなるユーザ情報S100を輪郭生成部101のユーザインターフェース回路112に取り込み、これを処理傾向情報抽出部102を介して提示情報選択部104に送出して続くステップSP112へ移る。
【0333】
ステップSP112において情報処理装置100は、提示情報選択部104により、情報蓄積部103からユーザ情報S100(ユーザ名及びユーザID)に基づいて啓発対象ユーザの蓄積情報データD109を読み出し、次のステップSP113へ移る。
【0334】
ステップSP113において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に処理傾向情報データとして含まれる輪郭抽出経緯情報(以下、これを比較用基準抽出経緯情報と呼ぶ)と、情報蓄積部103に記憶した啓発対象ユーザの蓄積情報データD109を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これを過去蓄積情報データと呼ぶ)D109に処理傾向情報データ(以下、これを過去処理傾向情報データと呼ぶ)として含まれる輪郭抽出経緯情報(以下、これを過去抽出経緯情報と呼ぶ)とを比較する。
【0335】
実際上、情報処理装置100は、提示情報選択部104により、比較用基準抽出経緯情報に含まれる作業時間(以下、これを比較用基準作業時間と呼ぶ)、輪郭描線時間(以下、これを比較用基準描線時間と呼ぶ)、訂正回数(以下、これを比較用基準訂正回数と呼ぶ)及び表示回数(以下、これを比較用基準表示回数と呼ぶ)と、過去抽出経緯情報に含まれる作業時間(以下、これを過去作業時間と呼ぶ)、輪郭描線時間(以下、これを過去描線時間と呼ぶ)、訂正回数(以下、これを過去訂正回数と呼ぶ)及び表示回数(以下、これを過去表示回数と呼ぶ)とを比較する。
【0336】
この状態で情報処理装置100は、提示情報選択部104により、過去蓄積情報データD109の中から比較用基準作業時間の値を中心とした所定の作業時間閾値範囲内の値を示す過去作業時間と、比較用基準描線時間の値を中心とした所定の描線時間閾値範囲内の値を示す過去描線時間と、比較用基準訂正回数の値を中心とした所定の訂正回数閾値範囲内の値を示す過去訂正回数と、比較用基準表示回数の値を中心とした所定の表示回数閾値範囲内の値を示す過去表示回数とを過去抽出経緯情報として含む過去蓄積情報データD109を選択することにより、選択対象の過去蓄積情報データD109の数を啓発対象ユーザと輪郭抽出手法の類似する輪郭抽出手法のユーザの過去蓄積情報データD109に限定して続くステップSP114へ移る。
【0337】
ステップSP114において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に含まれる技量データD107に基づいて当該啓発対象ユーザの技量(フレーム画像基準数Bor1を基準として判断した技量)が低いか否かを判断する。
【0338】
このステップSP114において肯定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY1を輪郭抽出操作に対して技量の低いユーザであると判定していることを表しており、このとき情報処理装置100は、次のステップSP115へ移る。
【0339】
ステップSP115において情報処理装置100は、提示情報選択部104により、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が高いと判定したユーザY2の過去蓄積情報データD109を最終的に選択する。
【0340】
これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から最終的に選択した最も技量の高いユーザY2の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の高いユーザY2により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の高いユーザY2の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出して続くステップSP116へ移る。
【0341】
ここで輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面は、過去にユーザによって輪郭抽出操作が行われた際に情報提示部105のモニタに表示され、当該輪郭抽出操作に応じたオブジェクト抽出用動画像200の輪郭抽出用フレーム画像OF1乃至OFnの表示の仕方や、抽出対象のオブジェクトOJ1乃至OJnの指定の仕方等のように、抽出対象のオブジェクトOJ1乃至OJnの輪郭の抽出に対する一連の経緯を表している。
【0342】
ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面と、当該ユーザY2の技量の情報とを情報提示部105に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示し、続くステップSP118に移って情報提示処理手順RT101を終了する。
【0343】
これに対してステップSP114において否定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY3を技量の高いユーザであると判定していることを表しており、このとき情報処理装置100は、ステップSP117へ移る。
【0344】
ステップSP117において情報処理装置100は、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が低いと判定したユーザY4の過去蓄積情報データD109を最終的に選択する。
【0345】
これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から、最終的に選択した最も技量の低いユーザY4の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の低いユーザY4により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の低いユーザY4の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出してステップSP116へ移る。
【0346】
この場合ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面とそのユーザY4の技量の情報とをモニタ及びスピーカを介して出力して啓発対象ユーザに提示した後、ステップSP118に移り情報提示処理手順RT101を終了する。
【0347】
このようにして情報処理装置100は、図52に示すように、技量の低い啓発対象ユーザY1に対して、当該啓発対象ユーザY1の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の高いユーザY2の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点や、より良くするために真似るべき点等を気付かせて当該輪郭抽出操作の向上を促すようになされている。
【0348】
これに対して情報処理装置100は、技量の高い啓発対象ユーザY3に対して、当該啓発対象ユーザY3の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の低いユーザY4の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に反面教師的に啓発対象ユーザY3に対してその輪郭抽出手法と類似する、最も技量の低いユーザY4の輪郭抽出手法を誤って真似ることを防止して当該輪郭抽出操作の向上を促すようになされている。
【0349】
そして情報処理装置100は、啓発対象ユーザに対するこのような提示情報の提示の際に事前にオブジェクト抽出用動画像200を啓発対象ユーザに提示していることにより、オブジェクト抽出用動画像200の内容と、他のユーザの輪郭抽出手法とを照らし合わさせることができ、かくして啓発対象ユーザに対して輪郭抽出操作の向上をさらに適確に促すことができるようになされている。
【0350】
続いて情報処理装置100は、啓発対象ユーザに提示情報を提示した後、当該啓発対象ユーザによって行われるオブジェクト抽出用動画像200に対する輪郭抽出操作に応じて輪郭抽出処理を実行する。
【0351】
この際、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出処理を実行するための各種処理を所定の輪郭抽出処理プログラムに従ってソフトフェア的に実現する。
【0352】
すなわち情報処理装置100は、図53に示すように、輪郭抽出処理プログラムに従って輪郭抽出処理手順RT102の開始ステップから入り、続くステップSP130へ移って情報提示モードから輪郭抽出処理モードへ移行する。
【0353】
ステップSP130において情報処理装置100は、ユーザインターフェース回路112から輪郭抽出処理用画面データD120を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタに輪郭抽出処理用画面データD120に基づいて、オブジェクト抽出用動画像200の画像表示領域等を有する輪郭抽出処理用画面(図示せず)を表示する。
【0354】
また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に輪郭抽出用先頭フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用先頭フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用先頭フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。
【0355】
これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用先頭フレーム画像データD200Aに基づく輪郭抽出用先頭フレーム画像OF1を表示し、かくして輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の形状をユーザに目視させる。
【0356】
この状態で情報処理装置100は、図54に示すように、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に先頭入力輪郭線と呼ぶ)に相当する先頭入力輪郭線信号S110をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
【0357】
情報処理装置100は、変換回路113により、先頭入力輪郭線信号S110を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該先頭入力輪郭線信号S110に相当する複数の先頭入力輪郭形成点を生成し、当該生成した複数の先頭入力輪郭形成点の集合データを先頭入力輪郭形成点群データD121として輪郭線推測生成回路114に送出し、続くステップSP131へ移る。
【0358】
ステップSP131において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の輪郭抽出用フレーム画像データ(以下、これを特に輪郭抽出用最後尾フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用最後尾フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用最後尾フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。
【0359】
これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用最後尾フレーム画像データD200Aに基づく輪郭抽出用最後尾フレーム画像OFnを表示し、かくして輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの形状をユーザに目視させる。
【0360】
この状態で情報処理装置100は、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に最後尾入力輪郭線と呼ぶ)に相当する最後尾入力輪郭線信号S111をユーザインターフェース回路112に取り込んで変換回路113に送出する。
【0361】
そして情報処理装置100は、変換回路113により、最後尾入力輪郭線信号S111を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該最後尾入力輪郭線信号S111に相当する複数の最後尾入力輪郭形成点を生成し、当該生成した複数の最後尾入力輪郭形成点の集合データを最後尾入力輪郭形成点群データD122として輪郭線推測生成回路114に送出し、続くステップSP132へ移る。
【0362】
ステップSP132において情報処理装置100は、輪郭生成部101により、図37について上述した推測輪郭線生成処理ルーチンSRT300と同様の処理を実行することにより、先頭入力輪郭線StOL及び最後尾入力輪郭線EnOLから、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn間の全ての輪郭抽出用フレーム画像(以下、これを輪郭抽出用中間フレーム画像と呼ぶ)OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭を抽出するための推測輪郭線を推測して生成する。因みに推測輪郭線は輪郭生成部101により、以下のように生成される。
【0363】
すなわち輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLを構成する複数の先頭入力輪郭形成点の総数(以下、これを先頭形成点数と呼ぶ)と、最後尾入力輪郭線EnOLを構成する複数の最後尾入力輪郭形成点の総数(以下、これを最後尾形成点数と呼ぶ)とを比較し、数の少ない例えば先頭入力輪郭形成点で構成される先頭入力輪郭線StOLにおいて、互いに隣接する各先頭入力輪郭形成点間の距離から当該先頭入力輪郭線StOLの全長を算出する。
【0364】
そして輪郭生成部101は、輪郭線推測生成回路114により、その算出した全長を数の多い最後尾形成点数で除算することにより、先頭入力輪郭線StOL上でこれを構成する複数の新たな新規輪郭形成点を生成するための生成間隔を求め、当該生成間隔毎に順次新規輪郭形成点を生成することにより、先頭入力輪郭線StOLを構成する新規輪郭形成点の総数を最後尾形成点数に合わせる。
【0365】
次いで輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOC(座標値)と最後尾入力輪郭線EnOLの重心EnOC(座標値)とを算出し、図55(A)及び(B)に示すように、互いの重心StOC及びEnOC同士を一致させて先頭入力輪郭線StOLと最後尾入力輪郭線EnOLとを重ね合わせる。
【0366】
この状態で輪郭生成部101は、図56に示すように、輪郭線推測生成回路114により、各新規輪郭形成点NSOP1乃至NSOPnと、これらに対してそれぞれ最短距離の関係にある最後尾入力輪郭形成点EnOP1乃至EnOPnとの間の輪郭線間距離Db1、Db2、Db3、……、Dbnを算出し、当該算出した輪郭線間距離Db1、Db2、Db3、……、Dbnのうち最も短い輪郭線間距離(ここでは輪郭線間距離Db1)の関係にある最後尾入力輪郭形成点EnOP1と新規輪郭形成点NSOP1とを起点ペアSPP2と決定する。
【0367】
続いて輪郭生成部101は、輪郭線推測生成回路114により、図57(A)に示すように、起点ペアSPP2を起点とし、先頭入力輪郭線StOLにおいて例えば矢印ArwS2に示す反時計回り方向である基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwO2に示す反時計回り方向である順回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOP2間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOP3間、……の順回りペア間距離ODb2乃至ODbnを算出する。
【0368】
また情報処理装置100は、輪郭線推測生成回路114により、図57(B)に示すように、起点ペアSPP2を起点として、先頭入力輪郭線StOLにおいて基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwS2に示す時計回り方向である逆回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOPn間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOPn−1間、……の逆回りペア間距離RDb2乃至RDbnを算出する。
【0369】
次いで輪郭生成部101は、輪郭線推測生成回路114により、順回りペア間距離ODb2乃至ODbnの総和と逆回りペア間距離RDb2乃至RDbnの総和とを算出した後、当該算出した総和同士を比較することにより総和の小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を選択する。
【0370】
そして輪郭生成部101は、輪郭線推測生成回路114により、図58に示すように、起点ペア間距離ODb1、順回りペア間距離ODb2、ODb3、……をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより起点ペアである新規輪郭形成点NSOP1及び最後尾入力輪郭形成点EnOP1同士を結ぶ起点間仮想線上と、順番に対応付けた新規輪郭形成点NSOP2乃至NSOPn及び最後尾入力輪郭形成点EnOP2乃至EnOPn同士を結ぶ対応付け点間仮想線上とでそれぞれ点形成間隔DDb1、DDb2、DDb3、……を求め、当該起点間仮想線上及び各対応付け点間仮想線上で点形成間隔DDb1、DDb2、DDb3、……毎に推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……を生成する。
【0371】
輪郭生成部101は、輪郭線推測生成回路114により、起点間仮想線上及び各対応付け点間仮想線上の推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……のうち新規輪郭形成点NSOP1乃至NSOPnから同一の順番にある推測輪郭形成点OIPa1乃至OIPan間、OIPb1乃至OIPbn間、OIPc1乃至OIPcn間、……をそれぞれ補間することにより、各輪郭抽出用中間フレーム画像OF2乃至OFn−1に対する推測輪郭線OLA1乃至OLAn−2を生成する。
【0372】
そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn−2の重心(座標値)を算出する。
【0373】
また輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOCと最後尾入力輪郭線EnOLの重心EnOCとの間の重心移動距離L2(図55)を輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより、これら互いの重心StOC及びEnOC同士を結ぶ重心間仮想線上で当該先頭入力輪郭線StOLの重心StOCに対する輪郭抽出用中間フレーム画像OF2乃至OFn−1での移動位置(すなわち推測重心位置)を算出する。
【0374】
そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn−2を、その順番を維持した状態で先頭入力輪郭線StOLの重心StOCから最後尾入力輪郭線EnOLの重心EnOCの方向に移動させ、これら推測輪郭線OLA1乃至OLAn−2の各重心をそれぞれ重心間仮想線上の推測重心位置に順番に一致させることにより、これら各推測輪郭線OLA1乃至OLAn−2をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1に対応付ける。
【0375】
このようにして情報処理装置100は、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJ1及びOJnの輪郭がなぞられて指定されることにより得られた先頭入力輪郭線StOLと最後尾入力輪郭線EnOLから各輪郭抽出中間フレーム画像F2乃至Fn−1中のオブジェクトOJ2乃至OJn−1を抽出するための推測輪郭線OLA1乃至OLAn−2を推測して生成する。
【0376】
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLA1乃至OLAn−2を構成する複数の推測輪郭形成点OIPa1乃至OIPan、OIPb1乃至OIPbn、OIPc1乃至OIPcn、……(対応する輪郭抽出用中間フレーム画像OF2乃至OFn−1中の座標で表す)の集合データでなる推測輪郭形成点群データを、先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122と共に、オブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録し、続くステップSP133へ移る。
【0377】
ステップSP133において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から全ての輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aをオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
【0378】
これにより情報処理装置100は、図59に示すように、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOL、推測輪郭線OLA1乃至OLAn−2及び最後尾入力輪郭線EnOLを重ねて表示して啓発対象ユーザに目視させ、続くステップSP134に移る。
【0379】
ステップSP134において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたか否かを判断する。
【0380】
このステップSP134において否定結果が得られると、このことは輪郭抽出処理用画面を介して推測輪郭線OLA1乃至OLAn−2を目視確認した啓発対象ユーザによって処理終了命令が入力されていないこと、すなわち輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得のできる精度で抽出されておらず、引き続き輪郭抽出操作が行われることを表しており、このとき情報処理装置100は、続くステップSP135へ移る。
【0381】
ステップSP135において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって入力された輪郭指定用に輪郭抽出中間フレーム画像OF2乃至OFn−1の提示を要求する提示命令に応じて、動画像記録回路111から輪郭抽出用中間フレーム画像OF2乃至OFn−1に相当する輪郭抽出用フレーム画像データD200Aを読み出し、これを輪郭抽出処理用画面データD120に合成して情報提示部105に送出することにより、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用中間フレーム画像OF2乃至OFn−1を表示して啓発対象ユーザに目視させる。
【0382】
このようにして情報処理装置100は、啓発対象ユーザに対して複数の輪郭抽出用中間フレーム画像OF2乃至OFn−1を視覚的に比較させながら新たにオブジェクトOJ2乃至OJn−1の輪郭を指定する輪郭抽出用中間フレーム画像OF2乃至OFn−1を選択させる。
【0383】
この結果、情報処理装置100は、図60に示すように、啓発対象ユーザにより例えば輪郭抽出用中間フレーム画像OF12が選択され、その輪郭抽出用中間フレーム画像OF12中のオブジェクトOJ12の輪郭が任意になぞられることにより得られた追加の入力輪郭線(以下、これを追加入力輪郭線と呼ぶ)AL1に相当する追加入力輪郭線信号S120をユーザインターフェース回路112に取り込むと、ステップSP133に戻る。
【0384】
この場合、情報処理装置100は、ステップSP133において変換回路113により、追加入力輪郭線信号S120を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S120に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD124として輪郭線推測生成回路114へ送出する。
【0385】
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122を取り出す。
【0386】
ここで情報処理装置100は、輪郭線推測生成回路114により、まず先頭入力輪郭形成点群データD121に相当する先頭入力輪郭線StOLと、追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1とから輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用中間フレーム画像OF12間の輪郭抽出用中間フレーム画像OF2乃至OF11中のオブジェクトOJ2乃至OJ11の輪郭を抽出するための推測輪郭線OLB1乃至OLB10 を新たに推測して生成する。
【0387】
また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL1と最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF13乃至OFn−1中のオブジェクトOJ13乃至OJn−1の輪郭を抽出するための推測輪郭線OLB12 乃至OLBn−2を新たに推測して生成する。
【0388】
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn−2をそれぞれ構成する複数の推測輪郭形成点群データを生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。
【0389】
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
【0390】
この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1と新たな推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn−2とを重ねて表示してユーザに目視させる。
【0391】
この状態で情報処理装置100は、ステップSP134において例えば再び否定結果が得られると、上述したステップSP135へ移って同様に輪郭指定用の輪郭抽出用フレーム画像OF1乃至OFnを選択させる。
【0392】
そして情報処理装置100は、啓発対象ユーザによって新たに輪郭抽出用中間フレーム画像OF22が選択(図60)され、当該輪郭抽出用中間フレーム画像OF22中のオブジェクトOJ22が任意になぞられることにより追加入力輪郭線信号S121が得られると、これをユーザインターフェース回路112に取り込んでステップSP132に戻る。
【0393】
この場合、情報処理装置100は、ステップSP132において、変換回路113により、追加入力輪郭線信号S121を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S121に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD125として輪郭線推測生成回路114へ送出する。
【0394】
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から追加入力輪郭形成点群データD124及び最後尾入力輪郭形成点群データD122を取り出す。
【0395】
ここで情報処理装置100は、輪郭線推測生成回路114により、まず追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1と、追加入力輪郭形成点群データD125に相当する追加入力輪郭線AL2とから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用中間フレーム画像OF22間の輪郭抽出用中間フレーム画像OF13乃至OF21中のオブジェクトOJ13乃至OJ21の輪郭を抽出するための推測輪郭線OLC12 乃至OLC20 を推測し直して新たに生成する。
【0396】
また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL2と、最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF22及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF23乃至OFn−1中のオブジェクトOJ23乃至OJn−1の輪郭を抽出するための推測輪郭線OLC22 乃至OLCn−2を推測し直して新たに生成する。
【0397】
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn−2をそれぞれ構成する複数の推測輪郭形成点群データを新たに生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124及びD125とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。
【0398】
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
【0399】
この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1及びAL2と推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn−2とを重ねて表示してユーザに目視させる。
【0400】
このようにして情報処理装置100は、ステップSP134において肯定結果が得られるまでの間はステップSP135−ステップSP132−ステップSP133−ステップSP134の処理を繰り返す。
【0401】
従って情報処理装置1は、啓発対象ユーザによってオブジェクトOJ1乃至OJnに輪郭が指定されることにより1度は推測輪郭線を生成しても、新たにオブジェクトOJ1乃至OJnの輪郭が指定されると、その都度、輪郭の指定結果に応じて輪郭抽出用フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1のり輪郭を抽出するための推測輪郭線を推測し直して修正することによりオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得する精度で抽出することができる。
【0402】
これに対してステップSP134において肯定結果が得られると、このことは輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得する精度で抽出できたことにより、当該啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置100は、処理終了命令をユーザインターフェース回路112に取り込んでステップSP136へ移る。
【0403】
ステップSP136において情報処理装置100は、ユーザインターフェース回路112から処理終了命令を変換回路113及び輪郭線推測生成回路114を順次介して輪郭線記録回路115に送出することにより、当該輪郭線記録回路115によりこの時点で記録している最新のオブジェクト輪郭抽出データD123に相当する先頭入力輪郭線StOLと、最後尾入力輪郭線EnOLと、追加入力輪郭線AL1及びAL2と、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn−2とをオブジェクトOJ1乃至OJnの輪郭を抽出して最終的に得た輪郭線(以下、これを最終輪郭線と呼ぶ)とする。
【0404】
そして情報処理装置100は、輪郭線記録回路115により、その最終輪郭線を最終輪郭線データD126として輪郭線出力回路116を介して図示しないオブジェクト抽出装置に送出することにより、当該オブジェクト抽出装置によって最終輪郭線を用いて、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnを抽出させる。
【0405】
また情報処理装置100は、ユーザインターフェース回路112に上述した輪郭抽出処理手順RT102(すなわちオブジェクト抽出用動画像200を用いた輪郭抽出処理)を実行している間、適宜表示内容を変更して情報提示部105で表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯を表す輪郭抽出経緯画面データD111として記録している。
【0406】
従って情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出経緯画面データD111に啓発対象ユーザのユーザIDを対応付け、これを処理傾向情報抽出部102を介して情報蓄積部103に送出して、当該情報蓄積部103に記憶することにより、他の啓発対象ユーザによって輪郭抽出操作が行われる際にその輪郭抽出経緯画面データD111を提示情報として利用可能な状態とし、次のステップSP137へ移って上述した輪郭抽出処理手順RT102を終了する。
【0407】
このようにして情報処理装置100は、図61に示すように、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得のできる精度で当該オブジェクトOJ1乃至OJnの動きに応じて推移させた理想的な最終輪郭線LS1乃至LSnとして抽出し得るようになされている。
【0408】
以上の構成において、情報処理装置100は、試行モード時、啓発対象ユーザに輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭に対して輪郭抽出試行操作を行わせ、当該輪郭抽出試行操作に応じた輪郭抽出試行処理の結果により啓発対象ユーザに対する輪郭抽出手法の技量を判定し、その判定結果を示す技量データD107を、当該輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面からなる輪郭抽出試行経緯画面データと、輪郭抽出試行用動画像データD100等と共に入力情報データD108とする。
【0409】
また情報処理装置100は、入力情報データD108に含まれる輪郭抽出試行経緯画面データ及び輪郭抽出試行用動画像データD100から啓発対象ユーザがどのような輪郭抽出試行用動画像120からどのようにオブジェクトTJ1乃至TJ7の輪郭を抽出しているかを表す当該啓発対象ユーザの輪郭抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報を処理傾向情報データとして入力情報データD108と共に蓄積情報データD109として情報蓄積部103に記憶する。
【0410】
そして情報処理装置100は、輪郭抽出処理モードに先立つ情報提示モード時、啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報データと、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報データとを比較することにより当該過去蓄積情報データD109の中から、啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択する。
【0411】
次いで情報処理装置100は、その選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データ111を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにした。
【0412】
従って情報処理装置100は、処理能力に優れた指導者による指導を特には必要とせずに、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出手法における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭輪郭手法の向上を促すことができる。
【0413】
また情報処理装置100は、情報提示モード時、啓発対象ユーザに対して提示情報データD110の他に、引き続き啓発対象ユーザによって行われる輪郭抽出操作に用いるオブジェクト抽出用動画像200も提示するため、提示情報の内容とオブジェクト抽出用動画像200の内容とを照らし合わせて目視確認させることができ、かくしてオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を例えば効率良く等のようにどのように抽出すべきかをその時点で容易に気付かせて当該啓発対象ユーザに自分の輪郭抽出手法の向上をさらに適確に促すことができる。
【0414】
以上の構成によれば、試行モード時に啓発対象ユーザに輪郭抽出試行用動画像120から試行用オブジェクトTJ1乃至TJ7の輪郭を抽出する輪郭抽出試行操作を行わせて輪郭抽出手法の技量を判定し、その技量の情報を、輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面と輪郭抽出試行用動画像120とから抽出した啓発対象ユーザの輪郭抽出手法に対する処理傾向情報と共に蓄積情報データD109として情報蓄積部103に記憶しておき、輪郭抽出処理モードに先立つ情報提示モード時に啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報と、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報とを比較して当該啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択すると共に、当該選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにしたことにより、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭輪郭手法の向上を促すことができ、かくして処理対象となるオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を抽出するという処理の処理能力を容易に向上させることができる。
【0415】
なお上述した第3の実施の形態においては、啓発対象ユーザに過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面を提示した後に当該啓発対象ユーザにオブジェクト抽出用動画像200中のオブジェクトOJ1乃至OJnの輪郭に対する輪郭抽出操作を行わせるようにした場合について述べたが、本発明はこれに限らず、図62に示すように、輪郭抽出処理モード時、過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面145を表示する画像表示領域149Aと、啓発対象ユーザによって行われる輪郭抽出操作に応じて一連の輪郭抽出処理用画面146を表示する輪郭抽出領域149Bとを有する処理画面150を情報提示部105で表示し、当該啓発対象ユーザによって行われる輪郭抽出操作に合わせて過去のユーザによる輪郭抽出操作時の一連の輪郭抽出処理用画面145を提示するようにしても良い。
【0416】
また上述した第3の実施の形態においては、試行モード時、予め設定されたフレーム画像基準数Bor1(図48)を基準とした入力フレーム画像の総数に応じて各ユーザの技量を判定するようにした場合について述べたが、本発明はこれに限らず、試行モード時、図63に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、全ユーザの数をほぼ半分に区切る閾値Bor2により各ユーザの技量を判定し、又は図64に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、技量の高い又は低いユーザを所定人数に限定するような閾値Bor3により各ユーザの技量を判定するようにしても良い。この場合、各ユーザにおける入力フレーム画像の総数の傾向に応じてユーザの技量を判定することができる。
【0417】
さらに上述した第3の実施の形態においては、情報提示モード時、過去蓄積情報データD109の中から啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法のユーザの過去蓄積情報データD109を選択(限定)するようにした場合について述べたが、本発明はこれに限らず、各ユーザによって行われた輪郭抽出試行操作及び又は輪郭抽出操作で抽出したオブジェクトの名称を過去蓄積情報データD109に格納しておき、情報提示モード時、啓発対象ユーザにオブジェクト抽出用動画像中のオブジェクトの名称(例えば星型や人間の上半身等)を入力させ、当該オブジェクトの名称の情報を含む過去蓄積情報データD109を選択(限定)したり、当該啓発対象ユーザの蓄積情報データD109に処理傾向情報として含まれる画像特徴情報と、過去蓄積情報データD109に処理傾向情報として含まれる画像特徴情報とを比較することにより、啓発対象ユーザの抽出する輪郭を有するオブジェクトと同じ又は類似するオブジェクト(又は類似するオブジェクト抽出用動画像中のオブジェクト)の輪郭を抽出したユーザの過去蓄積情報データD109を選択(限定)するようにしても良い。
【0418】
この場合、啓発対象ユーザにこれから輪郭を抽出するオブジェクトと同じ又は類似するオブジェクト、又はその輪郭の抽出に用いるオブジェクト抽出用動画像と同じ又は類似するオブジェクト抽出用動画像に対して輪郭抽出操作を行った他のユーザの輪郭抽出手法を表す一連の輪郭抽出処理用画面を提示することができることにより、啓発対象ユーザに自分の輪郭抽出手法の向上をより適確に促すことができる。
【0419】
さらに上述した第3の実施の形態においては、情報提示モード時、啓発対象ユーザY1(図51)の技量が低い場合、過去蓄積情報データD109の中から最も技量の高いユーザY2の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY3の技量が高い場合、過去蓄積情報データD109の中から最も技量の低いユーザY4の過去蓄積情報データD109を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、図65に示すように、情報提示モード時、啓発対象ユーザY5の技量が低い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY5の技量を基準とした一定範囲W内で最も技量の高いユーザY6の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY7の技量が高い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY7の技量を基準とした一定範囲W内で最も技量の低いユーザY8の過去蓄積情報データD109を最終的に選択するようにしても良い。
【0420】
この場合、啓発対象ユーザに輪郭抽出手法を提示するために選択したユーザの技量が高すぎ又は低すぎて当該ユーザによって輪郭抽出操作が行われた際の一連の輪郭抽出処理用画面が啓発対象ユーザの輪郭抽出手法の向上を促すために利用し難くなることを防止することができる。
【0421】
さらに上述した第3の実施の形態においては、試行モード時に啓発対象ユーザの輪郭抽出試行操作の結果を蓄積情報データD109として情報蓄積部103に記憶しておき、情報提示モード時にその蓄積情報データD109に基づいて他のユーザの輪郭抽出経緯画面データD111を選択するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出処理モード時、啓発対象ユーザがすでに行ったオブジェクト抽出用動画像中のオブジェクトの輪郭に対する輪郭抽出操作の結果を基に当該啓発対象ユーザの輪郭抽出操作に対する技量や輪郭の抽出傾向(すなわち処理傾向情報で表される傾向)を判定し、これを蓄積情報データD109として情報記憶部103に記憶しておき、再び啓発対象ユーザがオブジェクト抽出用動画像に対して輪郭抽出操作を行う情報提示モード時に、当該蓄積情報データD109に応じて他のユーザの輪郭抽出経緯画面データD111を選択するようにしても良い。
【0422】
さらに上述した第3の実施の形態においては、マウス等の操作部を介してオブジェクトの輪郭がなぞられることにより得られた入力輪郭線から推測輪郭線を推測して生成するようにした場合について述べたが、本発明はこれに限らず、オブジェクトの輪郭内周側の領域を塗りつぶして当該オブジェクトを指定する指定領域や、オブジェクトの背景を塗りつぶして当該オブジェクトを指定する指定領域等から推定輪郭線を推定して生成するようにしても良い。
【0423】
さらに上述した第3の実施の形態においては、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず先頭及び最後尾の輪郭抽出用フレーム画像及び試行用フレーム画像を選択するようにした場合について述べたが、本発明はこれに限らず、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず任意に2つのフレーム画像を選択するようにしても良い。
【0424】
(4)他の実施の形態
なお上述した第1乃至第3の実施の形態においては、本発明による情報処理装置を図1乃至図65について上述した情報処理装置1、50、100に適用するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータや画像処理装置、上述した情報処理装置50及び100から領域抽出部51及び輪郭生成部101を分離した情報処理装置等のように、この他種々の情報処理装置に広く適用することができる。
【0425】
また上述した第1乃至第3の実施の形態においては、本発明による情報処理プログラムを図1乃至図65について上述した第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに適用し、当該第1の及び第2の啓発促進プログラムに従って図2及び図14について上述した第1及び第2の啓発促進処理手順RT1及びRT50を実行すると共に、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに従って図34及び図49並びに図53について上述した輪郭抽出試行処理手順RT100及び情報提示処理手順RT101並びに輪郭抽出処理手順RT102を実行するようにした場合について述べたが、本発明はこれに限らず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムをローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用して情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良いし、当該第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが格納されたプログラム格納媒体を情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良い。
【0426】
因みに上述した第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するための第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを情報処理装置1、50、100にインストールして実行可能な状態にするためのプログラム格納媒体としては、例えばフレキシブルディスク、CD−ROM(Compact Disc−Read Only Memory )、DVD(Digital Versatile Disc)等のパッケージメディアのみならず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが一時的もしくは永続的に格納される半導体メモリや磁気ディスク等で実現しても良い。またこれらプログラム格納媒体に第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用しても良く、ルータやモデム等の各種通信インターフェイスを介して格納するようにしても良い。
【0427】
さらに上述した第1乃至第3の実施の形態においては、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積手段として、図1乃至図65について上述した情報蓄積部4、53、103を適用するようにした場合について述べたが、本発明はこれに限らず、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積することができれば、ハードディスクドライブや情報処理装置1、50、100の外部の外部記録装置等のように、この他種々の蓄積手段を広く適用することができる。
【0428】
さらに上述した第1乃至第3の実施の形態においては、特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する比較手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、特定ユーザ(すなわち啓発対象ユーザ)の処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較することができれば、提示情報選択部5、54、104とは異なる専用の比較回路等のように、この他種々の比較手段を広く適用することができる。
【0429】
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択する情報選択手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択することができれば、提示情報選択部5、54、104から特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する機能を除いた専用の情報選択回路等のように、この他種々の情報選択手段を広く適用することができる。
【0430】
さらに上述した第1乃至第3の実施の形態においては、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示する提示手段として、図1乃至図65について上述したモニタ及びスピーカを有する情報提示部6、55、105を適用するようにした場合について述べたが、本発明はこれに限らず、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示することができれば、表示部や情報処理装置1、50、100の外部の外部表示装置等のように、この他種々の提示手段を広く適用することができる。
【0431】
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に1つのフレーム画像を選択するための画像選択手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。
【0432】
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクト指定領域の抽出用の複数のフレーム画像を設定するための画像設定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像設定手段を広く適用することができる。
【0433】
さらに上述した第1乃至第3の実施の形態においては、動画像中のオブジェクトの動きベクトルを検出する動きベクトル検出手段として、図13乃至図31について上述した動きベクトル検出記録回路62を適用するようにした場合について述べたが、本発明はこれに限らず、動きベクトルの検出機能のみを有する動きベクトル検出回路等のように、この他種々の動きベクトル検出手段を広く適用することができる。
【0434】
さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された1つのフレーム画像中のオブジェクトの輪郭を指定するための輪郭指定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。
【0435】
さらに上述した第1乃至第3の実施の形態においては、動きベクトル検出手段によって検出された動きベクトルと、輪郭指定手段を介して指定された輪郭とに基づいて、画像設定手段によって設定された複数のフレーム画像に対するオブジェクト指定領域を抽出する指定領域抽出手段として、図13乃至図31について上述した領域抽出部51を適用するようにした場合について述べたが、本発明はこれに限らず、情報処理装置50から分離された外部の領域抽出装置等のように、この他種々の指定領域抽出手段を広く適用することができる。
【0436】
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段、画像設定手段及び輪郭指定手段による入力履歴として、図13乃至図31について上述した一連の領域抽出処理用画面でなる領域抽出経緯画面データを適用するようにした場合について述べたが、本発明はこれに限らず、領域抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。
【0437】
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に少なくとも2つの第1及び第2のフレーム画像を選択するための画像選択手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。
【0438】
さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された第1及び第2のフレーム画像中のオブジェクトの輪郭をそれぞれ指定するための輪郭指定手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。
【0439】
さらに上述した第1乃至第3の実施の形態においては、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測する輪郭推測手段として、図32乃至図65について上述した輪郭線推測生成回路114を適用するようにした場合について述べたが、本発明はこれに限らず、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測することができれば、CPU(Central Processing Unit )やマイクロプロセッサ等のように、この他種々の輪郭推測手段を広く適用することができる。
【0440】
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段及び輪郭指定手段による入力履歴として、図32乃至図65について上述した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データD111を適用するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。
【0441】
【発明の効果】
上述のように本発明によれば、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示するようにしたことにより、特定ユーザに提示した処理手法により当該特定ユーザ自身の処理手法の向上を促すことができ、かくして所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
【図面の簡単な説明】
【図1】本発明による情報処理装置の回路構成の第1の実施の形態を示すブロック図である。
【図2】第1の啓発促進処理手順を示すフローチャートである。
【図3】入力情報の構成を示す略線図である。
【図4】入力情報データを示す略線図である。
【図5】バッティング動画像の構成を示す略線図である。
【図6】ボールのコース及びバットのグリップと先端との高低差の検出の説明に供する略線図である。
【図7】処理傾向情報の構成を示す略線図である。
【図8】蓄積情報データの記憶の説明に供する略線図である。
【図9】蓄積情報データの限定の説明に供する略線図である。
【図10】提示情報を選択するための選択条件を示す略線図である。
【図11】提示情報の構成を示す略線図である。
【図12】他の実施の形態による提示情報の選択条件を示す略線図である。
【図13】第2の実施の形態による情報処理装置の回路構成を示すブロック図である。
【図14】第2の啓発促進処理手順を示すフローチャートである。
【図15】領域抽出部の回路構成を示すブロック図である。
【図16】領域抽出処理ルーチン(1)を示すフローチャートである。
【図17】領域抽出処理ルーチン(2)を示すフローチャートである。
【図18】オブジェクト抽出用動画像の構成を示す略線図である。
【図19】作業フレーム画像及び伝播範囲の設定の説明に供する略線図である。
【図20】作業フレーム画像におけるオブジェクトの輪郭の指定の説明に供する略線図である。
【図21】オブジェクト指定伝播領域の生成の説明に供する略線図である。
【図22】伝播範囲におけるオブジェクト指定領域の生成の説明に供する略線図である。
【図23】オブジェクト指定領域に対する修正箇所の指示の説明に供する略線図である。
【図24】オブジェクト指定領域の修正の説明に供する略線図である。
【図25】修正したオブジェクト指定領域の提示の説明に供する略線図である。
【図26】領域を反転したオブジェクト指定領域の説明に供する略線図である。
【図27】入力情報の構成を示す略線図である。
【図28】処理傾向情報の構成を示す略線図である。
【図29】提示情報を選択するための選択条件を示す略線図である。
【図30】提示情報の構成を示す略線図である。
【図31】他の実施の形態による提示情報の選択条件を示す略線図である。
【図32】第3の実施の形態による情報処理装置の回路構成を示すブロック図である。
【図33】輪郭生成部の回路構成を示すブロック図である。
【図34】輪郭抽出試行処理手順を示すフローチャートである。
【図35】技量判定処理ルーチンを示すフローチャートである。
【図36】輪郭抽出試行用動画像の構成を示す略線図である。
【図37】推測輪郭線生成処理ルーチンを示すフローチャートである。
【図38】試行先頭入力輪郭形成点及び試行最後尾入力輪郭形成点の説明に供する略線図である。
【図39】試行先頭入力輪郭線を新たに構成する新規輪郭形成点の生成の説明に供する略線図である。
【図40】試行先頭入力輪郭線及び試行最後尾入力輪郭線の重心を一致させた場合の説明に供する略線図である。
【図41】起点ペアの決定の説明に供する略線図である。
【図42】順回り方向及び逆回り方向の対応付けの説明に供する略線図である。
【図43】試行推測輪郭線の生成の説明に供する略線図である。
【図44】各試行用フレーム画像での重心位置の推測の説明に供する略線図である。
【図45】試行先頭入力輪郭線、試行推測輪郭線及び試行最後尾入力輪郭線の提示結果の説明に供する略線図である。
【図46】入力情報の構成を示す略線図である。
【図47】処理傾向情報の構成を示す略線図である。
【図48】蓄積情報データのデータベース化の説明に供する略線図である。
【図49】情報提示処理手順を示すフローチャートである。
【図50】オブジェクト抽出用動画像の構成を示す略線図である。
【図51】蓄積情報データの選択の説明に供する略線図である。
【図52】提示情報の構成を示す略線図である。
【図53】輪郭抽出処理手順を示すフローチャートである。
【図54】先頭入力輪郭線及び最後尾入力輪郭線の生成の説明に供する略線図である。
【図55】先頭入力輪郭線及び最後尾入力輪郭線の重心を一致させた場合の説明に供する略線図である。
【図56】起点ペアの決定の説明に供する略線図である。
【図57】順回り方向及び逆回り方向の対応付けの説明に供する略線図である。
【図58】推測輪郭線の生成の説明に供する略線図である。
【図59】輪郭抽出用中間フレーム画像に対する推測輪郭線の生成結果を示す略線図である。
【図60】追加入力輪郭線に基づく推測輪郭線の生成の説明に供する略線図である。
【図61】最終輪郭線の説明に供する略線図である。
【図62】他の実施の形態による輪郭抽出処理用画面の提示の説明に供する略線図である。
【図63】他の実施の形態によるユーザの技量の判定(1)の説明に供する略線図である。
【図64】他の実施の形態によるユーザの技量の判定(2)の説明に供する略線図である。
【図65】他の実施の形態による蓄積情報データの選択の説明に供する略線図である。
【符号の説明】
1、50、100……情報処理装置、2……情報入力部、3、52、102……処理傾向情報抽出部、4、53、103……情報蓄積部、5、54、104……提示情報選択部、6、55、105……情報提示部、51……領域抽出部、62……動きベクトル検出記録回路、114……輪郭線推測回路、70、200……オブジェクト抽出用動画像、70A乃至70G……領域抽出用フレーム画像、71、120……輪郭抽出試行用動画像、TF1乃至TF7……試行用フレーム画像、TJ1乃至TJ7……試行用オブジェクト、OJ1乃至OJn……オブジェクト、101……輪郭生成部、74A……オブジェクト指定基準領域、77A乃至77D、77AX乃至77DX……オブジェクト指定伝播領域、80……オブジェクト指定基準反転領域、81A乃至81D……オブジェクト指定伝播反転領域、D1……バッティング動画像データ、D2、D65……入力情報データ、D3、D66……処理傾向情報データ、D4、D67、D109……蓄積情報データ、D5、D68、D110……提示情報データ、D50、D200……オブジェクト抽出用動画像データ、D51……領域抽出用フレーム画像データ、D52……領域抽出処理用画面データ、D100……輪郭抽出試行用動画像データ、D100A……試行用フレーム画像データ、D200A……輪郭抽出用フレーム画像データ、D108……技量データ、D111……輪郭抽出経緯画面データ、S1、S55……ユーザ情報、OF1乃至OFn……輪郭抽出用フレーム画像、StOL……先頭入力輪郭線、EnOL……最後尾入力輪郭線、OLA1乃至OLAn−2、OLB1乃至OLB10 、OLC12 乃至OLC20 、OLC22 乃至OLCn−2d……推測輪郭線、SH1……コース閾値範囲、SH2……高低差閾値範囲、RT1……第1の啓発促進処理手順、RT50……第2の啓発促進処理手順RT101……情報提示処理手順、RT102……輪郭抽出処理手順。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus, and is particularly suitable when applied to a case where a user performs processing on a predetermined processing target.
[0002]
[Prior art]
Conventionally, as a process performed by a user on a predetermined process target, a process of hitting a ball to be processed with a bat in baseball batting practice, a process of displaying a part of the moving image from a moving image to be processed ( There are various processes such as a process of extracting an area for designating an object (hereinafter, referred to as an object) and a process of extracting an outline of an object from a moving image to be processed.
[0003]
[Problems to be solved by the invention]
By the way, in order to improve the processing ability of the user when performing such processing, a hitting method of hitting a ball with a bat or an area for designating an object from a moving image (hereinafter referred to as an object designation area) is extracted. Search for a leader with high processing ability for the area extraction method and the contour extraction method for extracting the outline of an object from a moving image (hereinafter, these hitting method, the area extraction method and the outline extraction method are collectively referred to as a processing method). A troublesome method of requesting guidance is taken, and there is a problem that it is difficult to easily improve the processing ability of the user himself.
[0004]
The present invention has been made in consideration of the above points, and has as its object to propose an information processing apparatus capable of easily improving the processing capability of processing performed on a predetermined processing target.
[0005]
[Means for Solving the Problems]
In order to solve this problem, according to the present invention, processing information of a process performed on a processing target by a user and stored information including an evaluation value for the process are stored in a storage unit for a plurality of users, and a specific user And comparing one of the processing methods and the evaluation values with the one included in the stored information stored in the storage unit, and comparing the plurality of stored information stored in the storage unit by the information selection unit. The stored information is selected according to the comparison result by the means, and the processing method included in the stored information selected by the information selecting means is presented to the specific user by the presenting means.
[0006]
Therefore, the processing method presented to the specific user can promote the improvement of the processing method of the specific user.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0008]
(1) First embodiment
In FIG. 1,
[0009]
Also, every time the
[0010]
In this case, the
[0011]
That is, as shown in FIG. 2, the
[0012]
In step SP <b> 1, the
[0013]
At this time, as shown in FIG. 3, the
[0014]
Thereby, the
[0015]
Here, as shown in FIG. 5, the
[0016]
In the
[0017]
Therefore, in step SP2, the
[0018]
The
[0019]
Then, the
[0020]
In addition to this, the
[0021]
In this manner, the
[0022]
In the
[0023]
In step SP3, the
[0024]
In addition, in step SP4, the
[0025]
As a result, the
[0026]
Incidentally, a pair of hatched circles D1 and D2 shown in FIG. 9 indicate the value of the comparison reference ball course and the value of the comparison reference bat height difference which are the processing tendency information for the enlightenment target user. Indicate a value of a past ball course and a value of a past bat height difference included in one past accumulated information data D4 as processing tendency information.
[0027]
Next, the
[0028]
In this way, the
[0029]
As a result, the
[0030]
In step SP5, the
[0031]
In this way, the
[0032]
By the way, in the case of the first embodiment, the
[0033]
Then, the
[0034]
Thereby, the
[0035]
In the above configuration, the
[0036]
Then, the
[0037]
At this time, the
[0038]
Next, the
[0039]
Therefore, the
[0040]
In addition, when presenting the presentation information to the enlightenment target user, the
[0041]
Therefore, the
[0042]
According to the above configuration, the
[0043]
In the first embodiment described above, the processing tendency information data D3 of the enlightenment target user is compared with the processing tendency information data D3 included in the past accumulation information data D4 already accumulated in the
[0044]
By doing so, it is possible to sequentially present the batting moving images of a plurality of users with different batting averages as presentation information to the enlightenment target user. It is possible to find more improvement points in the hitting method.
[0045]
Further, the processing tendency information data D3 of the enlightenment target user is compared with the processing tendency information data D3 included in the past accumulation information data D4 already accumulated in the
[0046]
Further, in the first embodiment described above, a case has been described in which the batting moving image of another user is presented as presentation information to the user to be enlightened, but the present invention is not limited to this, and the past accumulated information data D4 includes past accumulated information data D4 of the enlightenment target user, and when the past accumulated information data D4 of the enlightenment target user is selected, batting based on the batting moving image data D1 included in the accumulated information data D4 A moving image may be presented to the enlightenment target user as presentation information. In this case, for example, if the batting average is better in the past batting than the current batting of the user to be enlightened, the improved part in the current batting is compared with the batting when the batting average in the past was good. You can easily find them.
[0047]
Furthermore, in the above-described first embodiment, a case has been described in which all pieces of past accumulated information data D4 are used when selecting presentation information to be presented to an enlightened user, but the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D4 used for the past presentation is selected based on the presentation history. Alternatively, the remaining past accumulated information data D4 may be used.
[0048]
In this way, it is possible to prevent the presentation information presented in the past from being presented again to the enlightenment target user and to present new presentation information. Encourage enlightenment. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D4 used for the presentation of the presentation information regardless of the user to be presented should not be used for the selection of the subsequent presentation information. Such processing can also be realized by forcibly regulating.
[0049]
Furthermore, in the above-described first embodiment, a case has been described in which presentation information is selected using the selection conditions described above with reference to FIG. 10; however, the present invention is not limited to this. One of the various selection conditions, or the various pieces of selection information shown in FIG. 12 and the selection conditions described above with reference to FIG. 10 are used to selectively use one or a plurality of selection conditions to select the presentation information. Is also good.
[0050]
Here, the various selection conditions shown in FIG. 12 will be described in detail. First, when the first selection condition is used, the
[0051]
In this case, the
[0052]
When the
[0053]
Then, the
[0054]
In this case, the
[0055]
Further, when using the third selection condition, the
[0056]
Then, the
[0057]
In this case, the
[0058]
Furthermore, when the
[0059]
Then, the
[0060]
In this case, the
[0061]
Further, when the fifth selection condition is used, the
[0062]
Then, the
[0063]
In this case, the
[0064]
Further, when using the sixth selection condition, the
[0065]
In this case, the
[0066]
By the way, in the
[0067]
In addition, when using the batting information in each of the above-described selection conditions, the batting average below the predetermined threshold or the batting average of the user to be enlightened does not need to specify the minimum and maximum batting averages and the batting averages above the predetermined threshold. Good or bad batting average, batting average value deviated from the batting average of the user to be enlightened by a predetermined threshold or more, batting average deviated from the batting average of the enlightening target user by a first threshold or more, and equal to or less than a second threshold, furthermore, the enlightened user The past accumulated information data D4 can also be selected under conditions such as a batting average substantially the same as (similar to) the batting average.
[0068]
Further, as the selection condition used for selecting the accumulated information data D4, a selection condition in which a part of each of the selection condition described above with reference to FIG. 10 and the first to sixth selection conditions described above with reference to FIG. Various other selection conditions such as a selection condition using a rotation angle can be used.
[0069]
In addition, in the
[0070]
Further, the
[0071]
Further, in the
[0072]
Similarly, in the
[0073]
Further, the
[0074]
Further, in the
[0075]
Further, in the first embodiment described above, the case where the accumulated information data D4 including the input information data D2 and the processing tendency information data D3 is accumulated in the
[0076]
Further, in the first embodiment described above, a series of processes shown in the first enlightenment promotion processing procedure RT1 described above with reference to FIG. 2 represents a processing method performed on the process target (ball) by the enlightenment target user. As the information, a case has been described in which the
[0077]
By the way, if a batting moving image consisting of such a three-dimensional moving image is used, processing tendency information (for example, a ball) that three-dimensionally captures the processing tendency of the user to be enlightened by hitting the batting moving image by performing image processing on the batting moving image. As a course, a lower inner angle or a higher outer angle) can be extracted. If the batting moving image composed of such a three-dimensional moving image and the selection conditions described above with reference to FIG. 10 and the first to fifth selection conditions described above with reference to FIG. Almost the same batting method can be presented.
[0078]
Further, in the above-described first embodiment, a case has been described in which the enlightenment target user is urged to enlighten the improvement point of batting in baseball batting to improve the processing ability. However, the present invention is not limited to this, and it is also possible to promote the enlightenment target user to enlighten an improvement point of a processing method in various other processes using a ball as a processing target, such as golf or tennis, so as to improve the processing capability. In addition, the same effects as those of the above-described first embodiment can be obtained in these various processes. By the way, when the enlightenment target user is encouraging the enlightenment of an improvement point of a processing method in various other processes such as using a ball as a processing object such as golf or tennis and the processing capability is to be improved, the processing value is used as an evaluation value. Score, handicap, win rate, and the like according to the score.
[0079]
(2) Second embodiment
In FIG. 13,
[0080]
In addition, every time the
[0081]
In this case, the
[0082]
That is, as shown in FIG. 14, the
[0083]
Here, as shown in FIG. 15, the
[0084]
At this time, as shown in FIG. 16 and FIG. 17, the
[0085]
Here, as shown in FIG. 18, the moving image for
[0086]
At this time, the
[0087]
Then, the
[0088]
In step SP52, the
[0089]
In this state, the
[0090]
In step SP53, the
[0091]
If a positive result is obtained in step SP53, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a work frame setting instruction, and at this time, the
[0092]
In step SP54, the
[0093]
As a result, as shown in FIG. 19, the
[0094]
As a result, the
[0095]
On the other hand, if a negative result is obtained in step SP53 described above, this means that the extraction processing instruction C50 input by the enlightenment target user is an instruction other than the work frame setting instruction. The
[0096]
In step SP55, the
[0097]
If a positive result is obtained in step SP55, this indicates that the instruction C50 for extraction processing input by the enlightened user is a correction mode setting instruction, and at this time, the
[0098]
In step SP56, the
[0099]
If a negative result is obtained in step SP55 described above, this means that the extraction processing instruction C50 input by the enlightened user is an instruction other than the work frame setting instruction and the correction mode setting instruction. At this time, the
[0100]
In step SP57, the
[0101]
If a positive result is obtained in step SP57, this indicates that the extraction processing instruction C50 input by the enlightened user is a propagation range setting instruction, and at this time, the
[0102]
In step SP58, the
[0103]
In this state, for example, as shown in FIG. 19, the
[0104]
Thereby, the
[0105]
Incidentally, when the propagation range setting command is input before the generation of the object designation region for the
[0106]
Then, the
[0107]
However, the
[0108]
Further, if a negative result is obtained in step SP57 described above, this means that the extraction processing instruction C50 input by the enlightened user is an instruction other than the work frame setting instruction, the correction mode setting instruction, and the propagation range setting instruction. At this time, the
[0109]
In step SP59, the
[0110]
If an affirmative result is obtained in step SP59, this means that the extraction processing instruction C50 input by the enlightenment target user is a processing corresponding to at least the work frame setting instruction and the propagation range setting instruction for the generation propagation range (step SP54). And the outline designation command input after the execution of the processing described above in step SP58). At this time, the
[0111]
In step SP60, the
[0112]
As a result, as shown in FIG. 20, the
[0113]
In this state, if the outline of the
[0114]
Then, the
[0115]
Further, the
[0116]
In step SP61, the
[0117]
Then, based on the motion vector read from the motion vector detection and
[0118]
Thereby, the
[0119]
In addition, the
[0120]
Here, as shown in FIG. 21, when the object generation propagation area is generated by the area generation recording circuit 67, the
[0121]
At this time, if the
[0122]
For this reason, the
[0123]
In this way, the
[0124]
Then, the
[0125]
At this time, the
[0126]
As a result, the
[0127]
If a negative result is obtained in step SP59 described above, this indicates that the extraction processing instruction C50 input by the enlightened user is an instruction other than the work frame setting instruction, the correction mode setting instruction, the propagation range setting instruction, and the contour designation instruction. At this time, the
[0128]
In step SP62, the
[0129]
If an affirmative result is obtained in step SP62, this indicates that the extraction processing instruction C50 input by the enlightened user is a processing corresponding to the work frame setting instruction, the correction mode setting instruction, the propagation range setting instruction, and the contour designation instruction. (The processing described in step SP54, step SP56, step SP58, step SP60, and step SP61) indicates that the instruction is an area correction instruction that has been input. At this time, the
[0130]
Here, the
[0131]
However, if the
[0132]
When the
[0133]
The projecting
[0134]
For this reason, in step SP63, the
[0135]
In this state, as shown in FIGS. 23 (A) and (B), the
[0136]
Incidentally, at this time, the
[0137]
The
[0138]
Further, the
[0139]
The
[0140]
Then, the
[0141]
Accordingly, the
[0142]
Further, the
[0143]
Then, the
[0144]
In this state, if the correction mode at that time is deleted based on the correction mode setting information by the area generation recording circuit 67, the
[0145]
If the correction mode at that time is added based on the correction mode setting information by the area generation recording circuit 67, the
[0146]
Then, the
[0147]
In this manner, the
[0148]
That is, if the protruding
[0149]
Then, the
[0150]
Further, the
[0151]
Then, the
[0152]
Thereby, the
[0153]
In this way, the
[0154]
In addition, if a negative result is obtained in step SP62 described above, this indicates that the extraction processing instruction C50 input by the enlightened user is a work frame setting instruction, a correction mode setting instruction, a propagation range setting instruction, a contour designation instruction. And an instruction other than the area correction instruction. At this time, the
[0155]
In step SP64, the
[0156]
If an affirmative result is obtained in step SP64, this means that the extraction processing instruction C50 input by the enlightenment target user is processed at least according to the work frame setting instruction, the propagation range setting instruction, and the contour designation instruction (step SP54, This indicates that the command is an area inversion command that has been input after the steps SP58, SP60, and SP61 have been executed, and the
[0157]
In step SP65, the
[0158]
In the initial state, the
[0159]
On the other hand, when the area inversion command is input in the out-of-interpolation area mode, the
[0160]
When the setting
[0161]
When the
[0162]
When the
[0163]
Further, the
[0164]
The
[0165]
Thus, the
[0166]
By the way, when the
[0167]
In this case, the
[0168]
In this manner, the
[0169]
If a negative result is obtained in step SP64, this means that the object designation area changed in accordance with the movement of the
[0170]
In step SP66, the
[0171]
In step SP67, the
[0172]
Here, the skill of the enlightenment target user is determined using a moving image for trial of an area extraction operation generated by a computer or the like according to a predetermined image generation program (hereinafter, this is referred to as a moving image for area extraction trial). The result of periodically performing the area extraction operation by the enlightenment target user on a trial basis is used each time.
[0173]
In this case, the region extraction trial moving image is composed of a plurality of frame images (hereinafter, referred to as a trial frame image) including an object whose area can be continuously specified in time (hereinafter referred to as an “region extraction trial object”). ), And is generated such that the outline of the region extraction trial object can be almost accurately recognized by image processing using a general image processing application program executed by a computer or the like.
[0174]
Therefore, the skill of the enlightenment target user is similar to the above-described region extraction processing routine SRT51 using the region extraction trial moving image, and the region extraction operation of the object designation region for the region extraction trial objects in the plurality of trial frame images is performed. When the trial is performed, for example, the shape of the object designated area is compared with the outline of the actual area extraction trial object by image processing, and the precision is set with a predetermined accuracy (an error amount within a preset threshold). The determination is made quantitatively by using the reciprocal of the time required until the object designated area is extracted (that is, the time required for the area designated trial processing in which the object designated area is extracted on a trial basis).
[0175]
Incidentally, the skill of the enlightenment target user can be determined to be high if the object designation area is extracted on a trial basis with a predetermined accuracy in a relatively short time, and in this case, the time required for the area designation trial processing can be determined. Is large, the value is large.
[0176]
In addition, the skill of the enlightened user can be determined to be low if the object designation area is extracted on a trial basis with a predetermined accuracy over a relatively long time. In this case, it is necessary to perform the area designation trial processing. The value becomes smaller due to the longer time taken.
[0177]
Then, when the
[0178]
Further, while the
[0179]
Therefore, as shown in FIG. 27, the
[0180]
In step SP68, the
[0181]
Further, the
[0182]
Further, the
[0183]
In addition to this, the
[0184]
In the
[0185]
Thereby, the
[0186]
In step SP69, the
[0187]
In addition, in step SP70, the
[0188]
As a result, the
[0189]
Next, the
[0190]
In this way, the
[0191]
As a result, the
[0192]
In step SP71, the
[0193]
In this manner, the
[0194]
As a result, the
[0195]
By the way, in the case of the second embodiment, the
[0196]
Then, the
[0197]
Thereby, the
[0198]
In other words, the
[0199]
In the above configuration, the
[0200]
Then, the
[0201]
At this time, the
[0202]
Next, the
[0203]
Therefore, the
[0204]
In addition, when presenting the presentation information to the enlightenment target user, when the presentation information addition command C51 is input, the
[0205]
Therefore, the
[0206]
In addition, the
[0207]
Then, when the outline of the
[0208]
Therefore, the
[0209]
In addition, when the
[0210]
According to the above configuration, a series of area extraction processing screens displayed when the enlightenment target user performs an area extraction operation of extracting an object designated area from the object
[0211]
In the second embodiment described above, the processing tendency information data D65 of the enlightenment target user is compared with the processing tendency information data D65 included in the past accumulation information data D67 already accumulated in the
[0212]
In this way, since the enlightenment target user can be presented as the presentation information the details of the region extraction processing of a plurality of users with different skills, the enlightenment target user can be presented more than the case of the above-described second embodiment. It is possible to cause the user to find more improved points in his / her area extraction method.
[0213]
Further, the processing tendency information data D65 of the enlightened target user is compared with the processing tendency information data D65 included in the past storage information data D67 already stored in the
[0214]
Further, in the above-described second embodiment, a case has been described in which a series of area extraction processing screens in the area extraction processing of another user are presented to the enlightenment target user as presentation information. Not limited to this, the past accumulated information data D67 includes the past accumulated information data D67 of the enlightenment target user. When the past accumulated information data D67 of the enlightened target user is selected, the past accumulated information data D67 is included in the accumulated information data D67. A series of area extraction processing screens in the past area extraction processing may be presented to the enlightenment target user as presentation information. In this case, for example, if the skill of the past region extraction method is higher than the current region extraction method of the enlightenment target user, the area to be improved in the current region extraction method is the region extraction method when the past skill is high. It can be easily found by comparing with.
[0215]
Furthermore, in the above-described second embodiment, a case has been described where all pieces of past accumulated information data D67 are used when selecting presentation information to be presented to an enlightened user, but the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D67 used for the past presentation is determined based on the presentation history. Alternatively, other past accumulated information data D67 may be used.
[0216]
In this way, it is possible to prevent the presentation information presented in the past to the enlightenment target user from being presented again and to present new presentation information. Enlightenment of people. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D67 used for the presentation of the presentation information regardless of the presentation target user is not used for the selection of the subsequent presentation information. Such processing can also be realized by forcibly regulating.
[0217]
Further, in the above-described second embodiment, a case has been described in which the presentation information is selected using the selection conditions described above with reference to FIG. 29, but the present invention is not limited to this, and the present invention is not limited to this. One of the various selection conditions, or the various pieces of selection information shown in FIG. 31 and the selection conditions described above with reference to FIG. 29 are used to selectively use one or a plurality of selection conditions to select the presentation information. Is also good.
[0218]
Here, the various selection conditions shown in FIG. 31 will be described in detail. First, when the first selection condition is used, the
[0219]
In this case, the
[0220]
When the second selection condition is used, the
[0221]
Then, the
[0222]
In this case, the
[0223]
Further, in the case where the third selection condition is used, the
[0224]
Then, the
[0225]
In this case, the
[0226]
Further, when using the fourth selection condition, the
[0227]
Then, the
[0228]
In this case, the
[0229]
Further, when the fifth selection condition is used, the
[0230]
Then, the
[0231]
In this case, the
[0232]
Further, when using the sixth selection condition, the
[0233]
In this case, the
[0234]
By the way, in the
[0235]
In addition, when the skill information is used in each of the above-described selection conditions, the skill less than or equal to the predetermined threshold or the skill of the user to be enlightened can be set without specifying the minimum and maximum skills or the skill that is equal to or more than the predetermined threshold. High or low skill, skill of a value separated from the skill of the enlightenment target user by a predetermined threshold or more, skill separated from the skill of the enlightenment target user by a predetermined first threshold or more, and not more than the second threshold, and further, enlightenment target user The past accumulated information data D67 can also be selected under conditions such as skills that are substantially the same (similar) as the skills of the past.
[0236]
Further, as the selection conditions used for selecting the accumulated information data D67, the selection conditions described above with reference to FIG. 29 and the selection conditions obtained by partially replacing each of the first to sixth selection conditions described above with reference to FIG. Alternatively, various other selection conditions, such as a selection propagation condition that uses the state of the correction propagation range and the state of the correction portion, can be used.
[0237]
In addition, in the
[0238]
In addition, the
[0239]
Further, in the
[0240]
Similarly, in the
[0241]
Further, the
[0242]
Further, the
[0243]
Further, in the above-described second embodiment, the case has been described in which the storage information data D67 including the input information data D65 and the processing tendency information data D66 is stored in the
[0244]
Further, in the above-described second embodiment, when performing the area designation processing, various extraction processing instructions C50 described in the area extraction processing routine SRT51 described above with reference to FIGS. 16 to 17 can be input. However, the present invention is not limited to this, and in addition to these various extraction processing instructions C50, other various instructions, such as so-called undo, may return to the previous processing. You may make it input as a command.
[0245]
Further, in the above-described second embodiment, a series of area extraction processing screens as the selected area extraction method are reproduced for the enlightenment target user in accordance with the lapse of time of the actually performed area extraction operation. However, the present invention is not limited to this, and information indicating a temporal display order for a series of area designation processing screens is recorded in advance, and the enlightenment target user is requested to switch. The individual area extraction processing screens may be sequentially switched and presented accordingly.
[0246]
(3) Third embodiment
In FIG. 32,
[0247]
Further, when performing the contour extraction processing for extracting the contour of the object to be extracted from the moving image for object extraction according to the contour extraction operation actually performed by the user, the
[0248]
Then, when the contour extraction operation is performed by each user, the
[0249]
In practice, the
[0250]
As shown in FIG. 33, the
[0251]
The
[0252]
Here, the
[0253]
That is, as shown in FIG. 34, the
[0254]
In step SP101, the
[0255]
At this time, as shown in FIG. 35, the
[0256]
In step SP201, the
[0257]
Here, as shown in FIG. 36, the contour extraction
[0258]
Then, the
[0259]
In addition, the
[0260]
As a result, the
[0261]
In this state, the
[0262]
The
[0263]
In step SP202, the
[0264]
In this state, when the user traces and designates the contour of the trial object TJ7 in the trial last frame image TF7 on the contour extraction trial processing screen via the operation unit such as a mouse in this state. Then, a trial last input contour signal S102 corresponding to the input contour obtained as a result (hereinafter, referred to as a trial last input contour) is taken into the
[0265]
The
[0266]
As shown in FIG. 37, the
[0267]
Here, since the trial objects TJ1 to TJ7 are moving while gradually changing their shapes in the temporally continuous trial frame images TF1 to TF7 (FIG. 36), as shown in FIG. When the input contour line StTL and the trial end input contour line EnTL are shown on the same frame image, the positions of the trial head input contour forming points StTP1 to StTP20 and the trial trailing end input contour forming points EnTP1 to EnIT24 are different from each other.
[0268]
Also, in the trial start input contour line StTL and the trial end input contour line EnTL, the sampling intervals for generating the trial start input contour formation points StTP1 to StTP20 and the trial end input contour formation points EnTP1 to EnTP24 are the same. Since the drawing speed when the user traces each of the trial objects TJ1 and TJ7 through a mouse or the like and the size and shape of the contours of the trial objects TJ1 and TJ7 are different, the trial head input contour forming points StTP1 to StTP1 to The total number of StTP20 and the trial end input contour forming points EnTP1 to EnTP24 are different from each other.
[0269]
Therefore, in step SP301, the
[0270]
As a result, the
[0271]
Then, the
[0272]
Accordingly, the
[0273]
In step SP <b> 302, the
[0274]
In this state, as shown in FIG. 41, the
[0275]
In this way, the
[0276]
In step SP303, the
[0277]
In addition, the
[0278]
Then, the
[0279]
Here, considering the correspondence between the new contour formation points NSTP1 to NSTP24 and the trial end input contour formation points EnTP1 to EnTP24, the new contour formation points NSTP1 to NSTP24 are the trial first frame image TF1 and the trial final frame image TF7. If the final contour forming points NSTP1 to NSTP24 and the trial trailing edge contours that have been almost correctly associated with the trial trailing edge contour points EnTP1 to EnTP24 that have moved through the plurality of trial frame images TF2 to TF6 between them. The sum of the forward-turning pair distances ODa2 to ODa24 or the backward-turning pair distances RDa2 to RDa24 between the formation points EnTP1 to EnTP24 is relatively small.
[0280]
On the other hand, the new contour forming points NSTP1 to NSTP24 have been moved through the plurality of trial frame images TF2 to TF6 between the first frame image TF1 for trial and the last frame image TF7 for trial, and the last contour forming point EnTP1 for trial. If the new contour forming points NSTP1 to NSTP24 and the trial rearmost contour forming points EnTP1 to EnTP24 are associated with different trial end contour forming points EnTP1 to EnTP24 without being correctly associated with EnTP24. Since the relationship is different from the original one, the sum of the forward-turning pair distances ODa2 to ODa24 or the backward-turning pair distances RDa2 to RDa24 becomes relatively large.
[0281]
Therefore, the
[0282]
In step SP304, the
[0283]
In the
[0284]
In addition, the
[0285]
In step SP305, the
[0286]
Then, the
[0287]
Here, the center of gravity StTC of the trial start input contour StTL moves by the center of gravity moving distance L1 (FIG. 40A) from the trial start frame image TF1 to the trial end frame image TF7, and the trial end. It is estimated that the position (coordinate value) of the center of gravity EnTC of the trial last input contour line EnTL in the frame image TF7 is reached.
[0288]
Therefore, as shown in FIG. 44, the
[0289]
Then, the
[0290]
In addition, the
[0291]
In this way, the
[0292]
By the way, the trial start input contour forming points (new contour forming points NSTP1 to NSTP24) and the trial end input contour forming points EnTP1 to EnTP24 are sequentially generated in the direction in which the user traces the trial object TJ7.
[0293]
Therefore, when the new contour forming points NSTP1 to NSTP24 and the trial end contour forming points EnTP1 to EnTP24 are simply associated with each other in the order of their generation, the drawing of the trial start input contour StTL and the trial trailing input contour EnTL is mutually performed. In the case of the reverse direction (that is, the direction following the trial objects TJ1 and TJ7 is reverse), the trial estimation contour lines TLA1 to TLA5 between the trial start input contour line StTL and the trial end input contour line EnTL are once inverted. (Ie, flip it over).
[0294]
However, in the
[0295]
In step SP203, the
[0296]
As a result, as shown in FIG. 45, the
[0297]
In the
[0298]
Here, for example, the average error amount between the measurement reference contour line ROL1 and the trial head input contour line StTL is obtained by averaging the error between each part of the measurement reference contour line ROL1 and the corresponding part of the trial head input contour line StTL. This value indicates the average deviation of the trial start input contour line StTL from the measurement reference contour line ROL1 over one round.
[0299]
In step SP204, the
[0300]
If a negative result is obtained in step SP204, this means that the average error amount is predetermined in at least one of the first frame image for trial TF1, the intermediate frame images for trial TF2 to TF6, and the last frame image for trial TF7. At this time, the
[0301]
In step SP205, the
[0302]
Accordingly, the
[0303]
Then, the
[0304]
In this state, the
[0305]
As a result, when the trial object TJ4 in the trial intermediate frame image TF4 selected by the user is arbitrarily traced and designated, the
[0306]
In this case, when the trial object TJ4 in the trial intermediate frame image TF4 is traced and designated, the
[0307]
Then, the
[0308]
Thereby, the
[0309]
Further, the
[0310]
In this manner, the
[0311]
At this time, the
[0312]
Accordingly, the
[0313]
On the other hand, if a positive result is obtained in step SP204, this means that the first frame image for trial TF1, the intermediate frame images for trial TF2 to TF6, and the last frame image for trial TF7 (that is, all the trial frame images TF1 to TF1). TF7) indicates that the average error amount has reached the predetermined threshold value or less. At this time, the
[0314]
In step SP206, the
[0315]
Here, the user having a low skill of the contour extraction trial operation repeatedly performs the trial first frame TF1, the trial intermediate frames TF2 to TF6, and the trial last frame TF7 many times until the average error amount becomes equal to or less than the predetermined threshold. Since the user is required to specify the contours of the trial objects TJ1 to TJ7, the total number of input frame images tends to increase.
[0316]
On the other hand, a user with high skill in the contour extraction trial operation does not specify the contours of the trial objects TJ1 to TJ7 in the trial first frame TF1, the trial intermediate frames TF2 to TF6, and the trial last frame TF7 many times. However, since the average error amount reaches a predetermined threshold value or less, the total number of input frame images tends to decrease.
[0317]
Therefore, when the total number of input frame images is smaller than the frame image reference number, the
[0318]
In step SP102, the
[0319]
In step SP103, the
[0320]
Further, the
[0321]
As shown in FIG. 47, the
[0322]
The
[0323]
As a result, in step SP104, the
[0324]
In this way, the
[0325]
Incidentally, in the
[0326]
Next, the
[0327]
In this case, the
[0328]
That is, as shown in FIG. 49, the
[0329]
In step SP110, the
[0330]
Here, as shown in FIG. 50, the moving
[0331]
Then, the
[0332]
In step SP111, the
[0333]
In step SP112, the
[0334]
In step SP113, the
[0335]
In practice, the
[0336]
In this state, the
[0337]
In step SP114, the
[0338]
If a positive result is obtained in step SP114, this indicates that the enlightenment target user Y1 is a user with low skill in the contour extraction operation based on the result of the contour extraction trial operation, as shown in FIG. At this time, the
[0339]
In step SP115, the
[0340]
As a result, the
[0341]
Here, a series of contour extraction processing screens based on the contour extraction history screen data D111 are displayed on the monitor of the
[0342]
In step SP116, the
[0343]
On the other hand, if a negative result is obtained in step SP114, this means that the enlightenment target user Y3 is determined to be a highly skilled user based on the result of the contour extraction trial operation as shown in FIG. At this time, the
[0344]
In step SP117, the
[0345]
As a result, the
[0346]
In this case, in step SP <b> 116, the
[0347]
In this way, as illustrated in FIG. 52, the
[0348]
On the other hand, the
[0349]
Then, the
[0350]
Subsequently, after presenting the presentation information to the enlightenment target user, the
[0351]
At this time, the
[0352]
That is, as shown in FIG. 53, the
[0353]
In step SP130, the
[0354]
In addition, the
[0355]
As a result, the
[0356]
In this state, as shown in FIG. 54, the
[0357]
The
[0358]
In step SP131, the
[0359]
As a result, the
[0360]
In this state, the
[0361]
Then, the
[0362]
In step SP132, the
[0363]
That is, the
[0364]
Then, the
[0365]
Next, the
[0366]
In this state, as shown in FIG. 56, the
[0367]
Subsequently, the
[0368]
Further, as shown in FIG. 57 (B), the
[0369]
Next, the
[0370]
Then, the
[0371]
The
[0372]
Then, the
[0373]
In addition, the
[0374]
Then, the
[0375]
In this way, the
[0376]
The
[0377]
In step SP133, the
[0378]
As a result, as shown in FIG. 59, the
[0379]
In step SP134, the
[0380]
If a negative result is obtained in this step SP134, this means that a process end instruction has not been input by the enlightenment target user who visually confirmed the estimated contour lines OLA1 to OLAn-2 via the contour extraction processing screen, that is, the contour This indicates that the contours of the objects OJ2 to OJn-1 in the extraction intermediate frame images OF2 to OFn-1 have not been extracted with the accuracy that the enlightenment target user can understand, and that the contour extraction operation is continuously performed. At this time, the
[0381]
In step SP135, the
[0382]
In this manner, the
[0383]
As a result, as shown in FIG. 60, the
[0384]
In this case, the
[0385]
Then, the
[0386]
Here, the
[0387]
Further, the
[0388]
Then, the
[0389]
Thereby, the
[0390]
As a result, the
[0391]
In this state, if, for example, a negative result is obtained again in step SP134, the
[0392]
Then, the
[0393]
In this case, in step SP132, the
[0394]
Then, the
[0395]
Here, the
[0396]
In addition, the
[0397]
Then, the
[0398]
Thereby, the
[0399]
As a result, the
[0400]
Thus, the
[0401]
Therefore, the
[0402]
On the other hand, if a positive result is obtained in step SP134, this means that the contours of the objects OJ2 to OJn-1 in the intermediate frame images for contour extraction OF2 to OFn-1 can be extracted with the accuracy that the enlightenment target user can understand. This indicates that the process completion command for terminating the contour extraction process has been input by the enlightening target user. At this time, the
[0403]
In step SP136, the
[0404]
Then, the
[0405]
Further, while executing the above-described contour extraction processing procedure RT102 (that is, the contour extraction processing using the moving
[0406]
Therefore, the
[0407]
In this way, as shown in FIG. 61, the
[0408]
In the above configuration, in the trial mode, the
[0409]
Further, the
[0410]
Then, in the information presentation mode prior to the contour extraction processing mode, the
[0411]
Next, the
[0412]
Therefore, the
[0413]
In addition, in the information presentation mode, the
[0414]
According to the above configuration, in the trial mode, the enlightenment target user is caused to perform the contour extraction trial operation for extracting the contours of the trial objects TJ1 to TJ7 from the contour extraction
[0415]
In the above-described third embodiment, after a series of contour extraction processing screens showing the history of the contour extraction operation performed by another user in the past are presented to the enlightenment target user, the object extraction is performed for the enlightenment target user. The case where the contour extraction operation is performed on the contours of the objects OJ1 to OJn in the
[0416]
In the third embodiment, in the trial mode, the skill of each user is determined according to the total number of input frame images based on a preset frame image reference number Bor1 (FIG. 48). However, the present invention is not limited to this. In the trial mode, the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images as shown in FIG. The user's skill is determined by the threshold Bor2, or the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images as shown in FIG. 64, and the number of users having high or low skill is limited to a predetermined number. The skill of each user may be determined based on such a threshold Bor3. In this case, the skill of the user can be determined according to the tendency of the total number of input frame images for each user.
[0417]
Furthermore, in the third embodiment described above, in the information presentation mode, the past accumulated information data D109 of the user of the contour extraction technique similar to the contour extraction technique of the enlightened user is selected from the past accumulated information data D109 (limited). However, the present invention is not limited to this, and the name of the object extracted by the contour extraction trial operation and / or the contour extraction operation performed by each user is stored in the past accumulation information data D109. In the information presentation mode, the enlightenment target user is caused to input the name of an object (for example, a star or a human upper body) in the moving image for object extraction, and the past accumulated information data D109 including the information on the name of the object is selected. (Limited) or image features included as processing tendency information in the accumulated information data D109 of the enlightened user By comparing the information and the image feature information included as the processing tendency information in the past accumulated information data D109, the same or similar object as the object having the contour extracted by the enlightenment target user (or a similar object extracting moving image) The user may select (restrict) the past accumulated information data D109 of the user who has extracted the contour of the object inside.
[0418]
In this case, the enlightenment target user performs an outline extraction operation on the same or similar object as the object from which the outline is to be extracted, or on the same or similar object extraction moving image as the object extraction moving image used for extracting the outline. Since a series of contour extraction processing screens representing the contour extraction methods of the other users can be presented, the enlightened user can be more appropriately prompted to improve his / her own contour extraction method.
[0419]
Furthermore, in the third embodiment described above, in the information presentation mode, when the skill of the enlightened user Y1 (FIG. 51) is low, the past accumulated information data of the user Y2 having the highest skill among the past accumulated information data D109. D109 is finally selected, and when the skill of the enlightened user Y3 is high, the past accumulated information data D109 of the user Y4 with the lowest skill is finally selected from the past accumulated information data D109. However, the present invention is not limited to this. As shown in FIG. 65, in the information presentation mode, when the skill of the enlightenment target user Y5 is low, the skill of the enlightenment target user Y5 is determined from the past accumulated information data D109. Finally, the past accumulated information data D109 of the user Y6 having the highest skill within the certain range W is selected, and the skill of the user Y7 to be enlightened is high. If I may be finally selected in the past accumulated information data D109 of the awareness target user Y7 of lowest skill within a certain range W relative to the skill user Y8 from the past accumulated information data D109.
[0420]
In this case, when the skill of the user selected to present the outline extraction method to the enlightenment target user is too high or too low and the outline extraction operation is performed by the user, a series of outline extraction processing screens is displayed. Can be prevented from being difficult to use for promoting the improvement of the outline extraction method.
[0421]
Further, in the above-described third embodiment, the result of the contour extraction trial operation of the enlightenment target user is stored in the
[0422]
Further, in the above-described third embodiment, a case is described in which an estimated contour is estimated from an input contour obtained by tracing the contour of an object via an operation unit such as a mouse. However, the present invention is not limited to this, and the estimated contour line can be obtained from a designated area that specifies the object by filling the area on the inner peripheral side of the contour of the object, or a designated area that specifies the object by painting the background of the object. It may be estimated and generated.
[0423]
Further, in the above-described third embodiment, when extracting an outline of an object from a moving image, first, a frame image for extracting the first and last frames and a frame image for trial are extracted from a plurality of frame images constituting the moving image. Is described, but the present invention is not limited to this, and when extracting an outline of an object from a moving image, two arbitrary frame images are first arbitrarily selected from a plurality of frame images constituting the moving image. You may make it select.
[0424]
(4) Other embodiments
In the above-described first to third embodiments, a case has been described in which the information processing apparatus according to the present invention is applied to the
[0425]
In the above-described first to third embodiments, the information processing program according to the present invention includes the first and second enlightenment promotion programs, the outline extraction trial program, the information presentation program, and the outline described above with reference to FIGS. The first and second enlightenment promotion procedures RT1 and RT50 described above with reference to FIGS. 2 and 14 according to the first and second enlightenment promotion programs are applied to the extraction processing program, and the contour extraction trial program is executed. Although the case where the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101, and the contour extraction processing procedure RT102 described above with reference to FIGS. 34, 49, and 53 are executed according to the information presentation program and the contour extraction processing program has been described, The present invention is not limited to this. Ram, a contour extraction trial program, an information presentation program, and a contour extraction processing program are installed in the
[0426]
Incidentally, the first and second awareness promotion programs for executing the first and second awareness promotion procedures RT1 and RT50, the contour extraction trial procedure RT100, the information presentation procedure RT101, and the contour extraction procedure RT102 described above, Examples of a program storage medium for installing the contour extraction trial program, the information presentation program, and the contour extraction processing program in the
[0427]
Further, in the above-described first to third embodiments, a storage method for storing, for a plurality of users, storage information including a processing method of processing performed on a processing target by a user and an evaluation value for the processing, Although the case where the
[0428]
Further, in the above-described first to third embodiments, the comparing means for comparing any one of the processing method and the evaluation value of the specific user with the one included in the accumulated information accumulated in the accumulating means is used. 1 to 65 have been described above, the present invention is not limited to this, and the present invention is not limited to this. If any one of the evaluation values can be compared with one included in the stored information stored in the storage means, as in a dedicated comparison circuit or the like different from the presentation
[0429]
Further, in the above-described first to third embodiments, the information selecting means for selecting the stored information from the plurality of stored information stored in the storing means in accordance with the comparison result by the comparing means, as shown in FIGS. Although the case in which the presentation
[0430]
Further, in the above-described first to third embodiments, the monitor and speaker described above with reference to FIGS. 1 to 65 are used as presentation means for presenting the processing method included in the stored information selected by the information selection means to a specific user. Although the case where the
[0431]
Further, in the above-described first to third embodiments, as an image selecting means for selecting one frame image for specifying an outline of an object from a plurality of frame images constituting a moving image, FIG. Although the case where the operation unit such as the mouse (not shown) described above is applied to FIG. 31 has been described, the present invention is not limited to this. In addition, various image selection means can be widely applied.
[0432]
Further, in the above-described first to third embodiments, as an image setting means for setting a plurality of frame images for extracting an object designated area from a plurality of frame images constituting a moving image, FIG. Although the case where the operation unit such as the mouse (not shown) described above is applied to FIG. 31 has been described, the present invention is not limited to this. In addition, various image setting means can be widely applied.
[0433]
Further, in the above-described first to third embodiments, the motion vector
[0434]
Further, in the above-described first to third embodiments, the outline specifying means for specifying the outline of the object in one frame image selected via the image selecting means is described with reference to FIGS. However, the present invention is not limited to this, and various other contour designating means such as a pointing device such as a joystick, stylus pen, and touch panel may be used. Can be widely applied.
[0435]
Further, in the above-described first to third embodiments, the plurality of images set by the image setting means based on the motion vector detected by the motion vector detecting means and the contour specified by the contour specifying means. 13 to 31 as the designated area extracting means for extracting the object designated area for the frame image described above, the present invention is not limited to this. Various other designated region extracting means such as an external region extracting device separated from the
[0436]
Further, in the above-described first to third embodiments, the input history by the image selecting means, the image setting means, and the contour designating means, which is the processing method included in the storage information stored in the storage means, is shown in FIGS. Although the description has been given of the case where the region extraction history screen data consisting of the above-described series of region extraction processing screens is applied to the image No. 31, the present invention is not limited to this. And the like, various other input histories can be widely applied.
[0437]
Further, in the above-described first to third embodiments, at least two first and second frame images for specifying an outline of an object are selected from a plurality of frame images constituting a moving image. A case has been described in which an operation unit such as a mouse (not shown) described above with reference to FIGS. 32 to 65 is applied as the image selection unit. However, the present invention is not limited to this. Various other image selecting means such as a keyboard and a keyboard can be widely applied.
[0438]
Further, in the above-described first to third embodiments, as the outline designating means for designating the contours of the objects in the first and second frame images selected via the image selecting means, respectively, FIG. 65 to 65, the operation unit such as a mouse (not shown) described above is applied. However, the present invention is not limited to this, and various other devices such as a pointing device such as a joystick, a stylus pen, and a touch panel are used. Can be widely applied.
[0439]
Further, in the above-described first to third embodiments, when another frame image exists between the first and second frame images, the first and second frame images in the first and second frame images are transmitted via the contour designating means. As the contour estimating means for estimating the outline of an object in another frame image from the first and second outline specification results obtained by specifying the outline of the object, the outline described above with reference to FIGS. Although the case has been described where the guess generation circuit 114 is applied, the present invention is not limited to this, and when another frame image exists between the first and second frame images, The objects in the other frame images are obtained from the first and second outline specification results obtained by specifying the outlines of the objects in the first and second frame images, respectively. If it is possible to infer the contour, CPU as such (Central Processing Unit) or a microprocessor, it is possible to widely apply various other outline estimating means.
[0440]
Further, in the above-described first to third embodiments, the input history by the image selecting means and the contour specifying means, which is the processing method included in the accumulated information accumulated in the accumulating means, has been described above with reference to FIGS. A case has been described in which the outline extraction process screen data D111, which is a series of outline extraction process screens, is applied. However, the present invention is not limited to this. In addition, various other input histories can be widely applied.
[0441]
【The invention's effect】
As described above, according to the present invention, the processing method of the processing performed on the processing target by the user and the storage information including the evaluation value for the processing are stored in the storage unit for a plurality of users, and the specific user One of the processing method and the evaluation value is compared with one included in the stored information stored in the storage unit, and the comparison unit selects the plurality of stored information stored in the storage unit by the information selection unit. The stored information is selected in accordance with the comparison result by the information processing means, and the processing method included in the stored information selected by the information selecting means is presented by the presenting means to the specific user. An information processing apparatus capable of promoting the improvement of a processing method of a specific user, and thus easily improving the processing capability of processing performed on a predetermined processing target It can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a first embodiment of a circuit configuration of an information processing apparatus according to the present invention.
FIG. 2 is a flowchart illustrating a first awareness promotion procedure;
FIG. 3 is a schematic diagram illustrating a configuration of input information.
FIG. 4 is a schematic diagram illustrating input information data.
FIG. 5 is a schematic diagram illustrating a configuration of a batting moving image.
FIG. 6 is a schematic diagram for explaining a course of a ball and detection of a height difference between a grip and a tip of a bat.
FIG. 7 is a schematic diagram illustrating a configuration of processing tendency information.
FIG. 8 is a schematic diagram for explaining storage of accumulated information data;
FIG. 9 is a schematic diagram for explaining the limitation of accumulated information data.
FIG. 10 is a schematic diagram illustrating selection conditions for selecting presentation information.
FIG. 11 is a schematic diagram illustrating a configuration of presentation information.
FIG. 12 is a schematic diagram illustrating selection conditions of presentation information according to another embodiment.
FIG. 13 is a block diagram illustrating a circuit configuration of an information processing apparatus according to a second embodiment.
FIG. 14 is a flowchart illustrating a second enlightenment promotion processing procedure.
FIG. 15 is a block diagram illustrating a circuit configuration of a region extraction unit.
FIG. 16 is a flowchart showing an area extraction processing routine (1).
FIG. 17 is a flowchart showing an area extraction processing routine (2).
FIG. 18 is a schematic diagram illustrating a configuration of a moving image for object extraction.
FIG. 19 is a schematic diagram for explaining setting of a work frame image and a propagation range.
FIG. 20 is a schematic diagram used to explain the specification of an outline of an object in a work frame image.
FIG. 21 is a schematic diagram for explaining generation of an object-designated propagation area;
FIG. 22 is a schematic diagram for explaining generation of an object designation area in a propagation range.
FIG. 23 is a schematic diagram used for explaining an instruction of a correction position with respect to an object designation area.
FIG. 24 is a schematic diagram for explaining correction of an object designation area.
FIG. 25 is a schematic diagram for explaining presentation of a corrected object designation area.
FIG. 26 is a schematic diagram for explaining an object designation area in which the area is reversed.
FIG. 27 is a schematic diagram illustrating a configuration of input information.
FIG. 28 is a schematic diagram illustrating a configuration of processing tendency information.
FIG. 29 is a schematic diagram illustrating selection conditions for selecting presentation information.
FIG. 30 is a schematic diagram illustrating a configuration of presentation information.
FIG. 31 is a schematic diagram illustrating selection conditions for presentation information according to another embodiment.
FIG. 32 is a block diagram illustrating a circuit configuration of an information processing device according to a third embodiment.
FIG. 33 is a block diagram illustrating a circuit configuration of a contour generation unit.
FIG. 34 is a flowchart showing a contour extraction trial processing procedure.
FIG. 35 is a flowchart showing a skill determination processing routine.
FIG. 36 is a schematic diagram illustrating a configuration of a moving image for contour extraction trial.
FIG. 37 is a flowchart illustrating an estimated contour generation processing routine.
FIG. 38 is a schematic diagram for explaining a trial start input contour forming point and a trial trailing input contour forming point;
FIG. 39 is a schematic diagram for explaining generation of a new contour forming point that newly forms a trial head input contour.
FIG. 40 is a schematic diagram for explaining a case where the centers of gravity of the trial start input contour and the trial end input contour are matched.
FIG. 41 is a schematic diagram for explaining the determination of a starting point pair;
FIG. 42 is a schematic diagram for explaining correspondence between a forward rotation direction and a reverse rotation direction;
FIG. 43 is a schematic diagram for explaining generation of a trial estimation contour.
FIG. 44 is a schematic diagram for explaining estimation of a center of gravity position in each trial frame image.
FIG. 45 is a schematic diagram for explaining presentation results of a trial leading input contour, a trial estimation contour, and a trial trailing input contour.
FIG. 46 is a schematic diagram illustrating a configuration of input information.
FIG. 47 is a schematic diagram illustrating a configuration of processing tendency information.
FIG. 48 is a schematic diagram used to explain the creation of a database of accumulated information data;
FIG. 49 is a flowchart showing an information presentation processing procedure.
FIG. 50 is a schematic diagram illustrating the configuration of a moving image for object extraction.
FIG. 51 is a schematic diagram for explaining selection of accumulated information data;
FIG. 52 is a schematic diagram illustrating a configuration of presentation information.
FIG. 53 is a flowchart showing a contour extraction processing procedure;
FIG. 54 is a schematic diagram for explaining generation of a leading input contour and a trailing input contour;
FIG. 55 is a schematic diagram for explaining a case where the centers of gravity of the first input contour and the last input contour are matched;
FIG. 56 is a schematic diagram for explaining the determination of a starting point pair;
FIG. 57 is a schematic diagram for explaining the association between the forward rotation direction and the reverse rotation direction;
FIG. 58 is a schematic diagram for explaining generation of an estimated contour line;
FIG. 59 is a schematic diagram illustrating a generation result of an estimated contour line for an intermediate frame image for contour extraction.
FIG. 60 is a schematic diagram for explaining generation of an estimated contour line based on an additional input contour line;
FIG. 61 is a schematic diagram for describing a final contour line;
FIG. 62 is a schematic diagram for explaining presentation of a screen for contour extraction processing according to another embodiment;
FIG. 63 is a schematic diagram for explaining a user's skill determination (1) according to another embodiment;
FIG. 64 is a schematic diagram explaining the determination (2) of the skill of the user according to another embodiment;
FIG. 65 is a schematic diagram for explaining selection of stored information data according to another embodiment;
[Explanation of symbols]
1, 50, 100 information processing apparatus, 2 information input section, 3, 52, 102 processing tendency information extraction section, 4, 53, 103 information storage section, 5, 54, 104 presentation Information selection section, 6, 55, 105 Information presentation section, 51 Area extraction section, 62 Motion vector detection and recording circuit, 114 Outline contour estimating circuit, 70, 200 Moving image for object extraction, 70A to 70G: region extraction frame images, 71, 120 ... contour extraction trial moving images, TF1 to TF7 ... trial frame images, TJ1 to TJ7 ... trial objects, OJ1 to OJn ... objects, 101 ... Contour generation unit, 74A ... Object designation reference area, 77A to 77D, 77AX to 77DX ... Object designation propagation area, 80 ... Object designation
Claims (18)
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積手段に蓄積している上記蓄積情報に含まれる上記一方とを比較する比較手段と、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較手段による比較結果に応じて上記蓄積情報を選択する情報選択手段と、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示手段と
を具えることを特徴とする情報処理装置。Accumulation means for accumulating accumulation information including a processing method of processing performed on a processing target by a user and an evaluation value for the processing for a plurality of users;
Comparing means for comparing any one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation means;
Information selecting means for selecting the stored information from the plurality of stored information stored in the storage means in accordance with a comparison result by the comparing means;
An information processing apparatus comprising: a presentation unit that presents the processing method included in the stored information selected by the information selection unit to the specific user.
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記処理手法と類似する処理手法を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。The information selecting means includes:
The method according to claim 1, further comprising selecting, from the plurality of pieces of stored information stored in the storage unit, the stored information including a processing method similar to the processing method of the specific user according to the comparison result. 2. The information processing device according to 1.
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記処理手法と異なる処理手法を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。The information selecting means includes:
2. The method according to claim 1, further comprising selecting, from the plurality of pieces of stored information stored in the storage unit, the stored information including a processing method different from the processing method of the specific user in accordance with the comparison result. An information processing apparatus according to claim 1.
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、所定の閾値以上の評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。The information selecting means includes:
2. The information according to claim 1, wherein the storage information including an evaluation value equal to or greater than a predetermined threshold is selected from the plurality of pieces of storage information stored in the storage unit in accordance with the comparison result. Processing equipment.
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、所定の閾値以下の評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。The information selecting means includes:
2. The information according to claim 1, wherein the storage information including an evaluation value equal to or less than a predetermined threshold is selected from the plurality of pieces of storage information stored in the storage unit in accordance with the comparison result. Processing equipment.
ことを特徴とする請求項1に記載の情報処理装置。The information selecting means includes an evaluation value that includes an evaluation value separated from the evaluation value of the specific user by a predetermined threshold or more in accordance with the comparison result from among the plurality of pieces of storage information stored in the storage means. The information processing apparatus according to claim 1, wherein:
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記評価値と類似する評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。The information selecting means includes:
The stored information including an evaluation value similar to the evaluation value of the specific user is selected from the plurality of stored information stored in the storage unit according to the comparison result. 2. The information processing device according to 1.
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記評価値から第1の閾値以上離れ、かつ第2の閾値以下の評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項7に記載の情報処理装置。The information selecting means includes:
The plurality of pieces of accumulated information stored in the storage means are separated from the evaluation value of the specific user by a first threshold or more and include an evaluation value of a second threshold or less according to the comparison result. The information processing apparatus according to claim 7, wherein the storage information is selected.
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記処理手法に類似する処理手法を含み、かつ当該特定ユーザの上記評価値よりも高い評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項7に記載の情報処理装置。The information selecting means includes:
An evaluation that includes a processing method similar to the processing method of the specific user according to the comparison result from among the plurality of pieces of stored information stored in the storage unit and is higher than the evaluation value of the specific user. The information processing apparatus according to claim 7, wherein the storage information including a value is selected.
上記処理手法及び上記評価値と共に上記処理対象を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの処理した上記処理対象に類似する処理対象を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。The accumulation means,
Accumulating the accumulation information including the processing target together with the processing method and the evaluation value for the plurality of users,
The information selecting means includes:
Selecting, from the plurality of pieces of stored information stored in the storage unit, the stored information including a processing target similar to the processing target processed by the specific user, in accordance with the comparison result; The information processing device according to claim 1.
上記提示手段は、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記打法及び上記成績を上記特定ユーザに提示する
ことを特徴とする請求項1に記載の情報処理装置。The accumulation means accumulates, for the plurality of users, the accumulation information including a hitting method serving as the processing method of the processing of hitting the ball to be processed by the user and a result serving as the evaluation value for the processing,
The presenting means,
2. The information processing apparatus according to claim 1, wherein the hitting method and the result included in the stored information selected by the information selection unit are presented to the specific user. 3.
上記ユーザにより上記処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する上記処理の上記処理手法となる領域抽出手法及び当該処理に対する上記評価値となる技量を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記提示手段は、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記領域抽出手法及び上記技量を上記特定ユーザに提示する
ことを特徴とする請求項1に記載の情報処理装置。The accumulation means,
An area extraction method as the processing method of the processing for extracting an object designation area for specifying an object in the moving image performed on the moving image to be processed by the user and the evaluation of the processing Accumulating the accumulation information including the skill as a value for the plurality of users,
The presenting means,
2. The information processing apparatus according to claim 1, wherein the area extraction method and the skill included in the accumulated information selected by the information selection unit are presented to the specific user.
上記動画像を構成する上記複数のフレーム画像の中から上記オブジェクト指定領域の抽出用の複数の上記フレーム画像を設定するための画像設定手段と、
上記動画像中の上記オブジェクトの動きベクトルを検出する動きベクトル検出手段と、
上記画像選択手段を介して選択された上記1つの上記フレーム画像中の上記オブジェクトの上記輪郭を指定するための輪郭指定手段と、
上記動きベクトル検出手段によって検出された上記動きベクトルと、上記輪郭指定手段を介して指定された上記輪郭とに基づいて、上記画像設定手段によって設定された上記複数の上記フレーム画像に対する上記オブジェクト指定領域を抽出する指定領域抽出手段と
を具え、
上記蓄積手段は、
上記画像選択手段、上記画像設定手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積する
ことを特徴とする請求項12に記載の情報処理装置。Image selecting means for selecting one frame image for designating the outline of the object from among a plurality of frame images constituting the moving image;
Image setting means for setting a plurality of the frame images for extracting the object designation area from the plurality of the frame images constituting the moving image,
Motion vector detecting means for detecting a motion vector of the object in the moving image,
Contour specifying means for specifying the contour of the object in the one frame image selected through the image selecting means;
The object designation area for the plurality of frame images set by the image setting means based on the motion vector detected by the motion vector detection means and the contour specified via the contour specification means. Designated area extracting means for extracting
The accumulation means,
13. The information processing apparatus according to claim 12, wherein the storage information that stores the input history by the image selection unit, the image setting unit, and the contour specification unit as the processing method is stored.
上記ユーザにより上記処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトの輪郭を抽出する上記処理の上記処理手法となる輪郭抽出手法及び当該処理に対する上記評価値となる技量を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記提示手段は、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記輪郭抽出手法及び上記技量を上記特定ユーザに提示する
ことを特徴とする請求項1に記載の情報処理装置。The accumulation means,
Including the outline extraction method as the processing method of the processing for extracting the outline of an object in the moving image performed on the moving image to be processed by the user and the skill as the evaluation value for the processing Storing the stored information for the plurality of users,
The presenting means,
2. The information processing apparatus according to claim 1, wherein the outline extraction method and the skill included in the stored information selected by the information selection unit are presented to the specific user.
上記画像選択手段を介して選択された上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭をそれぞれ指定するための輪郭指定手段と、
上記第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、上記輪郭指定手段を介して上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から上記他のフレーム画像中の上記オブジェクトの輪郭を推測する輪郭推測手段と
を具え、
上記蓄積手段は、
上記画像選択手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積し、
上記選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記技量から所定の閾値以上離れた技量を含む上記蓄積情報を選択する
ことを特徴とする請求項14に記載の情報処理装置。Image selection means for selecting at least two first and second frame images for designating the outline of the object from among the plurality of frame images constituting the moving image;
Contour designating means for respectively designating the contour of the object in the first and second frame images selected via the image selecting means;
When another frame image exists between the first and second frame images, the outline of the object in the first and second frame images is specified through the outline specifying means, respectively. Contour estimating means for estimating the contour of the object in the other frame image from the obtained first and second contour designation results,
The accumulation means,
The input information by the image selecting means and the contour designating means accumulates the accumulation information as the processing method,
The selection means is
Selecting, from the plurality of pieces of accumulated information accumulated in the accumulation means, the accumulated information including a skill separated from the skill of the specific user by a predetermined threshold or more according to the comparison result. The information processing apparatus according to claim 14.
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示ステップと
を具えることを特徴とする情報処理方法。An accumulation step of accumulating accumulation information for a plurality of users including a processing method of processing performed on a processing target by a user and an evaluation value for the processing;
A comparing step of comparing one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selecting step of selecting the stored information from the plurality of stored information stored in the storing step in accordance with the comparison result obtained in the comparing step;
A presentation step of presenting the processing method included in the accumulated information selected in the information selection step to the specific user.
ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示ステップと
を実行させるための情報処理プログラム。On the computer,
An accumulation step of accumulating accumulation information for a plurality of users including a processing method of processing performed on a processing target by a user and an evaluation value for the processing;
A comparing step of comparing one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selecting step of selecting the stored information from the plurality of stored information stored in the storing step in accordance with the comparison result obtained in the comparing step;
An information processing program for executing a presentation step of presenting the processing method included in the accumulated information selected in the information selection step to the specific user.
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示ステップと
を具えることを特徴とする情報処理プログラムを情報処理装置に実行させる情報処理プログラム格納媒体。An accumulation step of accumulating accumulation information for a plurality of users including a processing method of processing performed on a processing target by a user and an evaluation value for the processing;
A comparing step of comparing one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selecting step of selecting the stored information from the plurality of stored information stored in the storing step in accordance with the comparison result obtained in the comparing step;
A presentation step of presenting the processing method included in the accumulated information selected in the information selection step to the specific user, wherein the information processing program causes the information processing apparatus to execute the information processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002255853A JP4117604B2 (en) | 2002-08-30 | 2002-08-30 | Information processing apparatus, information processing method, information processing program, and information processing program storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002255853A JP4117604B2 (en) | 2002-08-30 | 2002-08-30 | Information processing apparatus, information processing method, information processing program, and information processing program storage medium |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007318826A Division JP4683305B2 (en) | 2007-12-10 | 2007-12-10 | Information processing apparatus and information processing program |
JP2007318825A Division JP4666233B2 (en) | 2007-12-10 | 2007-12-10 | Information processing apparatus and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004094667A true JP2004094667A (en) | 2004-03-25 |
JP4117604B2 JP4117604B2 (en) | 2008-07-16 |
Family
ID=32061235
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002255853A Expired - Fee Related JP4117604B2 (en) | 2002-08-30 | 2002-08-30 | Information processing apparatus, information processing method, information processing program, and information processing program storage medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4117604B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013034492A (en) * | 2011-08-03 | 2013-02-21 | Jvc Kenwood Corp | Display device and display method |
JP2023122150A (en) * | 2022-02-22 | 2023-09-01 | Necプラットフォームズ株式会社 | Hitting analysis system and hitting analysis method |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61255379A (en) * | 1985-05-08 | 1986-11-13 | 三菱電機株式会社 | Foreign language pronunciation training apparatus |
JPH01154189A (en) * | 1987-12-11 | 1989-06-16 | Kawai Musical Instr Mfg Co Ltd | Enunciation training apparatus |
JPH02249566A (en) * | 1989-01-20 | 1990-10-05 | Nec Corp | Form educating device |
JPH0326281A (en) * | 1989-06-23 | 1991-02-04 | Oyo Keisoku Kenkyusho:Kk | Operation diagnosing device |
JPH0816092A (en) * | 1994-06-29 | 1996-01-19 | Mitsubishi Electric Corp | Simulator for training |
JPH08272974A (en) * | 1995-01-31 | 1996-10-18 | Matsushita Electric Ind Co Ltd | Hand action recognizing device |
JPH11198075A (en) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | Behavior support system |
JP2000048044A (en) * | 1998-07-30 | 2000-02-18 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for providing multimedia information and storage medium storing multimedia information providing program |
JP2000293092A (en) * | 1999-04-02 | 2000-10-20 | Mitsubishi Electric Corp | Simulation system |
JP2002073826A (en) * | 2000-08-31 | 2002-03-12 | Tomotaka Marui | Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training |
JP2002244547A (en) * | 2001-02-19 | 2002-08-30 | Nippon Hoso Kyokai <Nhk> | Computer program for utterance leaning system and server device collaborating with the program |
-
2002
- 2002-08-30 JP JP2002255853A patent/JP4117604B2/en not_active Expired - Fee Related
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61255379A (en) * | 1985-05-08 | 1986-11-13 | 三菱電機株式会社 | Foreign language pronunciation training apparatus |
JPH01154189A (en) * | 1987-12-11 | 1989-06-16 | Kawai Musical Instr Mfg Co Ltd | Enunciation training apparatus |
JPH02249566A (en) * | 1989-01-20 | 1990-10-05 | Nec Corp | Form educating device |
JPH0326281A (en) * | 1989-06-23 | 1991-02-04 | Oyo Keisoku Kenkyusho:Kk | Operation diagnosing device |
JPH0816092A (en) * | 1994-06-29 | 1996-01-19 | Mitsubishi Electric Corp | Simulator for training |
JPH08272974A (en) * | 1995-01-31 | 1996-10-18 | Matsushita Electric Ind Co Ltd | Hand action recognizing device |
JPH11198075A (en) * | 1998-01-08 | 1999-07-27 | Mitsubishi Electric Corp | Behavior support system |
JP2000048044A (en) * | 1998-07-30 | 2000-02-18 | Nippon Telegr & Teleph Corp <Ntt> | Method and system for providing multimedia information and storage medium storing multimedia information providing program |
JP2000293092A (en) * | 1999-04-02 | 2000-10-20 | Mitsubishi Electric Corp | Simulation system |
JP2002073826A (en) * | 2000-08-31 | 2002-03-12 | Tomotaka Marui | Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training |
JP2002244547A (en) * | 2001-02-19 | 2002-08-30 | Nippon Hoso Kyokai <Nhk> | Computer program for utterance leaning system and server device collaborating with the program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013034492A (en) * | 2011-08-03 | 2013-02-21 | Jvc Kenwood Corp | Display device and display method |
JP2023122150A (en) * | 2022-02-22 | 2023-09-01 | Necプラットフォームズ株式会社 | Hitting analysis system and hitting analysis method |
Also Published As
Publication number | Publication date |
---|---|
JP4117604B2 (en) | 2008-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10300362B2 (en) | Virtual reality sports training systems and methods | |
TWI377055B (en) | Interactive rehabilitation method and system for upper and lower extremities | |
US6394894B1 (en) | Game device, collision determination method and information storing medium | |
RU2530708C2 (en) | Association of animations | |
US9298263B2 (en) | Show body position | |
US8418085B2 (en) | Gesture coach | |
JP5632474B2 (en) | Method and system for making visual display live-action through input learned from user | |
US20220212086A1 (en) | Virtual reality sports training systems and methods | |
CN107943291B (en) | Human body action recognition method and device and electronic equipment | |
CN107430781B (en) | Data structure of computer graphics, information processing apparatus, information processing method, and information processing system | |
EP2985059B1 (en) | Apparatus and method of user interaction | |
US10049483B2 (en) | Apparatus and method for generating animation | |
TW201900250A (en) | Team sports virtual reality training system | |
US20100004041A1 (en) | Program, storage medium on which program is recorded, and game device | |
US9827495B2 (en) | Simulation device, simulation method, program, and information storage medium | |
JP4683305B2 (en) | Information processing apparatus and information processing program | |
JP4117604B2 (en) | Information processing apparatus, information processing method, information processing program, and information processing program storage medium | |
JP4666233B2 (en) | Information processing apparatus and information processing program | |
EP1260252A2 (en) | Game program, game apparatus, and method for carrying out a game | |
JP7054276B2 (en) | Physical activity support system, method, and program | |
WO2024034417A1 (en) | Information processing device, information processing method, and program | |
WO2022230557A1 (en) | Content generation device for generating content in accordance with exercise by user, and content generation method for generating content in accordance with exercise by user | |
JP5323671B2 (en) | Data reproduction program, data reproduction apparatus, and data reproduction method | |
JP2004094668A (en) | Image processor | |
JP2013039231A (en) | Game apparatus, control method for game apparatus, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050519 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071102 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071210 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080328 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080410 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110502 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110502 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120502 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120502 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130502 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140502 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |