JP2004094667A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2004094667A
JP2004094667A JP2002255853A JP2002255853A JP2004094667A JP 2004094667 A JP2004094667 A JP 2004094667A JP 2002255853 A JP2002255853 A JP 2002255853A JP 2002255853 A JP2002255853 A JP 2002255853A JP 2004094667 A JP2004094667 A JP 2004094667A
Authority
JP
Japan
Prior art keywords
information
contour
extraction
processing
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002255853A
Other languages
Japanese (ja)
Other versions
JP4117604B2 (en
Inventor
Tetsujiro Kondo
近藤 哲二郎
Tomoyuki Otsuki
大月 知之
Hitoshi Mukai
向井 仁志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2002255853A priority Critical patent/JP4117604B2/en
Publication of JP2004094667A publication Critical patent/JP2004094667A/en
Application granted granted Critical
Publication of JP4117604B2 publication Critical patent/JP4117604B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily improve the throughput capacity of processing to be applied to a prescribed processing target. <P>SOLUTION: Stored information data D4 including a processing procedure of processing applied to the processing target and its evaluation value are stored in an information storage part 4 as data for a plurality of users. A presentation information selection part 5 compares either one of the processing procedure and an evaluation value of a user to be enlightened with the processing procedure and evaluation value included in the stored information data D4, and selects the stored information data D4 in accordance with the compared result from a plurality of stored information data D4. An information presentation part 6 presents the processing procedure included in the stored information data D4. Consequently the user to be enlightened can be urged to improve the processing procedure of the user himself (or herself) by the presented processing procedure, so that the throughput capacity of processing to be applied to the prescribed processing target can be easily improved. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は情報処理装置に関し、特に所定の処理対象に対してユーザが処理を行う場合に適用して好適なものである。
【0002】
【従来の技術】
従来、ユーザが所定の処理対象に対して行う処理としては、野球のバッティング練習において処理対象となるボールをバットで打つという処理や、処理対象となる動画像から当該動画像の一部分の表示対象(以下、これをオブジェクトと呼ぶ)を指定するための領域を抽出する処理、さらには処理対象となる動画像からオブジェクトの輪郭を抽出する処理等のように種々のものがある。
【0003】
【発明が解決しようとする課題】
ところでかかる処理を行う際のユーザの処理能力を向上させるには、バットでボールを打つ打法や、動画像からオブジェクトを指定するための領域(以下、これをオブジェクト指定領域と呼ぶ)を抽出する領域抽出手法、動画像からオブジェクトの輪郭を抽出する輪郭抽出手法(以下、これら打法、領域抽出手法及び輪郭抽出手法をまとめて処理手法と呼ぶ)に対して処理能力の高い指導者を探して指導を依頼するような面倒な方法が取られており、ユーザ自身の処理能力を容易には向上させ難いという問題があった。
【0004】
本発明は以上の点を考慮してなされたもので、所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置を提案しようとするものである。
【0005】
【課題を解決するための手段】
かかる課題を解決するため本発明においては、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示するようにした。
【0006】
従って、特定ユーザに提示した処理手法により当該特定ユーザ自身の処理手法の向上を促すことができる。
【0007】
【発明の実施の形態】
以下図面について、本発明の一実施の形態を詳述する。
【0008】
(1)第1の実施の形態
図1において、1は全体として第1の実施の形態による情報処理装置を示し、個々のユーザによって行われた野球のバッティング練習(処理対象となるボールをバットで打つという打法)の様子をそれぞれ1台のビデオカメラ(図示せず)で撮像して生成されたバッティング動画像データD1を取り込む毎に、当該取り込んだバッティング動画像データD1を蓄積する。
【0009】
また情報処理装置1は、バッティング動画像データD1を取り込む毎に、すでに蓄積しているバッティング動画像データD1から、その時点にバッティング練習を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の打法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われるバッティング動画像データD1を選択して提示することにより、啓発対象ユーザに自分の打法における改善箇所の啓発を促すようになされている。
【0010】
この場合、情報処理装置1は、情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5及び情報提示部6から構成されており、当該情報入力部2、処理傾向情報抽出部3、情報蓄積部4、提示情報選択部5、情報提示部6において啓発対象ユーザに自分の打法の改善箇所を啓発させるために実行する各種処理を第1の啓発促進プログラムに従ってソフトウェア的に実現する。
【0011】
すなわち情報処理装置1は、図2に示すように第1の啓発促進プログラムに従って第1の啓発促進処理手順RT1の開始ステップから入り、続くステップSP1へ移る。
【0012】
ステップSP1において情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込む。
【0013】
この際、情報処理装置1は、図3に示すように、情報入力部2に所定の操作部(図示せず)を介して啓発対象ユーザの氏名及び当該啓発対象ユーザの打法に対する評価値となる打率(例えば野球のペナントレース中におけるその時点までの啓発対象ユーザの打率(成績))のユーザ情報S1が入力される。
【0014】
これにより情報処理装置1は、情報入力部2で取得した啓発対象ユーザの氏名及び打率とバッティング動画像データD1とからなる入力情報を当該情報入力部2から図4に示す入力情報データD2として処理傾向情報抽出部3に送出して、続くステップSP2へ移る。
【0015】
ここで図5に示すように、バッティング動画像データD1に基づくバッティング動画像10は、時間的に連続する複数のフレーム画像10A、……、10N、……により啓発対象ユーザの画像(以下、これをユーザ画像と呼ぶ)11がバッターボックス内で構えた状態からバット12でボール13を打ち終わるまでの様子を2次元平面的に展開している。
【0016】
そして、かかるバッティング動画像10は、各フレーム画像10A、……、10N、……において、ユーザ画像11の腰、肩、肘、膝等の複数の関節や頭頂部及び両手、ボール13、バット12のグリップ12A及び先端12Bにそれぞれ所定の色の丸印等でなるマーク14が予め付けられている。
【0017】
従ってステップSP2において情報処理装置1は、処理傾向情報抽出部3により、入力情報データD2に含まれるバッティング動画像データD1に対して所定の画像処理を施してバッティング動画像10における各マーク14の位置の変化を認識し、これによりユーザ画像11がバッターボックス内で構えた状態からバット12でボール13を打つ瞬間までの腰及び肩の回転角度を検出する。
【0018】
また情報処理装置1は、図6に示すように処理傾向情報抽出部3により、画像処理によって、バッティング動画像10を構成する複数のフレーム画像10A、……、10N、……のうちバット12でボール13を打つ瞬間を捉えたフレーム画像(以下、これを特にインパクト時フレーム画像と呼ぶ)10Nを検出し、当該検出したインパクト時フレーム画像10Nにおいて、ユーザ画像11の両足のつま先を結ぶ基準仮想直線SKL1(この基準仮想直線SKL1は地面に相当する)を引く。
【0019】
そして情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でボール13上のマーク14Aを通るコース検出用仮想直線CKL1を引き、当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1(すなわち基準仮想直線SKL1及びコース検出用仮想直線CKL1の双方と直交する垂線SL1に沿った当該基準仮想直線SKL1及びコース検出用仮想直線CKL1間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間(すなわちインパクトの瞬間)における当該ボールの地面からの高さ(以下、これをボールコースと呼ぶ)として検出する。
【0020】
これに加えて情報処理装置1は、処理傾向情報抽出部3によりインパクト時フレーム画像10Nにおいて、基準仮想直線SKL1と並行でバット12のグリップ12A上のマーク14Bを通る第1の高低差検出用仮想直線WKL1と、当該基準仮想直線SKL1と並行でバット12の先端12B上のマーク14Cを通る第2の高低差検出用仮想直線WKL2とを引き、当該第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2(すなわち第1及び第2の高低差検出用仮想直線WKL1及びWKL2の双方と直交する垂線SL2に沿った当該第1及び第2の高低差検出用仮想基準WKL1及びWKL2間の距離)を、啓発対象ユーザが実際にバットでボールを打った瞬間における当該バットのグリップと先端との高低差(以下、これをバット高低差と呼ぶ)として検出する。
【0021】
このようにして情報処理装置1は、図7に示すように処理傾向情報抽出部3により、バッティング動画像10から啓発対象ユーザがバッターボックス内で構えた状態からバットでボールを打つ瞬間までの腰及び肩の回転角度と、ボールコースと、バット高低差とを検出すると、これらを啓発対象ユーザがバットでボールをどのように打っているかを表す処理傾向情報とする。
【0022】
そして情報処理装置1は、処理傾向情報抽出部3により、バッティング動画像10から抽出した処理傾向情報を処理傾向情報データD3とし、当該処理傾向情報データD3及び入力情報データD2同士を対応付けて蓄積情報データD4として情報蓄積部4に送出すると共に、その処理傾向情報データD3をそのまま提示情報選択部5に送出した後、続くステップSP3及びステップSP4へ移る。
【0023】
ステップSP3において情報処理装置1は、情報蓄積部4により、蓄積情報データD4を例えば図8に示すように入力情報データD2同士と処理傾向情報データD3同士とにまとめて記憶してステップSP5へ移る。
【0024】
またステップSP4において情報処理装置1は、ステップSP3の処理と並行して提示情報選択部5により、処理傾向情報データD3に含まれるボールコース(以下、これを比較用基準ボールコースと呼ぶ)及びバット高低差(以下、これを比較用基準バット高低差と呼ぶ)の値と、情報蓄積部4においてステップSP3で記憶した啓発対象ユーザの蓄積情報データD4を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これらを特に過去蓄積情報データと呼ぶ)D4に処理傾向情報データD3として含まれるボールコース(以下、これを過去ボールコースと呼ぶ)及びバット高低差(以下、これを過去バット高低差と呼ぶ)の値とを比較する。
【0025】
これにより情報処理装置1は、図9に示すように提示情報選択部5により、過去蓄積情報データD4の中から、比較用基準ボールコースの値(図6について上述したインパクト時フレーム画像10Nにおける基準仮想直線SKL1及びコース検出用仮想直線CKL1間の最短距離D1の値)を中心とした所定のコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ比較用基準バット高低差の値(図6について上述したインパクト時フレーム画像10Nにおける第1及び第2の高低差検出用仮想直線WKL1及びWKL2間の最短距離D2の値)を中心とした所定の高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。
【0026】
因みに、図9に示す一対のハッチングの入った丸印D1及びD2は、啓発対象ユーザに対する処理傾向情報である比較用基準ボールコースの値及び比較用基準バット高低差の値を示し、他の一対の三角印や四角印等はそれぞれ1つの過去蓄積情報データD4に処理傾向情報として含まれる過去ボールコースの値及び過去バット高低差の値を示す。
【0027】
次いで情報処理装置1は、提示情報選択部5により、比較用基準ボールコースの値及び比較用基準バット高低差の値を用いて選択した過去蓄積情報データD4の中から、当該過去蓄積情報データD4に含まれる打率の情報同士を比較することにより、最も良い打率(すなわち最も高い評価値)を入力情報データD2の一部として含む過去蓄積情報データD4を選択する。
【0028】
このようにして情報処理装置1は、提示情報選択部5により図10に示すように、情報蓄積部4にすでに蓄積していた全ての過去蓄積情報データD4の中から、啓発対象ユーザの打法に対する処理傾向情報の比較用基準ボールコース及び比較用基準バット高低差を限定基準として用いて当該啓発対象ユーザの打法に類似する打法でバッティング練習を行ったユーザの過去蓄積情報データD4を選択した後(すなわち選択対象の過去蓄積情報データD4の数を限定した後)、当該選択した過去蓄積情報データD4の中からこれらに含まれる打率を選定基準として用いて打率の最も良いユーザの過去蓄積情報データD4を最終的に選択する。
【0029】
これにより情報処理装置1は、図11示すように提示情報選択部5により、情報蓄積部4から、最終的に選択した過去蓄積情報データD4に入力情報データD2として含まれるバッティング動画像データD1及び打率の情報を提示情報データD5として読み出すと共に、当該読み出した提示情報データD5を情報提示部6に送出してステップSP5へ移る。
【0030】
ステップSP5において情報処理装置1は、情報提示部6により提示情報データD5に基づくバッティング動画像及び打率の情報を当該情報提示部6に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示した後、ステップSP6へ移って第1の啓発促進処理手順RT1を終了する。
【0031】
このようにして情報処理装置1は、啓発対象ユーザに例えば打法が似ているものの、当該啓発対象ユーザよりも打率の良い他のユーザのバッティング動画像を再生して提示することにより、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を啓発対象ユーザの打法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの打法に真似て改善させ得るようになされている。
【0032】
因みに第1の実施の形態の場合、情報処理装置1は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C1が入力されることによりこれを情報入力部2に取り込むと、当該追加命令C1を情報入力部2から処理傾向情報抽出部3を介して提示情報選択部5に送出する。
【0033】
そして情報処理装置1は、提示情報選択部5により情報蓄積部4から、最終的に選択した過去蓄積情報データD4に処理傾向情報データD3として含まれる腰及び肩の回転角度の情報を読み出し、当該読み出した腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報データD6として情報提示部6に送出する。
【0034】
これにより情報処理装置1は、情報提示部6により、追加提示情報データD6に基づく腰及び肩の回転角度の情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の打法と、他のユーザの打法との異なる箇所をバッティング動画像のみならずに腰や肩の回転角度の数値としての違いからも見つけさせることができるようになされている。
【0035】
以上の構成において、情報処理装置1は、外部で啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像データD1を情報入力部2に取り込み、この際、情報入力部2に入力された啓発対象ユーザの打率の情報と共に入力情報データD2とする。
【0036】
そして情報処理装置1は、バッティング動画像データD1に基づくバッティング動画像10から啓発対象ユーザの打法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD3をバッティング動画像データD1と共に蓄積情報データD4として情報蓄積部4に記憶する。
【0037】
このとき情報処理装置1は、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択する。
【0038】
次いで情報処理装置1は、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、その選択した過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにした。
【0039】
従ってこの情報処理装置1は、処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の打法における改善箇所の啓発を促して、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。
【0040】
また情報処理装置1は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C1が入力されると、これに応じて、最終的に選択した過去蓄積情報データD4に処理傾向情報として含まれる腰及び肩の回転角度の情報を、啓発対象ユーザの処理傾向情報データD3に含まれる腰及び肩の回転角度の情報と共に追加提示情報として啓発対象ユーザに提示するようにした。
【0041】
従って情報処理装置1は、追加提示情報によっても啓発対象ユーザに自分の打法における改善箇所の啓発を促し、当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所を、バッティング動画像を目視させて見つけさせることに加えて腰や肩の回転角度の数値としての違いとしても啓発対象ユーザに自分の打法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの打法に真似て改善させることができる。
【0042】
以上の構成によれば、啓発対象ユーザのバッティング練習の様子を撮像して生成されたバッティング動画像10と当該啓発対象ユーザの打率の情報とを、そのバッティング動画像10から抽出した啓発対象ユーザの打法に対する処理傾向情報と共に蓄積情報データD4として情報蓄積部4に記憶すると共に、当該啓発対象ユーザの打法に対する処理傾向情報と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報とを比較して当該過去蓄積情報データD4の中から啓発対象ユーザの打法と類似する他のユーザの打法をバッティング動画像として含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択し、当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の打法における改善箇所の啓発を促して当該啓発対象ユーザの打法と他のユーザの打法との異なる箇所をその啓発対象ユーザに自分の打法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの打法に真似て改善させることができ、かくして処理対象となるボールを打つという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
【0043】
なお上述した第1の実施の形態においては、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4に含まれる打率の情報同士を比較して当該打率の最も良いユーザの過去蓄積情報データD4を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較することにより当該過去蓄積情報データD4の中から、啓発対象ユーザの打法と類似する他のユーザの打法を撮像して生成されたバッティング動画像データD1を含む過去蓄積情報データD4を選択し、当該選択した1又は複数の過去蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。
【0044】
このようにすれば、啓発対象ユーザに打率の異なる複数のユーザのバッティング動画像を順次提示情報として提示することができるため、上述した第1の実施の形態の場合よりも、啓発対象ユーザに自分の打法における改善箇所を更に多く見つけさせることができる。
【0045】
また啓発対象ユーザの処理傾向情報データD3と、情報蓄積部4にすでに蓄積している過去蓄積情報データD4に含まれる処理傾向情報データD3とを比較して複数の過去蓄積情報データD4の中から最終的な過去蓄積情報データD4を選択することにより、上述した第1の実施の形態に比べて選択時の処理負荷を低減させることもできる。
【0046】
また上述した第1の実施の形態においては、啓発対象ユーザに他のユーザのバッティング動画像を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD4に啓発対象ユーザの過去の蓄積情報データD4が含まれており、当該啓発対象ユーザの過去の蓄積情報データD4を選択したときには、その蓄積情報データD4に含まれるバッティング動画像データD1に基づくバッティング動画像を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の打法よりも過去の打法の方が打率が良いと、現在の打法における改善箇所を過去の打率の良かったときの打法と比較させて容易に見つけさせることができる。
【0047】
さらに上述した第1の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD4を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD4を除いた他の過去蓄積情報データD4を用いるようしても良い。
【0048】
このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で打法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD4をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。
【0049】
さらに上述した第1の実施の形態においては、図10について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図12に示すような種々の選択条件をいずれか1つ、又は図12に示す種々の選択情報と図10について上述した選択条件と合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。
【0050】
ここで、図12に示す種々の選択条件について詳述すると、情報処理装置1は、まず第1の選択条件を用いる場合、提示情報選択部5により、比較用基準ボールコースの値と、全ての過去蓄積情報データD4に含まれる過去ボールコースの値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含む過去蓄積情報データD4を選択した後、その選択した過去蓄積情報データD4の中から当該過去蓄積情報データD4に含まれる打率の情報同士を比較して最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0051】
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打った複数の打法の中から、打率の最も良い打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。
【0052】
また情報処理装置1は、第2の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる打率(以下、これを過去打率と呼ぶ)の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。
【0053】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4に含まれる過去バット高低差の値と、比較用基準バット高低差の値とを比較することにより、当該選択した過去蓄積情報データD4の中から高低差閾値範囲SH2外の値を示し、かつ比較用基準バット高低差の値との違いが最大である過去バット高低差の情報を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0054】
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から、バットの振り方が最も異なる打法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。
【0055】
さらに情報処理装置1は、第3の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコースの値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコースの値とを比較すると共に、当該過去蓄積情報データD4に含まれる過去打率の情報同士を比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去打率を含む過去蓄積情報データD4を選択する。
【0056】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0057】
この場合、情報処理装置1は、啓発対象ユーザの打ったボールとほぼ同じボールコースのボールを打ち、かつある程度打率の良い複数の打法の中から無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所をある程度偶然性に期待して啓発させることができる。
【0058】
さらに情報処理装置1は、第4の選択条件を用いる場合、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース及び比較用基準バット高低差の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース及び過去バット高低差の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報を含み、かつ高低差閾値範囲SH2内の値を示す過去バット高低差の情報を含む過去蓄積情報データD4を選択する。
【0059】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最もわるい打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0060】
この場合、情報処理装置1は、啓発対象ユーザの打法と類似する複数の打法の中から打率の最もわるい打法を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の打法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した打法の提示により啓発対象ユーザに反面教師的に自分の打法の良い箇所を再確認させることもできる。
【0061】
さらに情報処理装置1は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD3に当該啓発対象ユーザの打率(以下、これを比較用基準打率と呼ぶ)の情報を格納しておき、提示情報選択部5により、啓発対象ユーザの処理傾向情報データD3に含まれる比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率の値と、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4に含まれる過去ボールコース、過去バット高低差及び過去打率の値とを比較することによりコース閾値範囲SH1内の値を示す過去ボールコースの情報と、高低差閾値範囲SH2内の値を示す過去バット高低差と、比較用基準打率の値を中心とした所定の打率閾値範囲内の値を示す過去打率とを共に含む過去蓄積情報データD4を選択する。
【0062】
そして情報処理装置1は、提示情報選択部5により、その選択した過去蓄積情報データD4の中から、これらに含まれる過去打率の情報同士を比較することにより最も良い打率を含む過去蓄積情報データD4を最終的に選択して当該最終的に選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0063】
この場合、情報処理装置1は、啓発対象ユーザの打法と類似で、かつ実力(すなわち打率)もほとんど同じ複数の打法のうちで最も打率の良い打法を啓発対象ユーザに提示することにより、提示した打法と啓発対象ユーザの打法との違いがわずかであるため、当該啓発対象ユーザに自分の打法における改善箇所を容易に啓発させることができる。
【0064】
さらに情報処理装置1は、第6の選択条件を用いる場合、提示情報選択部5により、情報蓄積部4にすでに蓄積されている過去蓄積情報データD4の中から無作為に例えば1つの過去蓄積情報データD4を選択して当該選択した過去蓄積情報データD4に含まれるバッティング動画像を啓発対象ユーザに提示する。
【0065】
この場合、情報処理装置1は、無作為に選択した打法を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の打法における改善箇所を全面的に偶然性に期待して啓発させることができる。
【0066】
因みに情報処理装置1では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD3に打率の情報を格納しておかなくても、提示情報選択部5により、情報蓄積部4に蓄積している全ての蓄積情報データD4(啓発対象ユーザの蓄積情報データD4を含む)に含まれている打率の情報を用いることで最終的な蓄積情報データD4の選択を実現することもできる。
【0067】
また上述した各選択条件において打率の情報を用いるときには、打率の最小及び最大や、所定の閾値以上の打率等の規定にしなくても、所定の閾値以下の打率や、啓発対象ユーザの打率よりも良い又はわるい打率、啓発対象ユーザの打率から所定の閾値以上離れた値の打率、啓発対象ユーザの打率から所定の第1の閾値以上離れ、かつ第2の閾値以下の打率、さらには啓発対象ユーザの打率とほぼ同じ(類似する)打率等の条件でも過去蓄積情報データD4を選択することができる。
【0068】
さらに蓄積情報データD4の選択に用いる選択条件としては、図10について上述した選択条件及び図12について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、腰や肩の回転角度を用いる選択条件等のように、この他にも種々の選択条件を用いることができる。
【0069】
これに加えて情報処理装置1では、図10及び図12について上述した選択条件において限定基準のボールコースやバット高低差、打率をそれぞれ個別に用いるようにしたが、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。
【0070】
また情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去ボールコース、過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD4を限定するようにしても良い。
【0071】
さらに情報処理装置1では、限定基準の比較用基準ボールコース、比較用基準バット高低差及び比較用基準打率等を中心とした所定のコース閾値範囲SH1、高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去ボールコース、過去バット高低差及び過去打率等の少なくとも2つ以上とを比較して過去蓄積情報データD4を限定するようにしても良い。
【0072】
同様に情報処理装置1では、図10及び図12について上述した選択条件において選定基準のバット高低差及び打率もそれぞれ個別に用いるようにしたが、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
【0073】
また情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去バット高低差及び過去打率等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
【0074】
さらに情報処理装置1では、選定基準の比較用基準バット高低差及び比較用基準打率等を中心とした所定の高低差閾値範囲SH2及び打率閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去バット高低差及び過去打率等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD4を選択するようにしても良い。
【0075】
さらに上述した第1の実施の形態においては、情報蓄積部4に入力情報データD2及び処理傾向情報データD3からなる蓄積情報データD4を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD2を蓄積情報データとして情報蓄積部4に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD2及び蓄積情報データ(すなわち入力情報データD2)から処理傾向情報を抽出すれば良い。
【0076】
さらに上述した第1の実施の形態においては、図2について上述した第1の啓発促進処理手順RT1に示す一連の処理に、啓発対象ユーザにより処理対象(ボール)に対して行われる処理手法を表す情報として、バッティング練習の様子を1台のビデオカメラで撮像して生成されたバッティング動画像10を利用するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザによるバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を2台のビデオカメラで撮像して生成された3次元動画像でなるバッティング動画像を利用し、又はバッティング練習の様子や野球の試合中における啓発対象ユーザの打撃の様子を複数の角度から撮像して得られ複数の2次元及び又は3次元動画像を利用するようにしても良い。
【0077】
因みに、かかる3次元動画像でなるバッティング動画像を利用すれば、当該バッティング動画像を画像処理することにより啓発対象ユーザの打法に対する処理傾向を3次元的に捉えた処理傾向情報(例えば、ボールコースとして内角低めや外角高め)を抽出することができる。そして、かかる3次元動画像でなるバッティング動画像と、図10について上述した選択条件や、図12について上述した第1乃至第5の選択条件とを合わせて利用すれば、啓発対象ユーザに自分の打法とほぼ同じ打法を提示することができる。
【0078】
さらに上述した第1の実施の形態においては、啓発対象ユーザに対して野球のバッティングにおける打法の改善箇所の啓発を促して処理能力の向上を図るようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図るようにしても良く、これら種々の処理においても上述した第1の実施の形態による効果と同様の効果を得ることができる。因みに、啓発対象ユーザに対してゴルフやテニス等のように処理対象としてボールを用いるこの他種々の処理における処理手法の改善箇所の啓発を促して処理能力の向上を図る場合は、評価値として処理に応じたスコアやハンデキャップ、勝率等の成績を用いれば良い。
【0079】
(2)第2の実施の形態
図13において、50は全体として第2の実施の形態による情報処理装置を示し、個々のユーザによって行われた領域抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトを指定するためのオブジェクト指定領域を抽出する領域抽出処理を実行する毎に、当該領域抽出処理の間、適宜表示内容を変化させて表示した一連の領域抽出処理用画面を領域抽出操作の経緯(すなわち処理対象となるオブジェクト抽出用動画像からオブジェクト指定領域を抽出するユーザの領域抽出手法)を表す領域抽出経緯画面データとして蓄積する。
【0080】
また情報処理装置50は、領域抽出処理を実行する毎に、すでに蓄積している領域抽出経緯画面データから、その時点に領域抽出操作を行ったユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の領域抽出手法(すなわち啓発対象ユーザの処理対象に対する処理手法)を改善するために手助けになると思われる領域抽出経緯画面データを選択して提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促すようになされている。
【0081】
この場合、情報処理装置50は、領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55から構成されており、当該領域抽出部51、処理傾向情報抽出部52、情報蓄積部53、提示情報選択部54、情報提示部55において啓発対象ユーザに自分の領域抽出手法の改善箇所を啓発させるために実行する各種処理を第2の啓発促進プログラムに従ってソフトウェア的に実現する。
【0082】
すなわち情報処理装置50は、図14に示すように第2の啓発促進プログラムに従って第2の啓発促進処理手順RT50の開始ステップから入って続く領域抽出処理ルーチンSRT51へ移る。
【0083】
ここで図15に示すように、情報処理装置50は、画像入力回路60、画像記録回路61、動きベクトル検出記録回路62、設定情報記録回路63、伝播領域決定回路64、ユーザインターフェース回路65、輪郭/領域変換回路66、領域生成記録回路67、領域出力回路68から構成された領域抽出部51によって領域抽出処理ルーチンSRT51を実行する。
【0084】
この際、図16及び図17に示すように、情報処理装置50は、領域抽出処理ルーチンSRT51の開始ステップから入って次のステップSP51へ移り、当該ステップSP51において外部から供給されるオブジェクト抽出用動画像データD50を領域抽出部51の画像入力回路60に取り込む。
【0085】
ここで、図18に示すように、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70は、時間的に連続して抽出対象のオブジェクト71を含む複数のフレーム画像(以下、これを領域抽出用フレーム画像と呼ぶ)70A乃至70G、……から構成されている。
【0086】
この際、情報処理装置50は、画像入力回路60に取り込んだオブジェクト抽出用動画像データD50をフレーム画像データ(以下、これを領域抽出用フレーム画像データと呼ぶ)D51単位で画像記録回路61に送出して記録すると共に、当該画像記録回路61からオブジェクト抽出用動画像データD50を構成する領域抽出用フレーム画像データD51を順次読み出して動きベクトル検出記録回路62に送出する。
【0087】
そして情報処理装置50は、動きベクトル検出処理回路62により、複数の領域抽出用フレーム画像データD51においてそれぞれマクロブロック等の所定単位ブロック毎の動きベクトル(例えば個々の所定単位ブロックについて時間的に過去及び未来の双方で隣接する領域抽出用フレーム画像70A乃至70G、……間の双方向の動きベクトル)を検出し、当該検出した領域抽出用フレーム画像データD51毎の動きベクトをそれぞれ領域抽出用フレーム画像データD51の識別情報と対応付けて記録してステップSP52へ移る。
【0088】
ステップSP52において情報処理装置50は、ユーザインターフェース回路65から領域抽出処理用画面データD52を情報提示部55に送出することにより当該情報提示部55に設けられたモニタ(図示せず)に領域抽出処理用画面データD52に基づいて、命令選択領域やオブジェクト抽出用動画像の画像表示領域等を有する領域抽出処理用画面(図示せず)を表示する。
【0089】
この状態で情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上でオブジェクト指定領域の抽出処理を行うための種々の抽出処理用命令C50が入力されることを待ち受け、当該啓発対象ユーザにより抽出処理用命令C50が入力されると、これをユーザインターフェース回路65に取り込んでステップSP53へ移る。
【0090】
ステップSP53において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト指定領域のもとになるオブジェクト71の輪郭を指定するために例えば1つの領域抽出用フレーム画像70A、……、又は70Gを輪郭指定用の作業フレーム画像として任意に設定する作業フレーム設定命令であるか否かを判断する。
【0091】
ステップSP53において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令であることを表しており、このとき情報処理装置50はステップSP54へ移る。
【0092】
ステップSP54において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を領域抽出用フレーム画像データD51単位で読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0093】
これにより情報処理装置50は、図19に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に領域抽出用フレーム画像70A乃至70Gを例えば所定フレーム数ずつ表示し、かくして啓発対象ユーザにオブジェクト抽出用動画像70を所定フレーム数ずつの領域抽出用フレーム画像70A乃至70Gとして互いを比較させながら目視させる。
【0094】
この結果、情報処理装置50は、啓発対象ユーザにより領域抽出処理用画面上で複数の領域抽出用フレーム画像70A乃至70G、……の中からオブジェクト71の輪郭指定用に1つの領域抽出用フレーム画像70Dが当該輪郭の指定のし易さ等で任意に選択されると、その選択された領域抽出用フレーム画像70Dの識別情報等を作業フレーム設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより選択された1つの領域抽出用フレーム画像70Dを輪郭指定用の作業フレーム画像に設定してステップSP52に戻る。
【0095】
これに対して上述したステップSP53において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP55へ移る。
【0096】
ステップSP55において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dで指定された輪郭をもとに、時間的に連続する任意のフレーム数の領域抽出用フレーム画像70A乃至70Gでそれぞれ生成したオブジェクト指定領域の修正の方法を修正モードとして設定する修正モード設定命令であるか否かを判断する。
【0097】
ステップSP55において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が修正モード設定命令であることを表しており、このとき情報処理装置50はステップSP56へ移る。
【0098】
ステップSP56において情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の修正方法として任意に選択された追加又は削除を表す情報をモード設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録し、これにより啓発対象ユーザの選択した追加又は削除をオブジェクト指定領域に対する修正モードに設定してステップSP52に戻る。
【0099】
また上述したステップSP55において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令及び修正モード設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP57へ移る。
【0100】
ステップSP57において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70Dに対するオブジェクト指定領域の生成をもとにその生成を伝播させる領域抽出用フレーム画像70A乃至70C、70E乃至70G、……や、いずれかの領域抽出用フレーム画像70A乃至70G、……に対して生成したオブジェクト指定領域に対する修正をもとにその修正を伝播させる他の領域抽出用フレーム画像70A乃至70C、70E乃至70G、……を設定する伝播範囲設定命令であるか否かを判断する。
【0101】
このステップSP57において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が伝播範囲設定命令であることを表しており、このとき情報処理装置50はステップSP58へ移る。
【0102】
ステップSP58において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61からオブジェクト抽出用動画像データD50を構成する複数の領域抽出用フレーム画像データD51を読み出し、当該読み出した各領域抽出用フレーム画像データD51を領域抽出処理用画面データD52と合成して情報提示部55に送出することにより、領域抽出処理用画面内の画像表示領域に、例えば啓発対象ユーザの画像切換要求に応じて所定フレーム数ずつの領域抽出用フレーム画像70A乃至70G、……を表示して啓発対象ユーザに目視させる。
【0103】
この状態で情報処理装置50は、例えば図19に示すように啓発対象ユーザにより領域抽出処理用画面上で、オブジェクト指定領域の生成伝播用又はオブジェクト指定領域の修正伝播用に1又は複数の領域抽出用フレーム画像70B乃至70Fが選択されると、当該選択された領域抽出用フレーム画像70B乃至70Fの識別情報等を伝播範囲設定情報としてユーザインターフェース回路65から設定情報記録回路63に取り込んで記録する。
【0104】
これにより情報処理装置50は、啓発対象ユーザの選択した1又は時間的に連続する複数の領域抽出用フレーム画像70B乃至70Fを伝播範囲の領域抽出用フレーム画像70B乃至70Fに設定してステップSP52に戻る。
【0105】
因みに情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以前に伝播範囲設定命令が入力されると、その際に選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……をオブジェクト指定領域の生成を伝播させる伝播範囲(以下、これを特に生成伝播範囲と呼ぶ)の領域抽出用フレーム画像70A乃至70G、……に設定する。
【0106】
そして情報処理装置50は、作業フレーム画像70Dに対するオブジェクト指定領域の生成以降に伝播範囲設定命令が入力されるまでは、生成伝播範囲をオブジェクト指定領域の修正を伝播させる伝播範囲(以下、これを修正伝播範囲と呼ぶ)に併用し、当該オブジェクト指定基準領域の生成以降に伝播範囲設定命令が入力されると、生成伝播範囲とは別に、その際に新たに選択された1又は複数の領域抽出用フレーム画像70A乃至70G、……を修正伝播範囲の領域抽出用フレーム画像データD70A乃至70G、……に設定する。
【0107】
ただし情報処理装置50は、修正伝播範囲の設定の際に生成伝播範囲を超えて(すなわち生成伝播範囲よりも時間的に過去及び未来)領域抽出用フレーム画像70A乃至70G、……が選択されると、当該選択された領域抽出用フレーム画像70A乃至70G、……に対してはオブジェクト指定領域を生成してはいないことにより、情報提示部55を介して警告音を出力し、及び又は領域抽出処理用画面にエラーメッセージを表示してその選択が無効であることを啓発対象ユーザに通知する。
【0108】
さらに上述したステップSP57において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令及び伝播範囲設定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP59へ移る。
【0109】
ステップSP59において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム画像70D中のオブジェクト71の輪郭を指定する輪郭指定命令であるか否かを判断する。
【0110】
このステップSP59において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令及び生成伝播範囲用の伝播範囲設定命令に応じた処理(ステップSP54及びステップSP58で上述した処理)をすでに実行したうえで入力された輪郭指定命令であることを表しており、このとき情報処理装置50はステップSP60へ移る。
【0111】
ステップSP60において情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出し、当該読み出した領域抽出用フレーム画像データD51を領域抽出処理画面データD52と合成して情報提示部55に送出する。
【0112】
これにより情報処理装置50は、図20に示すように、情報提示部55において領域抽出処理用画面内の画像表示領域に生成伝播範囲及び当該生成伝播範囲の前後の領域抽出用フレーム画像70A乃至70Gを表示する。
【0113】
この状態で情報処理装置50は、啓発対象ユーザによってマウス等を介して領域抽出処理用画面上で作業フレーム画像70D中のオブジェクト71の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線73(すなわち啓発対象ユーザのなぞった軌跡)に相当する入力輪郭線信号S50をユーザインターフェース回路65に取り込む。
【0114】
そして情報処理装置50は、ユーザインターフェース回路65により、その入力輪郭線信号S50を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該入力輪郭線信号S50に相当する複数の入力輪郭形成点(作業フレーム画像70D中の座標で表す)を生成し、当該生成した複数の入力輪郭形成点の集合データを入力輪郭形成点群データD53として輪郭/領域変換回路66に送出する。
【0115】
また情報処理装置50は、輪郭/領域変換回路66により入力輪郭形成点群データD53に基づく入力輪郭形成点間を補間することにより入力輪郭線73に相当する入力輪郭補間線を生成すると共に、その入力輪郭補間線で囲まれた領域を所定の色で塗りつぶすことにより作業フレーム画像70D中のオブジェクト71を指定するオブジェクト指定領域(以下、これを特にオブジェクト指定基準領域と呼ぶ)に相当するオブジェクト指定基準領域データD54を生成し、当該生成したオブジェクト指定基準領域データD54を伝播領域決定回路64及び領域生成記録回路67に送出してステップSP61へ移る。
【0116】
ステップSP61において情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から作業フレーム設定情報及び伝播範囲設定情報を読み出すと共に、その作業フレーム設定情報及び伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から生成伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。
【0117】
そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックに対して、生成伝播範囲内で作業フレーム画像70Bを除いた他の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置を検出する。
【0118】
これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、オブジェクト指定基準領域をもとにした他のオブジェクト指定領域の生成を生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して伝播させるための伝播領域情報とし、これを伝播領域情報データD55として領域生成記録回路67に送出する。
【0119】
また情報処理装置50は、領域生成記録回路67により、伝播領域情報データD55に基づいて、オブジェクト指定基準領域にかかる全ての所定単位ブロックをそれぞれ生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対する移動先位置へ移動させることにより当該オブジェクト指定基準領域を個々の領域抽出用フレーム画像70B、70C及び70E、70Fにそれぞれ伝播させて、当該個々の領域抽出用フレーム画像70B、70C及び70E、70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域(以下、これを特にオブジェクト指定伝播領域と呼ぶ)を生成する。
【0120】
ここで情報処理装置50は、図21に示すように領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、生成伝播範囲の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の変化(すなわち生成伝播範囲におけるオブジェクト71の時間的な動き)に拘わらずに、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単へ移動させている。
【0121】
この際、所定単位ブロック75を単へ移動させたままでは、個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対して移動させたこれら所定単位ブロック75同士が離れてオブジェクト指定伝播領域内に所定の色による塗りつぶしが途切れた穴76が生じることがある。
【0122】
このため情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って移動させた後、これら所定単位ブロック75に対して画像処理としての膨張及び縮小処理を施すことにより穴76をほぼ塞いでオブジェクト指定伝播領域を生成する。
【0123】
このようにして情報処理装置50は、生成伝播範囲の個々の領域抽出用フレーム画像70B、70C及び70E、70Fに対するオブジェクト指定伝播領域を生成すると、領域生成記録回路67によりオブジェクト指定基準領域と各オブジェクト指定伝播領域とを生成伝播範囲の領域抽出用フレーム画像データD51の識別情報と対応付けて記録すると共に、当該領域生成記録回路67からオブジェクト指定基準領域及び各オブジェクト指定伝播領域をオブジェクト指定領域データD56としてユーザインターフェース回路65に送出する。
【0124】
そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から例えば生成伝播範囲の領域抽出用フレーム画像データD51及び当該生成伝播範囲よりも時間的に1フレーム過去及び未来の領域抽出用フレーム画像データD51を読み出す。
【0125】
この際、情報処理装置50は、ユーザインターフェース回路65により、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD56と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0126】
これにより情報処理装置50は、図22に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、指定領域提示画像データに基づいて作業フレーム画像70Dにオブジェクト指定基準領域74を重ねて表示すると共に、生成伝播範囲の他の領域抽出用フレーム画像70B、70C、70E、70Fにそれぞれ対応するオブジェクト指定伝播領域77A乃至77Dを重ねて表示し、さらに生成伝播範囲の前後の領域抽出用フレーム画像70A及び70Gを表示することによりオブジェクト指定領域の生成結果を啓発対象ユーザに提示してステップSP52に戻る。
【0127】
ところで上述したステップSP59において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令以外の命令であることを表しており、このとき情報処理装置50はステップSP62へ移る。
【0128】
ステップSP62において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50がオブジェクト指定基準領域75及びオブジェクト指定伝播領域77A乃至77Dを修正する領域修正命令であるか否かを判断する。
【0129】
このステップSP62において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP56、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域修正命令であることを表しており、このとき情報処理装置50はステップSP63へ移る。
【0130】
ここで情報処理装置50は、領域生成記録回路67によって生成したオブジェクト指定伝播領域77A乃至77Dについて、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単へ移動させた状態で生じた穴76が比較的小さければ、その後の膨張及び縮小処理によりその穴76を塞ぐことができる。
【0131】
しかしながら情報処理装置50は、穴76が比較的大きければ、移動後の所定単位ブロック75に対して膨張及び縮小処理を施してもその穴76を塞ぐことができず、オブジェクト指定伝播領域77A乃至77Dにおいて穴76が残った状態となる(図22)。
【0132】
また情報処理装置50は、領域生成記録回路67により、オブジェクト指定伝播領域を生成する場合、オブジェクト指定基準領域74にかかる所定単位ブロック75をそれぞれ動きベクトルに従って単へ移動させることにより、図21からも明らかなように所定単位ブロック75のもとの並びが移動先でばらつき、その結果、図22に示すように、オブジェクト指定伝播領域77A乃至77Dの輪郭部分にオブジェクト71よりも外側に突出した箇所(以下、これを突出箇所と呼ぶ)78や当該オブジェクト71の内側に凹んだ箇所(図示せず)が生じる場合がある。
【0133】
そしてオブジェクト指定伝播領域77A乃至77Dに生じる突出箇所78等は、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dにかかる所定単位ブロックが移動してさらに別のオブジェクト指定伝播領域77A乃至77Dが生成されれば、そのオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合がある。
【0134】
このためステップSP63において情報処理装置50は、ユーザインターフェース回路65からその時点で最新の指定領域提示画像データを合成した領域抽出処理用画面データD52を情報提示部55に送出し、当該情報提示部55に例えば図22について上述した領域抽出処理用画面を表示する。
【0135】
この状態で情報処理装置50は、図23(A)及び(B)に示すように啓発対象ユーザにより領域抽出処理用画面上で修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dが指定されると共に、マウス等を介してその修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所(穴76や突出箇所78等)が当該修正箇所の周辺がなぞられて形成された枠79A及び79Bによって指示されると、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像データD51の識別情報と、枠79A及び79Bに相当する枠信号とを含む修正箇所指示信号S51が入力されることによりこれをユーザインターフェース回路65に取り込む。
【0136】
因みに、情報処理装置50は、この際、領域抽出処理用画面内の画像表示領域に生成伝播範囲及びその前後の領域抽出用フレーム画像(作業フレーム画像を含む)70A乃至70Gを表示していることにより、オブジェクト指定基準領域74の形状と、生成伝播範囲前後の領域抽出用フレーム画像70A及び70G中のオブジェクト71の形状とからオブジェクト指定伝播領域77A乃至77Dに対する突出箇所78を比較的容易に類推させて特定させ得るようになされている。
【0137】
情報処理装置50は、ユーザインターフェース回路65により、修正箇所指示信号S51に含まれる枠信号を所定サンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該枠信号に相当する複数の枠形成点(領域抽出用フレーム画像70B乃至70F中の座標で表す)を生成し、当該生成した複数の枠形成点の集合データ(以下、これを枠形成点群データと呼ぶ)を、修正箇所指示信号S51に含まれる識別情報と共に修正箇所指示データD57として輪郭/領域変換回路66に送出する。
【0138】
また情報処理装置50は、輪郭/領域変換回路66により、修正箇所指示データD57に基づいて得られた枠形成点群データに基づく枠形成点間を補間することにより枠79A及び79Bに相当する枠補間線を生成し、その枠補間線で囲まれた領域を修正箇所指示領域として表す修正箇所指示領域データと、修正箇所指示データD51に含まれる識別情報とを修正指示データD58として伝播領域決定回路64及び領域生成記録回路67に送出する。
【0139】
情報処理装置50は、伝播領域決定回路64により、設定情報記録回路63から伝播範囲設定情報を読み出すと共に、その伝播範囲設定情報(すなわち領域抽出用フレーム画像データD51の識別情報)に基づいて、動きベクトル検出記録回路62から修正伝播範囲の全ての領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにおける所定単位ブロックの動きベクトルを読み出す。
【0140】
そして情報処理装置50は、伝播領域決定回路64により、動きベクトル検出記録回路62から読み出した動きベクトルに基づいて、修正箇所指示領域にかかる全ての所定単位ブロックに対して、修正伝播範囲内で修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対応する領域抽出用フレーム画像70B乃至70Fを除いた他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置を検出する。
【0141】
これにより情報処理装置50は、伝播領域決定回路64により、その検出した所定単位ブロックの移動先位置を、修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正を修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるための伝播領域情報として領域生成記録回路67に送出する。
【0142】
さらに情報処理装置50は、領域生成記録回路67により、設定情報記録回路63からその時点に設定されている修正モードを表す修正モード設定情報を読み出すと共に、すでに記憶しているオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dのうち修正指示データD58に含まれる識別情報に対応する修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを選択して読み出す。
【0143】
そして情報処理装置50は、領域生成記録回路67により、修正指示データD58に含まれる修正箇所指示領域データを取り出し、当該修正箇所指示領域データに基づく修正箇所指示領域を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと重ねる。
【0144】
この状態で情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが削除であれば、例えば図24(A)に示すように、オブジェクト指定伝播領域77Aにおいて修正箇所指示領域79AXと重なった箇所77AXを削除することにより、突出箇所78を削って修正したオブジェクト指定伝播領域77AYを得る。
【0145】
また情報処理装置50は、領域生成記録回路67により、修正モード設定情報に基づいてその時点の修正モードが追加であれば、例えば図24(B)に示すように、オブジェクト指定伝播領域77Bにおいて修正箇所指示領域79BXと重なった箇所77BXに所定の色の塗りつぶし領域を追加することにより、穴76を塞いで修正したオブジェクト指定伝播領域77BYを得る。
【0146】
そして情報処理装置50は、領域生成記録回路67により、伝播領域情報に基づいて、修正箇所指示領域にかかる全ての所定単位ブロック(修正により新たに塗りつぶした、又は塗りつぶしを解除した所定単位ブロック)をそれぞれ修正伝播範囲の他の領域抽出用フレーム画像70B乃至70Fに対する移動先位置へ移動させることにより修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにおける修正を他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dにそれぞれ伝播させる。
【0147】
このようにして情報処理装置50は、修正対象の1つのオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正要求に応じて当該修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dと、修正伝播範囲の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dとを合わせて修正することができる。
【0148】
すなわち情報処理装置50は、複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれかのオブジェクト指定伝播領域77A乃至77Dに突出箇所78等が生じれば、当該突出箇所78等が生じたオブジェクト指定伝播領域77A乃至77Dをもとにして生成した他のオブジェクト指定伝播領域77A乃至77Dでも突出箇所が生じる場合があるため、これら複数のオブジェクト指定伝播領域77A乃至77Dのうちいずれか1つのオブジェクト指定伝播領域77A乃至77Dに対して修正を要求させるだけで他のオブジェクト指定伝播領域77A乃至77Dもその修正を反映させて容易に修正することができる。
【0149】
そして情報処理装置50は、領域生成記録回路67によりその修正して得た新たなオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを、修正前のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに上書きして記録することにより、記録保持しているオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを更新する。
【0150】
また情報処理装置50は、領域生成記録回路67により、更新したオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを再びオブジェクト指定領域データD59としてユーザインターフェース回路65に送出する。
【0151】
そして情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD59と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0152】
これにより情報処理装置50は、図25に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応する修正済みのオブジェクト指定基準領域74A及びオブジェクト指定伝播領域77AX、77BX、77CX、77DX又は未だ修正を施していないオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dを重ねて表示してステップSP52に戻る。
【0153】
このようにして情報処理装置50は、オブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成した後、修正伝播範囲及び修正モードを適宜設定して修正箇所が指示されれば、その都度、指示に応じてオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dの修正箇所を修正して提示し、啓発対象ユーザが精度等で納得するオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dを生成することができる。
【0154】
これに加えて上述したステップSP62において否定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が作業フレーム設定命令、修正モード設定命令、伝播範囲設定命令、輪郭指定命令及び領域修正命令以外の命令であることを表しており、このとき情報処理装置50はステップSP64へ移る。
【0155】
ステップSP64において情報処理装置50は、ユーザインターフェース回路65により、啓発対象ユーザによって入力された抽出処理用命令C50が、入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とするか、又は当該入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とするかを切り換える領域反転命令であるか否かを判断する。
【0156】
このステップSP64において肯定結果が得られると、このことは啓発対象ユーザによって入力された抽出処理用命令C50が、少なくとも作業フレーム設定命令、伝播範囲設定命令及び輪郭指定命令に応じた処理(ステップSP54、ステップSP58、ステップSP60及びステップSP61で上述した処理)をすでに実行したうえで入力された領域反転命令であることを表しており、このとき情報処理装置50はステップSP65へ移る。
【0157】
ステップSP65において情報処理装置50は、ユーザインターフェース回路65から領域反転命令を設定情報記録回路63に送出する。
【0158】
情報処理装置50は、例えば初期状態では入力輪郭補間線で囲まれた領域を塗りつぶしてオブジェクト指定基準領域74とする補間線内領域モードに設定しており、その補間線内領域モード時に領域反転命令が入力されると、当該領域反転命令を設定情報記録回路63に取り込んで、オブジェクト指定領域の形態を設定するための指定領域設定情報の内容を変更することにより、入力輪郭補間線の外側を塗りつぶしてオブジェクト指定基準領域とする補間線外領域モードに設定を変更する。
【0159】
これに対して情報処理装置50は、補間線外領域モード時に領域反転命令が入力されると、その領域反転命令を設定情報記録回路63に取り込んで指定領域設定情報の内容を変更することにより補間線内領域モードに設定を変更する。
【0160】
そして情報処理装置50は、設定情報記録回路63により、補間線内領域モードを補間線外領域モードに切り換えたとき、これを領域生成記録回路67に通知する。
【0161】
情報処理装置50は、補間線内領域モードから補間線外領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dの外側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを除くオブジェクト71の背景となる領域)を所定の色で塗りつぶすオブジェクト指定領域(以下、これをオブジェクト指定基準領域に対応させてオブジェクト指定基準反転領域と呼び、オブジェクト指定伝播領域に対応させてオブジェクト指定伝播反転領域と呼ぶ)を生成する。
【0162】
そして情報処理装置50は、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を生成すると、領域生成記録回路67によりオブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域を、オブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dに上書きして記録する。
【0163】
また情報処理装置50は、領域生成記録回路67により、オブジェクト指定基準反転領域及び各オブジェクト指定伝播反転領域をオブジェクト指定領域データD60としてユーザインターフェース回路65に送出する。
【0164】
情報処理装置50は、ユーザインターフェース回路65により、画像記録回路61から生成伝播範囲及びその前後の領域抽出用フレーム画像データD51を読み出し、生成伝播範囲の領域抽出用フレーム画像データD51をオブジェクト指定領域データD60と合成することにより指定領域提示画像データを生成すると共に、その指定領域提示画像データと残りの領域抽出用フレーム画像データD51とを領域抽出処理用画面データD52と合成して情報提示部55に送出する。
【0165】
これにより情報処理装置50は、図26に示すように情報提示部55において領域抽出処理用画面内の画像表示領域に、生成伝播範囲及びその前後の抽出用フレーフレーム画像70A乃至70Bを表示すると共に、当該生成伝播範囲の領域抽出用フレーム画像(作業フレーム画像を含む)70B乃至70Fにそれぞれ対応するオブジェクト指定基準反転領域80及びオブジェクト指定伝播反転領域81A乃至81Dを重ねて表示してステップSP52に戻る。
【0166】
因みに情報処理装置50は、補間線外領域モードから補間線内領域モードに切り換わると、領域生成記録回路67により、すでに記録保持しているオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dの内側(すなわち領域抽出用フレーム画像70B乃至70Fにおいてオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dを除くオブジェクト71と重なる領域)を所定の色で塗りつぶすオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77Dを生成する。
【0167】
この場合、情報処理装置50は、図22又は図25について上述した領域抽出処理用画面を啓発対象ユーザに提示してステップSP52に戻る。
【0168】
このようにして情報処理装置50は、啓発対象ユーザによって入力される抽出処理命令C50に応じて上述したステップSP52乃至ステップSP65の処理を順次実行することにより当該啓発対象ユーザに自分で納得のできる精度でオブジェクト指定領域を抽出させることができる。
【0169】
そしてステップSP64において否定結果が得られると、このことはオブジェクト抽出用動画像70から時間的に連続する領域抽出用フレーム画像70B乃至70F中のオブジェクト71の動きに応じて推移させたオブジェクト指定領域が啓発対象ユーザの納得できる精度で抽出されたことにより、当該啓発対象ユーザにより抽出処理用命令C50として領域抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置50はステップSP66へ移る。
【0170】
ステップSP66において情報処理装置50は、領域生成記録回路67により1度の生成又はその後の修正を経て最終的に記録したオブジェクト指定基準領域74及び各オブジェクト指定伝播領域77A乃至77D、又はオブジェクト指定基準反転領域80及び各オブジェクト指定伝播反転領域81A乃至81Dをオブジェクト指定領域データD61として領域抽出回路68を介して外部に出力することにより例えばオブジェクト抽出装置(図示せず)においてそのオブジェクト指定領域データD61に基づいてオブジェクト抽出用動画像データD50からオブジェクト71を抽出させるようにしてステップSP67(図14)へ移る。
【0171】
ステップSP67において情報処理装置50は、啓発対象ユーザにより所定の操作部(図示せず)を介して入力される啓発対象ユーザの氏名及び当該啓発対象ユーザの領域抽出手法に対する評価値となる技量のユーザ情報S55をユーザインターフェース回路65に取り込む。
【0172】
ここで啓発対象ユーザの技量の判定には、コンピュータ等により所定の画像生成プログラムに従って生成された領域抽出操作の試行用の動画像(以下、これを領域抽出試行用動画像と呼ぶ)を用いて啓発対象ユーザにより定期的に領域抽出操作が試行的に行われた結果がその都度利用されている。
【0173】
この場合、領域抽出試行用動画像は、時間的に連続して領域指定可能なオブジェクト(以下、これを領域抽出試行用オブジェクトと呼ぶ)を含む複数のフレーム画像(以下、これを試行用フレーム画像と呼ぶ)から構成されており、コンピュータ等によって実行された一般的な画像処理アプリケーションプログラムを利用した画像処理により領域抽出試行用オブジェクトの輪郭をほぼ正確に認識できるように生成されている。
【0174】
従って啓発対象ユーザの技量は、領域抽出試行用動画像を用いて上述した領域抽出処理ルーチンSRT51とほぼ同様に複数の試行用フレーム画像中の領域抽出試行用オブジェクトに対するオブジェクト指定領域の領域抽出操作が試行的に行われた場合、例えば画像処理によってオブジェクト指定領域の形状と、実際の領域抽出試行用オブジェクトの輪郭とを比較し、予め設定された精度(予め設定された閾値内の誤差量)でオブジェクト指定領域が抽出されるまでに要した時間(すなわちオブジェクト指定領域の抽出を試行的に行った領域指定試行処理に要した時間)の逆数を用いて定量的に判定されている。
【0175】
因みに啓発対象ユーザの技量は、比較的短い時間でオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が高いと判定することができ、この場合には領域指定試行処理に要した時間が短いことにより値が大きくなる。
【0176】
また啓発対象ユーザの技量は、比較的長い時間をかけてオブジェクト指定領域が所定精度で試行的に抽出されれば、技量が低いと判定することができ、この場合には領域指定試行処理に要した時間が長いことにより値が小さくなる。
【0177】
そして情報処理装置50は、かかる啓発対象ユーザの技量を含むユーザ情報S55をユーザインターフェース回路65に取り込むと、当該ユーザインターフェース回路65により画像記録回路61からオブジェクト動画像データD51を読み出す。
【0178】
また情報処理装置50は、ユーザインターフェース回路65に上述した領域抽出処理ルーチンSRT51(すなわちオブジェクト抽出用動画像を用いた領域抽出処理)を実行している間、適宜表示内容を変化させて情報提示部55で表示した一連の領域抽出処理用画面を領域抽出処理に要した時間等の情報と共に領域抽出操作の経緯を表す領域抽出経緯画面データとして記録している。
【0179】
従って情報処理装置50は、図27に示すように、ユーザインターフェース回路65により、ユーザ情報S55に含まれる啓発対象ユーザの氏名及び技量と、オブジェクト抽出用動画像データD50と、領域抽出経緯画面データとからなる入力情報を入力情報データD65として処理傾向情報抽出部52(図13)に送出してステップSP68へ移る。
【0180】
ステップSP68において情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれるオブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ所定単位ブロックの周波数成分の和と当該所定単位ブロックの周波数成分のうち予め選定された特定周波数以上の周波数成分の和との比率を算出し、全ての領域抽出用フレーム画像データD51に対するこれら比率の平均値を高周波成分比率として算出する。
【0181】
また情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50を構成する全ての領域抽出用フレーム画像データD51に対してそれぞれ所定の画像処理を施すことにより個々の領域抽出用フレーム画像データD51においてそれぞれ輝度の最大値から最小値を減算し、この結果得られた全ての領域抽出用フレーム画像データD51に対する減算結果の平均値を輝度値ダイナミックレンジとして算出する。
【0182】
さらに情報処理装置50は、処理傾向情報抽出部52により、入力情報データD65に含まれる領域抽出経緯画面データに対して所定の画像処理を施すことにより啓発対象ユーザにより作業フレーム画像70D中のオブジェクト71の輪郭が指定されたときの輪郭描線時間を検出し、その輪郭描線時間を、当該輪郭描線時間を除く領域抽出処理に要した時間(以下、これを描線除外処理時間と呼ぶ)で除算することにより得られる除算結果を描線及び描線除外処理時間比率として算出する。
【0183】
これに加えて情報処理装置50は、処理傾向情報抽出部52により、啓発対象ユーザによって作業フレーム画像70D中のオブジェクト71の輪郭が指定されて得られた入力輪郭形成点を用いて当該入力輪郭形成点を生成するための所定サンプリング間隔と隣接する入力輪郭形成点間の距離とにより順次隣接する入力輪郭形成点間の描線速度を算出し、各入力輪郭形成点間の描線速度の平均値をオブジェクト71の輪郭が指定されたときの平均描線速度として算出する。
【0184】
そして情報処理装置50は、図28に示すように処理傾向情報抽出部52により、高周波成分比率及び輝度値ダイナミックレンジをオブジェクト抽出用動画像70における絵柄の様子(複雑さや色調等がどのような動画像であるか)を表す画像特徴情報とすると共に、描線及び描線除外処理時間比率や平均描線速度を領域抽出操作の経緯を具体的に表す領域抽出経緯情報とし、これら画像特徴情報及び領域抽出経緯情報を啓発対象ユーザによりどのようなオブジェクト抽出用動画像70からどのようにオブジェクト指定領域が抽出されたかを表す処理傾向情報とする。
【0185】
これにより情報処理装置50は、処理傾向情報抽出部52により、オブジェクト抽出用動画像データD50及び領域抽出経緯画面データから抽出した処理傾向情報を処理傾向情報データD66とし、当該処理傾向情報データD66及び入力情報データD65同士を対応付けて蓄積情報データD67として情報蓄積部53に送出すると共に、その処理傾向情報データD66をそのまま提示情報選択部54に送出した後、続くステップSP69及びステップSP70へ移る。
【0186】
ステップSP69において情報処理装置50は、情報蓄積部53により、蓄積情報データD67を例えば入力情報データD65同士と処理傾向情報データD66同士とにまとめて記憶してステップSP71へ移る。
【0187】
またステップSP70において情報処理装置50は、ステップSP69の処理と並行して提示情報選択部54により、処理傾向情報データD66に含まれる画像特徴情報としての輝度値ダイナミックレンジ(以下、これを比較用基準輝度値ダイナミックレンジと呼ぶ)の値及び領域抽出経緯情報としての平均描線速度(以下、これを比較用基準平均描線速度と呼ぶ)の値と、情報蓄積部53においてステップSP69で記憶した啓発対象ユーザの蓄積情報データD67を除いたすでに蓄積している他の全ての過去蓄積情報データD67に処理傾向情報データD66として含まれる輝度値ダイナミックレンジ(以下、これを過去輝度値ダイナミックレンジと呼ぶ)及び平均描線速度(以下、これを過去平均描線速度と呼ぶ)の値とを比較する。
【0188】
これにより情報処理装置50は、図9について上述した場合と同様に提示情報選択部54により、過去蓄積情報データD67の中から、比較用基準輝度値ダイナミックレンジの値を中心とした所定のダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ比較用基準平均描線速度の値を中心とした所定の描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。
【0189】
次いで情報処理装置50は、提示情報選択部54により、比較用輝度値ダイナミックレンジの値及び比較用基準平均描線速度の値を用いて選択した過去蓄積情報データD67の中から、当該過去蓄積情報データD67に含まれる技量の情報同士を比較することにより、最も高い技量(すなわち最も高い評価値)を入力情報データD65の一部として含む過去蓄積情報データD67を選択する。
【0190】
このようにして情報処理装置50は、図29に示すように提示情報選択部54により、情報蓄積部53にすでに蓄積していた全ての過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法に対する処理傾向情報の比較用輝度値ダイナミックレンジ及び比較用平均描線速度を限定基準として用いて当該啓発対象ユーザの領域抽出手法に類似する領域抽出手法でオブジェクト指定領域の抽出を行ったユーザの過去蓄積情報データD67を選択した後(すなわち選択対象の過去蓄積情報データD67の数を限定した後)、当該選択した過去蓄積情報データD67の中からこれらに含まれる技量を選定基準として用いて技量の最も高いユーザの過去蓄積情報データD67を最終的に選択する。
【0191】
これにより情報処理装置50は、図30示すように提示情報選択部54により、情報蓄積部53から、最終的に選択した過去蓄積情報データD67に入力情報データD65として含まれる領域抽出経緯画面データ及び技量の情報を提示情報データD68として読み出すと共に、当該読み出した提示情報データD68を情報提示部55に送出してステップSP71へ移る。
【0192】
ステップSP71において情報処理装置50は、情報提示部55により提示情報データD68に基づく一連の領域抽出処理用画面及び技量の情報を啓発対象ユーザに提示した後、ステップSP72へ移って第2の啓発促進処理手順RT50を終了する。
【0193】
このようにして情報処理装置50は、啓発対象ユーザに類似する領域抽出手法(例えば啓発対象ユーザがオブジェクト指定領域の抽出に用いたオブジェクト抽出用動画像70の色調と類似する色調のオブジェクト抽出用動画像を用いて、オブジェクト指定領域の抽出処理で最も重要で、かつオブジェクト指定領域のもとになるオブジェクトの輪郭の指定の仕方が類似する)でオブジェクト指定領域を抽出した複数のユーザの中から、最も技量の高いユーザの領域抽出手法として一連の領域抽出処理用画面(処理の経緯やオブジェクト抽出用動画像を含む)を実際にユーザの行った領域抽出操作の時間経過に合わせて再生して提示する。
【0194】
これにより情報処理装置50は、啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所(例えば領域抽出操作で最も重要な、輪郭の指定の仕方や、生成伝播範囲及び修正伝播範囲の設定の仕方等)を啓発対象ユーザの領域抽出手法における改善箇所として見つけさせ、かくして改善箇所を他のユーザの領域抽出手法に真似て改善させ得るようになされている。
【0195】
因みに第2の実施の形態の場合、情報処理装置50は、啓発対象ユーザに提示情報を提示している状態で、所定の操作部を介して提示情報の追加命令C51が入力されることによりこれを領域抽出部51のユーザインターフェース回路65に取り込むと、当該追加命令C51をユーザインターフェース回路65から処理傾向情報抽出部52を介して提示情報選択部54に送出する。
【0196】
そして情報処理装置50は、提示情報選択部54により情報蓄積部53から、最終的に選択した過去蓄積情報データD67に処理傾向情報データD66として含まれる画像特徴情報としての高周波成分比率と、領域抽出経緯情報としての描線及び描線除外処理時間比率の情報を読み出し、当該読み出した高周波成分比率と描線及び描線除外処理時間比率とを、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率と共に追加提示情報データD69として情報提示部55に送出する。
【0197】
これにより情報処理装置50は、情報提示部55により、追加提示情報データD69に基づく高周波成分比率と、描線及び描線除外処理時間比率との情報をモニタ及びスピーカを介して出力して啓発対象ユーザに提示し、かくして啓発対象ユーザに自分の領域抽出手法と、他のユーザの領域抽出手法との異なる箇所を一連の領域抽出処理用画面の提示のみならずに高周波成分比率や、描線及び描線除外処理時間比率の数値としての違いからも見つけさせることができるようになされている。
【0198】
すなわち情報処理装置50は、啓発対象ユーザに他のユーザがオブジェクト指定領域の抽出処理に用いたオブジェクト抽出用動画像の絵柄の様子(複雑さ)がどう異なるのかや、領域抽出操作においてオブジェクトの輪郭の指定をどのくらい重要視しているか等の違いを数値として判断させ得るようになされている。
【0199】
以上の構成において、情報処理装置50は、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせ、その領域抽出操作に応じた領域抽出処理中に適宜表示内容を変更して提示した一連の領域抽出処理用画面を領域抽出操作の経緯を表す領域抽出経緯画面データとし、当該領域抽出経緯画面データと、領域抽出処理に用いたオブジェクト抽出用動画像データD50と、啓発対象ユーザによって入力された領域抽出手法に対する技量の情報とを入力情報データD65とする。
【0200】
そして情報処理装置50は、オブジェクト抽出用動画像データD50に基づくオブジェクト抽出用動画像70及び領域抽出経緯画面データから啓発対象ユーザがどのような動画像からどのようにオブジェクト指定領域を抽出しているかを表す当該啓発対象ユーザの領域抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報でなる処理傾向情報データD66を入力情報データD65と共に蓄積情報データD67として情報蓄積部53に記憶する。
【0201】
このとき情報処理装置50は、啓発対象ユーザの処理傾向情報データD66と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD66とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択する。
【0202】
次いで情報処理装置50は、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択し、その選択した過去蓄積情報データD67に含まれる領域抽出経緯画面データ(すなわち領域抽出処理中に提示していた一連の領域抽出処理用画面)を提示情報として啓発対象ユーザに提示するようにした。
【0203】
従ってこの情報処理装置50は、上述した第1の実施の形態と同様に処理能力の優れた指導者を特には必要とせずに、提示情報により啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。
【0204】
また情報処理装置50は、啓発対象ユーザに提示情報を提示している際に、提示情報の追加命令C51が入力されると、これに応じて、最終的に選択した過去蓄積情報データD67に処理傾向情報として含まれる高周波成分比率と描線及び描線除外処理時間比率との情報を、啓発対象ユーザの処理傾向情報データD66に含まれる高周波成分比率と描線及び描線除外処理時間比率との情報と共に追加提示情報として啓発対象ユーザに提示するようにした。
【0205】
従って情報処理装置50は、追加提示情報によっても啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促し、当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所を、領域抽出処理中に提示していた一連の領域抽出処理用画面を目視させて見つけさせることに加えてオブジェクト抽出用動画像に対する高周波成分比率や、領域抽出処理中のオブジェクトの輪郭の指定の重要度を表す描線及び描線除外処理時間の数値としての違いとしても啓発対象ユーザに自分の領域抽出手法における改善箇所として的確に見つけさせることができると共に、その改善箇所を他のユーザの領域抽出手法に真似て改善させることができる。
【0206】
これに加えて情報処理装置50は、オブジェクト指定領域を抽出する領域抽出処理時、図16及び図17について上述した領域抽出処理ルーチンSRT51を実行し、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70A乃至70G、……のうちオブジェクト71の輪郭を実際に指定する1つの作業フレーム画像70Dを選択させると共に、オブジェクト指定領域の生成を伝播させる生成伝播範囲の複数の領域抽出用フレーム画像70B、70C、70E、70Fを選択させる。
【0207】
そして情報処理装置50は、作業フレーム画像70D中のオブジェクト71の輪郭がなぞられて指定されると、その結果得られた入力輪郭線に基づいて作業フレーム画像70Dに対するオブジェクト指定基準領域74を生成すると共に、当該オブジェクト指定基準領域74にかかる所定単位ブロックを生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fにおける移動位置に移動させて当該生成伝播範囲の個々の領域抽出用フレーム画像70B、70C、70E、70Fに対するオブジェクト指定伝播領域77A乃至77Dを生成する。
【0208】
従って情報処理装置50は、オブジェクト抽出用動画像70を構成する複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71の輪郭をそれぞれ指定しなくても、いずれか1つの領域抽出用フレーム画像(作業フレーム画像)70D中のオブジェクト71の輪郭を指定するだけで、複数の領域抽出用フレーム画像70B乃至70F中のオブジェクト71をそれぞれ指定するオブジェクト指定領域を容易に抽出することができる。
【0209】
また情報処理装置50は、修正伝播範囲を設定したうえでいずれか1つの修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに対する修正が指示されると、その修正を修正対象のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dから修正伝播範囲内の他のオブジェクト指定基準領域74又はオブジェクト指定伝播領域77A乃至77Dに伝播させるため、啓発対象ユーザに極力少ない操作で複数のオブジェクト指定基準領域74及びオブジェクト指定伝播領域77A乃至77Dの抽出精度を容易に向上させることができる。
【0210】
以上の構成によれば、啓発対象ユーザにオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する領域抽出操作を行わせた際に表示した一連の領域抽出処理用画面と、そのオブジェクト抽出用動画像70と、当該啓発対象ユーザの技量の情報とからなる入力情報を当該一連の領域抽出処理用画面及びオブジェクト抽出用動画像70から抽出した、啓発対象ユーザの領域抽出手法に対する処理傾向情報と共に蓄積情報データD67として情報蓄積部53に記憶すると共に、当該啓発対象ユーザの領域抽出手法に対する処理傾向情報と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報とを比較して当該過去蓄積情報データD67の中から啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法をオブジェクト抽出用動画像及び一連の領域抽出処理用画面として含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしたことにより、提示情報によって啓発対象ユーザに自分の領域抽出手法における改善箇所の啓発を促して当該啓発対象ユーザの領域抽出手法と他のユーザの領域抽出手法との異なる箇所をその啓発対象ユーザに自分の領域抽出手法における改善箇所として見つけさせると共に、当該見つけさせた改善箇所を他のユーザの領域抽出手法に真似て改善させることができ、かくして処理対象となるオブジェクト抽出用動画像70からオブジェクト指定領域を抽出するという処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
【0211】
なお上述した第2の実施の形態においては、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67に含まれる技量の情報同士を比較して当該技量の最も高いユーザの過去蓄積情報データD67を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較することにより当該過去蓄積情報データD67の中から、啓発対象ユーザの領域抽出手法と類似する他のユーザの領域抽出手法を表すオブジェクト抽出用動画像データD50及び領域抽出経緯画面データを含む過去蓄積情報データD67を選択し、当該選択した1又は複数の過去蓄積情報データD67に含まれる一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。
【0212】
このようにすれば、啓発対象ユーザに技量の異なる複数のユーザの領域抽出処理の経緯を提示情報として提示することができるため、上述した第2の実施の形態の場合よりも、啓発対象ユーザに自分の領域抽出手法における改善箇所を更に多く見つけさせることができる。
【0213】
また啓発対象ユーザの処理傾向情報データD65と、情報蓄積部53にすでに蓄積している過去蓄積情報データD67に含まれる処理傾向情報データD65とを比較して複数の過去蓄積情報データD67の中から最終的な過去蓄積情報データD67を選択することにより、上述した第2の実施の形態に比べて選択時の処理負荷を低減させることもできる。
【0214】
また上述した第2の実施の形態においては、啓発対象ユーザに他のユーザの領域抽出処理における一連の領域抽出処理用画面を提示情報として提示するようにした場合について述べたが、本発明はこれに限らず、過去蓄積情報データD67に啓発対象ユーザの過去の蓄積情報データD67が含まれており、当該啓発対象ユーザの過去の蓄積情報データD67を選択したときには、その蓄積情報データD67に含まれる過去の領域抽出処理における一連の領域抽出処理用画面を提示情報として啓発対象ユーザに提示するようにしても良い。この場合には、例えば啓発対象ユーザの現在の領域抽出手法よりも過去の領域抽出手法の方が技量が高いと、現在の領域抽出手法における改善箇所を過去の技量の高かったときの領域抽出手法と比較させて容易に見つけさせることができる。
【0215】
さらに上述した第2の実施の形態においては、啓発対象ユーザに提示する提示情報を選択する場合、全ての過去蓄積情報データD67を用いるようにした場合について述べたが、本発明はこれに限らず、個々の啓発対象ユーザに対する提示情報の提示履歴を蓄積しておき、啓発対象ユーザに提示する提示情報を選択する場合、その提示履歴に基づいて、過去の提示に用いた過去蓄積情報データD67を除いた他の過去蓄積情報データD67を用いるようしても良い。
【0216】
このようにすれば、啓発対象ユーザに過去に提示した提示情報を再び提示することを防止して新たな提示情報を提示することができることにより啓発対象ユーザに新たな視点で領域抽出手法における改善箇所の啓発を促すことができる。因みに、啓発対象ユーザに提示する提示情報を選択する場合には、提示対象のユーザに拘わらずに提示情報の提示に利用した過去蓄積情報データD67をその後の提示情報の選択には用いないように強制的な規制を施すことでも、かかる処理を実現することができる。
【0217】
さらに上述した第2の実施の形態においては、図29について上述した選択条件を用いて提示情報を選択するようにした場合について述べたが、本発明はこれに限らず、図31に示すような種々の選択条件をいずれか1つ、又は図31に示す種々の選択情報と図29について上述した選択条件と合わせて1又は複数の選択条件を選択的に用いて提示情報を選択するようにしても良い。
【0218】
ここで、図31に示す種々の選択条件について詳述すると、情報処理装置50は、まず第1の選択条件を用いる場合、提示情報選択部54により、比較用基準輝度値ダイナミックレンジの値と、全ての過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含む過去蓄積情報データD67を選択した後、その選択した過去蓄積情報データD67の中から当該過去蓄積情報データD67に含まれる技量の情報同士を比較して最も良い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0219】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から、技量の最も高い領域抽出手法を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。
【0220】
また情報処理装置50は、第2の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる技量(以下、これを過去技量と呼ぶ)の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。
【0221】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67に含まれる過去平均描線速度の値と、比較用基準平均描線速度の値とを比較することにより、当該選択した過去蓄積情報データD67の中から描線速度閾値範囲外の値を示し、かつ比較用基準平均描線速度の値との違いが最大である過去平均描線速度の情報を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0222】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から、オブジェクトの輪郭の指定の仕方が最も異なる領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示して、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。
【0223】
さらに情報処理装置50は、第3の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジの値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジの値とを比較すると共に、当該過去蓄積情報データD67に含まれる過去技量の情報同士を比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ予め設定された所定の閾値以上の値を有する過去技量を含む過去蓄積情報データD67を選択する。
【0224】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0225】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつある程度技量の高い複数の領域抽出手法の中から無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所をある程度偶然性に期待して啓発させることができる。
【0226】
さらに情報処理装置50は、第4の選択条件を用いる場合、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ及び比較用基準平均描線速度の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ及び過去平均描線速度の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報を含み、かつ描線速度閾値範囲内の値を示す過去平均描線速度の情報を含む過去蓄積情報データD67を選択する。
【0227】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も低い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0228】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行った複数の領域抽出手法の中から技量の最も低い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、啓発対象ユーザに自分の領域抽出手法における改善箇所を啓発させることができる。因みに、かかる第4の選択条件を用いれば、最終的に選択した領域抽出手法の提示により啓発対象ユーザに反面教師的に自分の領域抽出手法の良い箇所を再確認させることもできる。
【0229】
さらに情報処理装置50は、第5の選択条件を用いる場合、例えば啓発対象ユーザの処理傾向情報データD66に当該啓発対象ユーザの技量(以下、これを比較用基準技量と呼ぶ)の情報を格納しておき、提示情報選択部54により、啓発対象ユーザの処理傾向情報データD66に含まれる比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量の値と、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67に含まれる過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量の値とを比較することによりダイナミックレンジ閾値範囲内の値を示す過去輝度値ダイナミックレンジの情報と、描線速度閾値範囲内の値を示す過去平均描線速度と、比較用基準技量の値を中心とした所定の技量閾値範囲内の値を示す過去技量とを共に含む過去蓄積情報データD67を選択する。
【0230】
そして情報処理装置50は、提示情報選択部54により、その選択した過去蓄積情報データD67の中から、これらに含まれる過去技量の情報同士を比較することにより最も高い技量を含む過去蓄積情報データD67を最終的に選択して当該最終的に選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0231】
この場合、情報処理装置50は、啓発対象ユーザによりオブジェクト指定領域の抽出に用いられたオブジェクト抽出用動画像70と色調の類似するオブジェクト抽出用動画像を用いてオブジェクト指定領域の抽出を行い、かつ実力(すなわち技量)もほとんど同じ複数の領域抽出手法のうちで最も技量の高い領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、提示した領域抽出手法と啓発対象ユーザの領域抽出手法との違いがわずかであるため、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を容易に啓発させることができる。
【0232】
さらに情報処理装置50は、第6の選択条件を用いる場合、提示情報選択部54により、情報蓄積部53にすでに蓄積されている過去蓄積情報データD67の中から無作為に例えば1つの過去蓄積情報データD67を選択して当該選択した過去蓄積情報データD67に含まれる一連の領域指定処理用画面を啓発対象ユーザに提示する。
【0233】
この場合、情報処理装置50は、無作為に選択した領域抽出手法(すなわち一連の領域指定処理用画面)を啓発対象ユーザに提示することにより、当該啓発対象ユーザに自分の領域抽出手法における改善箇所を全面的に偶然性に期待して啓発させることができる。
【0234】
因みに情報処理装置50では、上述した第5の選択条件を用いる場合、啓発対象ユーザの処理傾向情報データD66に技量の情報を格納しておかなくても、提示情報選択部54により、情報蓄積部53に蓄積している全ての蓄積情報データD67(啓発対象ユーザの蓄積情報データD67を含む)に含まれている技量の情報を用いることで最終的な蓄積情報データD67の選択を実現することもできる。
【0235】
また上述した各選択条件において技量の情報を用いるときには、技量の最小及び最大や、所定の閾値以上の技量等の規定にしなくても、所定の閾値以下の技量や、啓発対象ユーザの技量よりも高い又は低い技量、啓発対象ユーザの技量から所定の閾値以上離れた値の技量、啓発対象ユーザの技量から所定の第1の閾値以上離れ、かつ第2の閾値以下の技量、さらには啓発対象ユーザの技量とほぼ同じ(類似する)技量等の条件でも過去蓄積情報データD67を選択することができる。
【0236】
さらに蓄積情報データD67の選択に用いる選択条件としては、図29について上述した選択条件及び図31について上述した第1乃至第6の選択条件のそれぞれ一部を入れ換えた選択条件や、生成伝播範囲及び又は修正伝播範囲腰、修正箇所の指定の様子を用いる選択条件等のように、さらにこの他にも種々の選択条件を用いることができる。
【0237】
これに加えて情報処理装置50では、図29及び図31について上述した選択条件において限定基準の比較用基準輝度値ダイナミックレンジや比較用基準平均描線速度、比較用基準技量をそれぞれ個別に用いるようにしたが、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。
【0238】
また情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して過去蓄積情報データD67を限定するようにしても良い。
【0239】
さらに情報処理装置50では、限定基準の比較用基準輝度値ダイナミックレンジ、比較用基準平均描線速度及び比較用基準技量等を中心とした所定のダイナミックレンジ閾値範囲、描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去輝度値ダイナミックレンジ、過去平均描線速度及び過去技量等の少なくとも2つ以上とを比較して過去蓄積情報データD67を限定するようにしても良い。
【0240】
同様に情報処理装置50では、図29及び図31について上述した選択条件において選定基準の平均描線速度及び技量もそれぞれ個別に用いるようにしたが、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば2乗和の平方根を算出し、ユークリッド空間内でその算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて2乗和の平方根を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
【0241】
また情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を少なくとも2つ以上用いて例えば差分絶対値和を算出し、得られた算出結果を基準とした所定の閾値空間と過去平均描線速度及び過去技量等の同様に少なくとも2つ以上を用いて差分絶対値和を算出した結果とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
【0242】
さらに情報処理装置50では、選定基準の比較用基準平均描線速度及び比較用基準技量等を中心とした所定の描線速度閾値範囲及び技量閾値範囲等の少なくとも2つ以上を積算し、得られた積空間と、過去平均描線速度及び過去技量等の同様に少なくとも2つ以上とを比較して最終的な過去蓄積情報データD67を選択するようにしても良い。
【0243】
さらに上述した第2の実施の形態においては、情報蓄積部53に入力情報データD65及び処理傾向情報データD66からなる蓄積情報データD67を蓄積するようにした場合について述べたが、本発明はこれに限らず、少なくとも入力情報データD65を蓄積情報データとして情報蓄積部53に蓄積するようにしても良く、この場合には提示情報を選択する際に、その都度、啓発対象ユーザの入力情報データD65及び蓄積情報データ(すなわち入力情報データD65)から処理傾向情報を抽出すれば良い。また啓発対象ユーザと他のユーザとがそれぞれ同じオブジェクト抽出用動画像70からオブジェクト指定領域を抽出する場合には、入力情報データDとして領域指定経緯画面データ及び技量の情報を利用すれば良い。
【0244】
さらに上述した第2の実施の形態においては、領域指定処理を行う際に図16乃至図17について上述した領域抽出処理ルーチンSRT51で説明した種々の抽出処理用命令C50を入力し得るようにした場合について述べたが、本発明はこれに限らず、これら各種抽出処理用命令C50の他に一つ前の処理に戻る、いわゆるアンドゥ(undo)等のように、他の種々の命令も抽出処理用命令として入力し得るようにしても良い。
【0245】
さらに上述した第2の実施の形態においては、啓発対象ユーザに対して、選択した領域抽出手法としての一連の領域抽出処理用画面を実際に行われた領域抽出操作の時間経過に合わせて再生して提示するようにした場合について述べたが、本発明はこれに限らず、一連の領域指定処理用画面に対する時間的な表示順序を表す情報を予め記録しておき、啓発対象ユーザに切換要求に応じて個々の領域抽出処理用画面を順次切り換えて提示するようにしても良い。
【0246】
(3)第3の実施の形態
図32において、100は全体として第3の実施の形態による情報処理装置を示し、複数のユーザに、所定の画像生成プログラムに従ってオブジェクトに対する輪郭抽出操作の試行用に生成された動画像(以下、これを輪郭抽出試行用動画像と呼ぶ)中のオブジェクト(以下、これを特に試行用オブジェクトと呼ぶ)の輪郭に対して輪郭抽出操作を試行させ、その結果得られた試行結果を蓄積する。
【0247】
また、情報処理装置100は、実際にユーザによって行われる輪郭抽出操作に応じてオブジェクト抽出用動画像から抽出対象のオブジェクトの輪郭を抽出する輪郭抽出処理を行う場合、当該輪郭抽出処理の間、ユーザによって入力される各種命令に応じて適宜表示内容を変更して表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯(すなわちオブジェクト輪郭用動画像からオブジェクトの輪郭を抽出するユーザの輪郭抽出手法)を表す輪郭抽出経緯画面データとして蓄積する。
【0248】
そして情報処理装置100は、個々のユーザによって輪郭抽出操作が行われる際、その輪郭抽出操作に先立って、他のユーザによりすでに行われた輪郭抽出操作で蓄積している輪郭抽出経緯画面データのうち試行結果に応じて、その時点で輪郭抽出操作を行うユーザ(以下、これを特に啓発対象ユーザと呼ぶ)の輪郭抽出手法を向上させるために手助けになると思われる輪郭抽出経緯画面データを選択して提示することにより、啓発対象ユーザに対して自分の輪郭抽出手法の向上を促すようになされている。
【0249】
実際上、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105から構成されている。
【0250】
また輪郭生成部101は、図33に示すように、動画像入力回路110、動画像記録回路111、ユーザインターフェース回路112、変換回路113、輪郭線推測生成回路114、輪郭線記録回路115、輪郭線出力回路116及び技量判定回路117から構成されている。
【0251】
そして情報処理装置100は、先ず個々のユーザがオブジェクト抽出用動画像中の抽出対象のオブジェクトの輪郭をどの程度正確に指定するかを示す技量(この技量は輪郭抽出手法の評価値となる)と、当該輪郭を指定する際にどのような傾向を有しているかとを予め推測するために抽出対象のオブジェクトとは異なる輪郭抽出試行用動画像中の試行用オブジェクトの輪郭に対して試行的に輪郭抽出操作(以下、これを特に輪郭抽出試行操作と呼ぶ)を行わせ、その輪郭抽出試行操作に応じた輪郭抽出試行処理を実行する。
【0252】
ここで情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出試行処理を実行するための各種処理を所定の輪郭抽出試行プログラムに従ってソフトウェア的に実現する。
【0253】
すなわち情報処理装置100は、図34に示すように、輪郭抽出試行プログラムに従って輪郭抽出試行処理手順RT100の開始ステップから入り、続くステップSP101へ移って試行モードへ移行する。
【0254】
ステップSP101において情報処理装置100は、輪郭生成部101のユーザインターフェース回路112により、所定の操作部(図示せず)を介して入力されたユーザ名及びユーザIDからなるユーザ情報S100を取得し、次の技量判定処理ルーチンSRT200へ移る。
【0255】
この際、情報処理装置100は、図35に示すように、技量判定処理ルーチンSRT200の開始ステップから入ってステップSP201へ移る。
【0256】
ステップSP201において情報処理装置100は、外部から供給された輪郭抽出試行用動画像データD100を輪郭生成部101の動画像入力回路110に取り込み、当該輪郭抽出試行用動画像データD100を構成するフレーム画像データ(以下、これを試行用フレーム画像データと呼ぶ)D100A単位で動画像記録回路111に記録する。
【0257】
ここで輪郭抽出試行用動画像データD100に基づく輪郭抽出試行用動画像120は、図36に示すように、時間的に連続して試行用オブジェクトTJ1乃至TJ7を含む複数の試行用フレーム画像TF1乃至TF7(試行用フレーム画像データD100Aに相当)から構成されており、当該試行用オブジェクトTJ1乃至TJ7が時間の経過に従ってその形状を次第に変化させながら移動し、一般的な画像処理アプリケーションプログラムを利用した画像処理の実行によって、試行用オブジェクトTJ1乃至TJ7の輪郭を示す輪郭線(以下、これを計測基準輪郭線と呼ぶ)ROL1乃至ROL7を正確に認識させ得るように生成されている。
【0258】
そして情報処理装置100は、ユーザインターフェース回路112から輪郭抽出試行処理用画面データD101を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタ(図示せず)に輪郭抽出試行処理用画面データD101に基づいて、輪郭抽出試行用動画像120の画像表示領域等を有する輪郭抽出試行処理用画面(図示せず)を表示する。
【0259】
また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に試行用先頭フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用先頭フレーム画像データD100Aを選択して読み出し、当該試行用先頭フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105(図32)に送出する。
【0260】
これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用先頭フレーム画像データD100Aに基づく試行用先頭フレーム画像TF1を表示し、かくして試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の形状をユーザに目視させる。
【0261】
この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用先頭フレーム画像TF1中の試行用オブジェクトTJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行先頭入力輪郭線と呼ぶ)に相当する試行先頭入力輪郭線信号S101をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
【0262】
情報処理装置100は、変換回路113により、試行先頭入力輪郭線信号S101を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行先頭入力輪郭線信号S101に相当する複数の試行先頭入力輪郭形成点を生成し、当該生成した複数の試行先頭入力輪郭形成点の集合データを試行先頭入力輪郭形成点群データD102として輪郭線推測生成回路114に送出して次のステップSP202へ移る。
【0263】
ステップSP202において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の試行用フレーム画像データ(以下、これを特に試行用最後尾フレーム画像データと呼ぶ)D100Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111から輪郭抽出試行用動画像データD100を構成する複数の試行用フレーム画像データD100Aのうち試行用最後尾フレーム画像データD100Aを選択して読み出し、当該試行用最後尾フレーム画像データD100Aを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に試行用最後尾フレーム画像データD100Aに基づく試行用最後尾フレーム画像TF7を表示し、かくして当該試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の形状をユーザに目視させる。
【0264】
この状態で情報処理装置100は、ユーザによってマウス等の操作部を介して輪郭抽出試行処理用画面上で試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ7の輪郭がなぞられて指定されると、この結果得られた入力輪郭線(以下、これを試行最後尾入力輪郭線と呼ぶ)に相当する試行最後尾入力輪郭線信号S102をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
【0265】
そして情報処理装置100は、変換回路113により、試行最後尾入力輪郭線信号S102を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該試行最後尾入力輪郭線信号S102に相当する複数の試行最後尾入力輪郭形成点を生成し、当該生成した複数の試行最後尾入力輪郭形成点の集合データを試行最後尾入力輪郭形成点群データD103として輪郭線推測生成回路114に送出して次の推測輪郭線生成処理ルーチンSRT300へ移る。
【0266】
情報処理装置100は、図37に示すように、推測輪郭線生成処理ルーチンSRT300の開始ステップから入って次のステップSP301に移る。
【0267】
ここで試行用オブジェクトTJ1乃至TJ7は、時間的に連続する試行用フレーム画像TF1乃至TF7中にその形状を次第に変化させながら移動していることから(図36)、図38に示すように試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLを同一フレーム画像上で示した場合、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnIT24との各位置はそれぞれ異なる。
【0268】
また試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLにおいては、試行先頭入力輪郭形成点StTP1乃至StTP20及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24を生成する際のサンプリング間隔が同じであるのに、試行用オブジェクトTJ1及びTJ7をユーザがそれぞれマウス等を介してなぞるときの描線速度や、試行用オブジェクトTJ1及びTJ7の輪郭の大きさ及び形状が異なることから、試行先頭入力輪郭形成点StTP1乃至StTP20と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との総数がそれぞれ異なるものとなる。
【0269】
従ってステップSP301において情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103に基づいて、試行先頭入力輪郭線StTLを構成する試行先頭入力輪郭形成点StTP1乃至StTP20の総数(以下、これを試行先頭形成点数と呼ぶ)と、試行最後尾入力輪郭線EnTLを構成する試行最後尾入力輪郭形成点EnTP1乃至EnTP24の総数(以下、これを試行最後尾形成点数と呼ぶ)とを比較する。
【0270】
この結果、情報処理装置100は、輪郭線推測生成回路114により、比較した試行先頭形成点数及び試行最後尾形成点数同士のうち数が少ない試行先頭形成点数の試行先頭入力輪郭形成点StTP1乃至StTP20で構成される試行先頭入力輪郭線StTLにおいて、互いに隣接する各試行先頭入力輪郭形成点StTP1乃至StTP20間の距離から当該試行先頭入力輪郭線StTLの全長を算出する。
【0271】
そして情報処理装置100は、輪郭線推測生成回路114により、その算出した全長を数の多い試行最後尾形成点数で除算することにより、試行先頭入力輪郭線StTL上でこれを構成する新たな輪郭形成点(以下、これを新規輪郭形成点と呼ぶ)を生成するための生成間隔を求める。
【0272】
これにより情報処理装置100は、図39に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL上で生成間隔NK毎に順次新規輪郭形成点NSTP1乃至NSTP24を生成し、試行先頭入力輪郭線StTLを構成する新規輪郭形成点NSTP1乃至NSTP24の総数を試行最後尾形成点数に合わせてステップSP302へ移る。
【0273】
ステップSP302において情報処理装置100は、輪郭線推測生成回路114により、図40(A)に示すように、試行先頭入力輪郭線StTLの重心StTC(座標値)と試行最後尾入力輪郭線EnTLの重心EnTCとを算出し、図40(B)に示すように、例えば試行先頭入力輪郭線StTLを、互いの重心StTC及びEnTC間の重心移動距離Lだけ一方の重心StTCから他方の重心EnTCの方向へ移動させることにより互いの重心StTC及びEnTC同士を一致させて試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLとを重ね合わせる。
【0274】
この状態で情報処理装置100は、図41に示すように、輪郭線推測生成回路114により、試行先頭入力輪郭線StTLを構成している複数の新規輪郭形成点NSTP1乃至NSTP24のうち任意の新規輪郭形成点NSTP1を選択した後、当該選択した新規輪郭形成点NSTP1から最短距離にある試行最後尾入力輪郭形成点EnTP1を探索し、これら最短距離の関係にある新規輪郭形成点NSTP1と試行最後尾入力輪郭形成点EnTP1との間の輪郭線間距離Da1を算出する。
【0275】
このようにして情報処理装置100は、輪郭線推測生成回路114により、残りの新規輪郭形成点NSTP2乃至NSTP24に対してもそれぞれ最短距離にある試行最後尾入力輪郭形成点EnTP2乃至EnTP24を探索して同様に輪郭線間距離Da2乃至Da24 を算出した後、最も短い輪郭線間距離(ここでは輪郭線間距離Da1)の関係にある試行最後尾入力輪郭形成点EnTP1と新規輪郭形成点NSTP1とを起点ペアSPP1と決定して次のステップSP303へ移る。
【0276】
ステップSP303において情報処理装置100は、輪郭線推測生成回路114により、図42(A)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて例えば矢印ArwS1に示す反時計回り方向(以下、これを基準方向と呼ぶ)の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwO1に示す反時計回り方向(以下、これを順回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP2乃至EnTP24をそれぞれ順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP2間、新規輪郭形成点NSTP3及び試行最後尾入力輪郭形成点StTP3間、……の距離をそれぞれ順回りペア間距離ODa2乃至ODa24 として算出する。
【0277】
また情報処理装置100は、輪郭線推測生成回路114により、図42(B)に示すように、起点ペアSPP1を起点とし、試行先頭入力輪郭線StTLにおいて基準方向の新規輪郭形成点NSTP2乃至NSTP24に、試行最後尾入力輪郭線EnTLにおいて矢印ArwR1に示す時計回り方向(以下、これを逆回り方向と呼ぶ)の試行最後尾入力輪郭形成点EnTP24乃至EnTP2を順番に対応付けることにより、これら順番に対応付けた新規輪郭形成点NSTP2及び試行最後尾入力輪郭形成点StTP24間、新規輪郭形成点NSTP3及び試行先頭入力輪郭形成点StTP23間、……の距離をそれぞれ逆回りペア間距離RDa2乃至RDa24 として算出する。
【0278】
そして情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 の総和と逆回りペア間距離RDa2乃至RDa24 の総和とを算出し、当該算出した総和同士を比較する。
【0279】
ここで新規輪郭形成点NSTP1乃至NSTP24と試行最後尾入力輪郭形成点EnTP1乃至EnTP24との対応付けについて考えると、新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24にほぼ正しく対応付けられれば、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24間の順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的小さくなる。
【0280】
これに対して新規輪郭形成点NSTP1乃至NSTP24が試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7間の複数の試行用フレーム画像TF2乃至TF6を経て移動した先の試行最後尾輪郭形成点EnTP1乃至EnTP24に正しく対応付けられずに異なる他の試行最後尾輪郭形成点EnTP1乃至EnTP24に対応付けられると、これら対応付けた新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24の位置関係が本来のものとは異なることにより順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和は比較的大きくなる。
【0281】
従って情報処理装置100は、輪郭線推測生成回路114により、順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和のうち当該総和が小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を、各新規輪郭形成点NSTP2乃至NSTP24と、これらが移動した先の試行最後尾入力輪郭形成点EnTP2乃至EnTP24とのほぼ正しい対応付けであると推測して選択し、次のステップSP304へ移る。
【0282】
ステップSP304において情報処理装置100は、輪郭線推測生成回路114により、図43に示すように輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1と試行用最後尾フレーム画像TF7とを除いた試行用フレーム画像(以下、これを特に試行用中間フレーム画像と呼ぶ)TF2乃至TF6の総数で順回りペア間距離ODa2、ODa3、……をそれぞれ除算することにより順番に対応付けた新規輪郭形成点NSTP2乃至NSTP24及び試行最後尾入力輪郭形成点EnTP2乃至EnTP24同士を結ぶ対応付け点間仮想線上で点形成間隔DDa2、DDa3、DDa4、……を求める。
【0283】
そして情報処理装置100は、輪郭線推測生成回路114により、各対応付け点間仮想線上でそれぞれ点形成間隔DDa2、DDa3、DDa4、……毎に試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa2乃至IPe2、IPa3乃至IPe3、IPa4乃至IPe4、……を生成する。
【0284】
また情報処理装置100は、起点ペアSPP1に対しても、新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1間の起点ペア間距離ODa1を試行用中間フレーム画像TF2乃至TF6の総数によって除算することにより新規輪郭形成点NSTP1及び試行最後尾入力輪郭形成点EnTP1同士を結ぶ起点間仮想線上で点形成間隔DDa1を求め、当該起点間仮想線上で試行用中間フレーム画像TF2乃至TF6の総数に相当する数の試行推測輪郭形成点IPa1乃至IPe1を生成し、次のステップSP305へ移る。
【0285】
ステップSP305において情報処理装置100は、輪郭線推測生成回路114により、起点間仮想線及び対応付け点間仮想線上の試行推測輪郭形成点IPa1乃至IPe1、IPa2乃至IPe2、……のうち新規輪郭形成点NSTP1乃至NSTP24から同一の順番にある試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、IPc1乃至IPc24 、IPd1乃至IPd24 及びIPe1乃至IPe24 間をそれぞれ補間することにより各試行用中間フレーム画像TF2乃至TF6に対する試行推測輪郭線ITLA1乃至ITLA5を生成する。
【0286】
そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5の重心(座標値)を算出する。
【0287】
ここで試行先頭入力輪郭線StTLの重心StTCは、試行用先頭フレーム画像TF1から試行用最後尾フレーム画像TF7までの間に重心移動距離L1(図40(A))だけ移動し、試行用最後尾フレーム画像TF7において試行最後尾入力輪郭線EnTLの重心EnTCの位置(座標値)に到達したと推測される。
【0288】
従って情報処理装置100は、図44に示すように、輪郭線推測生成回路114により、重心移動距離L1を試行用中間フレーム画像F2乃至F6の総数で除算することにより、試行先頭入力輪郭線StTLの重心StTC及び試行最後尾入力輪郭線EnTLの重心EnTC同士を結ぶ重心間仮想線上で当該試行先頭入力輪郭線StTLの重心StTCに対する試行用中間フレーム画像F2乃至F6での移動位置(すなわち重心間隔TK毎の位置であり、以下、これを推測重心位置と呼ぶ)TO1乃至TO5(座標値)を算出する。
【0289】
そして情報処理装置100は、輪郭線推測生成回路114により、各試行推測輪郭線ITLA1乃至ITLA5をその順番を維持した状態で試行先頭入力輪郭線StTLの重心StTCから試行最後尾入力輪郭線EnTLの重心EnTCの方向へ移動させ、これら各試行推測輪郭線ITLA1乃至ITLA5の各重心をそれぞれ重心間仮想線上の推測重心位置TO1乃至TO5に順番に一致(すなわち試行推測輪郭線ITLA1の重心は重心推測位置TO1に一致)させることにより、これら各試行推測輪郭線ITLA1乃至ITLA5をそれぞれ試行用中間フレーム画像TF2乃至TF6に対応付ける。
【0290】
これに加えて情報処理装置100は、輪郭線推測生成回路114により、試行推測輪郭線ITLA1乃至ITLA5を構成する複数の試行推測輪郭形成点IPa1乃至IPa24 、IPb1乃至IPb24 、……、IPe1乃至IPe24 (対応する試行用中間フレーム画像TF2乃至TF6中の座標で表す)の集合データでなる試行推測輪郭形成点群データを、試行先頭入力輪郭形成点群データD102及び試行最後尾入力輪郭形成点群データD103と共に、試行用オブジェクト輪郭抽出データD104として輪郭線記録回路115に送出して記録した後、推測輪郭線生成処理ルーチンSRT300を終了して技量判定処理ルーチンRT200のステップSP203(図35)へ移る。
【0291】
このようにして情報処理装置100は、輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7のうち試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7の輪郭がなぞられて指定されることにより得られた試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLから、各試行用中間フレーム画像TF2乃至TF6中のオブジェクトTJ2乃至TJ6の輪郭を抽出するための試行推測輪郭線TLA1乃至TLA5を推測して生成し得るようになされている。
【0292】
ところで試行先頭入力輪郭形成点(新規輪郭形成点NSTP1乃至NSTP24)及び試行最後尾入力輪郭形成点EnTP1乃至EnTP24は、試行用オブジェクトTJ7をユーザがなぞった方向に沿って順番に生成される。
【0293】
このため新規輪郭形成点NSTP1乃至NSTP24及び試行最後尾輪郭形成点EnTP1乃至EnTP24において、これらを単にその生成の順番に従って対応付けると、試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの描画が互いに逆向き(すなわち試行用オブジェクトTJ1とTJ7とをなぞった方向が逆向き)の場合、これら試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLの間の試行推測輪郭線TLA1乃至TLA5が一度反転するように(すなわち裏返しになるように)生成させる。
【0294】
しかしながら情報処理装置100では、上述したように順回りペア間距離ODa2乃至ODa24 又は逆回りペア間距離RDa2乃至RDa24 の総和の小さい一方の対応付けを選択することにより、試行用オブジェクトTJ1及びTJ7のなぞられる方向にかかわらずに各新規輪郭形成点NSTP2乃至NSTP24と試行最後尾輪郭形成点EnTP1乃至EnTP24とをほぼ正しく対応付けて試行推測輪郭線ITLA1乃至ITLA5が反転することを防止して対応付けることができる。
【0295】
ステップSP203において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から試行用オブジェクト輪郭抽出データD104を読み出すと共に、動画像記録回路111から全ての試行用フレーム画像データD100Aを読み出し、当該試行用フレーム画像データD100Aを試行用オブジェクト輪郭抽出データD104と合成することにより試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。
【0296】
これにより情報処理装置100は、図45に示すように、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと試行最後尾入力輪郭線EnTLと試行推測輪郭線TLA1乃至TLA5とを重ねて表示してユーザに目視させる。
【0297】
また情報処理装置100は、技量判定回路117により、輪郭抽出試行処理用画面データD101に基づいて試行先頭入力輪郭線StTL、試行推測輪郭線TLA1乃至TLA5及び試行最後尾入力輪郭線EnTLとそれぞれ対応する試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7中の計測基準輪郭線ROL1乃至ROL7との平均誤差量を算出し、次のステップSP204へ移る。
【0298】
ここで例えば計測基準輪郭線ROL1と試行先頭入力輪郭線StTLとの平均誤差量とは、当該計測基準輪郭線ROL1の各箇所と試行先頭入力輪郭線StTLの対応する各箇所との誤差を平均化した数値であり、試行先頭入力輪郭線StTLがその一周に渡り計測基準輪郭線ROL1に対して平均的にどの程度ずれているかを表すものである。
【0299】
ステップSP204において情報処理装置100は、技量判定回路117により、試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7の全てにおいて平均誤差量が所定の閾値以下に達したか否かを判断する。
【0300】
このステップSP204において否定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7のうち少なくともいずれか一つにおいて平均誤差量が所定の閾値以下に達していないことを表しており、このとき情報処理装置100は、続くステップSP205へ移る。
【0301】
ステップSP205において情報処理装置100は、技量判定回路117により、入力輪郭要求データD105を生成し、これをユーザインターフェース回路112へ送出する。
【0302】
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出試行操作中のユーザに輪郭抽出試行処理用画面を介して、複数の試行用中間フレーム画像TF2乃至TF6のうち任意の試行用中間フレーム画像TF2乃至TF6で試行用オブジェクトTJ2乃至TJ6の輪郭を指定するように要求する。
【0303】
そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111から試行用中間フレーム画像データD100Aを読み出し、これを輪郭抽出試行処理用画面データD101と合成して情報提示部105に送出することにより、当該情報提示部105において輪郭抽出試行処理用画面の画像表示領域に試行用中間フレーム画像データD100Aに基づく試行用中間フレーム画像TF2乃至TF6を表示してユーザに目視させる。
【0304】
この状態で情報処理装置100は、ユーザにより操作部を介して各試行用中間フレーム画像TF2乃至TF6のうち輪郭指定用に任意に選択された1枚の試行用中間フレーム画像TF2、……、又はTF6中の試行用オブジェクトTJ2、……、又はTJ6をなぞらせて指定させる。
【0305】
この結果、情報処理装置100は、ユーザにより選択された試行用中間フレーム画像TF4中の試行用オブジェクトTJ4が任意になぞられて指定されることにより追加の入力輪郭線(以下、これを試行追加入力輪郭線と呼ぶ)に相当する試行追加入力輪郭線信号S103が入力されると、これをユーザインターフェース回路112に取り込んで推測輪郭線生成処理ルーチンSRT300へ戻る。
【0306】
この場合、情報処理装置100は、試行用中間フレーム画像TF4中の試行用オブジェクトTJ4がなぞられて指定されると、この結果得られた追加入力輪郭線信号S103を変換回路113により所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより当該追加入力輪郭線信号S103に相当する複数の追加入力輪郭形成点を生成し、当該生成した複数の追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD106として輪郭線推測生成回路114へ送出する。
【0307】
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からこれに記録している試行用オブジェクト輪郭抽出データD104を読み出し、試行追加入力輪郭線と当該試行用オブジェクト輪郭抽出データD104に含まれる試行先頭入力輪郭線StTL及び試行最後尾入力輪郭線EnTLとを用いて上述した推測輪郭線生成処理を行う。
【0308】
これにより情報処理装置100は、輪郭線推測生成回路114により、試行先頭入力輪郭線StTL及び試行追加入力輪郭線から試行用先頭フレーム画像TF1及び試行用中間フレーム画像TF4間の試行用中間フレーム画像TF2及びTF3中のオブジェクトTJ2及びTJ3の輪郭を抽出するための試行推測輪郭線TLB1及びTLB2を新たに推測して生成する。
【0309】
また情報処理装置100は、輪郭線推測生成回路114により、試行追加入力輪郭線及び試行最後尾入力輪郭線EnTLから試行用中間フレーム画像TF4及び試行用最後尾フレーム画像TF7間の試行用中間フレーム画像TF5及びTF6中のオブジェクトTJ5及びTJ6の輪郭を抽出するための試行推測輪郭線TLB4及びTLB5を新たに推測して生成する。
【0310】
このようにして情報処理装置100は、ステップSP204において肯定結果が得られるまでの間は、新たに試行用中間フレーム画像TF2乃至TF6を選択させてオブジェクトTJ2乃至TJ6の輪郭を指定させることにより試行追加入力輪郭線を得ると共に、当該試行追加入力輪郭線と、その前後の入力輪郭線(試行先頭入力輪郭線StTL、試行最後尾入力輪郭線EnTL又は他の試行追加入力輪郭線)とから新たな試行推測輪郭線を推測し直して生成することにより平均誤差量を小さくし、かくして生成した新たな試行用オブジェクト輪郭抽出データD104を輪郭線記録回路115に記録して更新する。
【0311】
この際、情報処理装置100は、新たな試行推測輪郭線を生成する毎にユーザインターフェース回路112により、輪郭線記録回路115から新たな試行用オブジェクト輪郭抽出データD104を読み出し、当該新たな試行用オブジェクト輪郭抽出データD104と試行用フレーム画像データD100Aとを合成して試行抽出輪郭提示画像データを生成すると共に、その試行抽出輪郭提示画像データを輪郭抽出試行処理用画面データD101と合成して技量判定回路117及び情報提示部105へ送出する。
【0312】
これにより情報処理装置100は、情報提示部105において輪郭抽出試行処理用画面内の画像表示領域に、試行用フレーム画像TF1乃至TF7にそれぞれ対応する試行先頭入力輪郭線StTLと、試行最後尾入力輪郭線EnTLと、新たに生成した試行推測輪郭線とを重ねて表示してユーザに目視させる。
【0313】
これに対してステップSP204において肯定結果が得られると、このことは試行用先頭フレーム画像TF1、試行用中間フレーム画像TF2乃至TF6及び試行用最後尾フレーム画像TF7(すなわち全ての試行用フレーム画像TF1乃至TF7)においてそれぞれ平均誤差量が所定の閾値以下に達していることを表しており、このとき情報処理装置100は、次のステップSP206へ移る。
【0314】
ステップSP206において情報処理装置100は、技量判定回路117により、試行用先頭フレームTF1、試行用中間フレームTF2乃至TF6及び試行用最後尾フレームTF7においてそれぞれ平均誤差量が閾値以下になるまでに試行用オブジェクトTJ1乃至TJ7の輪郭がなぞられて指定された試行用フレーム画像(以下、これを入力フレーム画像と呼ぶ)の総数と、予め設定された所定のフレーム画像基準数とを比較する。
【0315】
ここで輪郭抽出試行操作の技量が低いユーザは、平均誤差量が所定の閾値以下に達するまでに何度も試行用先頭フレームTF1、試行用中間フレームTF2乃至TF6及び試行用最後尾フレームTF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定するように要求されることから、入力フレーム画像の総数が多くなる傾向にある。
【0316】
一方、輪郭抽出試行操作の技量が高いユーザは、何度も試行用先頭フレームTF1、試行用中間フレームTF2乃至TF6及び試行用最後尾フレームTF7中の試行用オブジェクトTJ1乃至TJ7の輪郭を指定しなくても平均誤差量が所定の閾値以下に達することから、入力フレーム画像の総数が少なくなる傾向にある。
【0317】
従って情報処理装置100は、入力フレーム画像の総数がフレーム画像基準数よりも少ない場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が高いと判定し、これに対して入力フレーム画像の総数がフレーム画像基準数よりも多い場合には、このとき輪郭抽出試行操作を行ったユーザの技量(すなわち評価値)が低いと判定した後、その判定結果を入力フレーム画像の総数と共に技量データD107としてユーザインターフェース回路112に送出して技量判定処理ルーチンSRT200を終了し、続くステップSP102(図34)に移る。
【0318】
ステップSP102において情報処理装置100は、ユーザインターフェース回路112により、技量判定処理の間、適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面をその技量判定処理(すなわちユーザによる輪郭抽出試行操作)に要した時間(以下、これを作業時間と呼ぶ)等の情報を共に、輪郭抽出経緯画面データ(以下、これを特に輪郭抽出試行経緯画面データと呼ぶ)とし、図46に示すように、その輪郭抽出試行経緯画面データと、技量データD107と、輪郭抽出試行用動画像データD100と、ユーザ情報S100とからなる入力情報を入力情報データD108として処理傾向情報抽出部102に送出して次のステップSP103へ移る。
【0319】
ステップSP103において情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行用動画像データD100に所定の画像処理を施すことにより、当該輪郭抽出試行用動画像データD100から試行用フレーム画像データD100A個別の又は全ての試行用フレーム画像データD100Aにおける平均的な色成分ヒストグラム及びエッジ成分比率とからなる画像特徴情報を抽出する。
【0320】
また情報処理装置100は、処理傾向情報抽出部102により、入力情報データD108に含まれる輪郭抽出試行経緯画面データに対して所定の画像処理を施すことにより、輪郭抽出試行操作に要した作業時間と、入力フレーム画像中の試行用オブジェクトTJ1乃至TJ7の輪郭が指定されたときの輪郭描線時間と、試行用先頭フレーム画像TF1及び試行用最後尾フレーム画像TF7中の試行用オブジェクトTJ1及びTJ7を一度指定した後に、改めて入力フレーム画像中の試行用オブジェクトの指定を行った回数(以下、これを訂正回数と呼ぶ)と、入力フレーム画像を決定するために前後の試行用フレーム画像TF1乃至TF7をモニタに何回表示したかを表す表示回数とを輪郭抽出経緯情報として抽出する。
【0321】
このようにして情報処理装置100は、処理傾向情報抽出部102により、図47に示すように、入力情報から抽出した画像特徴情報と輪郭抽出経緯情報とをユーザによりどのような輪郭抽出試行用動画像120からどのように試行用オブジェクトTJ1乃至TJ7の輪郭が抽出されたかを示す処理傾向情報とする。
【0322】
そして情報処理装置100は、処理傾向情報抽出部102により、入力情報から抽出した処理傾向情報を処理傾向情報データとし、当該処理傾向情報データ及び入力情報データD108を対応付けて、これを蓄積情報データD109として情報蓄積部103に送出した後、次のステップSP104へ移る。
【0323】
これによりステップSP104において情報処理装置100は、情報蓄積部103により、図48に示すように、複数のユーザの蓄積情報データD109をこれに入力情報の技量データD107として含まれる入力フレーム画像の総数が少ない順に並べて、フレーム画像基準数Bor1を基に技量の高いユーザの蓄積情報データD109と、技量の低いユーザの蓄積情報データD109とを区分した状態で記憶してデータベース化し、続くステップSP105へ移って輪郭抽出試行処理手順RT100を終了する。
【0324】
このようにして情報処理装置100は、実際に抽出対象のオブジェクトを含むオブジェクト抽出用動画像に対して輪郭抽出操作が行われる前に輪郭抽出試行操作の結果を基にユーザの輪郭抽出操作に対する技量や輪郭抽出傾向(すなわち処理傾向情報で表される傾向)を推測し、これを蓄積情報データD109として情報蓄積部103に記憶する。
【0325】
因みに情報処理装置100では、一度輪郭抽出試行操作を行ったユーザであっても所定期間以上、抽出対象のオブジェクトに対して輪郭抽出操作を行わなければ、再度輪郭抽出試行操作を行なわせてユーザの輪郭抽出操作に対する技量及び輪郭抽出傾向の推測結果を更新し、これによりユーザの技量を常時適確に把握し得るようになされている。
【0326】
次いで情報処理装置100は、輪郭抽出試行操作を行った啓発対象ユーザによりオブジェクト抽出用動画像に対して輪郭抽出操作が行われる際、当該啓発対象ユーザに他のユーザが輪郭抽出操作を行ったときの一連の輪郭抽出処理用画面を提示する。
【0327】
この場合、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において情報提示処理を実行するための各種処理を所定の情報提示プログラムに従ってソフトウェア的に実現する。
【0328】
すなわち情報処理装置100は、図49に示すように、情報提示処理プログラムに従って情報提示処理手順RT101の開始ステップから入り、続くステップSP110へ移って情報提示モードへ移行する。
【0329】
ステップSP110において情報処理装置100は、外部から供給されたオブジェクト抽出用動画像データD200を輪郭生成部101の動画像入力回路110に取り込み、当該オブジェクト抽出用動画像データD200を構成するフレーム画像データ(以下、これを輪郭抽出用フレーム画像データと呼ぶ)D200A単位で動画像記録回路111に記録する。
【0330】
ここでオブジェクト抽出用動画像データD200に基づくオブジェクト抽出用動画像200は、図50に示すように、時間的に連続して抽出対象のオブジェクトOJ1乃至OJnを含む複数の輪郭抽出用フレーム画像OF1乃至OFnから構成されており、当該輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnが時間の経過に従ってその形状を次第に変化させながら移動する。
【0331】
そして情報処理装置100は、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aを順次読み出して情報提示部105に送出することにより当該情報提示部105に設けられたモニタに時間的に連続する輪郭抽出用フレーム画像OF1乃至OFnでなるオブジェクト抽出用動画像200を表示して啓発対象ユーザに目視させることにより当該オブジェクト抽出用動画像200の内容及び抽出対象のオブジェクトOJ1乃至OJnの輪郭を確認させて、続くステップSP111へ移る。
【0332】
ステップSP111において情報処理装置100は、啓発対象ユーザにより操作部(図示せず)を介して入力されたユーザ名及びユーザIDとからなるユーザ情報S100を輪郭生成部101のユーザインターフェース回路112に取り込み、これを処理傾向情報抽出部102を介して提示情報選択部104に送出して続くステップSP112へ移る。
【0333】
ステップSP112において情報処理装置100は、提示情報選択部104により、情報蓄積部103からユーザ情報S100(ユーザ名及びユーザID)に基づいて啓発対象ユーザの蓄積情報データD109を読み出し、次のステップSP113へ移る。
【0334】
ステップSP113において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に処理傾向情報データとして含まれる輪郭抽出経緯情報(以下、これを比較用基準抽出経緯情報と呼ぶ)と、情報蓄積部103に記憶した啓発対象ユーザの蓄積情報データD109を除いたすでに蓄積している他の全ての蓄積情報データ(以下、これを過去蓄積情報データと呼ぶ)D109に処理傾向情報データ(以下、これを過去処理傾向情報データと呼ぶ)として含まれる輪郭抽出経緯情報(以下、これを過去抽出経緯情報と呼ぶ)とを比較する。
【0335】
実際上、情報処理装置100は、提示情報選択部104により、比較用基準抽出経緯情報に含まれる作業時間(以下、これを比較用基準作業時間と呼ぶ)、輪郭描線時間(以下、これを比較用基準描線時間と呼ぶ)、訂正回数(以下、これを比較用基準訂正回数と呼ぶ)及び表示回数(以下、これを比較用基準表示回数と呼ぶ)と、過去抽出経緯情報に含まれる作業時間(以下、これを過去作業時間と呼ぶ)、輪郭描線時間(以下、これを過去描線時間と呼ぶ)、訂正回数(以下、これを過去訂正回数と呼ぶ)及び表示回数(以下、これを過去表示回数と呼ぶ)とを比較する。
【0336】
この状態で情報処理装置100は、提示情報選択部104により、過去蓄積情報データD109の中から比較用基準作業時間の値を中心とした所定の作業時間閾値範囲内の値を示す過去作業時間と、比較用基準描線時間の値を中心とした所定の描線時間閾値範囲内の値を示す過去描線時間と、比較用基準訂正回数の値を中心とした所定の訂正回数閾値範囲内の値を示す過去訂正回数と、比較用基準表示回数の値を中心とした所定の表示回数閾値範囲内の値を示す過去表示回数とを過去抽出経緯情報として含む過去蓄積情報データD109を選択することにより、選択対象の過去蓄積情報データD109の数を啓発対象ユーザと輪郭抽出手法の類似する輪郭抽出手法のユーザの過去蓄積情報データD109に限定して続くステップSP114へ移る。
【0337】
ステップSP114において情報処理装置100は、提示情報選択部104により、啓発対象ユーザの蓄積情報データD109に含まれる技量データD107に基づいて当該啓発対象ユーザの技量(フレーム画像基準数Bor1を基準として判断した技量)が低いか否かを判断する。
【0338】
このステップSP114において肯定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY1を輪郭抽出操作に対して技量の低いユーザであると判定していることを表しており、このとき情報処理装置100は、次のステップSP115へ移る。
【0339】
ステップSP115において情報処理装置100は、提示情報選択部104により、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が高いと判定したユーザY2の過去蓄積情報データD109を最終的に選択する。
【0340】
これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から最終的に選択した最も技量の高いユーザY2の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の高いユーザY2により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の高いユーザY2の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出して続くステップSP116へ移る。
【0341】
ここで輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面は、過去にユーザによって輪郭抽出操作が行われた際に情報提示部105のモニタに表示され、当該輪郭抽出操作に応じたオブジェクト抽出用動画像200の輪郭抽出用フレーム画像OF1乃至OFnの表示の仕方や、抽出対象のオブジェクトOJ1乃至OJnの指定の仕方等のように、抽出対象のオブジェクトOJ1乃至OJnの輪郭の抽出に対する一連の経緯を表している。
【0342】
ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面と、当該ユーザY2の技量の情報とを情報提示部105に設けられたモニタ及びスピーカ(図示せず)を介して出力して啓発対象ユーザに提示し、続くステップSP118に移って情報提示処理手順RT101を終了する。
【0343】
これに対してステップSP114において否定結果が得られると、このことは図51に示すように、輪郭抽出試行操作の結果により啓発対象ユーザY3を技量の高いユーザであると判定していることを表しており、このとき情報処理装置100は、ステップSP117へ移る。
【0344】
ステップSP117において情報処理装置100は、ステップSP113で選択した過去蓄積情報データD109の中から技量判定処理によって最も技量が低いと判定したユーザY4の過去蓄積情報データD109を最終的に選択する。
【0345】
これにより情報処理装置100は、提示情報選択部104により情報蓄積部103から、最終的に選択した最も技量の低いユーザY4の過去蓄積情報データD109にユーザ情報S100として含まれるユーザIDに基づいて、その最も技量の低いユーザY4により過去に行われたオブジェクト抽出用動画像200に対する輪郭抽出操作の際の一連の輪郭抽出処理用画面データからなる輪郭抽出経緯画面データD111と、当該最も技量の低いユーザY4の過去蓄積情報データD109に技量データD107として含まれる技量の情報とを提示情報データD110として読み出し、当該読み出した提示情報データD110を情報提示部105へ送出してステップSP116へ移る。
【0346】
この場合ステップSP116において情報処理装置100は、情報提示部105により、提示情報データD110に基づいて最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面とそのユーザY4の技量の情報とをモニタ及びスピーカを介して出力して啓発対象ユーザに提示した後、ステップSP118に移り情報提示処理手順RT101を終了する。
【0347】
このようにして情報処理装置100は、図52に示すように、技量の低い啓発対象ユーザY1に対して、当該啓発対象ユーザY1の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の高いユーザY2の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の高いユーザY2の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点や、より良くするために真似るべき点等を気付かせて当該輪郭抽出操作の向上を促すようになされている。
【0348】
これに対して情報処理装置100は、技量の高い啓発対象ユーザY3に対して、当該啓発対象ユーザY3の輪郭抽出手法と類似する輪郭抽出手法の複数のユーザのうち最も技量の低いユーザY4の輪郭抽出経緯画面データD111に基づく一連の輪郭抽出処理用画面を提示情報として提示することにより、当該最も技量の低いユーザY4の輪郭抽出手法(すなわち輪郭抽出操作の経緯)を基に反面教師的に啓発対象ユーザY3に対してその輪郭抽出手法と類似する、最も技量の低いユーザY4の輪郭抽出手法を誤って真似ることを防止して当該輪郭抽出操作の向上を促すようになされている。
【0349】
そして情報処理装置100は、啓発対象ユーザに対するこのような提示情報の提示の際に事前にオブジェクト抽出用動画像200を啓発対象ユーザに提示していることにより、オブジェクト抽出用動画像200の内容と、他のユーザの輪郭抽出手法とを照らし合わさせることができ、かくして啓発対象ユーザに対して輪郭抽出操作の向上をさらに適確に促すことができるようになされている。
【0350】
続いて情報処理装置100は、啓発対象ユーザに提示情報を提示した後、当該啓発対象ユーザによって行われるオブジェクト抽出用動画像200に対する輪郭抽出操作に応じて輪郭抽出処理を実行する。
【0351】
この際、情報処理装置100は、輪郭生成部101、処理傾向情報抽出部102、情報蓄積部103、提示情報選択部104及び情報提示部105において輪郭抽出処理を実行するための各種処理を所定の輪郭抽出処理プログラムに従ってソフトフェア的に実現する。
【0352】
すなわち情報処理装置100は、図53に示すように、輪郭抽出処理プログラムに従って輪郭抽出処理手順RT102の開始ステップから入り、続くステップSP130へ移って情報提示モードから輪郭抽出処理モードへ移行する。
【0353】
ステップSP130において情報処理装置100は、ユーザインターフェース回路112から輪郭抽出処理用画面データD120を情報提示部105(図32)に送出することにより当該情報提示部105に設けられたモニタに輪郭抽出処理用画面データD120に基づいて、オブジェクト抽出用動画像200の画像表示領域等を有する輪郭抽出処理用画面(図示せず)を表示する。
【0354】
また情報処理装置100は、ユーザによって操作部を介して入力された先頭の試行用フレーム画像データ(以下、これを特に輪郭抽出用先頭フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用先頭フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用先頭フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。
【0355】
これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用先頭フレーム画像データD200Aに基づく輪郭抽出用先頭フレーム画像OF1を表示し、かくして輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の形状をユーザに目視させる。
【0356】
この状態で情報処理装置100は、図54に示すように、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用先頭フレーム画像OF1中のオブジェクトOJ1の輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に先頭入力輪郭線と呼ぶ)に相当する先頭入力輪郭線信号S110をユーザインターフェース回路112に取り込んで変換回路113へ送出する。
【0357】
情報処理装置100は、変換回路113により、先頭入力輪郭線信号S110を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該先頭入力輪郭線信号S110に相当する複数の先頭入力輪郭形成点を生成し、当該生成した複数の先頭入力輪郭形成点の集合データを先頭入力輪郭形成点群データD121として輪郭線推測生成回路114に送出し、続くステップSP131へ移る。
【0358】
ステップSP131において情報処理装置100は、ユーザによって操作部を介して入力された最後尾の輪郭抽出用フレーム画像データ(以下、これを特に輪郭抽出用最後尾フレーム画像データと呼ぶ)D200Aの要求に応じて、ユーザインターフェース回路112により、動画像記録回路111からオブジェクト抽出用動画像データD200を構成する複数の輪郭抽出用フレーム画像データD200Aのうち輪郭抽出用最後尾フレーム画像データD200Aを選択して読み出し、当該輪郭抽出用最後尾フレーム画像データD200Aを輪郭抽出処理用画面データD120と合成して情報提示部105に送出する。
【0359】
これにより情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用最後尾フレーム画像データD200Aに基づく輪郭抽出用最後尾フレーム画像OFnを表示し、かくして輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの形状をユーザに目視させる。
【0360】
この状態で情報処理装置100は、啓発対象ユーザによりマウス等の操作部を介して輪郭抽出処理用画面上で輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJnの輪郭が任意になぞられて指定されると、この結果得られた入力輪郭線(以下、これを特に最後尾入力輪郭線と呼ぶ)に相当する最後尾入力輪郭線信号S111をユーザインターフェース回路112に取り込んで変換回路113に送出する。
【0361】
そして情報処理装置100は、変換回路113により、最後尾入力輪郭線信号S111を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該最後尾入力輪郭線信号S111に相当する複数の最後尾入力輪郭形成点を生成し、当該生成した複数の最後尾入力輪郭形成点の集合データを最後尾入力輪郭形成点群データD122として輪郭線推測生成回路114に送出し、続くステップSP132へ移る。
【0362】
ステップSP132において情報処理装置100は、輪郭生成部101により、図37について上述した推測輪郭線生成処理ルーチンSRT300と同様の処理を実行することにより、先頭入力輪郭線StOL及び最後尾入力輪郭線EnOLから、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn間の全ての輪郭抽出用フレーム画像(以下、これを輪郭抽出用中間フレーム画像と呼ぶ)OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭を抽出するための推測輪郭線を推測して生成する。因みに推測輪郭線は輪郭生成部101により、以下のように生成される。
【0363】
すなわち輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLを構成する複数の先頭入力輪郭形成点の総数(以下、これを先頭形成点数と呼ぶ)と、最後尾入力輪郭線EnOLを構成する複数の最後尾入力輪郭形成点の総数(以下、これを最後尾形成点数と呼ぶ)とを比較し、数の少ない例えば先頭入力輪郭形成点で構成される先頭入力輪郭線StOLにおいて、互いに隣接する各先頭入力輪郭形成点間の距離から当該先頭入力輪郭線StOLの全長を算出する。
【0364】
そして輪郭生成部101は、輪郭線推測生成回路114により、その算出した全長を数の多い最後尾形成点数で除算することにより、先頭入力輪郭線StOL上でこれを構成する複数の新たな新規輪郭形成点を生成するための生成間隔を求め、当該生成間隔毎に順次新規輪郭形成点を生成することにより、先頭入力輪郭線StOLを構成する新規輪郭形成点の総数を最後尾形成点数に合わせる。
【0365】
次いで輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOC(座標値)と最後尾入力輪郭線EnOLの重心EnOC(座標値)とを算出し、図55(A)及び(B)に示すように、互いの重心StOC及びEnOC同士を一致させて先頭入力輪郭線StOLと最後尾入力輪郭線EnOLとを重ね合わせる。
【0366】
この状態で輪郭生成部101は、図56に示すように、輪郭線推測生成回路114により、各新規輪郭形成点NSOP1乃至NSOPnと、これらに対してそれぞれ最短距離の関係にある最後尾入力輪郭形成点EnOP1乃至EnOPnとの間の輪郭線間距離Db1、Db2、Db3、……、Dbnを算出し、当該算出した輪郭線間距離Db1、Db2、Db3、……、Dbnのうち最も短い輪郭線間距離(ここでは輪郭線間距離Db1)の関係にある最後尾入力輪郭形成点EnOP1と新規輪郭形成点NSOP1とを起点ペアSPP2と決定する。
【0367】
続いて輪郭生成部101は、輪郭線推測生成回路114により、図57(A)に示すように、起点ペアSPP2を起点とし、先頭入力輪郭線StOLにおいて例えば矢印ArwS2に示す反時計回り方向である基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwO2に示す反時計回り方向である順回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOP2間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOP3間、……の順回りペア間距離ODb2乃至ODbnを算出する。
【0368】
また情報処理装置100は、輪郭線推測生成回路114により、図57(B)に示すように、起点ペアSPP2を起点として、先頭入力輪郭線StOLにおいて基準方向の新規輪郭形成点NSOP1乃至NSOPnに、最後尾入力輪郭線EnOLにおいて矢印ArwS2に示す時計回り方向である逆回り方向の最後尾入力輪郭形成点EnOP1乃至EnOPnをそれぞれ順番に対応付けることにより、これら対応付けた新規輪郭形成点NSOP2及び最後尾入力輪郭形成点EnOPn間、新規輪郭形成点NSOP3及び最後尾入力輪郭形成点EnOPn−1間、……の逆回りペア間距離RDb2乃至RDbnを算出する。
【0369】
次いで輪郭生成部101は、輪郭線推測生成回路114により、順回りペア間距離ODb2乃至ODbnの総和と逆回りペア間距離RDb2乃至RDbnの総和とを算出した後、当該算出した総和同士を比較することにより総和の小さい一方の対応付け(例えば基準方向と順回り方向との対応付け)を選択する。
【0370】
そして輪郭生成部101は、輪郭線推測生成回路114により、図58に示すように、起点ペア間距離ODb1、順回りペア間距離ODb2、ODb3、……をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより起点ペアである新規輪郭形成点NSOP1及び最後尾入力輪郭形成点EnOP1同士を結ぶ起点間仮想線上と、順番に対応付けた新規輪郭形成点NSOP2乃至NSOPn及び最後尾入力輪郭形成点EnOP2乃至EnOPn同士を結ぶ対応付け点間仮想線上とでそれぞれ点形成間隔DDb1、DDb2、DDb3、……を求め、当該起点間仮想線上及び各対応付け点間仮想線上で点形成間隔DDb1、DDb2、DDb3、……毎に推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……を生成する。
【0371】
輪郭生成部101は、輪郭線推測生成回路114により、起点間仮想線上及び各対応付け点間仮想線上の推測輪郭形成点OIPa1乃至OIPn1、OIPa2乃至OIPn2、OIPa3乃至OIPn3、……のうち新規輪郭形成点NSOP1乃至NSOPnから同一の順番にある推測輪郭形成点OIPa1乃至OIPan間、OIPb1乃至OIPbn間、OIPc1乃至OIPcn間、……をそれぞれ補間することにより、各輪郭抽出用中間フレーム画像OF2乃至OFn−1に対する推測輪郭線OLA1乃至OLAn−2を生成する。
【0372】
そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn−2の重心(座標値)を算出する。
【0373】
また輪郭生成部101は、輪郭線推測生成回路114により、先頭入力輪郭線StOLの重心StOCと最後尾入力輪郭線EnOLの重心EnOCとの間の重心移動距離L2(図55)を輪郭抽出用中間フレーム画像OF2乃至OFn−1の総数で除算することにより、これら互いの重心StOC及びEnOC同士を結ぶ重心間仮想線上で当該先頭入力輪郭線StOLの重心StOCに対する輪郭抽出用中間フレーム画像OF2乃至OFn−1での移動位置(すなわち推測重心位置)を算出する。
【0374】
そして輪郭生成部101は、輪郭線推測生成回路114により、各推測輪郭線OLA1乃至OLAn−2を、その順番を維持した状態で先頭入力輪郭線StOLの重心StOCから最後尾入力輪郭線EnOLの重心EnOCの方向に移動させ、これら推測輪郭線OLA1乃至OLAn−2の各重心をそれぞれ重心間仮想線上の推測重心位置に順番に一致させることにより、これら各推測輪郭線OLA1乃至OLAn−2をそれぞれ輪郭抽出用中間フレーム画像OF2乃至OFn−1に対応付ける。
【0375】
このようにして情報処理装置100は、輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用最後尾フレーム画像OFn中のオブジェクトOJ1及びOJnの輪郭がなぞられて指定されることにより得られた先頭入力輪郭線StOLと最後尾入力輪郭線EnOLから各輪郭抽出中間フレーム画像F2乃至Fn−1中のオブジェクトOJ2乃至OJn−1を抽出するための推測輪郭線OLA1乃至OLAn−2を推測して生成する。
【0376】
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLA1乃至OLAn−2を構成する複数の推測輪郭形成点OIPa1乃至OIPan、OIPb1乃至OIPbn、OIPc1乃至OIPcn、……(対応する輪郭抽出用中間フレーム画像OF2乃至OFn−1中の座標で表す)の集合データでなる推測輪郭形成点群データを、先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122と共に、オブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録し、続くステップSP133へ移る。
【0377】
ステップSP133において情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から全ての輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aをオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
【0378】
これにより情報処理装置100は、図59に示すように、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOL、推測輪郭線OLA1乃至OLAn−2及び最後尾入力輪郭線EnOLを重ねて表示して啓発対象ユーザに目視させ、続くステップSP134に移る。
【0379】
ステップSP134において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたか否かを判断する。
【0380】
このステップSP134において否定結果が得られると、このことは輪郭抽出処理用画面を介して推測輪郭線OLA1乃至OLAn−2を目視確認した啓発対象ユーザによって処理終了命令が入力されていないこと、すなわち輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得のできる精度で抽出されておらず、引き続き輪郭抽出操作が行われることを表しており、このとき情報処理装置100は、続くステップSP135へ移る。
【0381】
ステップSP135において情報処理装置100は、ユーザインターフェース回路112により、啓発対象ユーザによって入力された輪郭指定用に輪郭抽出中間フレーム画像OF2乃至OFn−1の提示を要求する提示命令に応じて、動画像記録回路111から輪郭抽出用中間フレーム画像OF2乃至OFn−1に相当する輪郭抽出用フレーム画像データD200Aを読み出し、これを輪郭抽出処理用画面データD120に合成して情報提示部105に送出することにより、情報提示部105において輪郭抽出処理用画面内の画像表示領域に輪郭抽出用中間フレーム画像OF2乃至OFn−1を表示して啓発対象ユーザに目視させる。
【0382】
このようにして情報処理装置100は、啓発対象ユーザに対して複数の輪郭抽出用中間フレーム画像OF2乃至OFn−1を視覚的に比較させながら新たにオブジェクトOJ2乃至OJn−1の輪郭を指定する輪郭抽出用中間フレーム画像OF2乃至OFn−1を選択させる。
【0383】
この結果、情報処理装置100は、図60に示すように、啓発対象ユーザにより例えば輪郭抽出用中間フレーム画像OF12が選択され、その輪郭抽出用中間フレーム画像OF12中のオブジェクトOJ12の輪郭が任意になぞられることにより得られた追加の入力輪郭線(以下、これを追加入力輪郭線と呼ぶ)AL1に相当する追加入力輪郭線信号S120をユーザインターフェース回路112に取り込むと、ステップSP133に戻る。
【0384】
この場合、情報処理装置100は、ステップSP133において変換回路113により、追加入力輪郭線信号S120を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S120に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD124として輪郭線推測生成回路114へ送出する。
【0385】
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から先頭入力輪郭形成点群データD121及び最後尾入力輪郭形成点群データD122を取り出す。
【0386】
ここで情報処理装置100は、輪郭線推測生成回路114により、まず先頭入力輪郭形成点群データD121に相当する先頭入力輪郭線StOLと、追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1とから輪郭抽出用先頭フレーム画像OF1及び輪郭抽出用中間フレーム画像OF12間の輪郭抽出用中間フレーム画像OF2乃至OF11中のオブジェクトOJ2乃至OJ11の輪郭を抽出するための推測輪郭線OLB1乃至OLB10 を新たに推測して生成する。
【0387】
また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL1と最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF13乃至OFn−1中のオブジェクトOJ13乃至OJn−1の輪郭を抽出するための推測輪郭線OLB12 乃至OLBn−2を新たに推測して生成する。
【0388】
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn−2をそれぞれ構成する複数の推測輪郭形成点群データを生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。
【0389】
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
【0390】
この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1と新たな推測輪郭線OLB1乃至OLB10 及びOLB12 乃至OLBn−2とを重ねて表示してユーザに目視させる。
【0391】
この状態で情報処理装置100は、ステップSP134において例えば再び否定結果が得られると、上述したステップSP135へ移って同様に輪郭指定用の輪郭抽出用フレーム画像OF1乃至OFnを選択させる。
【0392】
そして情報処理装置100は、啓発対象ユーザによって新たに輪郭抽出用中間フレーム画像OF22が選択(図60)され、当該輪郭抽出用中間フレーム画像OF22中のオブジェクトOJ22が任意になぞられることにより追加入力輪郭線信号S121が得られると、これをユーザインターフェース回路112に取り込んでステップSP132に戻る。
【0393】
この場合、情報処理装置100は、ステップSP132において、変換回路113により、追加入力輪郭線信号S121を所定のサンプリング間隔でサンプリングしてディジタルデータに変換することにより、当該追加入力輪郭線信号S121に相当する複数の追加入力輪郭形成点を生成し、当該生成した追加入力輪郭形成点の集合データを追加入力輪郭形成点群データD125として輪郭線推測生成回路114へ送出する。
【0394】
そして情報処理装置100は、輪郭線推測生成回路114により、輪郭線記録回路115からオブジェクト輪郭抽出データD123を読み出し、当該オブジェクト輪郭抽出データD123から追加入力輪郭形成点群データD124及び最後尾入力輪郭形成点群データD122を取り出す。
【0395】
ここで情報処理装置100は、輪郭線推測生成回路114により、まず追加入力輪郭形成点群データD124に相当する追加入力輪郭線AL1と、追加入力輪郭形成点群データD125に相当する追加入力輪郭線AL2とから輪郭抽出用中間フレーム画像OF12及び輪郭抽出用中間フレーム画像OF22間の輪郭抽出用中間フレーム画像OF13乃至OF21中のオブジェクトOJ13乃至OJ21の輪郭を抽出するための推測輪郭線OLC12 乃至OLC20 を推測し直して新たに生成する。
【0396】
また情報処理装置100は、輪郭線推測生成回路114により、追加入力輪郭線AL2と、最後尾入力輪郭形成点群データD122に相当する最後尾入力輪郭線EnOLとから輪郭抽出用中間フレーム画像OF22及び輪郭抽出用最後尾フレーム画像OFn間の輪郭抽出用中間フレーム画像OF23乃至OFn−1中のオブジェクトOJ23乃至OJn−1の輪郭を抽出するための推測輪郭線OLC22 乃至OLCn−2を推測し直して新たに生成する。
【0397】
そして情報処理装置100は、輪郭線推測生成回路114により、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn−2をそれぞれ構成する複数の推測輪郭形成点群データを新たに生成し、当該推測輪郭形成点群データと、先頭入力輪郭形成点群データD121と、最後尾入力輪郭形成点群データD122と、追加入力輪郭形成点群データD124及びD125とを新たなオブジェクト輪郭抽出データD123として輪郭線記録回路115に送出して記録することにより更新する。
【0398】
これにより情報処理装置100は、ユーザインターフェース回路112により、輪郭線記録回路115から新たなオブジェクト輪郭抽出データD123を読み出すと共に、動画像記録回路111から輪郭抽出用フレーム画像データD200Aを読み出し、当該輪郭抽出用フレーム画像データD200Aを新たなオブジェクト輪郭抽出データD123と合成することにより抽出輪郭提示画像データを生成すると共に、その抽出輪郭提示画像データを輪郭抽出処理用画面データD120と合成して情報提示部105へ送出する。
【0399】
この結果、情報処理装置100は、情報提示部105において輪郭抽出処理用画面内の画像表示領域に、輪郭抽出用フレーム画像OF1乃至OFnにそれぞれ対応する先頭入力輪郭線StOLと最後尾入力輪郭線EnOLと追加入力輪郭線AL1及びAL2と推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn−2とを重ねて表示してユーザに目視させる。
【0400】
このようにして情報処理装置100は、ステップSP134において肯定結果が得られるまでの間はステップSP135−ステップSP132−ステップSP133−ステップSP134の処理を繰り返す。
【0401】
従って情報処理装置1は、啓発対象ユーザによってオブジェクトOJ1乃至OJnに輪郭が指定されることにより1度は推測輪郭線を生成しても、新たにオブジェクトOJ1乃至OJnの輪郭が指定されると、その都度、輪郭の指定結果に応じて輪郭抽出用フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1のり輪郭を抽出するための推測輪郭線を推測し直して修正することによりオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得する精度で抽出することができる。
【0402】
これに対してステップSP134において肯定結果が得られると、このことは輪郭抽出用中間フレーム画像OF2乃至OFn−1中のオブジェクトOJ2乃至OJn−1の輪郭が啓発対象ユーザの納得する精度で抽出できたことにより、当該啓発対象ユーザによって輪郭抽出処理を終了する処理終了命令が入力されたことを表しており、このとき情報処理装置100は、処理終了命令をユーザインターフェース回路112に取り込んでステップSP136へ移る。
【0403】
ステップSP136において情報処理装置100は、ユーザインターフェース回路112から処理終了命令を変換回路113及び輪郭線推測生成回路114を順次介して輪郭線記録回路115に送出することにより、当該輪郭線記録回路115によりこの時点で記録している最新のオブジェクト輪郭抽出データD123に相当する先頭入力輪郭線StOLと、最後尾入力輪郭線EnOLと、追加入力輪郭線AL1及びAL2と、推測輪郭線OLB1乃至OLB10 、OLC12 乃至OLC20 及びOLC22 乃至OLCn−2とをオブジェクトOJ1乃至OJnの輪郭を抽出して最終的に得た輪郭線(以下、これを最終輪郭線と呼ぶ)とする。
【0404】
そして情報処理装置100は、輪郭線記録回路115により、その最終輪郭線を最終輪郭線データD126として輪郭線出力回路116を介して図示しないオブジェクト抽出装置に送出することにより、当該オブジェクト抽出装置によって最終輪郭線を用いて、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnを抽出させる。
【0405】
また情報処理装置100は、ユーザインターフェース回路112に上述した輪郭抽出処理手順RT102(すなわちオブジェクト抽出用動画像200を用いた輪郭抽出処理)を実行している間、適宜表示内容を変更して情報提示部105で表示した一連の輪郭抽出処理用画面を輪郭抽出操作の経緯を表す輪郭抽出経緯画面データD111として記録している。
【0406】
従って情報処理装置100は、ユーザインターフェース回路112により、輪郭抽出経緯画面データD111に啓発対象ユーザのユーザIDを対応付け、これを処理傾向情報抽出部102を介して情報蓄積部103に送出して、当該情報蓄積部103に記憶することにより、他の啓発対象ユーザによって輪郭抽出操作が行われる際にその輪郭抽出経緯画面データD111を提示情報として利用可能な状態とし、次のステップSP137へ移って上述した輪郭抽出処理手順RT102を終了する。
【0407】
このようにして情報処理装置100は、図61に示すように、オブジェクト抽出用動画像200を構成する複数の輪郭抽出用フレーム画像OF1乃至OFn中のオブジェクトOJ1乃至OJnの輪郭を啓発対象ユーザの納得のできる精度で当該オブジェクトOJ1乃至OJnの動きに応じて推移させた理想的な最終輪郭線LS1乃至LSnとして抽出し得るようになされている。
【0408】
以上の構成において、情報処理装置100は、試行モード時、啓発対象ユーザに輪郭抽出試行用動画像120を構成する複数の試行用フレーム画像TF1乃至TF7中の試行用オブジェクトTJ1乃至TJ7の輪郭に対して輪郭抽出試行操作を行わせ、当該輪郭抽出試行操作に応じた輪郭抽出試行処理の結果により啓発対象ユーザに対する輪郭抽出手法の技量を判定し、その判定結果を示す技量データD107を、当該輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面からなる輪郭抽出試行経緯画面データと、輪郭抽出試行用動画像データD100等と共に入力情報データD108とする。
【0409】
また情報処理装置100は、入力情報データD108に含まれる輪郭抽出試行経緯画面データ及び輪郭抽出試行用動画像データD100から啓発対象ユーザがどのような輪郭抽出試行用動画像120からどのようにオブジェクトTJ1乃至TJ7の輪郭を抽出しているかを表す当該啓発対象ユーザの輪郭抽出手法に対する処理傾向情報を抽出し、当該抽出した処理傾向情報を処理傾向情報データとして入力情報データD108と共に蓄積情報データD109として情報蓄積部103に記憶する。
【0410】
そして情報処理装置100は、輪郭抽出処理モードに先立つ情報提示モード時、啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報データと、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報データとを比較することにより当該過去蓄積情報データD109の中から、啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択する。
【0411】
次いで情報処理装置100は、その選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データ111を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにした。
【0412】
従って情報処理装置100は、処理能力に優れた指導者による指導を特には必要とせずに、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出手法における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭輪郭手法の向上を促すことができる。
【0413】
また情報処理装置100は、情報提示モード時、啓発対象ユーザに対して提示情報データD110の他に、引き続き啓発対象ユーザによって行われる輪郭抽出操作に用いるオブジェクト抽出用動画像200も提示するため、提示情報の内容とオブジェクト抽出用動画像200の内容とを照らし合わせて目視確認させることができ、かくしてオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を例えば効率良く等のようにどのように抽出すべきかをその時点で容易に気付かせて当該啓発対象ユーザに自分の輪郭抽出手法の向上をさらに適確に促すことができる。
【0414】
以上の構成によれば、試行モード時に啓発対象ユーザに輪郭抽出試行用動画像120から試行用オブジェクトTJ1乃至TJ7の輪郭を抽出する輪郭抽出試行操作を行わせて輪郭抽出手法の技量を判定し、その技量の情報を、輪郭抽出試行処理中に適宜表示内容を変更して表示した一連の輪郭抽出試行処理用画面と輪郭抽出試行用動画像120とから抽出した啓発対象ユーザの輪郭抽出手法に対する処理傾向情報と共に蓄積情報データD109として情報蓄積部103に記憶しておき、輪郭抽出処理モードに先立つ情報提示モード時に啓発対象ユーザの蓄積情報データD109に含まれる処理傾向情報と、情報蓄積部103にすでに蓄積している過去蓄積情報データD109に含まれる処理傾向情報とを比較して当該啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法の他のユーザの過去蓄積情報データD109を選択すると共に、当該選択した過去蓄積情報データD109に含まれる技量の情報に基づいて啓発対象ユーザの技量に応じた技量のユーザに対して輪郭抽出処理時に提示した一連の輪郭抽出処理用画面を最終的に選択してこれを当該ユーザの技量の情報と共に提示情報データD110として啓発対象ユーザに提示するようにしたことにより、技量の異なる他のユーザの輪郭抽出手法をもとに啓発対象ユーザに対して自分の輪郭抽出操作における注意すべき点等を、オブジェクト抽出用動画像200に対する輪郭抽出操作の実施に先立って気付かせて当該啓発対象ユーザの輪郭輪郭手法の向上を促すことができ、かくして処理対象となるオブジェクト抽出用動画像200からオブジェクトOJ1乃至OJnの輪郭を抽出するという処理の処理能力を容易に向上させることができる。
【0415】
なお上述した第3の実施の形態においては、啓発対象ユーザに過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面を提示した後に当該啓発対象ユーザにオブジェクト抽出用動画像200中のオブジェクトOJ1乃至OJnの輪郭に対する輪郭抽出操作を行わせるようにした場合について述べたが、本発明はこれに限らず、図62に示すように、輪郭抽出処理モード時、過去の他のユーザによって行われた輪郭抽出操作の経緯を表す一連の輪郭抽出処理用画面145を表示する画像表示領域149Aと、啓発対象ユーザによって行われる輪郭抽出操作に応じて一連の輪郭抽出処理用画面146を表示する輪郭抽出領域149Bとを有する処理画面150を情報提示部105で表示し、当該啓発対象ユーザによって行われる輪郭抽出操作に合わせて過去のユーザによる輪郭抽出操作時の一連の輪郭抽出処理用画面145を提示するようにしても良い。
【0416】
また上述した第3の実施の形態においては、試行モード時、予め設定されたフレーム画像基準数Bor1(図48)を基準とした入力フレーム画像の総数に応じて各ユーザの技量を判定するようにした場合について述べたが、本発明はこれに限らず、試行モード時、図63に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、全ユーザの数をほぼ半分に区切る閾値Bor2により各ユーザの技量を判定し、又は図64に示すように入力フレーム画像の総数の少ない順に各ユーザの蓄積情報データD109を並べて、技量の高い又は低いユーザを所定人数に限定するような閾値Bor3により各ユーザの技量を判定するようにしても良い。この場合、各ユーザにおける入力フレーム画像の総数の傾向に応じてユーザの技量を判定することができる。
【0417】
さらに上述した第3の実施の形態においては、情報提示モード時、過去蓄積情報データD109の中から啓発対象ユーザの輪郭抽出手法と類似する輪郭抽出手法のユーザの過去蓄積情報データD109を選択(限定)するようにした場合について述べたが、本発明はこれに限らず、各ユーザによって行われた輪郭抽出試行操作及び又は輪郭抽出操作で抽出したオブジェクトの名称を過去蓄積情報データD109に格納しておき、情報提示モード時、啓発対象ユーザにオブジェクト抽出用動画像中のオブジェクトの名称(例えば星型や人間の上半身等)を入力させ、当該オブジェクトの名称の情報を含む過去蓄積情報データD109を選択(限定)したり、当該啓発対象ユーザの蓄積情報データD109に処理傾向情報として含まれる画像特徴情報と、過去蓄積情報データD109に処理傾向情報として含まれる画像特徴情報とを比較することにより、啓発対象ユーザの抽出する輪郭を有するオブジェクトと同じ又は類似するオブジェクト(又は類似するオブジェクト抽出用動画像中のオブジェクト)の輪郭を抽出したユーザの過去蓄積情報データD109を選択(限定)するようにしても良い。
【0418】
この場合、啓発対象ユーザにこれから輪郭を抽出するオブジェクトと同じ又は類似するオブジェクト、又はその輪郭の抽出に用いるオブジェクト抽出用動画像と同じ又は類似するオブジェクト抽出用動画像に対して輪郭抽出操作を行った他のユーザの輪郭抽出手法を表す一連の輪郭抽出処理用画面を提示することができることにより、啓発対象ユーザに自分の輪郭抽出手法の向上をより適確に促すことができる。
【0419】
さらに上述した第3の実施の形態においては、情報提示モード時、啓発対象ユーザY1(図51)の技量が低い場合、過去蓄積情報データD109の中から最も技量の高いユーザY2の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY3の技量が高い場合、過去蓄積情報データD109の中から最も技量の低いユーザY4の過去蓄積情報データD109を最終的に選択するようにした場合について述べたが、本発明はこれに限らず、図65に示すように、情報提示モード時、啓発対象ユーザY5の技量が低い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY5の技量を基準とした一定範囲W内で最も技量の高いユーザY6の過去蓄積情報データD109を最終的に選択し、啓発対象ユーザY7の技量が高い場合、過去蓄積情報データD109の中から当該啓発対象ユーザY7の技量を基準とした一定範囲W内で最も技量の低いユーザY8の過去蓄積情報データD109を最終的に選択するようにしても良い。
【0420】
この場合、啓発対象ユーザに輪郭抽出手法を提示するために選択したユーザの技量が高すぎ又は低すぎて当該ユーザによって輪郭抽出操作が行われた際の一連の輪郭抽出処理用画面が啓発対象ユーザの輪郭抽出手法の向上を促すために利用し難くなることを防止することができる。
【0421】
さらに上述した第3の実施の形態においては、試行モード時に啓発対象ユーザの輪郭抽出試行操作の結果を蓄積情報データD109として情報蓄積部103に記憶しておき、情報提示モード時にその蓄積情報データD109に基づいて他のユーザの輪郭抽出経緯画面データD111を選択するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出処理モード時、啓発対象ユーザがすでに行ったオブジェクト抽出用動画像中のオブジェクトの輪郭に対する輪郭抽出操作の結果を基に当該啓発対象ユーザの輪郭抽出操作に対する技量や輪郭の抽出傾向(すなわち処理傾向情報で表される傾向)を判定し、これを蓄積情報データD109として情報記憶部103に記憶しておき、再び啓発対象ユーザがオブジェクト抽出用動画像に対して輪郭抽出操作を行う情報提示モード時に、当該蓄積情報データD109に応じて他のユーザの輪郭抽出経緯画面データD111を選択するようにしても良い。
【0422】
さらに上述した第3の実施の形態においては、マウス等の操作部を介してオブジェクトの輪郭がなぞられることにより得られた入力輪郭線から推測輪郭線を推測して生成するようにした場合について述べたが、本発明はこれに限らず、オブジェクトの輪郭内周側の領域を塗りつぶして当該オブジェクトを指定する指定領域や、オブジェクトの背景を塗りつぶして当該オブジェクトを指定する指定領域等から推定輪郭線を推定して生成するようにしても良い。
【0423】
さらに上述した第3の実施の形態においては、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず先頭及び最後尾の輪郭抽出用フレーム画像及び試行用フレーム画像を選択するようにした場合について述べたが、本発明はこれに限らず、動画像からオブジェクトの輪郭を抽出する際に当該動画像を構成する複数のフレーム画像からまず任意に2つのフレーム画像を選択するようにしても良い。
【0424】
(4)他の実施の形態
なお上述した第1乃至第3の実施の形態においては、本発明による情報処理装置を図1乃至図65について上述した情報処理装置1、50、100に適用するようにした場合について述べたが、本発明はこれに限らず、パーソナルコンピュータや画像処理装置、上述した情報処理装置50及び100から領域抽出部51及び輪郭生成部101を分離した情報処理装置等のように、この他種々の情報処理装置に広く適用することができる。
【0425】
また上述した第1乃至第3の実施の形態においては、本発明による情報処理プログラムを図1乃至図65について上述した第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに適用し、当該第1の及び第2の啓発促進プログラムに従って図2及び図14について上述した第1及び第2の啓発促進処理手順RT1及びRT50を実行すると共に、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムに従って図34及び図49並びに図53について上述した輪郭抽出試行処理手順RT100及び情報提示処理手順RT101並びに輪郭抽出処理手順RT102を実行するようにした場合について述べたが、本発明はこれに限らず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムをローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用して情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良いし、当該第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが格納されたプログラム格納媒体を情報処理装置1、50、100にインストールすることにより第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するようにしても良い。
【0426】
因みに上述した第1及び第2の啓発促進処理手順RT1及びRT50、輪郭抽出試行処理手順RT100、情報提示処理手順RT101及び輪郭抽出処理手順RT102を実行するための第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを情報処理装置1、50、100にインストールして実行可能な状態にするためのプログラム格納媒体としては、例えばフレキシブルディスク、CD−ROM(Compact Disc−Read Only Memory )、DVD(Digital Versatile Disc)等のパッケージメディアのみならず、第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムが一時的もしくは永続的に格納される半導体メモリや磁気ディスク等で実現しても良い。またこれらプログラム格納媒体に第1及び第2の啓発促進プログラム、輪郭抽出試行プログラム、情報提示プログラム及び輪郭抽出処理プログラムを格納する手段としては、ローカルエリアネットワークやインターネット、ディジタル衛星放送等の有線及び無線通信媒体を利用しても良く、ルータやモデム等の各種通信インターフェイスを介して格納するようにしても良い。
【0427】
さらに上述した第1乃至第3の実施の形態においては、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積手段として、図1乃至図65について上述した情報蓄積部4、53、103を適用するようにした場合について述べたが、本発明はこれに限らず、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積することができれば、ハードディスクドライブや情報処理装置1、50、100の外部の外部記録装置等のように、この他種々の蓄積手段を広く適用することができる。
【0428】
さらに上述した第1乃至第3の実施の形態においては、特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する比較手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、特定ユーザ(すなわち啓発対象ユーザ)の処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較することができれば、提示情報選択部5、54、104とは異なる専用の比較回路等のように、この他種々の比較手段を広く適用することができる。
【0429】
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択する情報選択手段として、図1乃至図65について上述した提示情報選択部5、54、104を適用するようにした場合について述べたが、本発明はこれに限らず、蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択することができれば、提示情報選択部5、54、104から特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較する機能を除いた専用の情報選択回路等のように、この他種々の情報選択手段を広く適用することができる。
【0430】
さらに上述した第1乃至第3の実施の形態においては、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示する提示手段として、図1乃至図65について上述したモニタ及びスピーカを有する情報提示部6、55、105を適用するようにした場合について述べたが、本発明はこれに限らず、情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示することができれば、表示部や情報処理装置1、50、100の外部の外部表示装置等のように、この他種々の提示手段を広く適用することができる。
【0431】
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に1つのフレーム画像を選択するための画像選択手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。
【0432】
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクト指定領域の抽出用の複数のフレーム画像を設定するための画像設定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像設定手段を広く適用することができる。
【0433】
さらに上述した第1乃至第3の実施の形態においては、動画像中のオブジェクトの動きベクトルを検出する動きベクトル検出手段として、図13乃至図31について上述した動きベクトル検出記録回路62を適用するようにした場合について述べたが、本発明はこれに限らず、動きベクトルの検出機能のみを有する動きベクトル検出回路等のように、この他種々の動きベクトル検出手段を広く適用することができる。
【0434】
さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された1つのフレーム画像中のオブジェクトの輪郭を指定するための輪郭指定手段として、図13乃至図31について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。
【0435】
さらに上述した第1乃至第3の実施の形態においては、動きベクトル検出手段によって検出された動きベクトルと、輪郭指定手段を介して指定された輪郭とに基づいて、画像設定手段によって設定された複数のフレーム画像に対するオブジェクト指定領域を抽出する指定領域抽出手段として、図13乃至図31について上述した領域抽出部51を適用するようにした場合について述べたが、本発明はこれに限らず、情報処理装置50から分離された外部の領域抽出装置等のように、この他種々の指定領域抽出手段を広く適用することができる。
【0436】
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段、画像設定手段及び輪郭指定手段による入力履歴として、図13乃至図31について上述した一連の領域抽出処理用画面でなる領域抽出経緯画面データを適用するようにした場合について述べたが、本発明はこれに限らず、領域抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。
【0437】
さらに上述した第1乃至第3の実施の形態においては、動画像を構成する複数のフレーム画像の中からオブジェクトの輪郭の指定用に少なくとも2つの第1及び第2のフレーム画像を選択するための画像選択手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスやキーボード等のように、この他種々の画像選択手段を広く適用することができる。
【0438】
さらに上述した第1乃至第3の実施の形態においては、画像選択手段を介して選択された第1及び第2のフレーム画像中のオブジェクトの輪郭をそれぞれ指定するための輪郭指定手段として、図32乃至図65について上述した図示しないマウス等の操作部を適用するようにした場合について述べたが、本発明はこれに限らず、ジョイスティック、スタイラスペン、タッチパネル等のポインティングデバイスのように、この他種々の輪郭指定手段を広く適用することができる。
【0439】
さらに上述した第1乃至第3の実施の形態においては、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測する輪郭推測手段として、図32乃至図65について上述した輪郭線推測生成回路114を適用するようにした場合について述べたが、本発明はこれに限らず、第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、輪郭指定手段を介して第1及び第2のフレーム画像中のオブジェクトの輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から他のフレーム画像中のオブジェクトの輪郭を推測することができれば、CPU(Central Processing Unit )やマイクロプロセッサ等のように、この他種々の輪郭推測手段を広く適用することができる。
【0440】
さらに上述した第1乃至第3の実施の形態においては、蓄積手段に蓄積する蓄積情報に含まれる処理手法となる、画像選択手段及び輪郭指定手段による入力履歴として、図32乃至図65について上述した一連の輪郭抽出処理用画面でなる輪郭抽出経緯画面データD111を適用するようにした場合について述べたが、本発明はこれに限らず、輪郭抽出手法の経緯を文字情報で表す入力履歴等のように、この他種々の入力履歴を広く適用することができる。
【0441】
【発明の効果】
上述のように本発明によれば、ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を蓄積手段に複数ユーザ分蓄積し、比較手段により特定ユーザの処理手法及び評価値のうちいずれか一方と、蓄積手段に蓄積している蓄積情報に含まれる一方とを比較し、情報選択手段により蓄積手段に蓄積している複数の蓄積情報の中から比較手段による比較結果に応じて蓄積情報を選択し、提示手段により情報選択手段によって選択された蓄積情報に含まれる処理手法を特定ユーザに提示するようにしたことにより、特定ユーザに提示した処理手法により当該特定ユーザ自身の処理手法の向上を促すことができ、かくして所定の処理対象に対して行われる処理の処理能力を容易に向上させ得る情報処理装置を実現することができる。
【図面の簡単な説明】
【図1】本発明による情報処理装置の回路構成の第1の実施の形態を示すブロック図である。
【図2】第1の啓発促進処理手順を示すフローチャートである。
【図3】入力情報の構成を示す略線図である。
【図4】入力情報データを示す略線図である。
【図5】バッティング動画像の構成を示す略線図である。
【図6】ボールのコース及びバットのグリップと先端との高低差の検出の説明に供する略線図である。
【図7】処理傾向情報の構成を示す略線図である。
【図8】蓄積情報データの記憶の説明に供する略線図である。
【図9】蓄積情報データの限定の説明に供する略線図である。
【図10】提示情報を選択するための選択条件を示す略線図である。
【図11】提示情報の構成を示す略線図である。
【図12】他の実施の形態による提示情報の選択条件を示す略線図である。
【図13】第2の実施の形態による情報処理装置の回路構成を示すブロック図である。
【図14】第2の啓発促進処理手順を示すフローチャートである。
【図15】領域抽出部の回路構成を示すブロック図である。
【図16】領域抽出処理ルーチン(1)を示すフローチャートである。
【図17】領域抽出処理ルーチン(2)を示すフローチャートである。
【図18】オブジェクト抽出用動画像の構成を示す略線図である。
【図19】作業フレーム画像及び伝播範囲の設定の説明に供する略線図である。
【図20】作業フレーム画像におけるオブジェクトの輪郭の指定の説明に供する略線図である。
【図21】オブジェクト指定伝播領域の生成の説明に供する略線図である。
【図22】伝播範囲におけるオブジェクト指定領域の生成の説明に供する略線図である。
【図23】オブジェクト指定領域に対する修正箇所の指示の説明に供する略線図である。
【図24】オブジェクト指定領域の修正の説明に供する略線図である。
【図25】修正したオブジェクト指定領域の提示の説明に供する略線図である。
【図26】領域を反転したオブジェクト指定領域の説明に供する略線図である。
【図27】入力情報の構成を示す略線図である。
【図28】処理傾向情報の構成を示す略線図である。
【図29】提示情報を選択するための選択条件を示す略線図である。
【図30】提示情報の構成を示す略線図である。
【図31】他の実施の形態による提示情報の選択条件を示す略線図である。
【図32】第3の実施の形態による情報処理装置の回路構成を示すブロック図である。
【図33】輪郭生成部の回路構成を示すブロック図である。
【図34】輪郭抽出試行処理手順を示すフローチャートである。
【図35】技量判定処理ルーチンを示すフローチャートである。
【図36】輪郭抽出試行用動画像の構成を示す略線図である。
【図37】推測輪郭線生成処理ルーチンを示すフローチャートである。
【図38】試行先頭入力輪郭形成点及び試行最後尾入力輪郭形成点の説明に供する略線図である。
【図39】試行先頭入力輪郭線を新たに構成する新規輪郭形成点の生成の説明に供する略線図である。
【図40】試行先頭入力輪郭線及び試行最後尾入力輪郭線の重心を一致させた場合の説明に供する略線図である。
【図41】起点ペアの決定の説明に供する略線図である。
【図42】順回り方向及び逆回り方向の対応付けの説明に供する略線図である。
【図43】試行推測輪郭線の生成の説明に供する略線図である。
【図44】各試行用フレーム画像での重心位置の推測の説明に供する略線図である。
【図45】試行先頭入力輪郭線、試行推測輪郭線及び試行最後尾入力輪郭線の提示結果の説明に供する略線図である。
【図46】入力情報の構成を示す略線図である。
【図47】処理傾向情報の構成を示す略線図である。
【図48】蓄積情報データのデータベース化の説明に供する略線図である。
【図49】情報提示処理手順を示すフローチャートである。
【図50】オブジェクト抽出用動画像の構成を示す略線図である。
【図51】蓄積情報データの選択の説明に供する略線図である。
【図52】提示情報の構成を示す略線図である。
【図53】輪郭抽出処理手順を示すフローチャートである。
【図54】先頭入力輪郭線及び最後尾入力輪郭線の生成の説明に供する略線図である。
【図55】先頭入力輪郭線及び最後尾入力輪郭線の重心を一致させた場合の説明に供する略線図である。
【図56】起点ペアの決定の説明に供する略線図である。
【図57】順回り方向及び逆回り方向の対応付けの説明に供する略線図である。
【図58】推測輪郭線の生成の説明に供する略線図である。
【図59】輪郭抽出用中間フレーム画像に対する推測輪郭線の生成結果を示す略線図である。
【図60】追加入力輪郭線に基づく推測輪郭線の生成の説明に供する略線図である。
【図61】最終輪郭線の説明に供する略線図である。
【図62】他の実施の形態による輪郭抽出処理用画面の提示の説明に供する略線図である。
【図63】他の実施の形態によるユーザの技量の判定(1)の説明に供する略線図である。
【図64】他の実施の形態によるユーザの技量の判定(2)の説明に供する略線図である。
【図65】他の実施の形態による蓄積情報データの選択の説明に供する略線図である。
【符号の説明】
1、50、100……情報処理装置、2……情報入力部、3、52、102……処理傾向情報抽出部、4、53、103……情報蓄積部、5、54、104……提示情報選択部、6、55、105……情報提示部、51……領域抽出部、62……動きベクトル検出記録回路、114……輪郭線推測回路、70、200……オブジェクト抽出用動画像、70A乃至70G……領域抽出用フレーム画像、71、120……輪郭抽出試行用動画像、TF1乃至TF7……試行用フレーム画像、TJ1乃至TJ7……試行用オブジェクト、OJ1乃至OJn……オブジェクト、101……輪郭生成部、74A……オブジェクト指定基準領域、77A乃至77D、77AX乃至77DX……オブジェクト指定伝播領域、80……オブジェクト指定基準反転領域、81A乃至81D……オブジェクト指定伝播反転領域、D1……バッティング動画像データ、D2、D65……入力情報データ、D3、D66……処理傾向情報データ、D4、D67、D109……蓄積情報データ、D5、D68、D110……提示情報データ、D50、D200……オブジェクト抽出用動画像データ、D51……領域抽出用フレーム画像データ、D52……領域抽出処理用画面データ、D100……輪郭抽出試行用動画像データ、D100A……試行用フレーム画像データ、D200A……輪郭抽出用フレーム画像データ、D108……技量データ、D111……輪郭抽出経緯画面データ、S1、S55……ユーザ情報、OF1乃至OFn……輪郭抽出用フレーム画像、StOL……先頭入力輪郭線、EnOL……最後尾入力輪郭線、OLA1乃至OLAn−2、OLB1乃至OLB10 、OLC12 乃至OLC20 、OLC22 乃至OLCn−2d……推測輪郭線、SH1……コース閾値範囲、SH2……高低差閾値範囲、RT1……第1の啓発促進処理手順、RT50……第2の啓発促進処理手順RT101……情報提示処理手順、RT102……輪郭抽出処理手順。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an information processing apparatus, and is particularly suitable when applied to a case where a user performs processing on a predetermined processing target.
[0002]
[Prior art]
Conventionally, as a process performed by a user on a predetermined process target, a process of hitting a ball to be processed with a bat in baseball batting practice, a process of displaying a part of the moving image from a moving image to be processed ( There are various processes such as a process of extracting an area for designating an object (hereinafter, referred to as an object) and a process of extracting an outline of an object from a moving image to be processed.
[0003]
[Problems to be solved by the invention]
By the way, in order to improve the processing ability of the user when performing such processing, a hitting method of hitting a ball with a bat or an area for designating an object from a moving image (hereinafter referred to as an object designation area) is extracted. Search for a leader with high processing ability for the area extraction method and the contour extraction method for extracting the outline of an object from a moving image (hereinafter, these hitting method, the area extraction method and the outline extraction method are collectively referred to as a processing method). A troublesome method of requesting guidance is taken, and there is a problem that it is difficult to easily improve the processing ability of the user himself.
[0004]
The present invention has been made in consideration of the above points, and has as its object to propose an information processing apparatus capable of easily improving the processing capability of processing performed on a predetermined processing target.
[0005]
[Means for Solving the Problems]
In order to solve this problem, according to the present invention, processing information of a process performed on a processing target by a user and stored information including an evaluation value for the process are stored in a storage unit for a plurality of users, and a specific user And comparing one of the processing methods and the evaluation values with the one included in the stored information stored in the storage unit, and comparing the plurality of stored information stored in the storage unit by the information selection unit. The stored information is selected according to the comparison result by the means, and the processing method included in the stored information selected by the information selecting means is presented to the specific user by the presenting means.
[0006]
Therefore, the processing method presented to the specific user can promote the improvement of the processing method of the specific user.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.
[0008]
(1) First embodiment
In FIG. 1, reference numeral 1 denotes an information processing apparatus according to the first embodiment as a whole, and shows a state of baseball batting practice (hitting a ball to be processed with a bat) performed by each user. Each time the batting video data D1 generated by imaging with one video camera (not shown) is captured, the captured batting video data D1 is accumulated.
[0009]
Also, every time the information processing apparatus 1 captures the batting moving image data D1, the user who has practiced batting at that time from the previously stored batting moving image data D1 (hereinafter referred to as a particularly enlightened user). By selecting and presenting the batting moving image data D1 which is thought to be helpful for improving the hitting method (that is, the processing method for the processing target of the enlightenment target user), the improvement target in the user's hitting method is provided to the enlightenment target user. It is made to promote enlightenment of.
[0010]
In this case, the information processing apparatus 1 includes an information input unit 2, a processing tendency information extraction unit 3, an information storage unit 4, a presentation information selection unit 5, and an information presentation unit 6. The information extraction unit 3, the information storage unit 4, the presentation information selection unit 5, and the information presentation unit 6 execute various processes to educate the enlightened target user on the points to be improved in their batting method according to the first enlightenment promotion program. Realized
[0011]
That is, as shown in FIG. 2, the information processing apparatus 1 enters from the start step of the first awareness promotion procedure RT1 according to the first awareness promotion program, and proceeds to the subsequent step SP1.
[0012]
In step SP <b> 1, the information processing apparatus 1 takes into the information input unit 2 batting moving image data D <b> 1 generated by capturing an image of the batting practice of the user to be enlightened externally.
[0013]
At this time, as shown in FIG. 3, the information processing device 1 uses the information input unit 2 via a predetermined operation unit (not shown) to input the name of the enlightenment target user and the evaluation value for the batting method of the enlightenment target user. The user information S1 of the batting average (for example, the batting average (performance) of the enlightenment target user up to that point during the baseball pennant race) is input.
[0014]
Thereby, the information processing apparatus 1 processes the input information including the name and batting average of the enlightenment target user acquired by the information input unit 2 and the batting moving image data D1 from the information input unit 2 as the input information data D2 shown in FIG. The information is sent to the trend information extracting unit 3, and the process proceeds to the subsequent step SP2.
[0015]
Here, as shown in FIG. 5, the batting moving image 10 based on the batting moving image data D1 is composed of a plurality of temporally continuous frame images 10A,..., 10N,. Is referred to as a user image). The state from the state where the player 11 is held in the batter box to the time when the ball 13 is completely hit with the bat 12 is developed in a two-dimensional plane.
[0016]
In the frame images 10A,..., 10N,..., A plurality of joints such as the hips, shoulders, elbows, knees, etc. of the user image 11, the crown, both hands, the ball 13, the bat 12 Each of the grips 12A and the distal end 12B is provided with a mark 14 such as a circle of a predetermined color in advance.
[0017]
Therefore, in step SP2, the information processing apparatus 1 performs predetermined image processing on the batting moving image data D1 included in the input information data D2 by the processing tendency information extracting unit 3, and performs the position of each mark 14 in the batting moving image 10. And the rotation angles of the hips and shoulders from the state where the user image 11 is held in the batter's box to the moment when the ball 13 is hit with the bat 12 are detected.
[0018]
The information processing apparatus 1 uses the processing tendency information extracting unit 3 to perform image processing on the bat 12 among a plurality of frame images 10A,..., 10N,. A frame image (hereinafter referred to as an impact frame image) 10N that captures the moment when the ball 13 is hit is detected, and in the detected impact frame image 10N, a reference virtual straight line connecting the toes of both feet of the user image 11 is detected. Draw SKL1 (this reference virtual straight line SKL1 corresponds to the ground).
[0019]
Then, the information processing apparatus 1 draws the course detection virtual straight line CKL1 passing through the mark 14A on the ball 13 in parallel with the reference virtual straight line SKL1 in the impact-time frame image 10N by the processing tendency information extraction unit 3, and the reference virtual straight line SKL1 And the shortest distance D1 between the course detection virtual straight line CKL1 (ie, the distance between the reference virtual straight line SKL1 and the course detection virtual straight line CKL1 along a perpendicular line SL1 orthogonal to both the reference virtual straight line SKL1 and the course detection virtual straight line CKL1). ) Is detected as the height of the ball from the ground at the moment when the enlightenment target user actually hits the ball with the bat (that is, at the moment of impact) (hereinafter, this is referred to as a ball course).
[0020]
In addition to this, the information processing apparatus 1 causes the processing tendency information extraction unit 3 to set the first height difference detection virtual image that passes through the mark 14B on the grip 12A of the bat 12 in parallel with the reference virtual straight line SKL1 in the impact-time frame image 10N. A straight line WKL1 and a second height difference detection virtual straight line WKL2 passing through the mark 14C on the tip 12B of the bat 12 in parallel with the reference virtual line SKL1 are drawn, and the first and second height difference detection virtual straight lines are drawn. The shortest distance D2 between WKL1 and WKL2 (that is, the first and second height difference detection virtual references WKL1 and WKL1 along a vertical line SL2 orthogonal to both the first and second height difference detection virtual straight lines WKL1 and WKL2) The distance between the grip and the tip of the bat at the moment when the enlightened user actually hits the ball with the bat. Hereinafter, it detects this as is called butt height difference).
[0021]
In this manner, the information processing apparatus 1 uses the processing tendency information extraction unit 3 to reduce the waist from the state where the enlightenment target user holds in the batter box to the moment when he hits the ball with the bat from the batting video 10 as shown in FIG. When the rotation angle of the shoulder, the ball course, and the height difference of the bat are detected, these are set as processing tendency information indicating how the enlightenment target user hits the ball with the bat.
[0022]
In the information processing apparatus 1, the processing tendency information extraction unit 3 uses the processing tendency information extracted from the batting moving image 10 as processing tendency information data D3, and stores the processing tendency information data D3 and the input information data D2 in association with each other. After sending it to the information storage unit 4 as the information data D4 and sending the processing tendency information data D3 as it is to the presentation information selecting unit 5, the process proceeds to the subsequent steps SP3 and SP4.
[0023]
In step SP3, the information processing apparatus 1 collects and stores the accumulated information data D4 into the input information data D2 and the processing tendency information data D3 as shown in FIG. 8, for example, by the information accumulation unit 4, and proceeds to step SP5. .
[0024]
In addition, in step SP4, the information processing apparatus 1 causes the presentation information selection unit 5 to execute the ball course (hereinafter, referred to as a reference ball course for comparison) and the bat included in the processing tendency information data D3 in parallel with the processing in step SP3. The value of the height difference (hereinafter, referred to as a reference bat height difference for comparison) and all the other accumulated information except the accumulated information data D4 of the enlightenment target user stored in the information accumulation unit 4 in step SP3. A ball course (hereinafter, referred to as a past ball course) and a bat height difference (hereinafter, referred to as a past bat) included in the accumulated information data (hereinafter, referred to as past accumulated information data) D4 as the processing tendency information data D3. Height difference).
[0025]
As a result, the information processing apparatus 1 uses the presentation information selection unit 5 to select the value of the reference ball course for comparison (the reference value in the impact-time frame image 10N described with reference to FIG. 6) from the past accumulated information data D4 as shown in FIG. The value of the past ball course indicating a value within a predetermined course threshold range SH1 centered on the virtual straight line SKL1 and the value of the shortest distance D1 between the course detecting virtual straight line CKL1) and the value of the reference bat height difference for comparison A value within a predetermined height difference threshold range SH2 centered on (the value of the shortest distance D2 between the first and second height difference detection virtual straight lines WKL1 and WKL2 in the impact-time frame image 10N described above with reference to FIG. 6). The past accumulated information data D4 including the past bat height difference information to be indicated is selected.
[0026]
Incidentally, a pair of hatched circles D1 and D2 shown in FIG. 9 indicate the value of the comparison reference ball course and the value of the comparison reference bat height difference which are the processing tendency information for the enlightenment target user. Indicate a value of a past ball course and a value of a past bat height difference included in one past accumulated information data D4 as processing tendency information.
[0027]
Next, the information processing apparatus 1 selects the past accumulated information data D4 from the past accumulated information data D4 selected by the presentation information selecting unit 5 using the value of the reference ball course for comparison and the value of the reference bat height difference for comparison. By comparing pieces of batting information included in the input information data D2, the past accumulated information data D4 including the best batting rate (that is, the highest evaluation value) as a part of the input information data D2 is selected.
[0028]
In this way, the information processing apparatus 1 uses the presentation information selecting unit 5 to select the batting method of the enlightened target user from all past accumulated information data D4 already accumulated in the information accumulating unit 4 as shown in FIG. The past accumulated information data D4 of the user who practiced batting with a batting method similar to the batting method of the user to be enlightened using the reference ball course for comparison of the processing tendency information and the batting height difference for comparison as the limiting criterion is selected. After that (that is, after limiting the number of the past accumulation information data D4 to be selected), the past accumulation of the user who has the best batting ratio is selected from the selected past accumulation information data D4 using the batting ratio included therein as a selection criterion. The information data D4 is finally selected.
[0029]
As a result, the information processing apparatus 1 allows the presentation information selection unit 5 to transmit the batting moving image data D1 and the batting moving image data D1 included in the finally selected past storage information data D4 as input information data D2 from the information storage unit 4 as shown in FIG. The batting average information is read out as presentation information data D5, and the read presentation information data D5 is sent to the information presenting unit 6, and the process proceeds to step SP5.
[0030]
In step SP5, the information processing apparatus 1 outputs the batting moving image and batting information based on the presentation information data D5 by the information presenting unit 6 via a monitor and a speaker (not shown) provided in the information presenting unit 6. After presenting to the enlightenment target user, the process proceeds to step SP6 to end the first enlightenment promotion processing procedure RT1.
[0031]
In this way, the information processing apparatus 1 reproduces and presents a batting moving image of another user who has a similar batting method to the enlightenment target user but has a better batting ratio than the enlightenment target user, thereby providing the enlightenment It is made possible to find a different place between the batting method of the target user and the batting method of another user as an improved part in the batting method of the enlightened target user, and thus to improve the improved part by imitating the batting method of another user. I have.
[0032]
By the way, in the case of the first embodiment, the information processing apparatus 1 receives the presentation information to the enlightenment target user and receives the presentation information addition command C1 via a predetermined operation unit. Is taken into the information input unit 2, the additional command C 1 is sent from the information input unit 2 to the presentation information selection unit 5 via the processing tendency information extraction unit 3.
[0033]
Then, the information processing device 1 reads the information on the rotation angles of the waist and the shoulder included in the finally selected past accumulated information data D4 as the processing tendency information data D3 from the information accumulation unit 4 by the presentation information selecting unit 5, and The read information on the hip and shoulder rotation angles is sent to the information presentation unit 6 as additional presentation information data D6 together with the information on the hip and shoulder rotation angles included in the processing tendency information data D3 of the enlightened user.
[0034]
Thereby, the information processing device 1 outputs the information of the rotation angle of the waist and the shoulder based on the additional presentation information data D6 via the monitor and the speaker and presents the information to the enlightenment target user by the information presentation unit 6, and thus the enlightenment target user. In addition, it is possible to find a difference between the user's hitting method and the hitting method of another user not only from the batting video but also from the difference in the numerical values of the rotation angles of the hips and shoulders.
[0035]
In the above configuration, the information processing apparatus 1 takes in the batting moving image data D1 generated by imaging the situation of the batting practice of the enlightenment target user externally into the information input unit 2, and inputs the batting moving image data D1 to the information input unit 2 at this time. It is set as input information data D2 together with the information on the batting average of the enlightened target user.
[0036]
Then, the information processing apparatus 1 extracts processing tendency information on the batting method of the enlightenment target user from the batting moving image 10 based on the batting moving image data D1, and converts the processing tendency information data D3 including the extracted processing tendency information into the batting moving image. The information is stored in the information storage unit 4 together with the data D1 as storage information data D4.
[0037]
At this time, the information processing apparatus 1 compares the processing trend information data D3 of the enlightenment target user with the processing trend information data D3 included in the past accumulation information data D4 already accumulated in the information accumulation unit 4 to obtain the past. From the accumulated information data D4, the past accumulated information data D4 including the batting moving image data D1 generated by imaging the batting method of another user similar to the batting method of the user to be enlightened is selected.
[0038]
Next, the information processing apparatus 1 compares the batting information included in the selected past accumulated information data D4 with each other, and finally selects the past accumulated information data D4 of the user having the best batting average, and selects the selected past accumulated information D4. A batting moving image based on the batting moving image data D1 included in the information data D4 is presented to the enlightenment target user as presentation information.
[0039]
Therefore, the information processing apparatus 1 does not particularly require an instructor having a high processing ability, and prompts the enlightened user to enlighten the improvement point in his / her batting style with the presented information, and the enlightened target user's batting style. And that the enlightenment target user can find a part different from the batting style of another user as an improved part in his / her batting style, and can improve the improved part by imitating the batting style of another user. .
[0040]
In addition, when presenting the presentation information to the enlightenment target user, the information processing apparatus 1 processes the finally selected past accumulated information data D4 in response to the input of the presentation information addition instruction C1. The information on the rotation angle of the waist and the shoulder included in the tendency information is presented to the user to be enlightened as additional presentation information together with the information on the rotation angle of the hip and the shoulder included in the processing tendency information data D3 of the user to be enlightened.
[0041]
Therefore, the information processing apparatus 1 urges the enlightened target user to enlighten the improvement point in his or her batting method also by the additional presentation information, and determines a different place between the enlightened target user's batting method and another user's batting method. In addition to making the image visually visible and finding the difference in the numerical value of the rotation angle of the hips and shoulders, the enlightened user can be made to accurately find the improvement point in his batting method and the improvement point Can be improved by imitating the user's hitting method.
[0042]
According to the above configuration, the batting video 10 generated by imaging the batting practice of the enlightenment target user and the batting information of the enlightenment target user are extracted from the batting video extracted from the batting video 10. The information is stored in the information storage unit 4 as the accumulated information data D4 together with the processing tendency information on the batting method, and the processing tendency information on the batting method of the enlightenment target user and the past accumulated information data D4 already stored in the information storage unit 4 are stored. After comparing with the included process tendency information and selecting the past accumulated information data D4 including, as the batting moving image, a batting motion image of another user similar to the batting method of the enlightened target user from the past accumulated information data D4, The information of the batting average included in the selected past accumulated information data D4 is compared with each other, and the past accumulated information data of the user having the best batting average is compared. Data D4 is finally selected, and the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user as presentation information. Encourage the enlightenment of the improvement points in the batting method of the above, and make the enlightenment target user find a different place between the batting method of the user to be enlightened and the batting method of another user as an improvement part in his / her batting method, and make the user find the relevant part. The improved portion can be improved by imitating the hitting method of another user, and thus an information processing apparatus capable of easily improving the processing capability of hitting a ball to be processed can be realized.
[0043]
In the first embodiment described above, the processing tendency information data D3 of the enlightenment target user is compared with the processing tendency information data D3 included in the past accumulation information data D4 already accumulated in the information accumulation unit 4. After selecting the past accumulated information data D4 including the batting moving image data D1 generated by imaging the batting method of another user similar to the batting method of the user to be enlightened from the past accumulated information data D4. The case where the information on the batting ratio included in the selected past accumulated information data D4 is compared with each other to finally select the past accumulated information data D4 of the user with the best batting ratio has been described. Not limited to this, the processing tendency information data D3 of the enlightenment target user and the processing tendency information included in the past accumulation information data D4 already accumulated in the information accumulation unit 4. By comparing the data D3 with the past accumulated information data D4, the past accumulated information including the batting moving image data D1 generated by imaging the batting method of another user similar to the batting method of the enlightened user. The data D4 may be selected, and a batting moving image based on the batting moving image data D1 included in the selected one or a plurality of past accumulated information data D4 may be presented to the enlightenment target user as presentation information.
[0044]
By doing so, it is possible to sequentially present the batting moving images of a plurality of users with different batting averages as presentation information to the enlightenment target user. It is possible to find more improvement points in the hitting method.
[0045]
Further, the processing tendency information data D3 of the enlightenment target user is compared with the processing tendency information data D3 included in the past accumulation information data D4 already accumulated in the information accumulation unit 4, and a plurality of pieces of past accumulation information data D4 are compared. By selecting the final past accumulated information data D4, the processing load at the time of selection can be reduced as compared with the above-described first embodiment.
[0046]
Further, in the first embodiment described above, a case has been described in which the batting moving image of another user is presented as presentation information to the user to be enlightened, but the present invention is not limited to this, and the past accumulated information data D4 includes past accumulated information data D4 of the enlightenment target user, and when the past accumulated information data D4 of the enlightenment target user is selected, batting based on the batting moving image data D1 included in the accumulated information data D4 A moving image may be presented to the enlightenment target user as presentation information. In this case, for example, if the batting average is better in the past batting than the current batting of the user to be enlightened, the improved part in the current batting is compared with the batting when the batting average in the past was good. You can easily find them.
[0047]
Furthermore, in the above-described first embodiment, a case has been described in which all pieces of past accumulated information data D4 are used when selecting presentation information to be presented to an enlightened user, but the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D4 used for the past presentation is selected based on the presentation history. Alternatively, the remaining past accumulated information data D4 may be used.
[0048]
In this way, it is possible to prevent the presentation information presented in the past from being presented again to the enlightenment target user and to present new presentation information. Encourage enlightenment. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D4 used for the presentation of the presentation information regardless of the user to be presented should not be used for the selection of the subsequent presentation information. Such processing can also be realized by forcibly regulating.
[0049]
Furthermore, in the above-described first embodiment, a case has been described in which presentation information is selected using the selection conditions described above with reference to FIG. 10; however, the present invention is not limited to this. One of the various selection conditions, or the various pieces of selection information shown in FIG. 12 and the selection conditions described above with reference to FIG. 10 are used to selectively use one or a plurality of selection conditions to select the presentation information. Is also good.
[0050]
Here, the various selection conditions shown in FIG. 12 will be described in detail. First, when the first selection condition is used, the information processing device 1 uses the presentation information selection unit 5 to set the value of the comparison reference ball course and all of the values. After selecting past accumulated information data D4 including past ball course information indicating a value within the course threshold range SH1 by comparing with the value of the past ball course included in the past accumulated information data D4, the selected past accumulated The batting averages included in the past accumulated information data D4 are compared among the information data D4, and the past accumulated information data D4 including the best batting average is finally selected, and the finally selected past accumulated information data is selected. The batting video included in D4 is presented to the user to be enlightened.
[0051]
In this case, the information processing apparatus 1 presents, to the enlightenment target user, the best hitting batting method from among a plurality of hitting methods hitting a ball having substantially the same ball course as the ball hit by the enlightenment target user. The user to be enlightened can be enlightened with the points to be improved in his hitting method.
[0052]
When the information processing device 1 uses the second selection condition, the presentation information selection unit 5 uses the comparison reference ball course value included in the processing tendency information data D3 of the enlightenment target user and the information storage unit 4 to store the information. Comparing the value of the past ball course included in the accumulated past accumulated information data D4 and comparing the information of the batting average (hereinafter, referred to as the past batting average) included in the past accumulated information data D4. To select the past accumulated information data D4 including the past batting average having the value within the course threshold range SH1 and the past batting average having a value equal to or greater than a predetermined threshold value set in advance.
[0053]
Then, the information processing apparatus 1 compares the value of the past bat height difference included in the selected past accumulated information data D4 with the value of the reference bat height difference for comparison by the presentation information selection unit 5 to perform the selection. The past accumulated information data D4 that indicates a value outside the height difference threshold range SH2 from the past accumulated information data D4 and that includes the information of the past bat height difference having the largest difference from the comparison reference bat height difference value. Finally, the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user.
[0054]
In this case, the information processing apparatus 1 hits a ball having a ball course substantially the same as the ball hit by the enlightenment target user, and enlightens a hitting method that has the most different bat swing method from among a plurality of hitting methods having a good batting average. By presenting to the target user, the enlightenment target user can be enlightened with the points to be improved in his batting method.
[0055]
Further, when using the third selection condition, the information processing apparatus 1 uses the presentation information selection unit 5 to store the comparison reference ball course value included in the processing tendency information data D3 of the enlightenment target user and the information storage unit 4 By comparing the value of the past batting course included in the accumulated past accumulated information data D4 and the information of the past batting ratio included in the accumulated past accumulated information data D4, the value within the course threshold range SH1 is calculated. The past accumulated information data D4 including the past ball course information and the past batting average having a value equal to or greater than a predetermined threshold value set in advance is selected.
[0056]
Then, the information processing apparatus 1 finally selects, for example, one piece of past accumulated information data D4 from the selected past accumulated information data D4 at random by the presentation information selecting section 5, and selects the finally selected past accumulated information data D4. The batting video included in the accumulated information data D4 is presented to the user to be enlightened.
[0057]
In this case, the information processing apparatus 1 hits a ball having substantially the same ball course as the ball hit by the enlightenment target user, and randomly selects a batting method from among a plurality of hitting methods having a good batting average to the enlightenment target user. By presenting, the enlightenment target user can be enlightened with expectation of some degree of improvement in his / her batting style by chance.
[0058]
Furthermore, when the information processing apparatus 1 uses the fourth selection condition, the presentation information selection unit 5 uses the comparison reference ball course and the comparison reference bat height difference values included in the processing tendency information data D3 of the enlightenment target user. By comparing the past ball course and the value of the past bat height difference included in the past accumulation information data D4 already accumulated in the information accumulation unit 4, the information of the past ball course indicating the value within the course threshold range SH1 is obtained. The past accumulation information data D4 that includes the past bat height difference information that includes the height difference difference SH2 and that includes the value within the height difference threshold range SH2 is selected.
[0059]
Then, the information processing apparatus 1 compares the past batting information included in the selected past stored information data D4 with the past stored information data D4 including the worst batting average by the presentation information selecting unit 5. Is finally selected, and the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user.
[0060]
In this case, the information processing apparatus 1 presents the batting method with the worst batting average to the enlightenment target user from among a plurality of batting methods similar to the batting method of the enlightenment target user, and provides the enlightenment target user with his / her batting method We can educate on points of improvement. By the way, if the fourth selection condition is used, the enlightened user can reconfirm a good point of his / her beating as a teacher by presenting the finally selected beating.
[0061]
Further, when the fifth selection condition is used, the information processing apparatus 1 stores, for example, information on the batting average of the enlightenment target user (hereinafter, referred to as a reference batting average for comparison) in the processing tendency information data D3 of the enlightenment target user. In advance, the presentation information selection unit 5 has already stored in the information storage unit 4 the values of the comparison reference ball course, the comparison reference bat height difference, and the comparison reference batting ratio included in the processing tendency information data D3 of the enlightened target user. The information of the past ball course indicating the value within the course threshold range SH1 by comparing the values of the past ball course, the past bat height difference and the past batting ratio included in the past accumulated information data D4, and the height difference threshold range A past accumulation information data including both a past bat height difference indicating a value within SH2 and a past batting average indicating a value within a predetermined batting average threshold value centered on a value of a comparison batting average. To select the data D4.
[0062]
Then, the information processing apparatus 1 compares the past batting information included in the selected past accumulated information data D4 from the selected past accumulated information data D4 with the presentation information selecting unit 5, and stores the past accumulated information data D4 including the best batting average. Is finally selected, and the batting moving image included in the finally selected past accumulated information data D4 is presented to the enlightenment target user.
[0063]
In this case, the information processing apparatus 1 presents, to the enlightenment target user, a batting method that is similar to the batting method of the enlightenment target user and has the best batting average among a plurality of batting methods having almost the same ability (ie, batting average). Since the difference between the presented batting method and the batting method of the user to be enlightened is slight, it is possible to easily educate the enlightening target user about the points to be improved in his own batting method.
[0064]
Further, when using the sixth selection condition, the information processing apparatus 1 randomly selects, for example, one piece of past accumulated information from the past accumulated information data D4 already accumulated in the information accumulating section 4 by the presentation information selecting section 5. The data D4 is selected, and the batting video included in the selected past accumulated information data D4 is presented to the user to be enlightened.
[0065]
In this case, the information processing device 1 presents the randomly selected batting method to the enlightenment target user, and educates the enlightenment target user in expectation of the entirety of the improvement point in his own batting style by chance. Can be.
[0066]
By the way, in the information processing apparatus 1, when the fifth selection condition described above is used, the information storage unit is provided by the presentation information selection unit 5 even if batting information is not stored in the processing tendency information data D3 of the enlightened target user. The final selection of the accumulated information data D4 can also be realized by using the batting average information included in all the accumulated information data D4 (including the accumulated information data D4 of the enlightened user) accumulated in No. 4. it can.
[0067]
In addition, when using the batting information in each of the above-described selection conditions, the batting average below the predetermined threshold or the batting average of the user to be enlightened does not need to specify the minimum and maximum batting averages and the batting averages above the predetermined threshold. Good or bad batting average, batting average value deviated from the batting average of the user to be enlightened by a predetermined threshold or more, batting average deviated from the batting average of the enlightening target user by a first threshold or more, and equal to or less than a second threshold, furthermore, the enlightened user The past accumulated information data D4 can also be selected under conditions such as a batting average substantially the same as (similar to) the batting average.
[0068]
Further, as the selection condition used for selecting the accumulated information data D4, a selection condition in which a part of each of the selection condition described above with reference to FIG. 10 and the first to sixth selection conditions described above with reference to FIG. Various other selection conditions such as a selection condition using a rotation angle can be used.
[0069]
In addition, in the information processing apparatus 1, the limited reference ball course, the bat height difference, and the batting ratio are individually used in the selection conditions described above with reference to FIGS. Calculating, for example, the square root of the sum of squares using at least two or more of the comparison reference bat height difference and the comparison reference batting ratio, and a predetermined threshold space and a past ball course based on the calculation result in the Euclidean space, Similarly, the past accumulated information data D4 may be limited by comparing the result of calculating the square root of the sum of squares using at least two or more of the past bat height difference and the past batting average.
[0070]
Further, the information processing apparatus 1 calculates, for example, the sum of absolute differences using at least two or more of the reference ball course for comparison, the reference bat height difference for comparison, the reference batting average for comparison, and the like of the limited reference, and obtains the obtained calculation result. A predetermined threshold space as a reference is compared with a result obtained by calculating a sum of absolute differences using at least two or more of the past ball course, the past bat height difference, the past batting average, and the like to compare the past accumulated information data D4. It may be limited.
[0071]
Further, in the information processing apparatus 1, a predetermined course threshold range SH1, a height difference threshold range SH2, a batting average threshold range, and the like centered on a comparative reference ball course of a limited standard, a comparative reference bat height difference, a comparative batting average, and the like. The accumulated product data D4 may be limited by integrating at least two or more and comparing the obtained product space with at least two or more of the past ball course, past bat height difference, past batting average, and the like. .
[0072]
Similarly, in the information processing apparatus 1, the bat height difference and the batting ratio of the selection criterion are individually used under the selection conditions described above with reference to FIGS. 10 and 12, respectively. For example, a square root of a sum of squares is calculated using at least two or more batting ratios, and a predetermined threshold space based on the calculation result in the Euclidean space and at least two or more of past bat height differences and past batting ratios are similarly calculated. May be compared with the result of calculating the square root of the sum of squares to select the final past accumulated information data D4.
[0073]
Further, the information processing apparatus 1 calculates, for example, a sum of absolute differences using at least two or more of the reference bat height difference for comparison and the reference batting average for comparison, and determines a predetermined threshold based on the obtained calculation result. The final past accumulated information data D4 may be selected by comparing the space and the result of calculating the sum of absolute differences using at least two or more of the past bat height difference and the past batting average.
[0074]
Further, in the information processing device 1, at least two or more of the predetermined height difference threshold range SH2 and the batting average threshold range centered on the comparison reference bat height difference and the comparison standard batting average of the selection criterion are obtained and obtained. The final past accumulated information data D4 may be selected by comparing the product space with at least two or more similarly, such as a past bat height difference and a past batting average.
[0075]
Further, in the first embodiment described above, the case where the accumulated information data D4 including the input information data D2 and the processing tendency information data D3 is accumulated in the information accumulation unit 4 has been described. The present invention is not limited to this. At least the input information data D2 may be stored in the information storage unit 4 as stored information data. In this case, each time the presentation information is selected, the input information data D2 and What is necessary is just to extract the processing tendency information from the accumulated information data (that is, the input information data D2).
[0076]
Further, in the first embodiment described above, a series of processes shown in the first enlightenment promotion processing procedure RT1 described above with reference to FIG. 2 represents a processing method performed on the process target (ball) by the enlightenment target user. As the information, a case has been described in which the batting motion image 10 generated by imaging the state of the batting practice with one video camera is used, but the present invention is not limited to this, and the batting practice by the enlightenment target user is performed. Using a batting video, which is a three-dimensional video generated by imaging the situation of the enlightenment target user during a baseball game with two video cameras, or batting practice or a baseball game To use a plurality of two-dimensional and / or three-dimensional moving images obtained by imaging the state of the impact of the enlightenment target user from multiple angles And it may be.
[0077]
By the way, if a batting moving image consisting of such a three-dimensional moving image is used, processing tendency information (for example, a ball) that three-dimensionally captures the processing tendency of the user to be enlightened by hitting the batting moving image by performing image processing on the batting moving image. As a course, a lower inner angle or a higher outer angle) can be extracted. If the batting moving image composed of such a three-dimensional moving image and the selection conditions described above with reference to FIG. 10 and the first to fifth selection conditions described above with reference to FIG. Almost the same batting method can be presented.
[0078]
Further, in the above-described first embodiment, a case has been described in which the enlightenment target user is urged to enlighten the improvement point of batting in baseball batting to improve the processing ability. However, the present invention is not limited to this, and it is also possible to promote the enlightenment target user to enlighten an improvement point of a processing method in various other processes using a ball as a processing target, such as golf or tennis, so as to improve the processing capability. In addition, the same effects as those of the above-described first embodiment can be obtained in these various processes. By the way, when the enlightenment target user is encouraging the enlightenment of an improvement point of a processing method in various other processes such as using a ball as a processing object such as golf or tennis and the processing capability is to be improved, the processing value is used as an evaluation value. Score, handicap, win rate, and the like according to the score.
[0079]
(2) Second embodiment
In FIG. 13, reference numeral 50 denotes an information processing apparatus as a whole according to the second embodiment, which is an object for designating an extraction target object from an object extraction moving image according to an area extraction operation performed by each user. Every time the region extraction process for extracting the designated region is performed, a series of region extraction process screens displayed with the display contents changed as appropriate during the region extraction process are displayed in the process of the region extraction operation (that is, the object to be processed). (A user's area extraction method for extracting an object designated area from an extraction moving image) is stored as area extraction history screen data.
[0080]
In addition, every time the information processing device 50 executes the area extraction processing, the user who has performed the area extraction operation at that time from the area extraction history screen data that has already been accumulated (hereinafter referred to as an enlightenment target user) By selecting and presenting the region extraction process screen data that seems to be helpful to improve the region extraction method (that is, the processing method for the processing target of the enlightenment target user), It is made to enlighten the point of improvement.
[0081]
In this case, the information processing device 50 includes an area extraction unit 51, a processing tendency information extraction unit 52, an information storage unit 53, a presentation information selection unit 54, and an information presentation unit 55. In the information extraction unit 52, the information storage unit 53, the presentation information selection unit 54, and the information presentation unit 55, various processes executed to educate the enlightenment target user on the points to be improved in their area extraction method are performed according to the second enlightenment promotion program. Implemented as software.
[0082]
That is, as shown in FIG. 14, the information processing apparatus 50 proceeds to the area extraction processing routine SRT51 that starts from the start step of the second awareness promotion processing procedure RT50 according to the second awareness promotion program.
[0083]
Here, as shown in FIG. 15, the information processing apparatus 50 includes an image input circuit 60, an image recording circuit 61, a motion vector detection recording circuit 62, a setting information recording circuit 63, a propagation area determination circuit 64, a user interface circuit 65, a contour The area extraction processing routine SRT51 is executed by the area extraction unit 51 including the / area conversion circuit 66, the area generation recording circuit 67, and the area output circuit 68.
[0084]
At this time, as shown in FIG. 16 and FIG. 17, the information processing apparatus 50 enters from the start step of the area extraction processing routine SRT51 and moves to the next step SP51. The image data D50 is taken into the image input circuit 60 of the area extracting unit 51.
[0085]
Here, as shown in FIG. 18, the moving image for object extraction 70 based on the moving image data for object extraction D50 includes a plurality of frame images (hereinafter, referred to as an area) including the object 71 to be extracted continuously in time. 70A to 70G, etc.).
[0086]
At this time, the information processing apparatus 50 sends the object extraction moving image data D50 taken into the image input circuit 60 to the image recording circuit 61 in units of frame image data (hereinafter, referred to as area extraction frame image data) D51. At the same time, the area extracting frame image data D51 constituting the object extracting moving image data D50 is sequentially read from the image recording circuit 61 and transmitted to the motion vector detection recording circuit 62.
[0087]
Then, the information processing device 50 uses the motion vector detection processing circuit 62 to specify a motion vector (for example, for each predetermined unit block, the past and the past for each predetermined unit block) in each of the plurality of region extraction frame image data D51. The two-way motion vectors between adjacent region extraction frame images 70A to 70G in the future are detected, and the motion vector for each of the detected region extraction frame image data D51 is detected as a region extraction frame image. The data is recorded in association with the identification information of the data D51, and the routine goes to Step SP52.
[0088]
In step SP52, the information processing apparatus 50 sends the area extraction processing screen data D52 from the user interface circuit 65 to the information presenting section 55, and the area extracting processing is performed on a monitor (not shown) provided in the information presenting section 55. Based on the screen data D52, an area extraction processing screen (not shown) having an instruction selection area, an image display area of an object extraction moving image, and the like is displayed.
[0089]
In this state, the information processing apparatus 50 waits for the user to be enlightened to input various extraction processing instructions C50 for performing the extraction process of the object designated area on the area extraction processing screen, and When the extraction processing instruction C50 is input, the instruction C50 is input to the user interface circuit 65, and the flow advances to step SP53.
[0090]
In step SP53, the information processing apparatus 50 uses the user interface circuit 65 to change the extraction processing instruction C50 input by the enlightenment target user into a plurality of area extraction frame images 70A to 70G that form the object extraction moving image 70,. .. Or 70G, for example, to arbitrarily set one area extraction frame image 70A,. It is determined whether the command is a frame setting command.
[0091]
If a positive result is obtained in step SP53, this indicates that the extraction processing instruction C50 input by the enlightenment target user is a work frame setting instruction, and at this time, the information processing device 50 proceeds to step SP54.
[0092]
In step SP54, the information processing device 50 reads out the object extraction moving image data D50 from the image recording circuit 61 in units of area extraction frame image data D51 by the user interface circuit 65, and reads the read area extraction frame image data D51. The image data is combined with the area extraction processing screen data D52 and transmitted to the information presenting unit 55.
[0093]
As a result, as shown in FIG. 19, the information processing apparatus 50 displays the area extraction frame images 70A to 70G in the image display area within the area extraction processing screen, for example, by a predetermined number of frames, in the information presentation unit 55, thus enlightening. The target user is caused to visually observe the object extraction moving image 70 as a region extraction frame image 70A to 70G for each predetermined number of frames while comparing them with each other.
[0094]
As a result, the information processing apparatus 50 displays one area extraction frame image for specifying the contour of the object 71 from the plurality of area extraction frame images 70A to 70G on the area extraction processing screen by the enlightenment target user. When 70D is arbitrarily selected for ease of designation of the contour or the like, the identification information or the like of the selected region extraction frame image 70D is used as work frame setting information from the user interface circuit 65 to the setting information recording circuit 63. The frame image is captured and recorded, and one selected area extraction frame image 70D is set as a work frame image for specifying the contour, and the process returns to step SP52.
[0095]
On the other hand, if a negative result is obtained in step SP53 described above, this means that the extraction processing instruction C50 input by the enlightenment target user is an instruction other than the work frame setting instruction. The processing device 50 moves to step SP55.
[0096]
In step SP55, the information processing apparatus 50 allows the user interface circuit 65 to generate an extraction processing instruction C50 input by the enlightenment target user, based on the contour specified in the work frame image 70D, and to select an arbitrary temporally continuous command. It is determined whether or not it is a correction mode setting command for setting the method of correcting the object designated area generated in each of the frame extraction areas 70A to 70G of the number of frames as the correction mode.
[0097]
If a positive result is obtained in step SP55, this indicates that the instruction C50 for extraction processing input by the enlightened user is a correction mode setting instruction, and at this time, the information processing device 50 proceeds to step SP56.
[0098]
In step SP56, the information processing device 50 captures information indicating addition or deletion arbitrarily selected as a method of correcting the object designation area by the enlightened user from the user interface circuit 65 into the setting information recording circuit 63 as mode setting information and records the information. Then, the addition or deletion selected by the enlightened user is set to the correction mode for the object designation area, and the process returns to step SP52.
[0099]
If a negative result is obtained in step SP55 described above, this means that the extraction processing instruction C50 input by the enlightened user is an instruction other than the work frame setting instruction and the correction mode setting instruction. At this time, the information processing device 50 proceeds to step SP57.
[0100]
In step SP57, the information processing apparatus 50 uses the user interface circuit 65 to extract an area where the extraction processing instruction C50 input by the enlightened user is to propagate the generation based on the generation of the object designation area for the work frame image 70D. .. Or any of the region extraction frame images 70A to 70G,... Which propagates the modification based on the modification to the object designation region generated for the region extraction frame image 70A to 70G,. It is determined whether the instruction is a propagation range setting command for setting the region extraction frame images 70A to 70C, 70E to 70G,...
[0101]
If a positive result is obtained in step SP57, this indicates that the extraction processing instruction C50 input by the enlightened user is a propagation range setting instruction, and at this time, the information processing device 50 proceeds to step SP58. .
[0102]
In step SP58, the information processing apparatus 50 reads a plurality of area extraction frame image data D51 constituting the object extraction moving image data D50 from the image recording circuit 61 by the user interface circuit 65, and reads out the read area extraction frames. By combining the image data D51 with the area extraction processing screen data D52 and sending it to the information presenting unit 55, a predetermined frame is displayed in the image display area in the area extraction processing screen, for example, in response to an image switching request of the enlightenment target user. A number of region extraction frame images 70A to 70G,... Are displayed and the enlightened target user views them.
[0103]
In this state, for example, as shown in FIG. 19, the information processing apparatus 50 extracts one or a plurality of areas for generation and propagation of the object designated area or for correction propagation of the object designated area on the area extraction processing screen by the enlightenment target user. When the use frame images 70B to 70F are selected, the identification information and the like of the selected region extraction frame images 70B to 70F are fetched from the user interface circuit 65 from the user interface circuit 65 to the setting information recording circuit 63 as propagation range setting information and recorded.
[0104]
Thereby, the information processing apparatus 50 sets the one or time-sequential region extraction frame images 70B to 70F selected by the enlightenment target user as the region extraction frame images 70B to 70F of the propagation range, and proceeds to step SP52. Return.
[0105]
Incidentally, when the propagation range setting command is input before the generation of the object designation region for the work frame image 70D, the information processing device 50 selects one or a plurality of region extraction frame images 70A to 70G selected at that time. Are set in the region extraction frame images 70A to 70G,... Of the propagation range in which the generation of the object designated region is propagated (hereinafter, this is particularly referred to as the generation propagation range).
[0106]
Then, the information processing apparatus 50 changes the generated propagation range to a propagation range for propagating the modification of the object designated region (hereinafter, referred to as a modified range) until a propagation range setting command is input after the generation of the object designated region for the work frame image 70D. When a propagation range setting command is input after the generation of the object specification reference region, one or more regions newly selected at that time are extracted separately from the generated propagation range. The frame images 70A to 70G,... Are set as frame image data D70A to 70G,.
[0107]
However, the information processing device 50 selects the region extraction frame images 70A to 70G beyond the generation propagation range (that is, past and future temporally beyond the generation propagation range) when setting the correction propagation range. Since no object designation area is generated for the selected area extraction frame images 70A to 70G,..., A warning sound is output via the information presentation unit 55, and / or area extraction. An error message is displayed on the processing screen to notify the enlightened user that the selection is invalid.
[0108]
Further, if a negative result is obtained in step SP57 described above, this means that the extraction processing instruction C50 input by the enlightened user is an instruction other than the work frame setting instruction, the correction mode setting instruction, and the propagation range setting instruction. At this time, the information processing device 50 proceeds to step SP59.
[0109]
In step SP59, the information processing apparatus 50 uses the user interface circuit 65 to determine whether or not the extraction processing instruction C50 input by the enlightenment target user is an outline specification instruction for specifying the outline of the object 71 in the work frame image 70D. Judge.
[0110]
If an affirmative result is obtained in step SP59, this means that the extraction processing instruction C50 input by the enlightenment target user is a processing corresponding to at least the work frame setting instruction and the propagation range setting instruction for the generation propagation range (step SP54). And the outline designation command input after the execution of the processing described above in step SP58). At this time, the information processing apparatus 50 proceeds to step SP60.
[0111]
In step SP60, the information processing apparatus 50 uses the user interface circuit 65 to extract, for example, the area extraction frame image data D51 from the image recording circuit 61 and the area one frame past and in the future from the generation propagation range. The readout frame image data D51 is read out, the readout frame image data D51 for area extraction is combined with the area extraction processing screen data D52, and sent to the information presenting unit 55.
[0112]
As a result, as shown in FIG. 20, the information processing apparatus 50 causes the information presenting unit 55 to display the generation propagation range and the region extraction frame images 70A to 70G before and after the generation propagation range in the image display area in the area extraction processing screen. Is displayed.
[0113]
In this state, if the outline of the object 71 in the work frame image 70D is arbitrarily traced and designated on the area extraction processing screen by the enlightenment target user via the mouse or the like in this state, the result is obtained. An input contour signal S50 corresponding to the input contour 73 (that is, the locus traced by the enlightened user) is taken into the user interface circuit 65.
[0114]
Then, the information processing device 50 samples the input contour signal S50 at a predetermined sampling interval and converts the input contour signal S50 into digital data by the user interface circuit 65, thereby obtaining a plurality of input contour forming points corresponding to the input contour signal S50. (Represented by coordinates in the work frame image 70D), and sends the generated set data of the plurality of input contour forming points to the contour / area conversion circuit 66 as input contour forming point group data D53.
[0115]
Further, the information processing device 50 generates an input contour interpolation line corresponding to the input contour line 73 by interpolating between the input contour forming points based on the input contour forming point group data D53 by the contour / area conversion circuit 66. An object specification criterion corresponding to an object specification area (hereinafter, specifically referred to as an object specification criterion area) for specifying the object 71 in the work frame image 70D by painting a region surrounded by the input contour interpolation line with a predetermined color. The area data D54 is generated, and the generated object-designated reference area data D54 is sent to the propagation area determination circuit 64 and the area generation recording circuit 67, and proceeds to step SP61.
[0116]
In step SP61, the information processing apparatus 50 reads out the work frame setting information and the propagation range setting information from the setting information recording circuit 63 by the propagation area determination circuit 64, and reads the work frame setting information and the propagation range setting information (that is, the area extraction information). Based on the frame image data D51 (identification information of the frame image data D51), the motion vectors of the predetermined unit blocks in the frame images (including the work frame images) 70B to 70F for extracting all the regions in the generation propagation range are read from the motion vector detection recording circuit 62.
[0117]
Then, based on the motion vector read from the motion vector detection and recording circuit 62, the information processing device 50 operates all the predetermined unit blocks in the object designation reference area within the generation propagation range based on the motion vector read from the motion vector detection recording circuit 62. The movement destination position with respect to the other area extraction frame images 70B, 70C, 70E, and 70F excluding the frame image 70B is detected.
[0118]
Thereby, the information processing apparatus 50 uses the propagation area determination circuit 64 to determine the movement destination position of the detected predetermined unit block to generate another object designated area based on the object designated reference area for each of the generated propagation ranges. This is set as propagation region information to be propagated to the region extraction frame images 70B, 70C, 70E, and 70F, and transmitted to the region generation recording circuit 67 as propagation region information data D55.
[0119]
In addition, the information processing apparatus 50 uses the area generation recording circuit 67 to generate all the predetermined unit blocks relating to the object designation reference area based on the propagation area information data D55, and to generate individual area extraction frame images 70B and 70C of the generation propagation range. By moving the object designation reference area to each of the area extraction frame images 70B, 70C and 70E, 70F by moving the object designation reference area to the movement destination position for each of the area extraction frame images 70B, 70C. And an object designation area (hereinafter, this is particularly referred to as an object designation propagation area) for designating the object 71 in each of 70E and 70F.
[0120]
Here, as shown in FIG. 21, when the object generation propagation area is generated by the area generation recording circuit 67, the information processing apparatus 50 changes the object 71 in the area extraction frame images 70 </ b> B to 70 </ b> F of the generation propagation range (that is, changes in the object 71). Regardless of the temporal movement of the object 71 in the generation propagation range), the predetermined unit blocks 75 relating to the object designation reference area 74 are simply moved according to the motion vectors.
[0121]
At this time, if the predetermined unit block 75 is simply moved, the predetermined unit blocks 75 moved with respect to the individual area extraction frame images 70B, 70C, 70E, and 70F are separated from each other in the object designated propagation area. In some cases, a hole 76 in which a predetermined color is interrupted is generated.
[0122]
For this reason, the information processing device 50 moves the predetermined unit blocks 75 relating to the object designation reference region 74 according to the motion vector by the region generation recording circuit 67, and then expands and reduces these predetermined unit blocks 75 as image processing. By performing the reduction process, the hole 76 is substantially closed, and the object designated propagation area is generated.
[0123]
In this way, the information processing apparatus 50 generates an object-designated propagation area for each of the area extraction frame images 70B, 70C, 70E, and 70F in the creation propagation range. The designated propagation area is recorded in association with the identification information of the frame image data D51 for area extraction of the generated propagation area, and the area generation and recording circuit 67 stores the object designated reference area and each object designated propagation area in the object designated area data D56. To the user interface circuit 65.
[0124]
Then, the information processing apparatus 50 uses the user interface circuit 65 to output, for example, the region extraction frame image data D51 from the image recording circuit 61 and the region extraction frames one frame past and one frame ahead of the generation propagation range. The image data D51 is read.
[0125]
At this time, the information processing device 50 generates the designated area presentation image data by combining the frame image data D51 for area extraction of the generation propagation range with the object designated area data D56 by the user interface circuit 65, and generates the designated area. The presentation image data and the remaining area extraction frame image data D51 are combined with the area extraction processing screen data D52 and sent to the information presentation unit 55.
[0126]
As a result, the information processing apparatus 50 sets the object designation reference area 74 in the work frame image 70D based on the designated area presentation image data in the image display area in the area extraction processing screen in the information presentation section 55 as shown in FIG. At the same time, the object-designated propagation areas 77A to 77D corresponding to the other area extraction frame images 70B, 70C, 70E, and 70F are displayed in a superimposed manner, and the area before and after the generation propagation area is extracted. By displaying the frame images for use 70A and 70G, the generation result of the object designation area is presented to the enlightenment target user, and the process returns to step SP52.
[0127]
If a negative result is obtained in step SP59 described above, this indicates that the extraction processing instruction C50 input by the enlightened user is an instruction other than the work frame setting instruction, the correction mode setting instruction, the propagation range setting instruction, and the contour designation instruction. At this time, the information processing device 50 proceeds to step SP62.
[0128]
In step SP62, the information processing apparatus 50 causes the user interface circuit 65 to determine whether the extraction processing instruction C50 input by the enlightened user is an area modification instruction for modifying the object specification reference area 75 and the object specification propagation areas 77A to 77D. Determine whether or not.
[0129]
If an affirmative result is obtained in step SP62, this indicates that the extraction processing instruction C50 input by the enlightened user is a processing corresponding to the work frame setting instruction, the correction mode setting instruction, the propagation range setting instruction, and the contour designation instruction. (The processing described in step SP54, step SP56, step SP58, step SP60, and step SP61) indicates that the instruction is an area correction instruction that has been input. At this time, the information processing apparatus 50 proceeds to step SP63. Move on.
[0130]
Here, the information processing device 50 occurs in a state where the predetermined unit blocks 75 relating to the object specification reference area 74 are simply moved in accordance with the motion vectors for the object specification propagation areas 77A to 77D generated by the area generation recording circuit 67. If the hole 76 is relatively small, it can be closed by a subsequent expansion and contraction process.
[0131]
However, if the hole 76 is relatively large, the information processing apparatus 50 cannot close the hole 76 even if the expansion and contraction processing is performed on the moved predetermined unit block 75, and the object-designated propagation regions 77A to 77D , The hole 76 remains (FIG. 22).
[0132]
When the information generation device 50 generates the object-designated propagation area by the area-generation recording circuit 67, the information processing apparatus 50 also moves the predetermined unit blocks 75 pertaining to the object-designated reference area 74 simply according to the motion vector, thereby obtaining the information shown in FIG. As is apparent, the original arrangement of the predetermined unit blocks 75 varies at the movement destination, and as a result, as shown in FIG. Hereinafter, this may be referred to as a protruding portion) 78 or a recessed portion (not shown) inside the object 71 may occur.
[0133]
The projecting portions 78 and the like generated in the object-designated propagation regions 77A to 77D are moved by a predetermined unit block in the object-designated propagation regions 77A to 77D where the projecting portions 78 and the like have moved, and the object-designated propagation regions 77A to 77D are further moved. Is generated, projecting portions may also occur in the object designation propagation regions 77A to 77D.
[0134]
For this reason, in step SP63, the information processing apparatus 50 sends the area extraction processing screen data D52 obtained by synthesizing the latest designated area presentation image data from the user interface circuit 65 to the information presentation unit 55, and the information presentation unit 55 The area extraction processing screen described above with reference to FIG. 22, for example, is displayed.
[0135]
In this state, as shown in FIGS. 23 (A) and (B), the information processing apparatus 50 allows the enlightenment target user to modify one of the object specification reference areas 74 or the object specification propagation areas 77A to 77A to be corrected on the area extraction processing screen. 77D is designated, and the correction points (holes 76, projecting points 78, etc.) of the object specification reference area 74 or the object specification propagation areas 77A to 77D to be corrected are traced around the correction points via a mouse or the like. When designated by the frames 79A and 79B formed in this way, the identification information of the region extraction frame image data D51 corresponding to the object designation reference region 74 or the object designation propagation regions 77A to 77D to be corrected, and the frames 79A and 79B When the correction location instruction signal S51 including the corresponding frame signal is input, Taken into over The interface circuit 65.
[0136]
Incidentally, at this time, the information processing apparatus 50 displays the generation propagation range and the frame images 70A to 70G (including the work frame images) before and after the generation propagation range in the image display area in the area extraction processing screen. Thereby, the protruding portion 78 with respect to the object designation propagation regions 77A to 77D can be relatively easily analogized from the shape of the object designation reference region 74 and the shape of the object 71 in the region extraction frame images 70A and 70G before and after the generation propagation range. Is specified.
[0137]
The information processing device 50 uses the user interface circuit 65 to sample the frame signal included in the correction location instruction signal S51 at a predetermined sampling interval and convert the frame signal into digital data, so that a plurality of frame forming points (corresponding to the frame signal) are obtained. The frame data for area extraction 70B to 70F (represented by the coordinates) is generated, and the generated aggregate data of a plurality of frame forming points (hereinafter, referred to as frame forming point group data) is added to the correction location instruction signal S51. The data is sent to the contour / area conversion circuit 66 together with the included identification information as correction location instruction data D57.
[0138]
Further, the information processing device 50 uses the contour / area conversion circuit 66 to interpolate between the frame forming points based on the frame forming point group data obtained based on the correction location instruction data D57, thereby forming frames corresponding to the frames 79A and 79B. A propagation area determining circuit that generates an interpolation line, and uses correction point instruction area data representing an area surrounded by the frame interpolation line as a correction point instruction area and identification information included in the correction point instruction data D51 as correction instruction data D58. 64 and the area generation recording circuit 67.
[0139]
The information processing device 50 reads the propagation range setting information from the setting information recording circuit 63 by the propagation region determining circuit 64, and performs the motion based on the propagation range setting information (that is, the identification information of the region extraction frame image data D51). From the vector detection recording circuit 62, the motion vectors of the predetermined unit blocks in all the region extraction frame images (including the work frame images) 70B to 70F in the modified propagation range are read.
[0140]
Then, the information processing device 50 corrects all the predetermined unit blocks related to the correction location indication area within the correction propagation range based on the motion vector read from the motion vector detection recording circuit 62 by the propagation area determination circuit 64. The movement destination position is detected with respect to the other area extraction frame images 70B to 70F excluding the area extraction frame images 70B to 70F corresponding to the target object specification reference area 74 or the object specification propagation areas 77A to 77D.
[0141]
Accordingly, the information processing apparatus 50 uses the propagation area determination circuit 64 to change the detected destination position of the predetermined unit block to the object-designated reference area 74 or the object-designated propagation areas 77A to 77D to be modified. The information is transmitted to the area generation recording circuit 67 as propagation area information for propagation to another object specification reference area 74 or object specification propagation areas 77A to 77D.
[0142]
Further, the information processing apparatus 50 reads out the correction mode setting information indicating the correction mode set at that time from the setting information recording circuit 63 by the area generation recording circuit 67, and reads the already stored object designation reference area 74 or The object designation reference area 74 or the object designation propagation areas 77A to 77D to be modified corresponding to the identification information included in the modification instruction data D58 is selected and read out from the object designated propagation areas 77A to 77D.
[0143]
Then, the information processing device 50 uses the area generation recording circuit 67 to extract the correction point instruction area data included in the correction instruction data D58, and to convert the correction point instruction area based on the correction point instruction area data into the object specification reference area 74 to be corrected. Or, it overlaps with the object designation propagation areas 77A to 77D.
[0144]
In this state, if the correction mode at that time is deleted based on the correction mode setting information by the area generation recording circuit 67, the information processing device 50, for example, as shown in FIG. By deleting the portion 77AX that overlaps with the correction portion instruction region 79AX in the above, the object designation propagation region 77AY corrected by removing the projecting portion 78 is obtained.
[0145]
If the correction mode at that time is added based on the correction mode setting information by the area generation recording circuit 67, the information processing apparatus 50 corrects the correction in the object designation propagation area 77B as shown in FIG. By adding a filled area of a predetermined color to the location 77BX overlapping the location indication area 79BX, an object-designated propagation area 77BY corrected by closing the hole 76 is obtained.
[0146]
Then, the information processing device 50 uses the area generation recording circuit 67 to, based on the propagation area information, all the predetermined unit blocks (the predetermined unit blocks that have been newly painted or have been unpainted due to the modification) relating to the correction location instruction area. By moving the correction propagation range to the movement destination position with respect to the other area extraction frame images 70B to 70F, the correction in the object specification reference area 74 to be corrected or the object specification propagation areas 77A to 77D is performed in another object specification reference area 74. Alternatively, the light is propagated to the object designated propagation areas 77A to 77D.
[0147]
In this manner, the information processing apparatus 50 responds to a correction request for one of the object designation reference areas 74 or the object designated propagation areas 77A to 77D to be modified. 77D can be corrected together with another object-designated reference region 74 or another object-designated propagation region 77A to 77D of the modified propagation range.
[0148]
That is, if the protruding portion 78 or the like occurs in any of the object-specified propagation regions 77A to 77D among the plurality of object-specified propagation regions 77A to 77D, the information processing device 50 sets the object-designated propagation region where the protruding portion 78 or the like occurs. Projections may also occur in other object-specified propagation regions 77A to 77D generated based on 77A to 77D. Therefore, any one of the plurality of object-designated propagation regions 77A to 77D may be protruded. By simply requesting the modification from the designated object propagation regions 77A to 77D, the other object designation propagation areas 77A to 77D can be easily modified to reflect the modification.
[0149]
Then, the information processing apparatus 50 converts the new object specification reference area 74 or the object specification propagation areas 77A to 77D obtained by the correction by the area generation recording circuit 67 into the object specification reference area 74 or the object specification propagation area 77A before the correction. By overwriting and recording the object designation reference area 74 and the object designation propagation areas 77A to 77D, which are recorded and held, are updated.
[0150]
Further, the information processing device 50 sends the updated object designation reference region 74 and the object designation propagation regions 77A to 77D again to the user interface circuit 65 as object designation region data D59 by the region generation recording circuit 67.
[0151]
Then, the information processing device 50 reads the generation propagation range and the frame image data D51 for area extraction before and after the generation propagation range from the image recording circuit 61 by the user interface circuit 65, and stores the frame extraction image data D51 for the area of the generation propagation range in the object designation area. The designated area presentation image data is generated by combining with the data D59, and the designated area presentation image data and the remaining area extraction frame image data D51 are combined with the area extraction processing screen data D52 to provide the information presentation unit 55. To send to.
[0152]
Thereby, the information processing apparatus 50 displays the generation propagation range and the extraction frame image 70A and 70B before and after the generation propagation range in the image display area in the area extraction processing screen in the information presentation unit 55 as shown in FIG. The corrected object-designated reference area 74A and the object-designated propagation areas 77AX, 77BX, 77CX, 77DX or still modified corresponding to the area extraction frame images (including the work frame images) 70B to 70F of the generated propagation range, respectively. The object designation reference region 74 or the object designation propagation regions 77A to 77D which are not displayed are superimposed and displayed, and the process returns to step SP52.
[0153]
In this way, the information processing apparatus 50 generates the object designation reference area 74 and the object designation propagation areas 77A to 77D, and then sets the modification propagation range and the modification mode as appropriate and designates a modification location. In accordance with the instruction, the corrected portion of the object designation reference region 74 or the object designation propagation regions 77A to 77D is corrected and presented, and the object designation reference region 74 and the object designation propagation regions 77A to 77D that the enlightenment target user is satisfied with accuracy and the like are displayed. Can be generated.
[0154]
In addition, if a negative result is obtained in step SP62 described above, this indicates that the extraction processing instruction C50 input by the enlightened user is a work frame setting instruction, a correction mode setting instruction, a propagation range setting instruction, a contour designation instruction. And an instruction other than the area correction instruction. At this time, the information processing device 50 proceeds to step SP64.
[0155]
In step SP64, the information processing apparatus 50 uses the user interface circuit 65 to determine whether the extraction instruction C50 input by the enlightened user is to fill the area surrounded by the input contour interpolation line as the object designation reference area 74, Alternatively, it is determined whether or not the command is an area inversion command for switching whether the outside of the input contour interpolation line is painted out to be the object designation reference area.
[0156]
If an affirmative result is obtained in step SP64, this means that the extraction processing instruction C50 input by the enlightenment target user is processed at least according to the work frame setting instruction, the propagation range setting instruction, and the contour designation instruction (step SP54, This indicates that the command is an area inversion command that has been input after the steps SP58, SP60, and SP61 have been executed, and the information processing apparatus 50 proceeds to step SP65.
[0157]
In step SP65, the information processing device 50 sends an area inversion command from the user interface circuit 65 to the setting information recording circuit 63.
[0158]
In the initial state, the information processing apparatus 50 is set in the interpolation line area mode in which, for example, the area surrounded by the input contour interpolation line is filled and the object designation reference area 74 is set. Is input to the setting information recording circuit 63 to change the content of the designated area setting information for setting the form of the object designated area, thereby painting the outside of the input contour interpolation line. To change the setting to the non-interpolation line area mode that is the object specification reference area.
[0159]
On the other hand, when the area inversion command is input in the out-of-interpolation area mode, the information processing apparatus 50 takes in the area inversion command into the setting information recording circuit 63 and changes the content of the designated area setting information to change the interpolation. Change the setting to line area mode.
[0160]
When the setting information recording circuit 63 switches the in-line area mode to the out-of-line area mode by the setting information recording circuit 63, the information processing apparatus 50 notifies the area generation recording circuit 67 of this.
[0161]
When the information processing device 50 switches from the in-interpolation line area mode to the out-of-interpolation line area mode, the area generation recording circuit 67 uses the object designation reference area 74 and the object designation propagation areas 77A to 77D which are already recorded and held. An object designation area (hereinafter referred to as an area designated as a background of the object 71 excluding the object designation reference area 74 and each of the object designation propagation areas 77A to 77D in the area extraction frame images 70B to 70F) except for a predetermined color. An object-designated reference inversion area is called in correspondence with the object-designated reference area, and an object-designated propagation inversion area is called in correspondence with the object-designated propagation area.
[0162]
When the information processing apparatus 50 generates the object-designated reference inversion area and each object-designated propagation inversion area, the area generation recording circuit 67 converts the object-designated reference inversion area and each object-designated propagation inversion area into the object-designated reference area 74 and each of the object-designated propagation inversion areas. The data is overwritten and recorded in the object designation propagation areas 77A to 77D.
[0163]
Further, the information processing apparatus 50 sends the object-designated reference inversion area and each object-designated propagation inversion area to the user interface circuit 65 as object-designated area data D60 by the area generation recording circuit 67.
[0164]
The information processing device 50 reads the generation propagation range and the frame image data D51 for area extraction before and after the generation propagation range from the image recording circuit 61 by the user interface circuit 65, and stores the area extraction frame image data D51 for the generation propagation range in the object designation area data. The designated area presentation image data is generated by combining the designated area presentation image data and the remaining area extraction frame image data D51 with the area extraction processing screen data D52 to combine the designated area presentation image data with the information extraction unit 55. Send out.
[0165]
Thus, the information processing apparatus 50 displays the generation propagation range and the extraction frame image 70A and 70B before and after the generation propagation range in the image display area in the area extraction processing screen in the information presentation unit 55 as shown in FIG. Then, the object-designated reference inversion area 80 and the object-designated propagation inversion areas 81A to 81D corresponding to the area extraction frame images (including the work frame images) 70B to 70F of the generation propagation area are displayed in a superimposed manner, and the process returns to step SP52. .
[0166]
By the way, when the information processing apparatus 50 switches from the interpolated line area mode to the interpolated line area mode, the area generation recording circuit 67 uses the object-designated reference inversion area 80 and the object-designated propagation inversion area 81A which are already recorded and held. (A region overlapping with the object 71 except for the object designation reference inversion region 80 and the object designation propagation inversion regions 81A to 81D in the region extraction frame images 70B to 70F) with a predetermined color. And each of the object designated propagation areas 77A to 77D.
[0167]
In this case, the information processing device 50 presents the region extraction processing screen described above with reference to FIG. 22 or 25 to the enlightened user and returns to step SP52.
[0168]
In this manner, the information processing apparatus 50 sequentially executes the processing of steps SP52 to SP65 described above in accordance with the extraction processing command C50 input by the enlightenment target user, and thereby obtains the accuracy that can be satisfied by the enlightenment target user. Can be used to extract the object designation area.
[0169]
If a negative result is obtained in step SP64, this means that the object designation area changed in accordance with the movement of the object 71 in the area extraction frame images 70B to 70F which are temporally continuous from the object extraction moving image 70. The extraction with the accuracy that the enlightenment target user can understand indicates that the enlightenment target user has input a processing end instruction to end the area extraction processing as the extraction processing instruction C50. Moves to step SP66.
[0170]
In step SP66, the information processing apparatus 50 uses the area generation recording circuit 67 to generate the object specification reference area 74 and the object specification propagation areas 77A to 77D finally recorded through one generation or subsequent correction, or the object specification reference inversion. By outputting the area 80 and the object-specific propagation inversion areas 81A to 81D to the outside via the area extraction circuit 68 as object-specific area data D61, for example, an object extraction device (not shown) uses the object-specific area data D61 to output the data. Then, the process proceeds to step SP67 (FIG. 14) so that the object 71 is extracted from the moving image data for object extraction D50.
[0171]
In step SP67, the information processing apparatus 50 determines the name of the enlightenment target user input by the enlightenment target user via a predetermined operation unit (not shown) and the user of the skill to be the evaluation value for the area extraction method of the enlightenment target user. The information S55 is taken into the user interface circuit 65.
[0172]
Here, the skill of the enlightenment target user is determined using a moving image for trial of an area extraction operation generated by a computer or the like according to a predetermined image generation program (hereinafter, this is referred to as a moving image for area extraction trial). The result of periodically performing the area extraction operation by the enlightenment target user on a trial basis is used each time.
[0173]
In this case, the region extraction trial moving image is composed of a plurality of frame images (hereinafter, referred to as a trial frame image) including an object whose area can be continuously specified in time (hereinafter referred to as an “region extraction trial object”). ), And is generated such that the outline of the region extraction trial object can be almost accurately recognized by image processing using a general image processing application program executed by a computer or the like.
[0174]
Therefore, the skill of the enlightenment target user is similar to the above-described region extraction processing routine SRT51 using the region extraction trial moving image, and the region extraction operation of the object designation region for the region extraction trial objects in the plurality of trial frame images is performed. When the trial is performed, for example, the shape of the object designated area is compared with the outline of the actual area extraction trial object by image processing, and the precision is set with a predetermined accuracy (an error amount within a preset threshold). The determination is made quantitatively by using the reciprocal of the time required until the object designated area is extracted (that is, the time required for the area designated trial processing in which the object designated area is extracted on a trial basis).
[0175]
Incidentally, the skill of the enlightenment target user can be determined to be high if the object designation area is extracted on a trial basis with a predetermined accuracy in a relatively short time, and in this case, the time required for the area designation trial processing can be determined. Is large, the value is large.
[0176]
In addition, the skill of the enlightened user can be determined to be low if the object designation area is extracted on a trial basis with a predetermined accuracy over a relatively long time. In this case, it is necessary to perform the area designation trial processing. The value becomes smaller due to the longer time taken.
[0177]
Then, when the information processing device 50 takes in the user information S55 including the skill of the enlightenment target user into the user interface circuit 65, the user interface circuit 65 reads the object moving image data D51 from the image recording circuit 61.
[0178]
Further, while the information processing apparatus 50 is executing the above-described area extraction processing routine SRT51 (that is, the area extraction processing using the moving image for object extraction) in the user interface circuit 65, the display content is appropriately changed and the information presentation unit is changed. A series of area extraction processing screens displayed at 55 are recorded as area extraction history screen data indicating the history of the area extraction operation together with information such as the time required for the area extraction processing.
[0179]
Therefore, as shown in FIG. 27, the information processing device 50 uses the user interface circuit 65 to generate the name and skill of the enlightenment target user included in the user information S55, the moving image data D50 for object extraction, and the area extraction history screen data. Is sent to the processing tendency information extraction unit 52 (FIG. 13) as input information data D65, and the routine goes to Step SP68.
[0180]
In step SP68, the information processing apparatus 50 uses the processing tendency information extraction unit 52 to generate a predetermined image for each of the area extraction frame image data D51 included in the object extraction moving image data D50 included in the input information data D65. By performing the processing, the ratio between the sum of the frequency components of the predetermined unit blocks and the sum of the frequency components of a predetermined frequency or higher among the frequency components of the predetermined unit block in each of the region extraction frame image data D51 is determined. Calculated, and the average value of these ratios for all region extraction frame image data D51 is calculated as the high frequency component ratio.
[0181]
Further, the information processing apparatus 50 performs predetermined image processing on all of the region extraction frame image data D51 constituting the object extraction moving image data D50 by the processing tendency information extraction unit 52, thereby performing individual region extraction. The minimum value is subtracted from the maximum value of the luminance in the frame image data D51 for use, and the average value of the subtraction results for all the region extraction frame image data D51 obtained as a result is calculated as a luminance value dynamic range.
[0182]
Further, the information processing apparatus 50 performs predetermined image processing on the area extraction history screen data included in the input information data D65 by the processing tendency information extraction unit 52, so that the enlightenment target user sets the object 71 in the work frame image 70D. Detecting the contour drawing time when the contour is designated, and dividing the contour drawing time by the time required for the area extraction processing excluding the contour drawing time (hereinafter referred to as the drawing line exclusion processing time). Is calculated as the drawing line and drawing line exclusion processing time ratio.
[0183]
In addition to this, the information processing device 50 uses the processing tendency information extraction unit 52 to specify the contour of the object 71 in the work frame image 70D by the enlightenment target user and to use the input contour forming point obtained by specifying the contour of the input contour. The drawing speed between adjacent input contour forming points is sequentially calculated based on a predetermined sampling interval for generating points and the distance between adjacent input contour forming points, and the average value of the drawing speed between each input contour forming point is calculated as an object. It is calculated as the average drawing speed when the contour 71 is designated.
[0184]
In the information processing apparatus 50, as shown in FIG. 28, the processing tendency information extraction unit 52 converts the high-frequency component ratio and the luminance dynamic range into the state of the picture in the moving image 70 for object extraction (moving image having any complexity or color tone). Image extraction information, which indicates whether the image is an image or not, and the line drawing and line drawing exclusion processing time ratio and the average line drawing speed are used as the region extraction process information that specifically indicates the process of the region extraction operation. The information is set as processing tendency information indicating how the object designation area is extracted from the object extraction moving image 70 by the enlightenment target user.
[0185]
Thereby, the information processing apparatus 50 uses the processing tendency information extraction unit 52 to set the processing tendency information extracted from the moving image data D50 for object extraction and the area extraction history screen data as processing tendency information data D66, The input information data D65 are associated with each other and sent to the information storage unit 53 as the accumulation information data D67, and the processing tendency information data D66 is sent to the presentation information selection unit 54 as it is, and the process proceeds to the subsequent steps SP69 and SP70.
[0186]
In step SP69, the information processing device 50 causes the information storage unit 53 to store the stored information data D67 collectively as, for example, the input information data D65 and the processing tendency information data D66, and proceeds to step SP71.
[0187]
In addition, in step SP70, the information processing apparatus 50 uses the presentation information selection unit 54 in parallel with the processing in step SP69 to set a luminance dynamic range (hereinafter referred to as a comparison reference) as image feature information included in the processing tendency information data D66. The value of the luminance value dynamic range), the value of the average drawing speed (hereinafter, referred to as a reference average drawing speed for comparison) as the area extraction history information, and the enlightenment target user stored in the information storage unit 53 in step SP69. The luminance value dynamic range (hereinafter, referred to as the past luminance value dynamic range) and the average included as the processing tendency information data D66 in all the past accumulated information data D67 already accumulated except the accumulated information data D67 The value is compared with a value of a drawing speed (hereinafter, referred to as a past average drawing speed).
[0188]
As a result, the information processing apparatus 50 allows the presentation information selection unit 54 to select a predetermined dynamic range centered on the value of the comparison reference luminance value dynamic range from the past accumulated information data D67 in the same manner as described above with reference to FIG. A past that includes information of a past luminance value dynamic range indicating a value within a threshold range, and includes information of a past average drawing speed indicating a value within a predetermined drawing speed threshold range centered on a value of a comparative reference average drawing speed. The storage information data D67 is selected.
[0189]
Next, the information processing apparatus 50 selects the past accumulated information data from the past accumulated information data D67 selected by the presentation information selecting unit 54 using the value of the comparative luminance value dynamic range and the value of the comparative reference average drawing speed. By comparing pieces of skill information included in D67, the past accumulated information data D67 including the highest skill (that is, the highest evaluation value) as a part of the input information data D65 is selected.
[0190]
In this way, the information processing apparatus 50 uses the presentation information selection unit 54 to extract the area of the enlightenment target user from all the past accumulation information data D67 already accumulated in the information accumulation unit 53 as shown in FIG. The past of the user who extracted the object designated area using the area extraction method similar to the area extraction method of the enlightened user using the luminance value dynamic range for comparison of the processing tendency information for the method and the average drawing speed for comparison as limiting criteria After selecting the accumulated information data D67 (that is, after limiting the number of the past accumulated information data D67 to be selected), the skill included in the selected past accumulated information data D67 is used as a selection criterion from among the selected past accumulated information data D67. The highest accumulated user past accumulated information data D67 is finally selected.
[0191]
As a result, the information processing apparatus 50 uses the presentation information selection unit 54 to display the area extraction history screen data included in the finally selected past storage information data D67 as the input information data D65 from the information storage unit 53 as shown in FIG. The information of the skill is read as the presentation information data D68, and the read presentation information data D68 is sent to the information presentation unit 55, and the process proceeds to step SP71.
[0192]
In step SP71, the information processing apparatus 50 presents a series of area extraction processing screens and skill information based on the presentation information data D68 to the user to be enlightened by the information presenting unit 55, and then proceeds to step SP72 to promote the second enlightenment. The processing procedure RT50 ends.
[0193]
In this manner, the information processing apparatus 50 uses the region extraction method similar to the enlightenment target user (for example, the object extraction moving image 70 having a color tone similar to the color tone of the object extraction moving image 70 used to extract the object designation region by the enlightenment target user). Using the image, the method of specifying the outline of the object which is the most important in the process of extracting the object designated area and the outline of the object which is the basis of the object designated area is similar) A series of area extraction processing screens (including process history and moving image for object extraction) are reproduced and presented according to the time elapse of the area extraction operation actually performed by the user as the area extraction technique of the user with the highest skill. I do.
[0194]
As a result, the information processing apparatus 50 can determine the difference between the area extraction method of the enlightenment target user and the area extraction method of another user (for example, the most important method of specifying an outline, the generation propagation range, and the correction propagation (How to set the range) can be found as an improved portion in the region extraction method of the enlightenment target user, and thus the improved portion can be improved by imitating the region extraction method of another user.
[0195]
By the way, in the case of the second embodiment, the information processing device 50 receives the presentation information to the enlightenment target user and receives the presentation information addition command C51 via a predetermined operation unit. Is taken into the user interface circuit 65 of the area extraction unit 51, the additional command C51 is sent from the user interface circuit 65 to the presentation information selection unit 54 via the processing tendency information extraction unit 52.
[0196]
Then, the information processing apparatus 50 outputs the high-frequency component ratio as image feature information included in the finally stored past accumulated information data D67 as the processing tendency information data D66 from the information accumulation unit 53 by the presentation information selecting unit 54 and the region extraction. The information of the drawing line and the drawing line exclusion processing time ratio as the history information is read, and the read high-frequency component ratio and the drawn line and the drawing line exclusion processing time ratio are compared with the high-frequency component ratio and the drawing line included in the processing tendency information data D66 of the enlightened target user. And the drawing line exclusion processing time ratio as additional presentation information data D69 to the information presentation unit 55.
[0197]
Thereby, the information processing apparatus 50 outputs the information of the high-frequency component ratio based on the additional presentation information data D69 and the drawing line and the drawing line exclusion processing time ratio via the monitor and the speaker by the information presenting unit 55 to the enlightened user. Present and thus, to the enlightenment target user, not only present a series of screens for area extraction processing, but also the high-frequency component ratio, drawing line and drawing line exclusion processing, showing a different area extraction method from the area extraction method of other users. It is made to be able to be found from the difference as the numerical value of the time ratio.
[0198]
In other words, the information processing apparatus 50 determines how the enlightened target user differs in the appearance (complexity) of the pattern of the moving image for object extraction used by another user in the extraction processing of the object designation area, and the outline of the object in the area extraction operation. The difference between how much importance is placed on the designation of the item and the like can be determined as a numerical value.
[0199]
In the above configuration, the information processing apparatus 50 causes the enlightenment target user to perform an area extraction operation for extracting an object designated area from the object extraction moving image 70, and appropriately displays the display content during the area extraction processing according to the area extraction operation. A series of screens for area extraction processing presented by changing the above are used as area extraction history screen data representing the history of the area extraction operation, and the area extraction history screen data and the moving image data D50 for object extraction used in the area extraction processing And the skill information on the area extraction method input by the enlightenment target user is set as input information data D65.
[0200]
Then, the information processing apparatus 50 determines how the enlightened user extracts the object designation area from the moving image 70 for object extraction based on the moving image data D50 for object extraction and the area extraction process screen data from the moving image. Is extracted, and the processing tendency information data D66 including the extracted processing tendency information is stored in the information storage unit 53 as the storage information data D67 together with the input information data D65.
[0201]
At this time, the information processing apparatus 50 compares the processing trend information data D66 of the enlightened target user with the processing trend information data D66 included in the past accumulation information data D67 already stored in the information storage unit 53, and From the accumulated information data D67, the past accumulated information data D67 including the object extraction moving image data D50 and the area extraction history screen data representing the area extraction technique of another user similar to the area extraction technique of the enlightenment target user is selected. .
[0202]
Next, the information processing apparatus 50 compares the pieces of skill information included in the selected past accumulated information data D67 and finally selects the past accumulated information data D67 of the user having the highest skill, and selects the selected past accumulated information D67. The area extraction process screen data (that is, a series of area extraction processing screens presented during the area extraction processing) included in the information data D67 is presented to the enlightenment target user as presentation information.
[0203]
Therefore, the information processing apparatus 50 does not particularly require a leader having excellent processing ability similarly to the above-described first embodiment, and provides the enlightenment target user with the presentation information of the improvement part in the own area extraction method. By encouraging enlightenment, it is possible to cause the enlightenment target user to find a different place between the area extraction method of the enlightenment target user and the area extraction method of another user as an improvement point in his / her area extraction method, and to improve the area. Can be improved by imitating the area extraction method of another user.
[0204]
In addition, when presenting the presentation information to the enlightenment target user, when the presentation information addition command C51 is input, the information processing apparatus 50 processes the finally selected past accumulated information data D67 accordingly. Information on the high-frequency component ratio and the drawing line and drawing line exclusion processing time ratio included as the trend information is additionally provided together with the information on the high-frequency component ratio and the drawing line and drawing line exclusion processing time ratio included in the processing trend information data D66 of the enlightened user. Presented to the enlightenment target user as information.
[0205]
Therefore, the information processing apparatus 50 also urges the enlightenment target user to enlighten the improvement points in the area extraction method by the additional presentation information, and identifies a different point between the enlightenment target user's area extraction method and the area extraction method of another user. It is important to specify a series of area extraction processing screens presented during the area extraction processing by visually observing them and to specify the high-frequency component ratio to the object extraction moving image and the outline of the object during the area extraction processing. The difference between the drawing line representing the degree and the drawing line exclusion processing time can be accurately found as a point to be improved in the user's own area extraction method by the enlightenment target user, and the improved point can be used for other user's area extraction method. It can be imitated and improved.
[0206]
In addition, the information processing apparatus 50 executes the area extraction processing routine SRT51 described above with reference to FIGS. 16 and 17 during the area extraction processing for extracting the object designated area, and performs a plurality of areas constituting the object extraction moving image 70. One of the extraction frame images 70A to 70G,... Selects one work frame image 70D that actually specifies the contour of the object 71, and a plurality of region extraction frames in the generation propagation range for transmitting the generation of the object designation region. The user selects one of the images 70B, 70C, 70E, and 70F.
[0207]
Then, when the outline of the object 71 in the work frame image 70D is traced and specified, the information processing device 50 generates an object specification reference area 74 for the work frame image 70D based on the resulting input outline. At the same time, the predetermined unit block relating to the object designation reference area 74 is moved to the moving position in each of the area extraction frame images 70B, 70C, 70E, and 70F of the generation propagation range, and the individual area extraction frame of the generation propagation range is moved. The object designated propagation areas 77A to 77D for the images 70B, 70C, 70E, and 70F are generated.
[0208]
Therefore, the information processing apparatus 50 does not need to specify the outline of the object 71 in the plurality of region extraction frame images 70B to 70F constituting the object extraction moving image 70, respectively, without specifying any one region extraction frame image ( By simply designating the outline of the object 71 in the work frame image 70D, it is possible to easily extract the object designation regions that designate the objects 71 in the plurality of region extraction frame images 70B to 70F.
[0209]
In addition, when the information processing device 50 is instructed to modify one of the object-designated reference area 74 to be modified or the object-designated propagation areas 77A to 77D after setting the modification propagation range, the modification is made to the object to be modified. In order to propagate from the designated reference area 74 or the object designated propagation areas 77A to 77D to another object designated reference area 74 or the object designated propagation areas 77A to 77D within the modified propagation range, a plurality of objects can be designated with a minimum operation to the enlightenment target user. The extraction accuracy of the reference area 74 and the object designated propagation areas 77A to 77D can be easily improved.
[0210]
According to the above configuration, a series of area extraction processing screens displayed when the enlightenment target user performs an area extraction operation of extracting an object designated area from the object extraction moving image 70, and the object extraction moving image And input information including the skill information of the enlightenment target user extracted from the series of area extraction processing screens and the moving image 70 for object extraction, together with processing tendency information for the area extraction method of the enlightenment target user, and accumulated information. The information stored in the information storage unit 53 as the data D67 and the processing tendency information on the area extraction method of the enlightenment target user is compared with the processing tendency information included in the past storage information data D67 already stored in the information storage unit 53. Then, from the past accumulated information data D67, another user's After selecting the past accumulated information data D67 that includes the area extraction method as a moving image for object extraction and a series of area extraction processing screens, the skills information included in the selected past accumulated information data D67 is compared with each other to compare the skills. Is finally selected, and a series of area extraction processing screens included in the finally selected past accumulated information data D67 are presented to the enlightenment target user as presentation information. By doing so, the enlightenment target user is encouraged by the presented information to educate the areas to be improved in his / her area extraction method, and a different area between the enlightenment target user's area extraction method and the other user's area extraction method is notified to the enlightenment target user. In addition to finding the improvement points in your area extraction method, you can find the improvement points Can be improved to mimic the extraction procedure, thus the processing capabilities of the processing of the object extracting moving image 70 to be processed to extract the object specified area can be realized an information processing apparatus capable of easily improved.
[0211]
In the second embodiment described above, the processing tendency information data D65 of the enlightenment target user is compared with the processing tendency information data D65 included in the past accumulation information data D67 already accumulated in the information accumulation unit 53. Thus, from the past accumulated information data D67, the past accumulated information data including the moving image data D50 for object extraction and the area extraction process screen data representing the area extraction technique of another user similar to the area extraction technique of the enlightened target user. A case has been described in which after selecting D67, the pieces of skill information included in the selected past accumulated information data D67 are compared with each other, and the past accumulated information data D67 of the user having the highest skill is finally selected. However, the present invention is not limited to this, and the processing tendency information data D65 of the enlightenment target user and the information storage unit 53 are already stored. By comparing with the processing tendency information data D65 included in the accumulated past accumulated information data D67, from the past accumulated information data D67, an area extracting method of another user similar to the area extracting method of the enlightenment target user Is selected and the past accumulation information data D67 including the object extraction moving image data D50 and the area extraction history screen data is displayed, and a series of area extraction processing screens included in the selected one or a plurality of past accumulation information data D67 is presented. The information may be presented to the user to be enlightened.
[0212]
In this way, since the enlightenment target user can be presented as the presentation information the details of the region extraction processing of a plurality of users with different skills, the enlightenment target user can be presented more than the case of the above-described second embodiment. It is possible to cause the user to find more improved points in his / her area extraction method.
[0213]
Further, the processing tendency information data D65 of the enlightened target user is compared with the processing tendency information data D65 included in the past storage information data D67 already stored in the information storage unit 53, and a plurality of pieces of the past storage information data D67 are compared. By selecting the final past accumulated information data D67, the processing load at the time of selection can be reduced as compared with the second embodiment described above.
[0214]
Further, in the above-described second embodiment, a case has been described in which a series of area extraction processing screens in the area extraction processing of another user are presented to the enlightenment target user as presentation information. Not limited to this, the past accumulated information data D67 includes the past accumulated information data D67 of the enlightenment target user. When the past accumulated information data D67 of the enlightened target user is selected, the past accumulated information data D67 is included in the accumulated information data D67. A series of area extraction processing screens in the past area extraction processing may be presented to the enlightenment target user as presentation information. In this case, for example, if the skill of the past region extraction method is higher than the current region extraction method of the enlightenment target user, the area to be improved in the current region extraction method is the region extraction method when the past skill is high. It can be easily found by comparing with.
[0215]
Furthermore, in the above-described second embodiment, a case has been described where all pieces of past accumulated information data D67 are used when selecting presentation information to be presented to an enlightened user, but the present invention is not limited to this. When the presentation history of the presentation information for each enlightenment target user is accumulated and the presentation information to be presented to the enlightenment target user is selected, the past accumulation information data D67 used for the past presentation is determined based on the presentation history. Alternatively, other past accumulated information data D67 may be used.
[0216]
In this way, it is possible to prevent the presentation information presented in the past to the enlightenment target user from being presented again and to present new presentation information. Enlightenment of people. Incidentally, when selecting the presentation information to be presented to the enlightenment target user, the past accumulated information data D67 used for the presentation of the presentation information regardless of the presentation target user is not used for the selection of the subsequent presentation information. Such processing can also be realized by forcibly regulating.
[0217]
Further, in the above-described second embodiment, a case has been described in which the presentation information is selected using the selection conditions described above with reference to FIG. 29, but the present invention is not limited to this, and the present invention is not limited to this. One of the various selection conditions, or the various pieces of selection information shown in FIG. 31 and the selection conditions described above with reference to FIG. 29 are used to selectively use one or a plurality of selection conditions to select the presentation information. Is also good.
[0218]
Here, the various selection conditions shown in FIG. 31 will be described in detail. First, when the first selection condition is used, the information processing device 50 uses the presentation information selection unit 54 to set the comparison reference luminance value dynamic range After selecting the past accumulated information data D67 including past luminance value dynamic range information indicating a value within the dynamic range threshold range by comparing with the past luminance value dynamic range value included in all the past accumulated information data D67. Then, from among the selected past accumulated information data D67, the pieces of skill information included in the past accumulated information data D67 are compared with each other, and the past accumulated information data D67 including the best skill is finally selected and finally selected. A series of area designation processing screens included in the selected past accumulated information data D67 are presented to the enlightened user.
[0219]
In this case, the information processing apparatus 50 extracts the object designation area using the object extraction moving image 70 similar in color to the object extraction moving image 70 used by the enlightenment target user to extract the object designation area. Among the area extraction methods described above, the area extraction technique having the highest skill can be presented to the enlightenment target user, and the enlightenment target user can be enlightened with points to be improved in his or her area extraction method.
[0220]
When the second selection condition is used, the information processing device 50 uses the presentation information selection unit 54 to set the value of the reference luminance value dynamic range for comparison included in the processing tendency information data D66 of the enlightened user and the information storage unit 53. Is compared with the value of the past luminance value dynamic range included in the past accumulated information data D67 which has already been accumulated, and information of the skills (hereinafter, referred to as past skills) included in the past accumulated information data D67 is compared with each other. And selects past accumulated information data D67 that includes past luminance value dynamic range information indicating a value within the dynamic range threshold range and also includes past skills having a value equal to or greater than a predetermined threshold value.
[0221]
Then, the information processing device 50 compares the value of the past average drawing speed included in the selected past accumulated information data D67 with the value of the reference average drawing speed for comparison by the presentation information selection unit 54, thereby performing the selection. From the past accumulated information data D67, the past accumulated information data D67 that indicates a value outside the drawing speed threshold range and that includes the information on the past average drawing speed at which the difference from the value of the comparison reference average drawing speed is the maximum is finally determined. Then, a series of area designation processing screens included in the finally selected past accumulated information data D67 are presented to the enlightenment target user.
[0222]
In this case, the information processing apparatus 50 extracts the object designation area by using the object extraction moving image 70 similar in color to the object extraction moving image 70 used by the enlightenment target user to extract the object designation area, and From among a plurality of region extraction techniques having a relatively high level of skill, an area extraction method (that is, a series of area designation processing screens) in which the method of specifying the contour of the object is the most different is presented to the enlightenment target user, and the enlightenment target user is presented to the enlightenment target user. You can enlighten the improvement points in your area extraction method.
[0223]
Further, in the case where the third selection condition is used, the information processing apparatus 50 uses the presentation information selection unit 54 to set the value of the comparison reference luminance value dynamic range included in the processing tendency information data D66 of the enlightenment target user and the information storage unit 53. Is compared with the value of the past luminance value dynamic range included in the past accumulated information data D67 which has already been accumulated, and the information of the past skill included in the past accumulated information data D67 is compared with each other to obtain a dynamic range threshold range. The past accumulated information data D67 including past luminance value dynamic range information indicating values within the range and including past skills having a value equal to or larger than a predetermined threshold value is selected.
[0224]
Then, the information processing apparatus 50 finally selects, for example, one piece of past accumulated information data D67 at random from the selected past accumulated information data D67 by the presentation information selecting section 54, and selects the finally selected past accumulated information data D67. A series of area designation processing screens included in the accumulated information data D67 are presented to the enlightened user.
[0225]
In this case, the information processing apparatus 50 extracts the object designation area by using the object extraction moving image 70 similar in color to the object extraction moving image 70 used by the enlightenment target user to extract the object designation area, and By presenting to the enlightenment target user a region extraction method (that is, a series of region designation processing screens) selected at random from a plurality of region extraction methods having a relatively high level of skill, the enlightenment target user can obtain his / her own region extraction method. Can be enlightened by expecting some of the points of improvement in contingency.
[0226]
Further, when using the fourth selection condition, the information processing apparatus 50 uses the presentation information selection unit 54 to set the comparison reference luminance value dynamic range and the comparison reference average average drawing speed included in the processing tendency information data D66 of the enlightened user. By comparing the value with the value of the past luminance value dynamic range and the value of the past average drawing speed included in the past accumulation information data D67 already stored in the information storage unit 53, the past luminance indicating a value within the dynamic range threshold range. The past accumulated information data D67 including the value dynamic range information and the past average drawing speed information indicating a value within the drawing speed threshold range is selected.
[0227]
Then, the information processing device 50 compares the pieces of past skill information included in the selected pieces of past accumulated information data D67 with the presentation information selecting unit 54 to compare the pieces of past skill information D67 with the past accumulated information data D67 containing the lowest skill. Is finally selected, and a series of area designation processing screens included in the finally selected past accumulated information data D67 are presented to the enlightenment target user.
[0228]
In this case, the information processing apparatus 50 extracts the object designation area using the object extraction moving image 70 similar in color to the object extraction moving image 70 used by the enlightenment target user to extract the object designation area. By presenting to the enlightenment target user the area extraction method with the lowest skill (that is, a series of area designation processing screens) from among the area extraction methods described above, the enlightenment target user is enlightened with points to be improved in his or her area extraction method. Can be. By the way, if the fourth selection condition is used, the enlightened target user can reconfirm the good point of his or her area extraction method as a teacher by presenting the finally selected area extraction method.
[0229]
Further, when the fifth selection condition is used, the information processing apparatus 50 stores, for example, information on the skill of the enlightenment target user (hereinafter, referred to as a reference skill for comparison) in the processing tendency information data D66 of the enlightenment target user. In advance, the presentation information selecting unit 54 stores the values of the comparison reference luminance value dynamic range, the comparison reference average drawing speed, and the comparison reference skill included in the processing tendency information data D66 of the enlightenment target user in the information storage unit 53. Past luminance value dynamic range information indicating a value within the dynamic range threshold range by comparing the past luminance value dynamic range, the past average drawing speed, and the past skill value included in the past accumulated information data D67. A past average drawing speed indicating a value within the drawing speed threshold range, and a predetermined skill threshold centered on the value of the comparison reference skill Selecting a past accumulated information data D67 containing both a past skill indicating the value of 囲内.
[0230]
Then, the information processing apparatus 50 compares the pieces of past skill information included in the selected pieces of past accumulated information data D67 with the presentation information selecting unit 54 and compares the pieces of past skill information D67 with the past accumulated information data D67 containing the highest skill. Is finally selected, and a series of area designation processing screens included in the finally selected past accumulated information data D67 are presented to the enlightenment target user.
[0231]
In this case, the information processing apparatus 50 extracts the object designation area by using the object extraction moving image 70 similar in color to the object extraction moving image 70 used by the enlightenment target user to extract the object designation area, and By presenting, to the enlightenment target user, an area extraction technique having the highest skill (ie, a series of area designation processing screens) among a plurality of area extraction techniques having almost the same ability (ie, skill), the presented area extraction technique and enlightenment Since there is only a slight difference from the target user's area extraction method, it is possible to easily educate the enlightened target user of areas to be improved in his or her area extraction method.
[0232]
Further, when using the sixth selection condition, the information processing apparatus 50 randomly selects, for example, one piece of past accumulated information from the past accumulated information data D67 already accumulated in the information accumulating section 53 by the presentation information selecting section 54. The data D67 is selected, and a series of area designation processing screens included in the selected past accumulated information data D67 are presented to the enlightenment target user.
[0233]
In this case, the information processing apparatus 50 presents to the enlightenment target user the region extraction method (that is, a series of region designation processing screens) selected at random, and provides the enlightenment target user with an improvement point in his / her region extraction method. Can be enlightened with the expectation of chance.
[0234]
By the way, in the information processing apparatus 50, when the fifth selection condition described above is used, the presentation information selection unit 54 can use the information storage unit even if the skill information is not stored in the processing tendency information data D66 of the enlightenment target user. The final selection of the accumulated information data D67 can also be realized by using the skill information included in all the accumulated information data D67 (including the accumulated information data D67 of the enlightened user) accumulated in 53. it can.
[0235]
In addition, when the skill information is used in each of the above-described selection conditions, the skill less than or equal to the predetermined threshold or the skill of the user to be enlightened can be set without specifying the minimum and maximum skills or the skill that is equal to or more than the predetermined threshold. High or low skill, skill of a value separated from the skill of the enlightenment target user by a predetermined threshold or more, skill separated from the skill of the enlightenment target user by a predetermined first threshold or more, and not more than the second threshold, and further, enlightenment target user The past accumulated information data D67 can also be selected under conditions such as skills that are substantially the same (similar) as the skills of the past.
[0236]
Further, as the selection conditions used for selecting the accumulated information data D67, the selection conditions described above with reference to FIG. 29 and the selection conditions obtained by partially replacing each of the first to sixth selection conditions described above with reference to FIG. Alternatively, various other selection conditions, such as a selection propagation condition that uses the state of the correction propagation range and the state of the correction portion, can be used.
[0237]
In addition, in the information processing apparatus 50, the comparison reference luminance value dynamic range, the comparison reference average drawing speed, and the comparison reference skill are individually used in the selection conditions described above with reference to FIGS. However, for example, a square root of a sum of squares is calculated using at least two or more of the limited reference comparative reference luminance value dynamic range, the comparative reference average drawing speed, and the comparative reference skill, and the calculation result is calculated in the Euclidean space. Is compared with a result of calculating a square root of the sum of squares using at least two or more of the past threshold value dynamic range, the past average drawing speed, the past skill, and the like. The data D67 may be limited.
[0238]
In addition, the information processing device 50 calculates, for example, the sum of absolute differences using at least two or more of the reference reference luminance value dynamic range of the limited reference, the comparison reference average drawing speed, the comparison reference skill, and the like. A predetermined threshold space based on the result is compared with a result obtained by calculating a sum of absolute difference values using at least two or more of the past luminance value dynamic range, the past average drawing speed, the past skill, and the like. The information data D67 may be limited.
[0239]
Further, in the information processing apparatus 50, a predetermined reference dynamic range, a reference dynamic range dynamic range, a reference average average drawing speed, a reference standard skill, etc., a predetermined dynamic range threshold range, a drawing speed threshold range, a skill threshold range, etc. The accumulated product data D67 is limited by comparing the obtained product space with at least two or more of the past luminance value dynamic range, past average drawing speed, past skill, and the like. May be.
[0240]
Similarly, in the information processing apparatus 50, the average drawing speed and the skill of the selection criterion are individually used under the selection conditions described above with reference to FIGS. 29 and 31, respectively. For example, a square root of a sum of squares is calculated using at least two skills or the like, and a predetermined threshold space based on the calculation result in the Euclidean space and at least two or more of the past average drawing speed and the past skill are similarly calculated. May be compared with the result of calculating the square root of the sum of squares to select the final past accumulated information data D67.
[0241]
Further, the information processing apparatus 50 calculates, for example, a sum of absolute differences using at least two or more of the comparison reference average drawing speed and the comparison reference skill of the selection criterion, and determines a predetermined threshold based on the obtained calculation result. Similarly, the final past accumulated information data D67 may be selected by comparing the space and the result of calculating the sum of absolute differences using at least two or more of the past average drawing speed and the past skill.
[0242]
Further, the information processing device 50 integrates at least two or more of a predetermined drawing speed threshold range and a skill threshold range centered on the comparison reference average drawing speed and the comparison reference skill of the selection criterion, and obtains the obtained product. The final past accumulated information data D67 may be selected by comparing the space with at least two or more similarly, such as the past average drawing speed and the past skill.
[0243]
Further, in the above-described second embodiment, the case has been described in which the storage information data D67 including the input information data D65 and the processing tendency information data D66 is stored in the information storage unit 53, but the present invention is not limited thereto. The present invention is not limited to this. At least the input information data D65 may be stored in the information storage unit 53 as storage information data. In this case, each time the presentation information is selected, the input information data D65 and What is necessary is just to extract the processing tendency information from the accumulated information data (that is, the input information data D65). When the enlightenment target user and the other users respectively extract the object designation area from the same object extraction moving image 70, the area designation history screen data and the skill information may be used as the input information data D.
[0244]
Further, in the above-described second embodiment, when performing the area designation processing, various extraction processing instructions C50 described in the area extraction processing routine SRT51 described above with reference to FIGS. 16 to 17 can be input. However, the present invention is not limited to this, and in addition to these various extraction processing instructions C50, other various instructions, such as so-called undo, may return to the previous processing. You may make it input as a command.
[0245]
Further, in the above-described second embodiment, a series of area extraction processing screens as the selected area extraction method are reproduced for the enlightenment target user in accordance with the lapse of time of the actually performed area extraction operation. However, the present invention is not limited to this, and information indicating a temporal display order for a series of area designation processing screens is recorded in advance, and the enlightenment target user is requested to switch. The individual area extraction processing screens may be sequentially switched and presented accordingly.
[0246]
(3) Third embodiment
In FIG. 32, reference numeral 100 denotes an information processing apparatus according to the third embodiment as a whole. Is called an outline extraction trial moving image), an outline extraction operation is tried on the outline of an object (hereinafter, this is particularly called an trial object), and the obtained trial result is accumulated.
[0247]
Further, when performing the contour extraction processing for extracting the contour of the object to be extracted from the moving image for object extraction according to the contour extraction operation actually performed by the user, the information processing apparatus 100 Of a series of contour extraction processing screens displayed by appropriately changing the display contents according to various commands input by the user (that is, a user contour extraction method for extracting an object contour from an object contour moving image) ) Is stored as contour extraction process screen data.
[0248]
Then, when the contour extraction operation is performed by each user, the information processing apparatus 100 performs, prior to the contour extraction operation, among the contour extraction history screen data accumulated by the contour extraction operation already performed by another user. According to the trial result, select the contour extraction process screen data that is thought to be helpful to improve the contour extraction method of the user who performs the contour extraction operation at that time (hereinafter, this is particularly called the enlightened user). By presenting, the enlightenment target user is encouraged to improve his / her outline extraction method.
[0249]
In practice, the information processing apparatus 100 includes a contour generation unit 101, a processing tendency information extraction unit 102, an information storage unit 103, a presentation information selection unit 104, and an information presentation unit 105.
[0250]
As shown in FIG. 33, the contour generating unit 101 includes a moving image input circuit 110, a moving image recording circuit 111, a user interface circuit 112, a conversion circuit 113, a contour estimation unit 114, a contour recording circuit 115, and a contour. It is composed of an output circuit 116 and a skill determination circuit 117.
[0251]
The information processing apparatus 100 firstly sets a skill (how much the skill is an evaluation value of the contour extraction method) indicating how accurately each user specifies the contour of the object to be extracted in the moving image for object extraction. In order to estimate in advance what kind of tendency it has when designating the contour, the contour of the trial object in the contour extraction trial moving image different from the extraction target object is trial- A contour extraction operation (hereinafter, particularly referred to as a contour extraction trial operation) is performed, and a contour extraction trial process corresponding to the contour extraction trial operation is executed.
[0252]
Here, the information processing apparatus 100 performs various processes for executing the contour extraction trial process in the contour generation unit 101, the processing tendency information extraction unit 102, the information storage unit 103, the presentation information selection unit 104, and the information presentation unit 105 in a predetermined manner. It is realized by software according to a contour extraction trial program.
[0253]
That is, as shown in FIG. 34, the information processing apparatus 100 enters from the start step of the contour extraction trial processing procedure RT100 according to the contour extraction trial program, proceeds to the subsequent step SP101, and transitions to the trial mode.
[0254]
In step SP101, the information processing apparatus 100 acquires user information S100 including a user name and a user ID input via a predetermined operation unit (not shown) by the user interface circuit 112 of the contour generation unit 101. Moves to the skill determination processing routine SRT200.
[0255]
At this time, as shown in FIG. 35, the information processing apparatus 100 enters from the start step of the skill determination processing routine SRT200 and proceeds to step SP201.
[0256]
In step SP201, the information processing apparatus 100 takes in the moving image data D100 for contour extraction trial supplied from the outside into the moving picture input circuit 110 of the contour generator 101, and forms a frame image constituting the moving image data D100 for contour extraction trial. Data (hereinafter, referred to as trial frame image data) D100A is recorded in the moving image recording circuit 111 in units of D100A.
[0257]
Here, as shown in FIG. 36, the contour extraction trial moving image 120 based on the contour extraction trial moving image data D100 includes a plurality of trial frame images TF1 to TF1 including trial objects TJ1 to TJ7 consecutive in time. TF7 (corresponding to the trial frame image data D100A). The trial objects TJ1 to TJ7 move while gradually changing their shapes with the passage of time, and are images using a general image processing application program. By executing the process, the contour lines (hereinafter, referred to as measurement reference contour lines) ROL1 to ROL7 indicating the contours of the trial objects TJ1 to TJ7 are generated so as to be accurately recognized.
[0258]
Then, the information processing apparatus 100 sends the contour extraction trial processing screen data D101 from the user interface circuit 112 to the information presenting unit 105 (FIG. 32), so that the monitor (not shown) provided in the information presenting unit 105 transmits the data. Based on the contour extraction trial processing screen data D101, a contour extraction trial processing screen (not shown) having an image display area and the like of the contour extraction trial moving image 120 is displayed.
[0259]
In addition, the information processing apparatus 100 responds to the request of the first trial frame image data (hereinafter referred to as the first trial frame image data) D100A input by the user via the operation unit, and the user interface circuit 112 Thus, the first frame image data D100A for trial is selected and read out from the plurality of frame image data D100A for trial which constitutes the moving image data D100 for contour extraction trial from the moving image recording circuit 111, and the first frame image data for trial D100A is selected. Is combined with the contour extraction trial processing screen data D101 and sent to the information presentation unit 105 (FIG. 32).
[0260]
As a result, the information processing apparatus 100 displays the trial head frame image TF1 based on the trial head frame image data D100A in the image display area in the contour extraction trial processing screen in the information presentation unit 105, and thus the trial head frame image. The user visually checks the shape of the trial object TJ1 in the TF1.
[0261]
In this state, the information processing apparatus 100 arbitrarily traces and designates the contour of the trial object TJ1 in the trial leading frame image TF1 on the contour extraction trial processing screen by the user via the operation unit such as a mouse. Then, a trial head input contour signal S101 corresponding to the input contour obtained as a result (hereinafter, referred to as a trial head input contour) is taken into the user interface circuit 112 and sent to the conversion circuit 113.
[0262]
The information processing apparatus 100 converts a plurality of trial heads corresponding to the trial head input contour signal S101 by sampling the trial head input outline signal S101 at predetermined sampling intervals and converting the data into digital data by the conversion circuit 113. An input contour forming point is generated, and the generated set data of the plurality of trial leading input contour forming points is sent to the contour estimating / generating circuit 114 as trial leading input contour forming point group data D102, and the process proceeds to the next step SP202.
[0263]
In step SP202, the information processing apparatus 100 responds to a request of the last trial frame image data D100A (hereinafter, this is particularly referred to as the last trial frame image data) input by the user via the operation unit. The user interface circuit 112 selects and reads the last frame image data for trial D100A from the plurality of frame image data for trial D100A constituting the moving image data for contour extraction trial D100 from the moving image recording circuit 111, By synthesizing the last frame image data D100A with the screen data for contour extraction trial processing D101 and sending it to the information presenting unit 105, the information presenting unit 105 places the last trial image data in the image display area in the screen for contour extraction trial processing. For trial based on tail frame image data D100A Displays trailing frame image TF7, thus is visually shape the trial object TJ7 of the in trial last frame image TF7 user.
[0264]
In this state, when the user traces and designates the contour of the trial object TJ7 in the trial last frame image TF7 on the contour extraction trial processing screen via the operation unit such as a mouse in this state. Then, a trial last input contour signal S102 corresponding to the input contour obtained as a result (hereinafter, referred to as a trial last input contour) is taken into the user interface circuit 112 and transmitted to the conversion circuit 113.
[0265]
The information processing apparatus 100 uses the conversion circuit 113 to sample the trial end input contour signal S102 at a predetermined sampling interval and convert it into digital data, thereby obtaining a plurality of trial end input contour signals S102. Is generated, and the generated set data of the plurality of trial final input contour forming points is sent to the contour estimation unit 114 as trial final input contour forming point group data D103. The processing moves to the estimated contour generation routine SRT300.
[0266]
As shown in FIG. 37, the information processing apparatus 100 enters from the start step of the estimated contour generation processing routine SRT300, and proceeds to the next step SP301.
[0267]
Here, since the trial objects TJ1 to TJ7 are moving while gradually changing their shapes in the temporally continuous trial frame images TF1 to TF7 (FIG. 36), as shown in FIG. When the input contour line StTL and the trial end input contour line EnTL are shown on the same frame image, the positions of the trial head input contour forming points StTP1 to StTP20 and the trial trailing end input contour forming points EnTP1 to EnIT24 are different from each other.
[0268]
Also, in the trial start input contour line StTL and the trial end input contour line EnTL, the sampling intervals for generating the trial start input contour formation points StTP1 to StTP20 and the trial end input contour formation points EnTP1 to EnTP24 are the same. Since the drawing speed when the user traces each of the trial objects TJ1 and TJ7 through a mouse or the like and the size and shape of the contours of the trial objects TJ1 and TJ7 are different, the trial head input contour forming points StTP1 to StTP1 to The total number of StTP20 and the trial end input contour forming points EnTP1 to EnTP24 are different from each other.
[0269]
Therefore, in step SP301, the information processing apparatus 100 forms the trial head input contour StTL based on the trial head input contour forming point group data D102 and the trial tail input contour forming point group data D103 by the contour estimating generation circuit 114. The total number of trial start input contour forming points StTP1 to StTP20 (hereinafter, referred to as the number of trial start forming points) and the total number of trial last input contour forming points EnTP1 to EnTP24 constituting the trial last input contour line EnTL (hereinafter, referred to as EnTP1 to EnTP24). , This is referred to as the number of trailing end formation points).
[0270]
As a result, the information processing apparatus 100 uses the contour estimating generation circuit 114 to set the trial head input contour forming points StTP1 to StTP20 of the trial leading input points having the smaller number among the trial beginning forming points and the trial trailing forming points compared. In the configured trial head input contour line StTL, the total length of the trial head input contour line StTL is calculated from the distance between the adjacent trial head input contour forming points StTP1 to StTP20.
[0271]
Then, the information processing apparatus 100 divides the calculated total length by the number of trial end formation points having a large number by the contour estimating / generating circuit 114, thereby forming a new contour forming the trial start input outline StTL. A generation interval for generating a point (hereinafter referred to as a new contour forming point) is obtained.
[0272]
Accordingly, the information processing apparatus 100 sequentially generates new contour forming points NSTP1 to NSTP24 at every generation interval NK on the trial head input contour line StTL by the contour estimation unit 114 as shown in FIG. The process proceeds to step SP302 in accordance with the total number of new contour forming points NSTP1 to NSTP24 constituting the input contour StTL according to the number of trailing end forming points.
[0273]
In step SP <b> 302, the information processing apparatus 100 uses the contour estimation and generation circuit 114 as shown in FIG. 40A, as shown in FIG. EnTC is calculated, and as shown in FIG. 40B, for example, the trial head input contour StTL is moved from one center of gravity StTC to the other center of gravity EnTC by the center-of-gravity movement distance L between the centers of gravity StTC and EnTC. By moving, the center of gravity StTC and EnTC are matched with each other, and the trial start input contour StTL and the trial end input contour EnTL are overlapped.
[0274]
In this state, as shown in FIG. 41, the information processing apparatus 100 uses the contour estimation unit 114 to generate any new contour among the plurality of new contour forming points NSTP1 to NSTP24 constituting the trial leading input contour StTL. After the formation point NSTP1 is selected, a trial last input contour formation point EnTP1 which is the shortest distance from the selected new contour formation point NSTP1 is searched, and the new contour formation point NSTP1 and the trial last input which are in the shortest distance relationship are searched. The distance Da1 between the contour lines with the contour forming point EnTP1 is calculated.
[0275]
In this way, the information processing apparatus 100 searches for the trial last input contour forming points EnTP2 to EnTP24 which are the shortest distances to the remaining new contour forming points NSTP2 to NSTP24, respectively, by using the contour estimation unit 114. Similarly, after calculating the contour distances Da2 to Da24, the trial last input contour forming point EnTP1 and the new contour forming point NSTP1 having the relationship of the shortest contour distance (here, the contour distance Da1) are started. The pair is determined as the pair SPP1, and the routine goes to the next step SP303.
[0276]
In step SP303, the information processing apparatus 100 uses the contour line estimation generation circuit 114 to set the starting point pair SPP1 as a starting point and to set the trial head input contour line StTL in a counterclockwise direction indicated by, for example, an arrow ARWS1 as shown in FIG. At the new contour formation points NSTP2 to NSTP24 (hereinafter, referred to as reference directions), the end of the trial in the counterclockwise direction (hereinafter, referred to as the forward direction) indicated by the arrow ArwO1 in the trial end input contour line EnTL. By associating the tail input contour forming points EnTP2 to EnTP24 in order, respectively, between the new contour forming point NSTP2 and the trial last input contour forming point StTP2, the new contour forming point NSTP3, and the trial last input contour forming. The distance between the pairs StTP3 and the distance between the pairs Da2 or is calculated as ODa24.
[0277]
In addition, the information processing apparatus 100 uses the contour line estimation generation circuit 114 to set the start point pair SPP1 as a starting point and to set new contour forming points NSTP2 to NSTP24 in the reference direction in the trial head input contour line StTL, as shown in FIG. By associating the trial end input contour forming points EnTP24 to EnTP2 in the clockwise direction (hereinafter, referred to as the counterclockwise direction) indicated by the arrow ArwR1 in the trial end input contour line EnTL in order, these are associated with each other. The distance between the new contour forming point NSTP2 and the trial end input contour forming point StTP24, the distance between the new contour forming point NSTP3 and the trial head input contour forming point StTP23,... Is calculated as the counter-rotating pair distances RDa2 to RDa24, respectively.
[0278]
Then, the information processing apparatus 100 calculates the sum of the forward-turning pair distances ODa2 to ODa24 and the sum of the backward-turning pair distances RDa2 to RDa24 by the contour estimation and generation circuit 114, and compares the calculated sums.
[0279]
Here, considering the correspondence between the new contour formation points NSTP1 to NSTP24 and the trial end input contour formation points EnTP1 to EnTP24, the new contour formation points NSTP1 to NSTP24 are the trial first frame image TF1 and the trial final frame image TF7. If the final contour forming points NSTP1 to NSTP24 and the trial trailing edge contours that have been almost correctly associated with the trial trailing edge contour points EnTP1 to EnTP24 that have moved through the plurality of trial frame images TF2 to TF6 between them. The sum of the forward-turning pair distances ODa2 to ODa24 or the backward-turning pair distances RDa2 to RDa24 between the formation points EnTP1 to EnTP24 is relatively small.
[0280]
On the other hand, the new contour forming points NSTP1 to NSTP24 have been moved through the plurality of trial frame images TF2 to TF6 between the first frame image TF1 for trial and the last frame image TF7 for trial, and the last contour forming point EnTP1 for trial. If the new contour forming points NSTP1 to NSTP24 and the trial rearmost contour forming points EnTP1 to EnTP24 are associated with different trial end contour forming points EnTP1 to EnTP24 without being correctly associated with EnTP24. Since the relationship is different from the original one, the sum of the forward-turning pair distances ODa2 to ODa24 or the backward-turning pair distances RDa2 to RDa24 becomes relatively large.
[0281]
Therefore, the information processing apparatus 100 uses the outline estimation generation circuit 114 to associate one of the sums of the forward-turning pair distances ODa2 to ODa24 or the backward-turning pair distances RDa2 to RDa24 with the smaller sum (for example, the reference direction and the forward direction). Is assumed to be a substantially correct correspondence between the new contour forming points NSTP2 to NSTP24 and the trial end input contour forming points EnTP2 to EnTP24 to which they have moved, and is selected. Move to the next step SP304.
[0282]
In step SP304, the information processing apparatus 100 uses the contour estimating generation circuit 114 to perform a trial head frame image TF1 of the trial frame images TF1 to TF7 constituting the contour extraction trial moving image 120 as shown in FIG. .. Are divided by the total number of trial frame images TF2 to TF6 excluding the trial final frame image TF7 (hereinafter referred to as the trial intermediate frame image in particular) TF2 to TF6, respectively. .. Are calculated on the virtual line between the corresponding points connecting the new contour forming points NSTP2 to NSTP24 and the trial last input contour forming points EnTP2 to EnTP24 which are sequentially associated.
[0283]
In the information processing apparatus 100, the contour line estimation generation circuit 114 corresponds to the total number of trial intermediate frame images TF2 to TF6 at each point formation interval DDa2, DDa3, DDa4,. A number of trial estimated contour forming points IPa2 to IPe2, IPa3 to IPe3, IPa4 to IPe4,... Are generated.
[0284]
In addition, the information processing apparatus 100 also divides the distance ODa1 between the start point pair SPP1 between the new contour formation point NSTP1 and the trial end input contour formation point EnTP1 by the total number of trial intermediate frame images TF2 to TF6. Thereby, the point formation interval DDa1 is obtained on the virtual line between the starting points connecting the new contour forming point NSTP1 and the trial last input contour forming point EnTP1, and this corresponds to the total number of trial intermediate frame images TF2 to TF6 on the virtual line between the starting points. The number of trial estimated contour forming points IPa1 to IPe1 is generated, and the routine goes to the next step SP305.
[0285]
In step SP305, the information processing apparatus 100 uses the contour estimation unit 114 to generate a new contour among the trial estimated contour formation points IPa1 to IPe1, IPa2 to IPe2,... On the virtual line between the starting points and the virtual line between the corresponding points. For each of the trial intermediate frame images TF2 to TF6 by interpolating between the trial inferred contour forming points IPa1 to IPa24, IPb1 to IPb24, IPc1 to IPc24, IPd1 to IPd24 and IPe1 to IPe24 in the same order from NSTP1 to NSTP24. The trial estimated contour lines ITLA1 to ITLA5 are generated.
[0286]
Then, the information processing apparatus 100 calculates the barycenter (coordinate value) of each of the trial estimation contour lines ITLA1 to ITLA5 by the contour estimation unit 114.
[0287]
Here, the center of gravity StTC of the trial start input contour StTL moves by the center of gravity moving distance L1 (FIG. 40A) from the trial start frame image TF1 to the trial end frame image TF7, and the trial end. It is estimated that the position (coordinate value) of the center of gravity EnTC of the trial last input contour line EnTL in the frame image TF7 is reached.
[0288]
Therefore, as shown in FIG. 44, the information processing apparatus 100 divides the center-of-gravity moving distance L1 by the total number of trial intermediate frame images F2 to F6 by using the contour line estimation generation circuit 114, thereby obtaining the trial head input contour line StTL. On the virtual line between the centroids connecting the centroids StTC and the centroids EnTC of the trial end input contour lines EnTL to the centroid StTC of the trial start input contour line StTL, the moving positions of the trial intermediate frame images F2 to F6 with respect to the centroid StTC (that is, each centroid interval TK (Hereinafter referred to as an estimated center of gravity position) TO1 to TO5 (coordinate values) are calculated.
[0289]
Then, the information processing apparatus 100 uses the contour estimation and generation circuit 114 to maintain the order of the trial estimation contours ITLA1 to ITLA5 from the center of gravity of the trial start input contour StTL to the center of gravity of the trial end input contour EnTL. In the direction of EnTC, the center of gravity of each of the trial estimated contour lines ITLA1 to ITLA5 sequentially matches the estimated center of gravity position TO1 to TO5 on the virtual line between the centers of gravity (that is, the center of gravity of the trial estimated contour line ITLA1 is the estimated center of gravity TO1). ), The respective trial estimated contour lines ITLA1 to ITLA5 are associated with the trial intermediate frame images TF2 to TF6, respectively.
[0290]
In addition, the information processing apparatus 100 uses the contour estimation unit 114 to generate a plurality of trial estimation contour forming points IPa1 to IPa24, IPb1 to IPb24, ..., IPe1 to IPe24 (constituting the trial estimation contours ITLA1 to ITLA5). Trial guessed contour forming point group data D102 and trial ending input contour forming point group data D103, which are set data of the corresponding trial intermediate frame images TF2 to TF6). At the same time, after sending and recording as trial object contour extraction data D104 to the contour recording circuit 115, the estimated contour generation processing routine SRT300 is terminated, and the routine proceeds to step SP203 (FIG. 35) of the skill determination processing routine RT200.
[0291]
In this way, the information processing apparatus 100 sets the trial object in the trial first frame image TF1 and the trial last frame image TF7 among the plurality of trial frame images TF1 to TF7 constituting the contour extraction trial moving image 120. The contours of the objects TJ2 to TJ6 in the trial intermediate frame images TF2 to TF6 are obtained from the trial start input contour line StTL and the trial end input contour line EnTL obtained by tracing and specifying the contours of TJ1 and TJ7. Can be generated by estimating the trial estimation contour lines TLA1 to TLA5 for extracting.
[0292]
By the way, the trial start input contour forming points (new contour forming points NSTP1 to NSTP24) and the trial end input contour forming points EnTP1 to EnTP24 are sequentially generated in the direction in which the user traces the trial object TJ7.
[0293]
Therefore, when the new contour forming points NSTP1 to NSTP24 and the trial end contour forming points EnTP1 to EnTP24 are simply associated with each other in the order of their generation, the drawing of the trial start input contour StTL and the trial trailing input contour EnTL is mutually performed. In the case of the reverse direction (that is, the direction following the trial objects TJ1 and TJ7 is reverse), the trial estimation contour lines TLA1 to TLA5 between the trial start input contour line StTL and the trial end input contour line EnTL are once inverted. (Ie, flip it over).
[0294]
However, in the information processing apparatus 100, as described above, by selecting one of the associations having the smaller total sum of the forward pair distances ODa2 to ODa24 or the reverse pair distances RDa2 to RDa24, the riddles of the trial objects TJ1 and TJ7 are selected. Regardless of the direction, the new contour forming points NSTP2 to NSTP24 and the trailing end contour forming points EnTP1 to EnTP24 are almost correctly associated with each other, so that the trial estimated contour lines ITLA1 to ITLA5 can be prevented from being inverted and associated. .
[0295]
In step SP203, the information processing apparatus 100 reads out the trial object contour extraction data D104 from the contour recording circuit 115 and reads out all the trial frame image data D100A from the moving image recording circuit 111 by the user interface circuit 112. By combining the trial frame image data D100A with the trial object contour extraction data D104, trial extraction contour presentation image data is generated, and the trial extraction contour presentation image data is combined with the contour extraction trial processing screen data D101. The information is sent to the skill determination circuit 117 and the information presentation unit 105.
[0296]
As a result, as shown in FIG. 45, the information processing apparatus 100 sets the trial head input contour line StTL corresponding to each of the trial frame images TF1 to TF7 in the image display area in the contour extraction trial processing screen in the information presentation unit 105, as shown in FIG. And the trial end input contour line EnTL and the trial estimation contour lines TLA1 to TLA5 are displayed in a superimposed manner so that the user can see them.
[0297]
In the information processing apparatus 100, the skill determination circuit 117 corresponds to the trial start input contour StTL, the trial estimated contours TLA1 to TLA5, and the trial end input contour EnTL based on the contour extraction trial processing screen data D101. The average error amount between the measurement reference contour lines ROL1 to ROL7 in the first frame image for trial TF1, the intermediate frame images for trial TF2 to TF6, and the last frame image for trial TF7 is calculated, and the process proceeds to the next step SP204.
[0298]
Here, for example, the average error amount between the measurement reference contour line ROL1 and the trial head input contour line StTL is obtained by averaging the error between each part of the measurement reference contour line ROL1 and the corresponding part of the trial head input contour line StTL. This value indicates the average deviation of the trial start input contour line StTL from the measurement reference contour line ROL1 over one round.
[0299]
In step SP204, the information processing apparatus 100 uses the skill determination circuit 117 to set the average error amount in all of the first frame image for trial TF1, the intermediate frame images for trial TF2 to TF6, and the last frame image for trial TF7 to a predetermined threshold value or less. Determine whether or not it has been reached.
[0300]
If a negative result is obtained in step SP204, this means that the average error amount is predetermined in at least one of the first frame image for trial TF1, the intermediate frame images for trial TF2 to TF6, and the last frame image for trial TF7. At this time, the information processing apparatus 100 proceeds to subsequent step SP205.
[0301]
In step SP205, the information processing apparatus 100 uses the skill determination circuit 117 to generate the input contour request data D105 and sends it to the user interface circuit 112.
[0302]
Accordingly, the information processing apparatus 100 allows the user performing the contour extraction trial operation to output a desired trial intermediate frame image among the plurality of trial intermediate frame images TF2 to TF6 to the user performing the contour extraction trial operation via the contour extraction trial processing screen. A request is made to specify the contours of the trial objects TJ2 to TJ6 in the images TF2 to TF6.
[0303]
Then, the information processing apparatus 100 reads the trial intermediate frame image data D100A from the moving image recording circuit 111 by the user interface circuit 112, combines this with the contour extraction trial processing screen data D101, and sends it to the information presenting unit 105. Accordingly, the information presenting unit 105 displays the trial intermediate frame images TF2 to TF6 based on the trial intermediate frame image data D100A in the image display area of the contour extraction trial processing screen, and allows the user to view them.
[0304]
In this state, the information processing apparatus 100 sets one trial intermediate frame image TF2,..., Arbitrarily selected by the user from the trial intermediate frame images TF2 to TF6 for specifying the contour. .., Or TJ6 in TF6 to be designated.
[0305]
As a result, when the trial object TJ4 in the trial intermediate frame image TF4 selected by the user is arbitrarily traced and designated, the information processing apparatus 100 adds an additional input contour (hereinafter, this is referred to as a trial additional input). When a trial addition input contour line signal S103 corresponding to “contour line” is input, it is taken into the user interface circuit 112 and the process returns to the estimated contour line generation processing routine SRT300.
[0306]
In this case, when the trial object TJ4 in the trial intermediate frame image TF4 is traced and designated, the information processing apparatus 100 converts the additional input contour signal S103 obtained as a result thereof into a predetermined sampling interval by the conversion circuit 113. A plurality of additional input contour forming points corresponding to the additional input contour signal S103 are generated by sampling and converting the digital data into digital data, and the aggregate data of the generated plurality of additional input contour forming points is added to the additional input contour forming. The point group data D106 is sent to the contour estimation unit 114.
[0307]
Then, the information processing apparatus 100 reads out the trial object contour extraction data D104 recorded in the contour recording circuit 115 from the contour recording circuit 115 by the contour estimation and generation circuit 114, and outputs the trial additional input contour and the trial object contour extraction data. The above-described estimated contour generation processing is performed using the trial start input contour StTL and the trial end input contour EnTL included in D104.
[0308]
Thereby, the information processing apparatus 100 uses the contour estimation unit 114 to perform a trial intermediate frame image TF2 between the trial top frame image TF1 and the trial intermediate frame image TF4 from the trial top input contour StTL and the trial additional input contour. And trial estimation contour lines TLB1 and TLB2 for extracting the contours of the objects TJ2 and TJ3 in the TF3 are newly estimated and generated.
[0309]
Further, the information processing apparatus 100 uses the contour estimation and generation circuit 114 to perform a trial intermediate frame image between the trial intermediate frame image TF4 and the trial final frame image TF7 from the trial additional input contour and the trial last input contour EnTL. Trial guess contour lines TLB4 and TLB5 for extracting the contours of the objects TJ5 and TJ6 in TF5 and TF6 are newly guessed and generated.
[0310]
In this manner, the information processing apparatus 100 causes the trial intermediate frame images TF2 to TF6 to be newly selected and the contours of the objects TJ2 to TJ6 to be designated until a positive result is obtained in step SP204. In addition to obtaining the input contour, a new trial is performed from the trial additional input contour and the input contours before and after the trial additional input contour (trial start input contour StTL, trial last input contour EnTL or another trial additional input contour). The average error amount is reduced by re-estimating and generating the estimated contour, and the new trial object contour extraction data D104 thus generated is recorded in the contour recording circuit 115 and updated.
[0311]
At this time, the information processing apparatus 100 reads out new trial object contour extraction data D104 from the contour recording circuit 115 by the user interface circuit 112 every time a new trial estimated contour is generated, and outputs the new trial object. The skill extraction circuit combines the contour extraction data D104 and the trial frame image data D100A to generate trial extraction contour presentation image data, and combines the trial extraction contour presentation image data with the contour extraction trial processing screen data D101. 117 and the information presentation unit 105.
[0312]
Accordingly, the information processing apparatus 100 causes the information presenting unit 105 to set the trial start input contour line StTL and the trial last input contour corresponding to the trial frame images TF1 to TF7 in the image display area in the contour extraction trial processing screen. The line EnTL and the newly generated trial estimation contour are displayed in a superimposed manner so that the user can view the line.
[0313]
On the other hand, if a positive result is obtained in step SP204, this means that the first frame image for trial TF1, the intermediate frame images for trial TF2 to TF6, and the last frame image for trial TF7 (that is, all the trial frame images TF1 to TF1). TF7) indicates that the average error amount has reached the predetermined threshold value or less. At this time, the information processing apparatus 100 proceeds to the next step SP206.
[0314]
In step SP206, the information processing apparatus 100 uses the skill determination circuit 117 to set the trial object until the average error amount becomes equal to or less than the threshold in the trial first frame TF1, the trial intermediate frames TF2 to TF6, and the trial last frame TF7. The total number of trial frame images (hereinafter, referred to as input frame images) designated by tracing the contours of TJ1 to TJ7 is compared with a predetermined predetermined frame image reference number.
[0315]
Here, the user having a low skill of the contour extraction trial operation repeatedly performs the trial first frame TF1, the trial intermediate frames TF2 to TF6, and the trial last frame TF7 many times until the average error amount becomes equal to or less than the predetermined threshold. Since the user is required to specify the contours of the trial objects TJ1 to TJ7, the total number of input frame images tends to increase.
[0316]
On the other hand, a user with high skill in the contour extraction trial operation does not specify the contours of the trial objects TJ1 to TJ7 in the trial first frame TF1, the trial intermediate frames TF2 to TF6, and the trial last frame TF7 many times. However, since the average error amount reaches a predetermined threshold value or less, the total number of input frame images tends to decrease.
[0317]
Therefore, when the total number of input frame images is smaller than the frame image reference number, the information processing apparatus 100 determines that the skill (that is, the evaluation value) of the user who has performed the contour extraction trial operation at this time is high. If the total number of input frame images is larger than the reference number of frame images, it is determined that the skill (that is, the evaluation value) of the user who has performed the contour extraction trial operation at this time is low. The result is sent to the user interface circuit 112 as the skill data D107 together with the total number, the skill determination processing routine SRT200 ends, and the routine goes to the subsequent step SP102 (FIG. 34).
[0318]
In step SP102, the information processing apparatus 100 causes the user interface circuit 112 to display a series of contour extraction trial processing screens displayed by appropriately changing the display contents during the skill determination processing, in the skill determination processing (that is, the contour extraction trial by the user). As shown in FIG. 46, information such as the time required for the operation (hereinafter referred to as “working time”) is referred to as contour extraction history screen data (hereinafter referred to as contour extraction trial history screen data). The input information including the contour extraction trial history screen data, the skill data D107, the contour extraction trial moving image data D100, and the user information S100 is sent to the processing tendency information extraction unit 102 as input information data D108, and Move to step SP103.
[0319]
In step SP103, the information processing apparatus 100 performs predetermined image processing on the contour extraction trial moving image data D100 included in the input information data D108 by the processing tendency information extraction unit 102, so that the contour extraction trial moving image data From D100, image feature information including an average color component histogram and an edge component ratio in the trial frame image data D100A individually or in all trial frame image data D100A is extracted.
[0320]
Further, the information processing apparatus 100 performs predetermined image processing on the contour extraction trial history screen data included in the input information data D108 by the processing tendency information extraction unit 102, thereby reducing the work time required for the contour extraction trial operation. The outline drawing time when the outline of the trial objects TJ1 to TJ7 in the input frame image is designated, and the trial objects TJ1 and TJ7 in the trial first frame image TF1 and the trial last frame image TF7 are once specified. After that, the number of times the trial object in the input frame image is designated again (hereinafter, referred to as the number of corrections), and the previous and next trial frame images TF1 to TF7 to determine the input frame image are displayed on the monitor. The number of times of display indicating the number of times of display is extracted as contour extraction history information.
[0321]
As shown in FIG. 47, the information processing apparatus 100 uses the processing tendency information extraction unit 102 to convert the image feature information extracted from the input information and the outline extraction history information by the user into any outline extraction trial moving image. The processing trend information indicates how the contours of the trial objects TJ1 to TJ7 are extracted from the image 120.
[0322]
The information processing apparatus 100 uses the processing tendency information extracted from the input information by the processing tendency information extraction unit 102 as processing tendency information data, associates the processing tendency information data with the input information data D108, and associates this with the accumulated information data. After transmitting to the information storage unit 103 as D109, the process proceeds to the next step SP104.
[0323]
As a result, in step SP104, the information processing apparatus 100 causes the information storage unit 103 to reduce the total number of input frame images including the accumulated information data D109 of a plurality of users as the skill data D107 of the input information as shown in FIG. Arranged in ascending order, based on the frame image reference number Bor1, the accumulated information data D109 of the high-skilled user and the accumulated information data D109 of the low-skilled user are stored in a divided state and made into a database, and then proceed to step SP105. The contour extraction trial processing procedure RT100 ends.
[0324]
In this way, the information processing apparatus 100 is capable of performing the user's skill in performing the contour extraction operation based on the result of the contour extraction trial operation before the contour extraction operation is actually performed on the object extraction moving image including the extraction target object. And the tendency of contour extraction (ie, the tendency represented by the processing tendency information) is estimated and stored in the information storage unit 103 as storage information data D109.
[0325]
Incidentally, in the information processing apparatus 100, even if the user has once performed the contour extraction trial operation, the contour extraction trial operation is performed again if the contour extraction operation is not performed on the extraction target object for a predetermined period or more. The estimation result of the skill and the contour extraction tendency for the contour extraction operation is updated, so that the skill of the user can always be accurately grasped.
[0326]
Next, the information processing apparatus 100 performs a contour extraction operation on the object extraction moving image performed by the enlightenment target user who has performed the contour extraction trial operation, and performs another contour extraction operation on the enlightenment target user. Is presented.
[0327]
In this case, the information processing apparatus 100 performs various processes for executing the information presentation process in the contour generation unit 101, the processing tendency information extraction unit 102, the information accumulation unit 103, the presentation information selection unit 104, and the information presentation unit 105 in a predetermined manner. It is realized by software according to the information presentation program.
[0328]
That is, as shown in FIG. 49, the information processing apparatus 100 enters from the start step of the information presentation processing procedure RT101 according to the information presentation processing program, moves to the subsequent step SP110, and shifts to the information presentation mode.
[0329]
In step SP110, the information processing apparatus 100 captures the moving image data D200 for object extraction supplied from the outside into the moving image input circuit 110 of the contour generation unit 101, and generates frame image data ( Hereinafter, this is referred to as outline extraction frame image data.) D200A is recorded in the moving image recording circuit 111.
[0330]
Here, as shown in FIG. 50, the moving image 200 for object extraction based on the moving image data D200 for object extraction includes a plurality of frame images for outline extraction OF1 to OFJ including objects OJ1 to OJn to be extracted successively in time. The objects OJ1 to OJn in the frame images for outline extraction OF1 to OFn move while their shapes gradually change over time.
[0331]
Then, the information processing apparatus 100 causes the user interface circuit 112 to sequentially read a plurality of outline extraction frame image data D200A constituting the object extraction moving image data D200 from the moving image recording circuit 111 and send the frame extracting data to the information presenting unit 105. The object extraction moving image 200 composed of the temporally continuous frame images OF1 to OFn for contour extraction is displayed on a monitor provided in the information presenting unit 105, and the enlightenment target user views the object extraction moving image. After confirming the contents of the image 200 and the outlines of the objects OJ1 to OJn to be extracted, the process proceeds to step SP111.
[0332]
In step SP111, the information processing apparatus 100 captures the user information S100 including the user name and user ID input by the enlightened user via the operation unit (not shown) into the user interface circuit 112 of the contour generation unit 101, This is sent to the presentation information selection unit 104 via the processing tendency information extraction unit 102, and the routine goes to subsequent step SP112.
[0333]
In step SP112, the information processing apparatus 100 reads the stored information data D109 of the enlightened user based on the user information S100 (user name and user ID) from the information storage unit 103 by the presentation information selection unit 104, and proceeds to next step SP113. Move on.
[0334]
In step SP113, the information processing apparatus 100 causes the presentation information selection unit 104 to perform outline extraction process information included in the accumulated information data D109 of the enlightenment target user as processing tendency information data (hereinafter, this will be referred to as comparison reference extraction process information). The processing tendency information data is stored in all other stored information data D109 (hereinafter referred to as past stored information data) D109 except the stored information data D109 of the enlightened user stored in the information storage unit 103. (Hereinafter referred to as past processing tendency information data) and compared with contour extraction history information (hereinafter referred to as past extraction history information).
[0335]
In practice, the information processing apparatus 100 uses the presentation information selection unit 104 to set the work time (hereinafter, referred to as a reference work time for comparison) included in the comparison reference extraction history information, the outline drawing time (hereinafter, referred to as a comparison work time). ), The number of corrections (hereinafter referred to as a reference number of comparison corrections) and the number of display times (hereinafter referred to as a reference number of reference display times), and the work time included in the past extraction history information (Hereinafter, this is referred to as past working time), Outline drawing time (hereinafter, this is called past drawing time), Number of corrections (hereinafter, this is called past correction number), and Number of display (hereinafter, this is past display) (Called the number of times).
[0336]
In this state, the information processing apparatus 100 uses the presentation information selection unit 104 to select a past work time indicating a value within a predetermined work time threshold range centered on the value of the comparison reference work time from the past accumulated information data D109. , A past drawing time indicating a value within a predetermined drawing time threshold range centered on the value of the comparison reference drawing time, and a value within a predetermined correction frequency threshold range centered on the value of the comparison reference correction frequency. By selecting the past accumulated information data D109 including, as past extraction history information, the number of past corrections and the number of past displays indicating a value within a predetermined display number threshold range centered on the value of the reference display number for comparison. The number of target past accumulated information data D109 is limited to the past accumulated information data D109 of the enlightenment target user and the user of the contour extraction technique similar to the contour extraction technique, and the process proceeds to step SP114. That.
[0337]
In step SP114, the information processing apparatus 100 determines the skill of the enlightenment target user based on the skill data D107 included in the accumulated information data D109 of the enlightenment target user (based on the frame image reference number Bor1) by the presentation information selection unit 104. (Skill) is low.
[0338]
If a positive result is obtained in step SP114, this indicates that the enlightenment target user Y1 is a user with low skill in the contour extraction operation based on the result of the contour extraction trial operation, as shown in FIG. At this time, the information processing apparatus 100 proceeds to the next step SP115.
[0339]
In step SP115, the information processing apparatus 100 ends the past accumulated information data D109 of the user Y2 determined to have the highest skill by the skill determination process from the past accumulated information data D109 selected in step SP113 by the presentation information selecting unit 104. To choose.
[0340]
As a result, the information processing apparatus 100 performs the process based on the user ID included as the user information S100 in the past accumulated information data D109 of the user Y2 having the highest skill finally selected from the information accumulation unit 103 by the presentation information selection unit 104. The contour extraction process screen data D111 composed of a series of contour extraction processing screen data at the time of the contour extraction operation on the object extraction moving image 200 performed in the past by the user S2 with the highest skill, and the user Y2 with the highest skill The information of the skill included in the past accumulated information data D109 as the skill data D107 is read as presentation information data D110, and the read presentation information data D110 is transmitted to the information presenting unit 105, and the process proceeds to step SP116.
[0341]
Here, a series of contour extraction processing screens based on the contour extraction history screen data D111 are displayed on the monitor of the information presenting unit 105 when a contour extraction operation is performed by the user in the past, and an object corresponding to the contour extraction operation is displayed. A series of processes for extracting the contours of the objects OJ1 to OJn to be extracted, such as the method of displaying the frame images OF1 to OFn for extracting the outlines of the moving image 200 for extraction and the method of specifying the objects OJ1 to OJn to be extracted. It shows the history.
[0342]
In step SP116, the information processing apparatus 100 causes the information presenting unit 105 to display a series of contour extraction processing screens based on the contour extraction history screen data D111 of the user Y2 having the highest skill based on the presentation information data D110, and the user Y2 The skill information is output via a monitor and a speaker (not shown) provided in the information presenting unit 105 and presented to the enlightened user, and the process proceeds to step SP118 to terminate the information presenting process procedure RT101.
[0343]
On the other hand, if a negative result is obtained in step SP114, this means that the enlightenment target user Y3 is determined to be a highly skilled user based on the result of the contour extraction trial operation as shown in FIG. At this time, the information processing apparatus 100 proceeds to step SP117.
[0344]
In step SP117, the information processing apparatus 100 finally selects, from the past accumulated information data D109 selected in step SP113, the past accumulated information data D109 of the user Y4 whose skill is determined to be the lowest by the skill determination process.
[0345]
As a result, the information processing apparatus 100 uses the presentation information selection unit 104 from the information storage unit 103 based on the user ID included as the user information S100 in the past storage information data D109 of the finally selected user Y4 with the lowest skill. The contour extraction process screen data D111 including a series of contour extraction processing screen data at the time of the contour extraction operation on the object extraction moving image 200 performed in the past by the least skilled user Y4, and the least skilled user The skill information included as skill data D107 in past accumulated information data D109 of Y4 is read as presentation information data D110, and the read presentation information data D110 is transmitted to information presenting section 105, and the process proceeds to step SP116.
[0346]
In this case, in step SP <b> 116, the information presenting unit 105 causes the information presenting unit 105 to display a series of contour extraction processing screens based on the contour extraction history screen data D <b> 111 of the user Y <b> 4 having the lowest skill based on the presentation information data D <b> 110 and the user Y <b> 4. Is output via the monitor and the speaker and presented to the enlightenment target user, and the process proceeds to step SP118 to terminate the information presentation processing procedure RT101.
[0347]
In this way, as illustrated in FIG. 52, the information processing apparatus 100 provides the enlightenment target user Y1 with low skill among the plurality of users of the outline extraction method similar to the outline extraction method of the enlightenment target user Y1. By presenting, as presentation information, a series of contour extraction processing screens based on the contour extraction process screen data D111 of the user Y2 with the highest skill, the contour extraction method of the user Y2 with the highest skill (that is, the process of the contour extraction operation) is determined. Based on this, the enlightenment target user is made aware of points to be careful in his / her contour extraction operation, points to be imitated for betterness, and the like, and is encouraged to improve the outline extraction operation.
[0348]
On the other hand, the information processing apparatus 100 sets the contour of the user Y4 having the lowest skill among a plurality of users of the contour extracting technique similar to the contour extracting technique of the enlightenment target user Y3 for the user Y3 having high skill. By presenting a series of contour extraction processing screens based on the extracted background screen data D111 as presentation information, the teacher Y is enlightened as a teacher based on the contour extraction method of the user Y4 having the least skill (that is, the background of the contour extraction operation). It is configured to prevent the target user Y3 from imitating the contour extraction method of the user Y4 having the least skill, which is similar to the contour extraction method, by mistake, and to promote the contour extraction operation.
[0349]
Then, the information processing device 100 presents the object extraction moving image 200 to the enlightenment target user in advance when presenting such presentation information to the enlightenment target user. It is possible to compare the outline extraction method of another user with the outline extraction method of another user, and thus to more appropriately prompt the enlightenment target user to improve the outline extraction operation.
[0350]
Subsequently, after presenting the presentation information to the enlightenment target user, the information processing apparatus 100 performs an outline extraction process according to the outline extraction operation on the object extraction moving image 200 performed by the enlightenment target user.
[0351]
At this time, the information processing apparatus 100 performs various processes for executing the contour extraction process in the contour generation unit 101, the processing tendency information extraction unit 102, the information storage unit 103, the presentation information selection unit 104, and the information presentation unit 105 according to predetermined processing. It is realized in software according to the contour extraction processing program.
[0352]
That is, as shown in FIG. 53, the information processing apparatus 100 enters from the start step of the contour extraction processing procedure RT102 according to the contour extraction processing program, proceeds to the subsequent step SP130, and transitions from the information presentation mode to the contour extraction processing mode.
[0353]
In step SP130, the information processing apparatus 100 sends the contour extraction processing screen data D120 from the user interface circuit 112 to the information presenting unit 105 (FIG. 32), so that the monitor provided in the information presenting unit 105 performs the contour extracting process. Based on the screen data D120, a contour extraction processing screen (not shown) having an image display area of the object extraction moving image 200 and the like is displayed.
[0354]
In addition, the information processing apparatus 100 responds to a request of the first trial frame image data (hereinafter, referred to as a contour extraction first frame image data) D200A input by the user via the operation unit. In step 112, the first frame image data for contour extraction D200A is selected and read out from the plurality of frame image data for contour extraction D200A constituting the moving image data D200 for object extraction from the moving image recording circuit 111, and the first frame for contour extraction is read out. The image data D200A is combined with the screen data D120 for contour extraction processing and transmitted to the information presenting unit 105.
[0355]
As a result, the information processing apparatus 100 causes the information presenting unit 105 to display the top frame image OF1 for contour extraction based on the top frame image data D200A for contour extraction in the image display area in the screen for contour extraction processing. The user visually checks the shape of the object OJ1 in the frame image OF1.
[0356]
In this state, as shown in FIG. 54, the information processing apparatus 100 sets the outline of the object OJ1 in the top frame image OF1 for outline extraction on the outline extraction processing screen via the operation unit such as a mouse by the enlightenment target user. , The leading input contour signal S110 corresponding to the resulting input contour (hereinafter referred to as the leading input contour) is taken into the user interface circuit 112 and converted by the conversion circuit 113. Send to
[0357]
The information processing apparatus 100 forms a plurality of leading input contours corresponding to the leading input contour signal S110 by sampling the leading input contour signal S110 at predetermined sampling intervals and converting it into digital data by the conversion circuit 113. A point is generated, and the generated aggregate data of the plurality of leading input contour forming points is sent to the contour estimation and generation circuit 114 as leading input contour forming point group data D121, and the process proceeds to subsequent step SP131.
[0358]
In step SP131, the information processing apparatus 100 responds to the request of the rearmost contour extraction frame image data D200A (hereinafter, referred to as contour extraction rearmost frame image data) D200A input by the user via the operation unit. Then, the user interface circuit 112 selects and reads out the last frame image data D200A for contour extraction from the plurality of frame image data D200A for contour extraction constituting the moving image data D200 for object extraction from the moving image recording circuit 111, The last frame image data for contour extraction D200A is combined with the screen data for contour extraction processing D120 and transmitted to the information presenting unit 105.
[0359]
As a result, the information processing apparatus 100 causes the information presenting unit 105 to display the contour extraction end frame image OFn based on the contour extraction end frame image data D200A in the image display area in the contour extraction processing screen, and thus extract the contour. The user visually checks the shape of the object OJn in the last frame image OFn for use.
[0360]
In this state, the information processing apparatus 100 arbitrarily traces and specifies the contour of the object OJn in the contour extraction last frame image OFn on the contour extraction processing screen via the operation unit such as a mouse by the enlightenment target user. Then, the last input contour line signal S111 corresponding to the input contour line obtained as a result (hereinafter, referred to as the last input contour line) is taken into the user interface circuit 112 and transmitted to the conversion circuit 113.
[0361]
Then, the information processing apparatus 100 converts the last input contour signal S111 corresponding to the last input contour signal S111 by sampling the last input contour signal S111 at predetermined sampling intervals and converting it into digital data. A tail input contour forming point is generated, and the generated aggregate data of the plurality of tail input contour forming points is sent to the contour estimation and generation circuit 114 as the tail input contour forming point group data D122, and the process proceeds to step SP132.
[0362]
In step SP132, the information processing apparatus 100 performs the same processing as the inferred contour generation processing routine SRT300 described above with reference to FIG. The objects OJ2 to OJ2 in the outline extraction frame images OF2 to OFn-1 between the outline extraction start frame image OF1 and the outline extraction end frame image OFn (hereinafter, referred to as outline extraction intermediate frame images) The estimated contour line for extracting the contour of OJn-1 is estimated and generated. Incidentally, the estimated contour line is generated by the contour generation unit 101 as follows.
[0363]
That is, the contour generation unit 101 uses the contour estimation unit 114 to calculate the total number of the plurality of head input contour forming points (hereinafter, referred to as the number of head forming points) forming the head input contour StOL, and the last input contour line. The total number of the last input contour forming points constituting the EnOL is compared with the total number of the last input forming points (hereinafter referred to as the number of the last forming points). The total length of the head input contour line StOL is calculated from the distance between the head input contour forming points adjacent to each other.
[0364]
Then, the contour generation unit 101 divides the calculated total length by the number of tail formation points having a large number by the contour estimation and generation circuit 114, thereby forming a plurality of new new contours constituting the top input contour StOL. The generation intervals for generating the formation points are obtained, and the new outline formation points are sequentially generated at the generation intervals, so that the total number of the new outline formation points constituting the top input outline StOL is adjusted to the number of the last formation points.
[0365]
Next, the contour generation unit 101 calculates the center of gravity StOC (coordinate value) of the first input contour line StOL and the center of gravity EnOC (coordinate value) of the last input contour line EnOL by the contour line estimation generation circuit 114, and FIG. ) And (B), the first input contour line StOL and the last input contour line EnOL are superimposed such that their centers of gravity StOC and EnOC coincide with each other.
[0366]
In this state, as shown in FIG. 56, the contour generation unit 101 uses the contour estimation and generation circuit 114 to form each new contour formation point NSOP1 to NSOPn and the last input contour formation that is in the shortest distance relationship to each of these points. The distances Db1, Db2, Db3,..., Dbn between contour lines between the points EnOP1 to EnOPn are calculated, and the shortest distance between the calculated contour distances Db1, Db2, Db3,. The last input contour forming point EnOP1 and the new contour forming point NSOP1 having the relationship of the distance (here, the distance Db1 between the contour lines) are determined as the starting point pair SPP2.
[0367]
Subsequently, the contour generation unit 101 uses the start point pair SPP2 as a starting point as shown in FIG. 57 (A), and the head input contour line StOL is, for example, in a counterclockwise direction indicated by an arrow ARWS2, as shown in FIG. By associating the rearmost input contour forming points EnOP1 to EnOPn in the counterclockwise direction, which is the counterclockwise direction indicated by the arrow ArwO2 in the rearmost input contour line EnOL, in order with the new contour forming points NSOP1 to NSOPn in the reference direction, respectively. The distances ODb2 to ODbn between the forward and backward pairs of the associated new contour forming point NSOP2 and the last input contour forming point EnOP2, between the new contour forming point NSOP3 and the last input contour forming point EnOP3,...
[0368]
Further, as shown in FIG. 57 (B), the information processing apparatus 100 uses the starting point pair SPP2 as a starting point to generate new contour forming points NSOP1 to NSOPn in the reference direction in the head input contour line StOL by the contour line estimation generating circuit 114. By associating the rearmost input contour forming points EnOP1 to EnOPn in the counterclockwise direction, which is the clockwise direction indicated by the arrow ArwS2, in the rearmost input contour line EnOL in order, the new contour forming point NSOP2 and the rearmost input that are associated with each other. The distances RDb2 to RDbn between the counter-rotating pairs between the contour forming points EnOPn, between the new contour forming point NSOP3 and the last input contour forming point EnOPn-1,...
[0369]
Next, the contour generation unit 101 calculates the sum of the forward-turning pair distances ODb2 to ODbn and the sum of the backward-turning pair distances RDb2 to RDbn by the contour estimation unit 114, and then compares the calculated sums. In this way, one of the associations with a small sum (for example, the association between the reference direction and the forward rotation direction) is selected.
[0370]
Then, the contour generation unit 101 uses the contour estimation unit 114 to calculate the distance ODb1 between the starting point pairs and the distances ODb2, ODb3,... ODb3 between the forward pairs, as shown in FIG. By dividing by the total number of -1, the new contour forming points NSOP2 to NSOPn and the last tail are sequentially associated with the virtual line between the starting points connecting the new contour forming point NSOP1 and the last input contour forming point EnOP1 which are the starting point pair. The point formation intervals DDb1, DDb2, DDb3,... Are respectively determined on the imaginary lines between the corresponding points connecting the input contour forming points EnOP2 to EnOPn, and the point formation intervals on the imaginary lines between the starting points and on the imaginary lines between the corresponding points The estimated contour forming points OIPa1 to OIPn1 and OIPa2 are provided for each of DDb1, DDb2, DDb3,. OIPn2, OIPa3 or OIPn3, to generate ....
[0371]
The contour generation unit 101 forms new contours among the estimated contour forming points OIPa1 to OIPn1, OIPa2 to OIPn2, OIPa3 to OIPn3,. By interpolating the estimated contour forming points OIPa1 to OIPan, OIPb1 to OIPbn, OIPc1 to OIPcn,... In the same order from the points NSOP1 to NSOPn, each of the contour extraction intermediate frame images OF2 to OFn-1. Are generated assuming contour lines OLA1 to OLAn-2.
[0372]
Then, the contour generation unit 101 calculates the center of gravity (coordinate value) of each of the estimated contour lines OLA1 to OLAn-2 by the contour line estimation generation circuit 114.
[0373]
In addition, the contour generation unit 101 uses the contour estimation unit 114 to calculate the center-of-gravity moving distance L2 (FIG. 55) between the center of gravity StOC of the first input contour StOL and the center of gravity EnOC of the last input contour EnOL. By dividing by the total number of frame images OF2 to OFn-1, the contour extraction intermediate frame images OF2 to OFn- with respect to the center of gravity StOC of the first input contour line StOL on the imaginary line between the centers of gravity StOC and EnOC that are connected to each other. The movement position at 1 (that is, the estimated center of gravity position) is calculated.
[0374]
Then, the contour generating unit 101 uses the contour inference generating circuit 114 to convert the estimated contours OLA1 to OLAn-2 from the center of gravity of the first input contour StOL to the center of gravity of the last input contour EnOL while maintaining the order. The estimated contour lines OLA1 to OLAn-2 are moved in the direction of EnOC, and the respective centers of gravity of the estimated contour lines OLA1 to OLAn-2 are sequentially matched with the estimated center of gravity positions on the imaginary line between the centers of gravity. The extracted intermediate frame images OF2 to OFn-1 are associated with each other.
[0375]
In this way, the information processing apparatus 100 traces and designates the contours of the objects OJ1 and OJn in the first frame image OF1 for contour extraction and the last frame image OFn for contour extraction and obtains the first input contour line obtained. Estimated contour lines OLA1 to OLAn-2 for extracting objects OJ2 to OJn-1 in each of the contour extraction intermediate frame images F2 to Fn-1 are estimated and generated from StOL and the last input contour line EnOL.
[0376]
The information processing apparatus 100 uses the contour estimation unit 114 to generate a plurality of estimated contour forming points OIPa1 to OIPan, OIPb1 to OIPbn, OIPc1 to OIPcn,... Corresponding to the estimated contours OLA1 to OLAn-2. The estimated contour forming point group data, which is the aggregate data of the extraction intermediate frame images OF2 to OFn-1), together with the first input contour forming point group data D121 and the last input contour forming point group data D122, The data is sent to the contour recording circuit 115 and recorded as the contour extraction data D123, and the process proceeds to step SP133.
[0377]
In step SP133, the information processing apparatus 100 reads out the object outline extraction data D123 from the outline recording circuit 115 by the user interface circuit 112, and also reads out all the outline extraction frame image data D200A from the moving image recording circuit 111, and The extracted frame image data D200A is combined with the object outline extraction data D123 to generate extracted outline presentation image data, and the extracted outline presentation image data is synthesized with the outline extraction processing screen data D120 to the information presentation unit 105. Send out.
[0378]
As a result, as shown in FIG. 59, the information processing apparatus 100 causes the information presenting unit 105 to display, in the image display area within the contour extraction processing screen, the first input contour lines StOL, corresponding to the contour extraction frame images OF1 to OFn, respectively. The inferred contour lines OLA1 to OLAn-2 and the last input contour line EnOL are displayed in a superimposed manner so that the enlightenment target user can see them, and the process proceeds to step SP134.
[0379]
In step SP134, the information processing apparatus 100 determines whether or not the user interface circuit 112 has input a processing end command to end the contour extraction processing by the enlightened user.
[0380]
If a negative result is obtained in this step SP134, this means that a process end instruction has not been input by the enlightenment target user who visually confirmed the estimated contour lines OLA1 to OLAn-2 via the contour extraction processing screen, that is, the contour This indicates that the contours of the objects OJ2 to OJn-1 in the extraction intermediate frame images OF2 to OFn-1 have not been extracted with the accuracy that the enlightenment target user can understand, and that the contour extraction operation is continuously performed. At this time, the information processing apparatus 100 moves to the subsequent step SP135.
[0381]
In step SP135, the information processing apparatus 100 allows the user interface circuit 112 to record a moving image in accordance with a presentation command requesting presentation of the outline extraction intermediate frame images OF2 to OFn-1 input by the user to be enlightened to specify the outline. By reading the frame image data D200A for contour extraction corresponding to the intermediate frame images for contour extraction OF2 to OFn-1 from the circuit 111, synthesizing this with the screen data D120 for contour extraction processing, and sending it to the information presenting unit 105, The information presenting unit 105 displays the contour extraction intermediate frame images OF2 to OFn-1 in the image display area in the contour extraction processing screen, and allows the enlightened user to view it.
[0382]
In this manner, the information processing apparatus 100 newly specifies the outlines of the objects OJ2 to OJn-1 while visually comparing the plurality of intermediate frame images for outline extraction OF2 to OFn-1 with the enlightenment target user. The extraction intermediate frame images OF2 to OFn-1 are selected.
[0383]
As a result, as shown in FIG. 60, the information processing apparatus 100 selects, for example, the intermediate frame image OF12 for outline extraction by the user to be enlightened, and arbitrarily traces the outline of the object OJ12 in the intermediate frame image OF12 for outline extraction. When the additional input contour line signal S120 corresponding to the additional input contour line (hereinafter, referred to as an additional input contour line) AL1 obtained by the input is input to the user interface circuit 112, the process returns to step SP133.
[0384]
In this case, the information processing apparatus 100 corresponds to the additional input contour signal S120 by sampling the additional input contour signal S120 at a predetermined sampling interval and converting it into digital data by the conversion circuit 113 in step SP133. A plurality of additional input contour forming points are generated, and the generated aggregate data of the additional input contour forming points is sent to the contour estimating and generating circuit 114 as additional input contour forming point group data D124.
[0385]
Then, the information processing apparatus 100 reads out the object outline extraction data D123 from the outline recording circuit 115 by the outline estimation and generation circuit 114, and reads the top input outline formation point group data D121 and the last input outline formation from the object outline extraction data D123. The point cloud data D122 is extracted.
[0386]
Here, the information processing apparatus 100 uses the contour estimating generation circuit 114 to start with a leading input contour StOL corresponding to the leading input contour forming point group data D121 and an additional input contour corresponding to the additional input contour forming point group data D124. A new estimated contour lines OLB1 to OLB10 for extracting the contours of the objects OJ2 to OJ11 in the contour extraction intermediate frame images OF2 to OF11 between the contour extraction head frame image OF1 and the contour extraction intermediate frame image OF12 from the AL1. Guess to generate.
[0387]
Further, the information processing apparatus 100 uses the contour estimation / generation circuit 114 to extract the contour extraction intermediate frame image OF12 and the contour from the additional input contour AL1 and the last input contour EnOL corresponding to the last input contour forming point group data D122. Estimated contour lines OLB12 to OLBn-2 for extracting the contours of the objects OJ13 to OJn-1 in the intermediate frame images for extracting contours OF13 to OFn-1 between the last frame images OFn for extraction are newly estimated and generated. I do.
[0388]
Then, the information processing apparatus 100 generates a plurality of estimated contour forming point group data constituting the estimated contour lines OLB1 to OLB10 and OLB12 to OLBn-2, respectively, by using the estimated contour forming point group data. And the first input outline forming point group data D121, the last input outline forming point group data D122, and the additional input outline forming point group data D124 are sent to the outline recording circuit 115 as new object outline extraction data D123. Update by recording.
[0389]
Thereby, the information processing apparatus 100 reads out new object outline extraction data D123 from the outline recording circuit 115 by the user interface circuit 112, and also reads out outline extraction frame image data D200A from the moving image recording circuit 111, and By generating the extracted outline presentation image data by synthesizing the frame image data D200A for use with new object outline extraction data D123, and synthesizing the extracted outline presentation image data with the screen data D120 for outline extraction processing to provide the information presentation unit 105. Send to
[0390]
As a result, the information processing apparatus 100 causes the information presenting unit 105 to display the first input contour line StOL and the last input contour line EnOL corresponding to the outline extraction frame images OF1 to OFn in the image display area in the outline extraction processing screen. And the additional input contour line AL1 and the new estimated contour lines OLB1 to OLB10 and OLB12 to OLBn-2 are displayed in a superimposed manner so that the user can see them.
[0391]
In this state, if, for example, a negative result is obtained again in step SP134, the information processing apparatus 100 proceeds to step SP135 to similarly select the contour extraction frame images OF1 to OFn for specifying the contour.
[0392]
Then, the information processing apparatus 100 selects an additional outline extraction intermediate frame image OF22 by the enlightenment target user (FIG. 60), and arbitrarily traces the object OJ22 in the outline extraction intermediate frame image OF22. When the line signal S121 is obtained, it is taken into the user interface circuit 112 and returns to step SP132.
[0393]
In this case, in step SP132, the information processing apparatus 100 converts the additional input contour signal S121 into digital data by sampling the additional input contour signal S121 at a predetermined sampling interval, thereby converting the additional input contour signal S121 into digital data. A plurality of additional input contour forming points to be generated are generated, and the set data of the generated additional input contour forming points is sent to the contour estimation unit 114 as additional input contour forming point group data D125.
[0394]
Then, the information processing apparatus 100 reads out the object outline extraction data D123 from the outline recording circuit 115 by the outline estimation and generation circuit 114, and reads the additional input outline formation point group data D124 and the last input outline formation from the object outline extraction data D123. The point cloud data D122 is extracted.
[0395]
Here, the information processing apparatus 100 uses the contour inference generating circuit 114 to first add the additional input contour AL1 corresponding to the additional input contour forming point group data D124 and the additional input contour corresponding to the additional input contour forming point group data D125. Estimated contour lines OLC12 to OLC20 for extracting the contours of the objects OJ13 to OJ21 in the contour extraction intermediate frame images OF13 to OF21 between the contour extraction intermediate frame image OF12 and the contour extraction intermediate frame image OF22 from AL2. And create a new one.
[0396]
In addition, the information processing apparatus 100 uses the contour estimation and generation circuit 114 to extract the intermediate frame images OF22 and 22 for contour extraction from the additional input contour AL2 and the last input contour EnOL corresponding to the last input contour forming point group data D122. The estimated contour lines OLC22 to OLCn-2 for extracting the contours of the objects OJ23 to OJn-1 in the intermediate frame images for contour extraction OF23 to OFn-1 between the final frame images OFn for contour extraction are re-estimated and newly added. To generate.
[0397]
Then, the information processing apparatus 100 newly generates a plurality of estimated contour formation point group data configuring the estimated contour lines OLB1 to OLB10, OLC12 to OLC20, and OLC22 to OLCn-2 by the contour line estimation generation circuit 114. The estimated contour forming point group data, the leading input contour forming point group data D121, the last input contour forming point group data D122, and the additional input contour forming point group data D124 and D125 are used as new object contour extraction data D123. It is updated by sending it to the line recording circuit 115 and recording it.
[0398]
Thereby, the information processing apparatus 100 reads out new object outline extraction data D123 from the outline recording circuit 115 by the user interface circuit 112, and also reads out outline extraction frame image data D200A from the moving image recording circuit 111, and By generating the extracted outline presentation image data by synthesizing the frame image data D200A for use with new object outline extraction data D123, and synthesizing the extracted outline presentation image data with the screen data D120 for outline extraction processing to provide the information presentation unit 105. Send to
[0399]
As a result, the information processing apparatus 100 causes the information presenting unit 105 to display the first input contour line StOL and the last input contour line EnOL corresponding to the outline extraction frame images OF1 to OFn in the image display area in the outline extraction processing screen. And the additional input outlines AL1 and AL2 and the estimated outlines OLB1 to OLB10, OLC12 to OLC20, and OLC22 to OLCn-2 are displayed in a superimposed manner so that the user can see them.
[0400]
Thus, the information processing apparatus 100 repeats the processing of step SP135 to step SP132 to step SP133 to step SP134 until a positive result is obtained in step SP134.
[0401]
Therefore, the information processing apparatus 1 generates a guessed outline once by specifying the contours of the objects OJ1 to OJn by the enlightenment target user, but when the outlines of the objects OJ1 to OJn are newly specified, the Each time, the object OJ1 to OJn is estimated by re-estimating and correcting the guessed outline for extracting the outline of the objects OJ2 to OJn-1 in the frame images for outline extraction OF2 to OFn-1 according to the result of specifying the outline. Can be extracted with the accuracy that the enlightenment target user can understand.
[0402]
On the other hand, if a positive result is obtained in step SP134, this means that the contours of the objects OJ2 to OJn-1 in the intermediate frame images for contour extraction OF2 to OFn-1 can be extracted with the accuracy that the enlightenment target user can understand. This indicates that the process completion command for terminating the contour extraction process has been input by the enlightening target user. At this time, the information processing apparatus 100 takes in the process termination command into the user interface circuit 112 and proceeds to step SP136. .
[0403]
In step SP136, the information processing apparatus 100 sends a processing end command from the user interface circuit 112 to the contour recording circuit 115 via the conversion circuit 113 and the contour estimation and generation circuit 114 in order, so that the contour recording circuit 115 At this time, the first input contour line StOL corresponding to the latest object contour extraction data D123 recorded at this time, the last input contour line EnOL, the additional input contour lines AL1 and AL2, the estimated contour lines OLB1 to OLB10, OLC12 to OLC12 to The outlines of the objects OJ1 to OJn are extracted from the OLC20, OLC22 to OLCn-2, and are finally obtained as outlines (hereinafter referred to as final outlines).
[0404]
Then, the information processing apparatus 100 sends the final contour as final contour data D126 to a not-shown object extracting apparatus via the contour output circuit 116 by the contour recording circuit 115, and the final contour is output by the object extracting apparatus. Using the outline, the objects OJ1 to OJn in the plurality of outline extraction frame images OF1 to OFn constituting the object extraction moving image 200 are extracted.
[0405]
Further, while executing the above-described contour extraction processing procedure RT102 (that is, the contour extraction processing using the moving image 200 for object extraction) on the user interface circuit 112, the information processing apparatus 100 changes the display content as appropriate and presents the information. A series of outline extraction processing screens displayed by the unit 105 are recorded as outline extraction history screen data D111 representing the history of the outline extraction operation.
[0406]
Therefore, the information processing apparatus 100 associates the user ID of the enlightenment target user with the contour extraction history screen data D111 by the user interface circuit 112, and sends this to the information storage unit 103 via the processing tendency information extraction unit 102. By storing the information in the information storage unit 103, the contour extraction history screen data D111 can be used as presentation information when the contour extraction operation is performed by another user to be enlightened, and the process proceeds to the next step SP137 to execute the above. The completed contour extraction processing procedure RT102 is completed.
[0407]
In this way, as shown in FIG. 61, the information processing apparatus 100 understands the outlines of the objects OJ1 to OJn in the plurality of outline extraction frame images OF1 to OFn forming the object extraction moving image 200 to the user to be enlightened. It is possible to extract as ideal final contour lines LS1 to LSn shifted according to the movements of the objects OJ1 to OJn with such accuracy.
[0408]
In the above configuration, in the trial mode, the information processing apparatus 100 determines the contours of the trial objects TJ1 to TJ7 in the plurality of trial frame images TF1 to TF7 constituting the contour extraction trial moving image 120 for the enlightenment target user. To perform the contour extraction trial operation, determine the skill of the contour extraction method for the enlightened user based on the result of the contour extraction trial process corresponding to the contour extraction trial operation, and convert the skill data D107 indicating the determination result to the contour extraction The input information data D108 is used together with the contour extraction trial history screen data including a series of contour extraction trial processing screens which are displayed with the display contents changed appropriately during the trial processing, and the contour extraction trial moving image data D100 and the like.
[0409]
Further, the information processing apparatus 100 determines how the enlightening target user can determine from the outline extraction trial moving image 120 and the object TJ1 based on the outline extraction trial history screen data and the outline extraction trial moving image data D100 included in the input information data D108. To the outline extraction method of the enlightenment target user indicating whether or not the outline of TJ7 is extracted, and the extracted processing tendency information is processed as the processing tendency information data together with the input information data D108 as the accumulated information data D109. The information is stored in the storage unit 103.
[0410]
Then, in the information presentation mode prior to the contour extraction processing mode, the information processing apparatus 100 compares the processing tendency information data included in the accumulated information data D109 of the enlightened target user with the past accumulated information data D109 already accumulated in the information accumulation unit 103. Then, from the past accumulated information data D109, the past accumulated information data D109 of another user whose contour extraction method is similar to that of the enlightened target user is selected from the past accumulated information data D109.
[0411]
Next, the information processing apparatus 100 performs a series of contour extraction processing presented to the user having the skill corresponding to the skill of the enlightenment target user based on the skill information included in the selected past accumulated information data D109 during the contour extraction processing. The contour extraction process screen data 111 consisting of a screen is finally selected and presented to the enlightened user as presentation information data D110 together with information on the skill of the user.
[0412]
Therefore, the information processing apparatus 100 does not particularly require the guidance by the instructor having excellent processing ability, and provides the enlightenment target user with the outline extraction method of the user based on the outline extraction method of another user having a different skill. Points to be noted can be noticed prior to performing the contour extraction operation on the object extraction moving image 200, and the improvement of the contour contour method of the enlightened target user can be promoted.
[0413]
In addition, in the information presentation mode, the information processing apparatus 100 presents the object extraction moving image 200 used for the contour extraction operation performed by the enlightenment target user to the enlightenment target user in addition to the presentation information data D110. The content of the information and the content of the object extraction moving image 200 can be visually checked by comparing them, and thus, how to efficiently extract the contours of the objects OJ1 to OJn from the object extraction moving image 200, for example, efficiently. It is possible to easily notice at that time whether to do so, and to more appropriately urge the enlightenment target user to improve his / her outline extraction method.
[0414]
According to the above configuration, in the trial mode, the enlightenment target user is caused to perform the contour extraction trial operation for extracting the contours of the trial objects TJ1 to TJ7 from the contour extraction trial moving image 120, and the skill of the contour extraction technique is determined. A process for the contour extraction method of the enlightenment target user extracted from the series of contour extraction trial processing screens and the moving image 120 for contour extraction trial in which the information of the skill is appropriately changed and displayed during the contour extraction trial processing and displayed. It is stored in the information storage unit 103 together with the tendency information as the storage information data D109, and the processing tendency information included in the storage information data D109 of the enlightened target user in the information presentation mode prior to the contour extraction processing mode is already stored in the information storage unit 103. The process is compared with the processing tendency information included in the accumulated past accumulated information data D109 to extract the outline of the enlightened target user. The user selects the past accumulated information data D109 of another user whose contour extraction method is similar to the method, and, based on the information of the skill included in the selected past accumulated information data D109, a user having a skill corresponding to the skill of the enlightenment target user. A series of contour extraction processing screens presented during the contour extraction processing is finally selected and presented to the enlightenment target user as presentation information data D110 together with information on the skill of the user. Of the user to be enlightened based on the contour extraction method of another user with different attention, and notices the points to be noted in the contour extraction operation of the user prior to the execution of the contour extraction operation on the moving image 200 for object extraction. It is possible to encourage the enlightenment target user to improve the contour method, and thus the object extraction moving image 2 to be processed. The processing capabilities of the processing of extracting the contour of the object OJ1 to OJn 0 can be easily improved.
[0415]
In the above-described third embodiment, after a series of contour extraction processing screens showing the history of the contour extraction operation performed by another user in the past are presented to the enlightenment target user, the object extraction is performed for the enlightenment target user. The case where the contour extraction operation is performed on the contours of the objects OJ1 to OJn in the use moving image 200 has been described. However, the present invention is not limited to this. As shown in FIG. An image display area 149A displaying a series of contour extraction processing screens 145 representing the details of the contour extraction operation performed by another user, and a series of contour extraction processing performed according to the contour extraction operation performed by the enlightened user. A processing screen 150 having a contour extraction area 149B displaying a screen 146 is displayed on the information presenting unit 105, and the enlightened user is Together the contour extraction operations performed I may be presented a series of contour extraction processing screen 145 at the time of contour extraction operation by the user's past.
[0416]
In the third embodiment, in the trial mode, the skill of each user is determined according to the total number of input frame images based on a preset frame image reference number Bor1 (FIG. 48). However, the present invention is not limited to this. In the trial mode, the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images as shown in FIG. The user's skill is determined by the threshold Bor2, or the accumulated information data D109 of each user is arranged in ascending order of the total number of input frame images as shown in FIG. 64, and the number of users having high or low skill is limited to a predetermined number. The skill of each user may be determined based on such a threshold Bor3. In this case, the skill of the user can be determined according to the tendency of the total number of input frame images for each user.
[0417]
Furthermore, in the third embodiment described above, in the information presentation mode, the past accumulated information data D109 of the user of the contour extraction technique similar to the contour extraction technique of the enlightened user is selected from the past accumulated information data D109 (limited). However, the present invention is not limited to this, and the name of the object extracted by the contour extraction trial operation and / or the contour extraction operation performed by each user is stored in the past accumulation information data D109. In the information presentation mode, the enlightenment target user is caused to input the name of an object (for example, a star or a human upper body) in the moving image for object extraction, and the past accumulated information data D109 including the information on the name of the object is selected. (Limited) or image features included as processing tendency information in the accumulated information data D109 of the enlightened user By comparing the information and the image feature information included as the processing tendency information in the past accumulated information data D109, the same or similar object as the object having the contour extracted by the enlightenment target user (or a similar object extracting moving image) The user may select (restrict) the past accumulated information data D109 of the user who has extracted the contour of the object inside.
[0418]
In this case, the enlightenment target user performs an outline extraction operation on the same or similar object as the object from which the outline is to be extracted, or on the same or similar object extraction moving image as the object extraction moving image used for extracting the outline. Since a series of contour extraction processing screens representing the contour extraction methods of the other users can be presented, the enlightened user can be more appropriately prompted to improve his / her own contour extraction method.
[0419]
Furthermore, in the third embodiment described above, in the information presentation mode, when the skill of the enlightened user Y1 (FIG. 51) is low, the past accumulated information data of the user Y2 having the highest skill among the past accumulated information data D109. D109 is finally selected, and when the skill of the enlightened user Y3 is high, the past accumulated information data D109 of the user Y4 with the lowest skill is finally selected from the past accumulated information data D109. However, the present invention is not limited to this. As shown in FIG. 65, in the information presentation mode, when the skill of the enlightenment target user Y5 is low, the skill of the enlightenment target user Y5 is determined from the past accumulated information data D109. Finally, the past accumulated information data D109 of the user Y6 having the highest skill within the certain range W is selected, and the skill of the user Y7 to be enlightened is high. If I may be finally selected in the past accumulated information data D109 of the awareness target user Y7 of lowest skill within a certain range W relative to the skill user Y8 from the past accumulated information data D109.
[0420]
In this case, when the skill of the user selected to present the outline extraction method to the enlightenment target user is too high or too low and the outline extraction operation is performed by the user, a series of outline extraction processing screens is displayed. Can be prevented from being difficult to use for promoting the improvement of the outline extraction method.
[0421]
Further, in the above-described third embodiment, the result of the contour extraction trial operation of the enlightenment target user is stored in the information storage unit 103 as the accumulated information data D109 in the trial mode, and the accumulated information data D109 is stored in the information presentation mode. The case where the contour extraction process screen data D111 of another user is selected based on the above is described. However, the present invention is not limited to this. In the contour extraction processing mode, the object extraction moving image already performed by the enlightenment target user Based on the result of the contour extraction operation on the contour of the object in the image, the skill and the extraction tendency (that is, the tendency represented by the processing tendency information) of the enlightenment target user with respect to the contour extraction operation are determined and stored as accumulated information data. The information is stored in the information storage unit 103 as D109, and the user to be enlightened again Te information presentation mode for performing contour extraction operation, may be selected contour extraction history screen data D111 of other users in accordance with the stored information data D 109.
[0422]
Further, in the above-described third embodiment, a case is described in which an estimated contour is estimated from an input contour obtained by tracing the contour of an object via an operation unit such as a mouse. However, the present invention is not limited to this, and the estimated contour line can be obtained from a designated area that specifies the object by filling the area on the inner peripheral side of the contour of the object, or a designated area that specifies the object by painting the background of the object. It may be estimated and generated.
[0423]
Further, in the above-described third embodiment, when extracting an outline of an object from a moving image, first, a frame image for extracting the first and last frames and a frame image for trial are extracted from a plurality of frame images constituting the moving image. Is described, but the present invention is not limited to this, and when extracting an outline of an object from a moving image, two arbitrary frame images are first arbitrarily selected from a plurality of frame images constituting the moving image. You may make it select.
[0424]
(4) Other embodiments
In the above-described first to third embodiments, a case has been described in which the information processing apparatus according to the present invention is applied to the information processing apparatuses 1, 50, and 100 described above with reference to FIGS. The present invention is not limited to this. For example, a personal computer, an image processing apparatus, an information processing apparatus in which the area extracting unit 51 and the contour generating unit 101 are separated from the information processing apparatuses 50 and 100 described above, and the like. It can be widely applied to equipment.
[0425]
In the above-described first to third embodiments, the information processing program according to the present invention includes the first and second enlightenment promotion programs, the outline extraction trial program, the information presentation program, and the outline described above with reference to FIGS. The first and second enlightenment promotion procedures RT1 and RT50 described above with reference to FIGS. 2 and 14 according to the first and second enlightenment promotion programs are applied to the extraction processing program, and the contour extraction trial program is executed. Although the case where the contour extraction trial processing procedure RT100, the information presentation processing procedure RT101, and the contour extraction processing procedure RT102 described above with reference to FIGS. 34, 49, and 53 are executed according to the information presentation program and the contour extraction processing program has been described, The present invention is not limited to this. Ram, a contour extraction trial program, an information presentation program, and a contour extraction processing program are installed in the information processing apparatuses 1, 50, 100 by using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting. The first and second awareness promotion procedures RT1 and RT50, the contour extraction trial procedure RT100, the information presentation procedure RT101, and the contour extraction procedure RT102 may be executed, or the first and second awareness promotion procedures may be performed. By installing a program storage medium storing a program, a contour extraction trial program, an information presentation program, and a contour extraction processing program in the information processing apparatuses 1, 50, 100, the first and second awareness promotion processing procedures RT1, RT50, Contour extraction trial processing procedure RT 00, may be executed the information presentation processing procedure RT101 and contour extraction processing procedure RT102.
[0426]
Incidentally, the first and second awareness promotion programs for executing the first and second awareness promotion procedures RT1 and RT50, the contour extraction trial procedure RT100, the information presentation procedure RT101, and the contour extraction procedure RT102 described above, Examples of a program storage medium for installing the contour extraction trial program, the information presentation program, and the contour extraction processing program in the information processing apparatuses 1, 50, and 100 so as to be executable are, for example, a flexible disk and a CD-ROM (Compact Disc). -Not only package media such as Read Only Memory (DVD) and Digital Versatile Disc (DVD), but also the first and second awareness promotion programs, contour extraction trial programs, information presentation programs, and contour extraction processing programs are temporarily stored. Or it may be realized by permanently stored semiconductor memory, magnetic disk, or the like to be. Means for storing the first and second enlightenment promotion programs, the contour extraction trial program, the information presentation program, and the contour extraction processing program in these program storage media include wired and wireless means such as a local area network, the Internet, and digital satellite broadcasting. A communication medium may be used, or the data may be stored via various communication interfaces such as a router and a modem.
[0427]
Further, in the above-described first to third embodiments, a storage method for storing, for a plurality of users, storage information including a processing method of processing performed on a processing target by a user and an evaluation value for the processing, Although the case where the information storage units 4, 53, and 103 described above are applied to FIGS. 1 to 65 has been described, the present invention is not limited to this. If accumulated information including an evaluation value for the process can be accumulated for a plurality of users, various other storage means such as a hard disk drive and an external recording device external to the information processing apparatuses 1, 50 and 100 can be widely applied. can do.
[0428]
Further, in the above-described first to third embodiments, the comparing means for comparing any one of the processing method and the evaluation value of the specific user with the one included in the accumulated information accumulated in the accumulating means is used. 1 to 65 have been described above, the present invention is not limited to this, and the present invention is not limited to this. If any one of the evaluation values can be compared with one included in the stored information stored in the storage means, as in a dedicated comparison circuit or the like different from the presentation information selection units 5, 54, 104 In addition, various other comparing means can be widely applied.
[0429]
Further, in the above-described first to third embodiments, the information selecting means for selecting the stored information from the plurality of stored information stored in the storing means in accordance with the comparison result by the comparing means, as shown in FIGS. Although the case in which the presentation information selection units 5, 54, and 104 described above with reference to FIG. 65 are applied has been described, the present invention is not limited to this. If the stored information can be selected according to the comparison result of the above, the presentation information selection units 5, 54, and 104 select one of the processing method and the evaluation value of the specific user and the stored information stored in the storage unit. Various other information selection means can be widely applied, such as a dedicated information selection circuit or the like except for a function of comparing with one of the included information selection circuits.
[0430]
Further, in the above-described first to third embodiments, the monitor and speaker described above with reference to FIGS. 1 to 65 are used as presentation means for presenting the processing method included in the stored information selected by the information selection means to a specific user. Although the case where the information presenting sections 6, 55, and 105 having the above are applied has been described, the present invention is not limited to this, and presents the processing method included in the accumulated information selected by the information selecting means to the specific user. If possible, various other presentation means, such as a display unit and an external display device outside the information processing apparatuses 1, 50, 100, can be widely applied.
[0431]
Further, in the above-described first to third embodiments, as an image selecting means for selecting one frame image for specifying an outline of an object from a plurality of frame images constituting a moving image, FIG. Although the case where the operation unit such as the mouse (not shown) described above is applied to FIG. 31 has been described, the present invention is not limited to this. In addition, various image selection means can be widely applied.
[0432]
Further, in the above-described first to third embodiments, as an image setting means for setting a plurality of frame images for extracting an object designated area from a plurality of frame images constituting a moving image, FIG. Although the case where the operation unit such as the mouse (not shown) described above is applied to FIG. 31 has been described, the present invention is not limited to this. In addition, various image setting means can be widely applied.
[0433]
Further, in the above-described first to third embodiments, the motion vector detection recording circuit 62 described above with reference to FIGS. 13 to 31 is applied as a motion vector detection unit that detects a motion vector of an object in a moving image. However, the present invention is not limited to this, and various other motion vector detecting means such as a motion vector detecting circuit having only a motion vector detecting function can be widely applied.
[0434]
Further, in the above-described first to third embodiments, the outline specifying means for specifying the outline of the object in one frame image selected via the image selecting means is described with reference to FIGS. However, the present invention is not limited to this, and various other contour designating means such as a pointing device such as a joystick, stylus pen, and touch panel may be used. Can be widely applied.
[0435]
Further, in the above-described first to third embodiments, the plurality of images set by the image setting means based on the motion vector detected by the motion vector detecting means and the contour specified by the contour specifying means. 13 to 31 as the designated area extracting means for extracting the object designated area for the frame image described above, the present invention is not limited to this. Various other designated region extracting means such as an external region extracting device separated from the device 50 can be widely applied.
[0436]
Further, in the above-described first to third embodiments, the input history by the image selecting means, the image setting means, and the contour designating means, which is the processing method included in the storage information stored in the storage means, is shown in FIGS. Although the description has been given of the case where the region extraction history screen data consisting of the above-described series of region extraction processing screens is applied to the image No. 31, the present invention is not limited to this. And the like, various other input histories can be widely applied.
[0437]
Further, in the above-described first to third embodiments, at least two first and second frame images for specifying an outline of an object are selected from a plurality of frame images constituting a moving image. A case has been described in which an operation unit such as a mouse (not shown) described above with reference to FIGS. 32 to 65 is applied as the image selection unit. However, the present invention is not limited to this. Various other image selecting means such as a keyboard and a keyboard can be widely applied.
[0438]
Further, in the above-described first to third embodiments, as the outline designating means for designating the contours of the objects in the first and second frame images selected via the image selecting means, respectively, FIG. 65 to 65, the operation unit such as a mouse (not shown) described above is applied. However, the present invention is not limited to this, and various other devices such as a pointing device such as a joystick, a stylus pen, and a touch panel are used. Can be widely applied.
[0439]
Further, in the above-described first to third embodiments, when another frame image exists between the first and second frame images, the first and second frame images in the first and second frame images are transmitted via the contour designating means. As the contour estimating means for estimating the outline of an object in another frame image from the first and second outline specification results obtained by specifying the outline of the object, the outline described above with reference to FIGS. Although the case has been described where the guess generation circuit 114 is applied, the present invention is not limited to this, and when another frame image exists between the first and second frame images, The objects in the other frame images are obtained from the first and second outline specification results obtained by specifying the outlines of the objects in the first and second frame images, respectively. If it is possible to infer the contour, CPU as such (Central Processing Unit) or a microprocessor, it is possible to widely apply various other outline estimating means.
[0440]
Further, in the above-described first to third embodiments, the input history by the image selecting means and the contour specifying means, which is the processing method included in the accumulated information accumulated in the accumulating means, has been described above with reference to FIGS. A case has been described in which the outline extraction process screen data D111, which is a series of outline extraction process screens, is applied. However, the present invention is not limited to this. In addition, various other input histories can be widely applied.
[0441]
【The invention's effect】
As described above, according to the present invention, the processing method of the processing performed on the processing target by the user and the storage information including the evaluation value for the processing are stored in the storage unit for a plurality of users, and the specific user One of the processing method and the evaluation value is compared with one included in the stored information stored in the storage unit, and the comparison unit selects the plurality of stored information stored in the storage unit by the information selection unit. The stored information is selected in accordance with the comparison result by the information processing means, and the processing method included in the stored information selected by the information selecting means is presented by the presenting means to the specific user. An information processing apparatus capable of promoting the improvement of a processing method of a specific user, and thus easily improving the processing capability of processing performed on a predetermined processing target It can be realized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a first embodiment of a circuit configuration of an information processing apparatus according to the present invention.
FIG. 2 is a flowchart illustrating a first awareness promotion procedure;
FIG. 3 is a schematic diagram illustrating a configuration of input information.
FIG. 4 is a schematic diagram illustrating input information data.
FIG. 5 is a schematic diagram illustrating a configuration of a batting moving image.
FIG. 6 is a schematic diagram for explaining a course of a ball and detection of a height difference between a grip and a tip of a bat.
FIG. 7 is a schematic diagram illustrating a configuration of processing tendency information.
FIG. 8 is a schematic diagram for explaining storage of accumulated information data;
FIG. 9 is a schematic diagram for explaining the limitation of accumulated information data.
FIG. 10 is a schematic diagram illustrating selection conditions for selecting presentation information.
FIG. 11 is a schematic diagram illustrating a configuration of presentation information.
FIG. 12 is a schematic diagram illustrating selection conditions of presentation information according to another embodiment.
FIG. 13 is a block diagram illustrating a circuit configuration of an information processing apparatus according to a second embodiment.
FIG. 14 is a flowchart illustrating a second enlightenment promotion processing procedure.
FIG. 15 is a block diagram illustrating a circuit configuration of a region extraction unit.
FIG. 16 is a flowchart showing an area extraction processing routine (1).
FIG. 17 is a flowchart showing an area extraction processing routine (2).
FIG. 18 is a schematic diagram illustrating a configuration of a moving image for object extraction.
FIG. 19 is a schematic diagram for explaining setting of a work frame image and a propagation range.
FIG. 20 is a schematic diagram used to explain the specification of an outline of an object in a work frame image.
FIG. 21 is a schematic diagram for explaining generation of an object-designated propagation area;
FIG. 22 is a schematic diagram for explaining generation of an object designation area in a propagation range.
FIG. 23 is a schematic diagram used for explaining an instruction of a correction position with respect to an object designation area.
FIG. 24 is a schematic diagram for explaining correction of an object designation area.
FIG. 25 is a schematic diagram for explaining presentation of a corrected object designation area.
FIG. 26 is a schematic diagram for explaining an object designation area in which the area is reversed.
FIG. 27 is a schematic diagram illustrating a configuration of input information.
FIG. 28 is a schematic diagram illustrating a configuration of processing tendency information.
FIG. 29 is a schematic diagram illustrating selection conditions for selecting presentation information.
FIG. 30 is a schematic diagram illustrating a configuration of presentation information.
FIG. 31 is a schematic diagram illustrating selection conditions for presentation information according to another embodiment.
FIG. 32 is a block diagram illustrating a circuit configuration of an information processing device according to a third embodiment.
FIG. 33 is a block diagram illustrating a circuit configuration of a contour generation unit.
FIG. 34 is a flowchart showing a contour extraction trial processing procedure.
FIG. 35 is a flowchart showing a skill determination processing routine.
FIG. 36 is a schematic diagram illustrating a configuration of a moving image for contour extraction trial.
FIG. 37 is a flowchart illustrating an estimated contour generation processing routine.
FIG. 38 is a schematic diagram for explaining a trial start input contour forming point and a trial trailing input contour forming point;
FIG. 39 is a schematic diagram for explaining generation of a new contour forming point that newly forms a trial head input contour.
FIG. 40 is a schematic diagram for explaining a case where the centers of gravity of the trial start input contour and the trial end input contour are matched.
FIG. 41 is a schematic diagram for explaining the determination of a starting point pair;
FIG. 42 is a schematic diagram for explaining correspondence between a forward rotation direction and a reverse rotation direction;
FIG. 43 is a schematic diagram for explaining generation of a trial estimation contour.
FIG. 44 is a schematic diagram for explaining estimation of a center of gravity position in each trial frame image.
FIG. 45 is a schematic diagram for explaining presentation results of a trial leading input contour, a trial estimation contour, and a trial trailing input contour.
FIG. 46 is a schematic diagram illustrating a configuration of input information.
FIG. 47 is a schematic diagram illustrating a configuration of processing tendency information.
FIG. 48 is a schematic diagram used to explain the creation of a database of accumulated information data;
FIG. 49 is a flowchart showing an information presentation processing procedure.
FIG. 50 is a schematic diagram illustrating the configuration of a moving image for object extraction.
FIG. 51 is a schematic diagram for explaining selection of accumulated information data;
FIG. 52 is a schematic diagram illustrating a configuration of presentation information.
FIG. 53 is a flowchart showing a contour extraction processing procedure;
FIG. 54 is a schematic diagram for explaining generation of a leading input contour and a trailing input contour;
FIG. 55 is a schematic diagram for explaining a case where the centers of gravity of the first input contour and the last input contour are matched;
FIG. 56 is a schematic diagram for explaining the determination of a starting point pair;
FIG. 57 is a schematic diagram for explaining the association between the forward rotation direction and the reverse rotation direction;
FIG. 58 is a schematic diagram for explaining generation of an estimated contour line;
FIG. 59 is a schematic diagram illustrating a generation result of an estimated contour line for an intermediate frame image for contour extraction.
FIG. 60 is a schematic diagram for explaining generation of an estimated contour line based on an additional input contour line;
FIG. 61 is a schematic diagram for describing a final contour line;
FIG. 62 is a schematic diagram for explaining presentation of a screen for contour extraction processing according to another embodiment;
FIG. 63 is a schematic diagram for explaining a user's skill determination (1) according to another embodiment;
FIG. 64 is a schematic diagram explaining the determination (2) of the skill of the user according to another embodiment;
FIG. 65 is a schematic diagram for explaining selection of stored information data according to another embodiment;
[Explanation of symbols]
1, 50, 100 information processing apparatus, 2 information input section, 3, 52, 102 processing tendency information extraction section, 4, 53, 103 information storage section, 5, 54, 104 presentation Information selection section, 6, 55, 105 Information presentation section, 51 Area extraction section, 62 Motion vector detection and recording circuit, 114 Outline contour estimating circuit, 70, 200 Moving image for object extraction, 70A to 70G: region extraction frame images, 71, 120 ... contour extraction trial moving images, TF1 to TF7 ... trial frame images, TJ1 to TJ7 ... trial objects, OJ1 to OJn ... objects, 101 ... Contour generation unit, 74A ... Object designation reference area, 77A to 77D, 77AX to 77DX ... Object designation propagation area, 80 ... Object designation reference area Areas 81A to 81D: object-designated propagation inversion area, D1: batting moving image data, D2, D65 ... input information data, D3, D66 ... processing tendency information data, D4, D67, D109 ... accumulated information data , D5, D68, D110... Presentation information data, D50, D200... Object extraction moving image data, D51... Area extraction frame image data, D52... Area extraction processing screen data, D100. Moving image data, D100A ... trial frame image data, D200A ... outline extraction frame image data, D108 ... skill data, D111 ... outline extraction history screen data, S1, S55 ... user information, OF1 to OFn …… Frame image for contour extraction, StOL …… Start input contour line, EnOL… Last input contour line, OLA1 to OLAn-2, OLB1 to OLB10, OLC12 to OLC20, OLC22 to OLCn-2d... Estimated contour line, SH1... Course threshold range, SH2. No. 1 enlightenment promotion processing procedure, RT50... Second enlightenment promotion processing procedure RT101... Information presentation processing procedure, RT102.

Claims (18)

ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積手段と、
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積手段に蓄積している上記蓄積情報に含まれる上記一方とを比較する比較手段と、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較手段による比較結果に応じて上記蓄積情報を選択する情報選択手段と、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示手段と
を具えることを特徴とする情報処理装置。
Accumulation means for accumulating accumulation information including a processing method of processing performed on a processing target by a user and an evaluation value for the processing for a plurality of users;
Comparing means for comparing any one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation means;
Information selecting means for selecting the stored information from the plurality of stored information stored in the storage means in accordance with a comparison result by the comparing means;
An information processing apparatus comprising: a presentation unit that presents the processing method included in the stored information selected by the information selection unit to the specific user.
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記処理手法と類似する処理手法を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information selecting means includes:
The method according to claim 1, further comprising selecting, from the plurality of pieces of stored information stored in the storage unit, the stored information including a processing method similar to the processing method of the specific user according to the comparison result. 2. The information processing device according to 1.
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記処理手法と異なる処理手法を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information selecting means includes:
2. The method according to claim 1, further comprising selecting, from the plurality of pieces of stored information stored in the storage unit, the stored information including a processing method different from the processing method of the specific user in accordance with the comparison result. An information processing apparatus according to claim 1.
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、所定の閾値以上の評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information selecting means includes:
2. The information according to claim 1, wherein the storage information including an evaluation value equal to or greater than a predetermined threshold is selected from the plurality of pieces of storage information stored in the storage unit in accordance with the comparison result. Processing equipment.
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、所定の閾値以下の評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information selecting means includes:
2. The information according to claim 1, wherein the storage information including an evaluation value equal to or less than a predetermined threshold is selected from the plurality of pieces of storage information stored in the storage unit in accordance with the comparison result. Processing equipment.
上記情報選択手段は、上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記評価値から所定の閾値以上離れた評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information selecting means includes an evaluation value that includes an evaluation value separated from the evaluation value of the specific user by a predetermined threshold or more in accordance with the comparison result from among the plurality of pieces of storage information stored in the storage means. The information processing apparatus according to claim 1, wherein:
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記評価値と類似する評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The information selecting means includes:
The stored information including an evaluation value similar to the evaluation value of the specific user is selected from the plurality of stored information stored in the storage unit according to the comparison result. 2. The information processing device according to 1.
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記評価値から第1の閾値以上離れ、かつ第2の閾値以下の評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項7に記載の情報処理装置。
The information selecting means includes:
The plurality of pieces of accumulated information stored in the storage means are separated from the evaluation value of the specific user by a first threshold or more and include an evaluation value of a second threshold or less according to the comparison result. The information processing apparatus according to claim 7, wherein the storage information is selected.
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記処理手法に類似する処理手法を含み、かつ当該特定ユーザの上記評価値よりも高い評価値を含む上記蓄積情報を選択する
ことを特徴とする請求項7に記載の情報処理装置。
The information selecting means includes:
An evaluation that includes a processing method similar to the processing method of the specific user according to the comparison result from among the plurality of pieces of stored information stored in the storage unit and is higher than the evaluation value of the specific user. The information processing apparatus according to claim 7, wherein the storage information including a value is selected.
上記蓄積手段は、
上記処理手法及び上記評価値と共に上記処理対象を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記情報選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの処理した上記処理対象に類似する処理対象を含む上記蓄積情報を選択する
ことを特徴とする請求項1に記載の情報処理装置。
The accumulation means,
Accumulating the accumulation information including the processing target together with the processing method and the evaluation value for the plurality of users,
The information selecting means includes:
Selecting, from the plurality of pieces of stored information stored in the storage unit, the stored information including a processing target similar to the processing target processed by the specific user, in accordance with the comparison result; The information processing device according to claim 1.
上記蓄積手段は、上記ユーザにより上記処理対象となるボールを打つ上記処理の上記処理手法となる打法及び当該処理に対する上記評価値となる成績を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記提示手段は、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記打法及び上記成績を上記特定ユーザに提示する
ことを特徴とする請求項1に記載の情報処理装置。
The accumulation means accumulates, for the plurality of users, the accumulation information including a hitting method serving as the processing method of the processing of hitting the ball to be processed by the user and a result serving as the evaluation value for the processing,
The presenting means,
2. The information processing apparatus according to claim 1, wherein the hitting method and the result included in the stored information selected by the information selection unit are presented to the specific user. 3.
上記蓄積手段は、
上記ユーザにより上記処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトを指定するためのオブジェクト指定領域を抽出する上記処理の上記処理手法となる領域抽出手法及び当該処理に対する上記評価値となる技量を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記提示手段は、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記領域抽出手法及び上記技量を上記特定ユーザに提示する
ことを特徴とする請求項1に記載の情報処理装置。
The accumulation means,
An area extraction method as the processing method of the processing for extracting an object designation area for specifying an object in the moving image performed on the moving image to be processed by the user and the evaluation of the processing Accumulating the accumulation information including the skill as a value for the plurality of users,
The presenting means,
2. The information processing apparatus according to claim 1, wherein the area extraction method and the skill included in the accumulated information selected by the information selection unit are presented to the specific user.
上記動画像を構成する複数のフレーム画像の中から上記オブジェクトの輪郭の指定用に1つの上記フレーム画像を選択するための画像選択手段と、
上記動画像を構成する上記複数のフレーム画像の中から上記オブジェクト指定領域の抽出用の複数の上記フレーム画像を設定するための画像設定手段と、
上記動画像中の上記オブジェクトの動きベクトルを検出する動きベクトル検出手段と、
上記画像選択手段を介して選択された上記1つの上記フレーム画像中の上記オブジェクトの上記輪郭を指定するための輪郭指定手段と、
上記動きベクトル検出手段によって検出された上記動きベクトルと、上記輪郭指定手段を介して指定された上記輪郭とに基づいて、上記画像設定手段によって設定された上記複数の上記フレーム画像に対する上記オブジェクト指定領域を抽出する指定領域抽出手段と
を具え、
上記蓄積手段は、
上記画像選択手段、上記画像設定手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積する
ことを特徴とする請求項12に記載の情報処理装置。
Image selecting means for selecting one frame image for designating the outline of the object from among a plurality of frame images constituting the moving image;
Image setting means for setting a plurality of the frame images for extracting the object designation area from the plurality of the frame images constituting the moving image,
Motion vector detecting means for detecting a motion vector of the object in the moving image,
Contour specifying means for specifying the contour of the object in the one frame image selected through the image selecting means;
The object designation area for the plurality of frame images set by the image setting means based on the motion vector detected by the motion vector detection means and the contour specified via the contour specification means. Designated area extracting means for extracting
The accumulation means,
13. The information processing apparatus according to claim 12, wherein the storage information that stores the input history by the image selection unit, the image setting unit, and the contour specification unit as the processing method is stored.
上記蓄積手段は、
上記ユーザにより上記処理対象となる動画像に対して行なわれた当該動画像中のオブジェクトの輪郭を抽出する上記処理の上記処理手法となる輪郭抽出手法及び当該処理に対する上記評価値となる技量を含む上記蓄積情報を上記複数ユーザ分蓄積し、
上記提示手段は、
上記情報選択手段によって選択された上記蓄積情報に含まれる上記輪郭抽出手法及び上記技量を上記特定ユーザに提示する
ことを特徴とする請求項1に記載の情報処理装置。
The accumulation means,
Including the outline extraction method as the processing method of the processing for extracting the outline of an object in the moving image performed on the moving image to be processed by the user and the skill as the evaluation value for the processing Storing the stored information for the plurality of users,
The presenting means,
2. The information processing apparatus according to claim 1, wherein the outline extraction method and the skill included in the stored information selected by the information selection unit are presented to the specific user.
上記動画像を構成する複数のフレーム画像の中から上記オブジェクトの輪郭の指定用に少なくとも2つの第1及び第2のフレーム画像を選択するための画像選択手段と、
上記画像選択手段を介して選択された上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭をそれぞれ指定するための輪郭指定手段と、
上記第1及び第2のフレーム画像間に他のフレーム画像が存在するとき、上記輪郭指定手段を介して上記第1及び第2のフレーム画像中の上記オブジェクトの上記輪郭がそれぞれ指定されることにより得られた第1及び第2の輪郭指定結果から上記他のフレーム画像中の上記オブジェクトの輪郭を推測する輪郭推測手段と
を具え、
上記蓄積手段は、
上記画像選択手段及び上記輪郭指定手段による入力履歴を上記処理手法とする上記蓄積情報を蓄積し、
上記選択手段は、
上記蓄積手段に蓄積している複数の上記蓄積情報の中から上記比較結果に応じて、上記特定ユーザの上記技量から所定の閾値以上離れた技量を含む上記蓄積情報を選択する
ことを特徴とする請求項14に記載の情報処理装置。
Image selection means for selecting at least two first and second frame images for designating the outline of the object from among the plurality of frame images constituting the moving image;
Contour designating means for respectively designating the contour of the object in the first and second frame images selected via the image selecting means;
When another frame image exists between the first and second frame images, the outline of the object in the first and second frame images is specified through the outline specifying means, respectively. Contour estimating means for estimating the contour of the object in the other frame image from the obtained first and second contour designation results,
The accumulation means,
The input information by the image selecting means and the contour designating means accumulates the accumulation information as the processing method,
The selection means is
Selecting, from the plurality of pieces of accumulated information accumulated in the accumulation means, the accumulated information including a skill separated from the skill of the specific user by a predetermined threshold or more according to the comparison result. The information processing apparatus according to claim 14.
ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示ステップと
を具えることを特徴とする情報処理方法。
An accumulation step of accumulating accumulation information for a plurality of users including a processing method of processing performed on a processing target by a user and an evaluation value for the processing;
A comparing step of comparing one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selecting step of selecting the stored information from the plurality of stored information stored in the storing step in accordance with the comparison result obtained in the comparing step;
A presentation step of presenting the processing method included in the accumulated information selected in the information selection step to the specific user.
コンピュータに、
ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示ステップと
を実行させるための情報処理プログラム。
On the computer,
An accumulation step of accumulating accumulation information for a plurality of users including a processing method of processing performed on a processing target by a user and an evaluation value for the processing;
A comparing step of comparing one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selecting step of selecting the stored information from the plurality of stored information stored in the storing step in accordance with the comparison result obtained in the comparing step;
An information processing program for executing a presentation step of presenting the processing method included in the accumulated information selected in the information selection step to the specific user.
ユーザにより処理対象に対して行われた処理の処理手法及び当該処理に対する評価値を含む蓄積情報を複数ユーザ分蓄積する蓄積ステップと、
特定ユーザの上記処理手法及び上記評価値のうちいずれか一方と、上記蓄積ステップで蓄積している上記蓄積情報に含まれる上記一方とを比較する比較ステップと、
上記蓄積ステップで蓄積している複数の上記蓄積情報の中から上記比較ステップで得た比較結果に応じて上記蓄積情報を選択する情報選択ステップと、
上記情報選択ステップで選択した上記蓄積情報に含まれる上記処理手法を上記特定ユーザに提示する提示ステップと
を具えることを特徴とする情報処理プログラムを情報処理装置に実行させる情報処理プログラム格納媒体。
An accumulation step of accumulating accumulation information for a plurality of users including a processing method of processing performed on a processing target by a user and an evaluation value for the processing;
A comparing step of comparing one of the processing method and the evaluation value of the specific user with the one included in the accumulation information accumulated in the accumulation step;
An information selecting step of selecting the stored information from the plurality of stored information stored in the storing step in accordance with the comparison result obtained in the comparing step;
A presentation step of presenting the processing method included in the accumulated information selected in the information selection step to the specific user, wherein the information processing program causes the information processing apparatus to execute the information processing program.
JP2002255853A 2002-08-30 2002-08-30 Information processing apparatus, information processing method, information processing program, and information processing program storage medium Expired - Fee Related JP4117604B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002255853A JP4117604B2 (en) 2002-08-30 2002-08-30 Information processing apparatus, information processing method, information processing program, and information processing program storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002255853A JP4117604B2 (en) 2002-08-30 2002-08-30 Information processing apparatus, information processing method, information processing program, and information processing program storage medium

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2007318826A Division JP4683305B2 (en) 2007-12-10 2007-12-10 Information processing apparatus and information processing program
JP2007318825A Division JP4666233B2 (en) 2007-12-10 2007-12-10 Information processing apparatus and information processing program

Publications (2)

Publication Number Publication Date
JP2004094667A true JP2004094667A (en) 2004-03-25
JP4117604B2 JP4117604B2 (en) 2008-07-16

Family

ID=32061235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002255853A Expired - Fee Related JP4117604B2 (en) 2002-08-30 2002-08-30 Information processing apparatus, information processing method, information processing program, and information processing program storage medium

Country Status (1)

Country Link
JP (1) JP4117604B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013034492A (en) * 2011-08-03 2013-02-21 Jvc Kenwood Corp Display device and display method
JP2023122150A (en) * 2022-02-22 2023-09-01 Necプラットフォームズ株式会社 Hitting analysis system and hitting analysis method

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255379A (en) * 1985-05-08 1986-11-13 三菱電機株式会社 Foreign language pronunciation training apparatus
JPH01154189A (en) * 1987-12-11 1989-06-16 Kawai Musical Instr Mfg Co Ltd Enunciation training apparatus
JPH02249566A (en) * 1989-01-20 1990-10-05 Nec Corp Form educating device
JPH0326281A (en) * 1989-06-23 1991-02-04 Oyo Keisoku Kenkyusho:Kk Operation diagnosing device
JPH0816092A (en) * 1994-06-29 1996-01-19 Mitsubishi Electric Corp Simulator for training
JPH08272974A (en) * 1995-01-31 1996-10-18 Matsushita Electric Ind Co Ltd Hand action recognizing device
JPH11198075A (en) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp Behavior support system
JP2000048044A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Method and system for providing multimedia information and storage medium storing multimedia information providing program
JP2000293092A (en) * 1999-04-02 2000-10-20 Mitsubishi Electric Corp Simulation system
JP2002073826A (en) * 2000-08-31 2002-03-12 Tomotaka Marui Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training
JP2002244547A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Computer program for utterance leaning system and server device collaborating with the program

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61255379A (en) * 1985-05-08 1986-11-13 三菱電機株式会社 Foreign language pronunciation training apparatus
JPH01154189A (en) * 1987-12-11 1989-06-16 Kawai Musical Instr Mfg Co Ltd Enunciation training apparatus
JPH02249566A (en) * 1989-01-20 1990-10-05 Nec Corp Form educating device
JPH0326281A (en) * 1989-06-23 1991-02-04 Oyo Keisoku Kenkyusho:Kk Operation diagnosing device
JPH0816092A (en) * 1994-06-29 1996-01-19 Mitsubishi Electric Corp Simulator for training
JPH08272974A (en) * 1995-01-31 1996-10-18 Matsushita Electric Ind Co Ltd Hand action recognizing device
JPH11198075A (en) * 1998-01-08 1999-07-27 Mitsubishi Electric Corp Behavior support system
JP2000048044A (en) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> Method and system for providing multimedia information and storage medium storing multimedia information providing program
JP2000293092A (en) * 1999-04-02 2000-10-20 Mitsubishi Electric Corp Simulation system
JP2002073826A (en) * 2000-08-31 2002-03-12 Tomotaka Marui Composing device and method for portal site of partial content of desired media, and data base of portal site, and system and method for foreign language and culture /movement learning training
JP2002244547A (en) * 2001-02-19 2002-08-30 Nippon Hoso Kyokai <Nhk> Computer program for utterance leaning system and server device collaborating with the program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013034492A (en) * 2011-08-03 2013-02-21 Jvc Kenwood Corp Display device and display method
JP2023122150A (en) * 2022-02-22 2023-09-01 Necプラットフォームズ株式会社 Hitting analysis system and hitting analysis method

Also Published As

Publication number Publication date
JP4117604B2 (en) 2008-07-16

Similar Documents

Publication Publication Date Title
US10300362B2 (en) Virtual reality sports training systems and methods
TWI377055B (en) Interactive rehabilitation method and system for upper and lower extremities
US6394894B1 (en) Game device, collision determination method and information storing medium
RU2530708C2 (en) Association of animations
US9298263B2 (en) Show body position
US8418085B2 (en) Gesture coach
JP5632474B2 (en) Method and system for making visual display live-action through input learned from user
US20220212086A1 (en) Virtual reality sports training systems and methods
CN107943291B (en) Human body action recognition method and device and electronic equipment
CN107430781B (en) Data structure of computer graphics, information processing apparatus, information processing method, and information processing system
EP2985059B1 (en) Apparatus and method of user interaction
US10049483B2 (en) Apparatus and method for generating animation
TW201900250A (en) Team sports virtual reality training system
US20100004041A1 (en) Program, storage medium on which program is recorded, and game device
US9827495B2 (en) Simulation device, simulation method, program, and information storage medium
JP4683305B2 (en) Information processing apparatus and information processing program
JP4117604B2 (en) Information processing apparatus, information processing method, information processing program, and information processing program storage medium
JP4666233B2 (en) Information processing apparatus and information processing program
EP1260252A2 (en) Game program, game apparatus, and method for carrying out a game
JP7054276B2 (en) Physical activity support system, method, and program
WO2024034417A1 (en) Information processing device, information processing method, and program
WO2022230557A1 (en) Content generation device for generating content in accordance with exercise by user, and content generation method for generating content in accordance with exercise by user
JP5323671B2 (en) Data reproduction program, data reproduction apparatus, and data reproduction method
JP2004094668A (en) Image processor
JP2013039231A (en) Game apparatus, control method for game apparatus, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071102

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080328

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080410

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110502

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120502

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130502

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140502

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees