JP2000048206A - 画像処理装置および方法、並びに媒体 - Google Patents

画像処理装置および方法、並びに媒体

Info

Publication number
JP2000048206A
JP2000048206A JP11121128A JP12112899A JP2000048206A JP 2000048206 A JP2000048206 A JP 2000048206A JP 11121128 A JP11121128 A JP 11121128A JP 12112899 A JP12112899 A JP 12112899A JP 2000048206 A JP2000048206 A JP 2000048206A
Authority
JP
Japan
Prior art keywords
image
image data
category
data
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP11121128A
Other languages
English (en)
Inventor
Chisato Numaoka
千里 沼岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11121128A priority Critical patent/JP2000048206A/ja
Publication of JP2000048206A publication Critical patent/JP2000048206A/ja
Withdrawn legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 迅速に画像の学習と画像認識処理ができるよ
うにする。 【解決手段】 画像差分検出装置15により、フレーム
バッファ12とフレームバッファ13に記憶されている
画像の差分を演算し、さらに、その重心を求める。情報
収集装置16は、画像差分検出装置15で求められた重
心の周辺の領域の画像データのRGBヒストグラムデータ
と2値化データを生成する。カテゴリ形成装置21は、
コホネンネットワークにより構成され、RGBヒストグラ
ムデータと2値化データを元に、カテゴリ形成する。カ
テゴリ統計処理装置22は、カテゴリ形成装置21の出
力するカテゴリを統計処理し、リカレントニューラルネ
ットワークで構成される学習装置23に出力する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理装置およ
び方法、並びに媒体に関し、特に、入力される画像デー
タを迅速に学習し、リアルタイムで認識することができ
るようにした、画像処理装置および方法、並びに媒体に
関する。
【0002】
【従来の技術】図19は、従来の携帯型パーソナルコン
ピュータの構成例を表している。この構成例において
は、携帯型パーソナルコンピュータ200の本体201
に、キーボード202が設けられており、本体201に
対して開閉自在とされる開閉部203には、各種の情報
を表示するLCD204が設けられている。
【0003】このような携帯型パーソナルコンピュータ
200において、所定のサーバにアクセスし、3次元仮
想現実空間の画像データの提供を受け、LCD204に表
示させることができる。
【0004】このような場合において、ユーザ(また
は、そのアバタ)が仮想現実空間内を移動するとき、そ
の移動位置に対応して、3次元仮想現実空間の画像が変
化する。3次元仮想現実空間における移動位置を入力す
るのに、キーボード202を操作したり、図示せぬマウ
スを操作するようにすることも可能であるが、そのよう
な位置入力方法は、操作性並びに機能性が悪いといった
課題がある。
【0005】そこで、本出願人は、例えば、特願平9−
301095号として、図19に示すように、開閉部2
03にCCDビデオカメラ205を取り付け、これによりL
CD204の背面の画像を取り込むようにし、CCDビデオ
カメラ205により取り込まれた画像の変化から、携帯
型パーソナルコンピュータ200の向きを検出し、その
向きに対応した仮想現実空間の画像データの提供を受け
るようにすることを先に提案した。
【0006】先の提案のようにすれば、携帯型パーソナ
ルコンピュータ200の向きに対応した方向の仮想現実
空間の画像データをLCD204に表示させることがで
き、あたかも人間が、仮想現実空間内において、所定の
方向を向いたとき、自分自身の目で確認されるかのごと
き画像をLCD204に表示させることが可能となる。
【0007】
【発明が解決しようとする課題】しかしながら、先の提
案においては、CCDビデオカメラ205の出力から、そ
の向きを、迅速に求める方法について開示がなされてい
ない課題があった。
【0008】本発明はこのような状況に鑑みてなされた
ものであり、演算量を抑制し、迅速に方向を検出するこ
とができるようにするものである。
【0009】
【課題を解決するための手段】請求項1に記載の画像処
理装置は、入力された画像データと、その画像データを
移動した画像データとの差分の重心を演算する演算手段
と、演算手段により求められた重心の周辺の領域の画像
データの情報を収集する収集手段と、収集手段により収
集された情報から、カテゴリを形成する形成手段と、形
成手段により形成されたカテゴリを学習する学習手段と
を備えることを特徴とする。
【0010】請求項6に記載の画像処理方法は、入力さ
れた画像データと、その画像データを移動した画像デー
タとの差分の重心を演算する演算ステップと、演算ステ
ップで求められた重心の周辺の領域の画像データの情報
を収集する収集ステップと、収集ステップで収集された
情報から、カテゴリを形成する形成ステップと、形成ス
テップで形成されたカテゴリを学習する学習ステップと
を含むことを特徴とする。
【0011】請求項11に記載の媒体のプログラムは、
入力された画像データを処理する画像処理装置に、入力
された画像データと、その画像データを移動した画像デ
ータとの差分の重心を演算する演算ステップと、演算ス
テップで求められた重心の周辺の領域の画像データの情
報を収集する収集ステップと、収集ステップで収集され
た情報から、カテゴリを形成する形成ステップと、形成
ステップで形成されたカテゴリを学習する学習ステップ
とを含む処理を実行させることを特徴とする。
【0012】請求項16に記載の画像処理装置は、入力
された画像データと、その画像データを移動した画像デ
ータとの差分の重心を演算する演算手段と、演算手段に
より求められた重心の周辺の領域の画像データの情報を
収集する収集手段と、収集手段により収集された情報か
ら、カテゴリを選択するカテゴリ選択手段と、カテゴリ
選択手段によって選択されたカテゴリから記憶された画
像を選択する画像選択手段とを備えることを特徴とす
る。
【0013】請求項20に記載の画像処理方法は、入力
された画像データと、その画像データを移動した画像デ
ータとの差分の重心を演算する演算ステップと、演算ス
テップで求められた重心の周辺の領域の画像データの情
報を収集する収集ステップと、収集ステップで収集され
た情報から、カテゴリを選択するカテゴリ選択ステップ
と、カテゴリ選択手段によって選択されたがカテゴリか
ら記憶された画像を選択する画像選択ステップとを含む
ことを特徴とする。
【0014】請求項24に記載の媒体のプログラムは、
入力された画像データを処理する画像処理装置に、入力
された画像データと、その画像データを移動した画像デ
ータとの差分の重心を演算する演算ステップと、演算ス
テップで求められた重心の周辺の領域の画像データの情
報を収集する収集ステップと、収集ステップで収集され
た情報から、カテゴリを選択するカテゴリ選択ステップ
と、カテゴリ選択ステップで選択されたカテゴリから記
憶された画像を選択する画像選択ステップとを含む処理
を実行させることを特徴とする。
【0015】請求項1に記載の画像処理装置、請求項6
に記載の画像処理方法、および請求項11に記載の提供
媒体においては、入力された画像データと、その画像デ
ータを移動した画像データとの差分の重心の周辺の領域
の画像データからカテゴリが形成され、カテゴリが学習
される。
【0016】請求項16に記載の画像処理装置、請求項
20に記載の画像処理方法、および請求項24に記載の
媒体においては、入力された画像データと、その画像デ
ータを移動した画像データとの差分の重心の周辺の領域
の画像データからカテゴリが選択され、認識されたカテ
ゴリに基づいて、記憶された画像が選択される。
【0017】
【発明の実施の形態】以下に、本発明の実施の形態につ
いて説明する。本発明の画像処理装置も、その外観的構
成は、図19に示した携帯型パーソナルコンピュータ2
00と同様に構成される。ただし、その内部のCPUによ
り処理されるプログラムは、実質的に、図1の機能ブロ
ック図に示すような構成とされている。
【0018】図1に示すように、この画像処理装置は、
共通部1、画像学習装置2、画像認識装置3、制御装置
4、および記憶装置5により構成されている。共通部1
は、画像学習処理と画像認識処理のいずれにも用いられ
る。画像学習装置2は、画像学習処理を行う部分であ
り、画像認識装置3は、画像認識処理を行う部分であ
る。制御装置4は、共通部1、画像学習装置2、および
画像認識装置5を制御する。記憶装置5は、例えばハー
ドディスクあるいはCD-Rのような脱着可能媒体で構成さ
れ、画像データをファイルとして記憶する。
【0019】共通部1の画像入力部11は、CCDビデオ
カメラ205と、図示せぬファイル読み込み装置により
構成され、画像学習動作時においては、記憶装置5から
ファイルを読み込むファイル読み込み装置が用いられ、
画像認識処理を行う場合には、CCDビデオカメラ205
が用いられる。
【0020】画像移動装置14は、フレームバッファ1
2に記憶されている画像を、一定の時間間隔で、一定の
方向に一定の距離だけ移動した画像を生成し、フレーム
バッファ12に記憶させる。フレームバッファ13は、
フレームバッファ12に記憶された画像データの転送を
受け、記憶する。画像差分検出装置15は、フレームバ
ッファ12とフレームバッファ13に記憶された画像の
各ピクセル値を比較し、変化のあったピクセルを算定
し、変化のあったピクセルの総加平均をとることによ
り、重心に相当するピクセルの位置を演算し、その座標
を情報収集装置16に出力している。
【0021】情報収集装置16は、画像差分検出装置1
5より入力された重心位置を中心に、その周辺のピクセ
ルデータを抽出し、それらのピクセルデータのRGBヒス
トグラムデータを生成するとともに、周辺ピクセルデー
タの赤色成分のみを抽出し、所定の閾値を基準にして、
そのデータを2値化し、さらに、離散化する処理を実行
する。RGBヒストグラムデータと2値化データは、画像
学習装置2のカテゴリ形成装置21と、画像認識装置3
のカテゴリ選択装置31に供給されるようになされてい
る。
【0022】画像学習装置2のカテゴリ形成装置21
は、例えば、図2に示すように、コホネンネットワーク
(Kohonen network)51により構成される。図2の例
においては、コホネンネットワーク51は、入力層61
と出力層62により構成され、入力層61は、2つの入
力層61−1,61−2により構成され、入力層61−
1には、情報収集装置16から、この例の場合、121
ビットの2値化データが入力され、入力層61−2に
は、情報収集装置16から、この例の場合、12ビット
のRGBヒストグラムデータが入力される。コホネンネッ
トワーク51は、これらの入力に対して所定の係数を乗
算し、相互に加算することで、出力層62から64ビッ
トのカテゴリを出力する。
【0023】カテゴリ統計処理装置22は、図2に示す
ように、勝利数カウンタ71を有し、この勝利数カウン
タ71は、コホネンネットワーク51の出力層62のノ
ードに対応するノードを有し、出力層62の対応するノ
ードが、ウィナー(winner)として選択されたとき、対
応するノードの値を1増加させる。また、勝利数カウン
タ71は、勝利者カウンタ配列の値をカウンタ値の値の
総和が1になるように正規化し、学習装置23に出力し
ている。
【0024】学習装置23は、例えば、図2に示すよう
に、リカレントニューラルネットワーク81により構成
される。この構成例においては、リカレントニューラル
ネットワーク81は、入力層91、隠れ層92、および
出力層93より構成されている。入力層91は、2つの
入力層91−1,91−2により構成されている。入力
層91−1には、勝利数カウンタ71の64ビットの出
力が、各ノードに入力され、入力層91−2には、隠れ
層92の8ビットの出力が、各ノードに入力されるよう
になされている。出力層93は、画像数と同じ数のノー
ドで構成されている。出力層93の各ノードは、画像番
号に対応している。出力層93の各ノードの値と、教師
信号(画像番号)との誤差が小さくなるように、バック
プロパゲーションにより学習が行われるようになされて
いる。
【0025】画像認識装置3のカテゴリ選択装置31
は、図3に示すように、コホネンネットワーク101に
より構成される。このコホネンネットワーク101は、
2つの入力層111−1,111−2を有する入力層1
11と、出力層112から構成されている。このカテゴ
リ選択装置31を構成するコホネンネットワーク101
は、図2のカテゴリ形成装置21を構成するコホネンネ
ットワーク51に対応しており、両者は実質的に等しい
ものである。すなわち、カテゴリ形成装置21のコホネ
ンネットワーク51が、所定の学習処理を行った結果得
られたネットワークが、コホネンネットワーク101で
ある。コホネンネットワーク101は、入力データから
カテゴリを選択し、選択したカテゴリを画像選択装置3
2に出力している。
【0026】画像選択装置32は、図3に示すように、
リカレントニューラルネットワーク121により構成さ
れている。リカレントニューラルネットワーク121
は、2つの入力層131−1,131−2を有する入力
層131、隠れ層132、および出力層133から構成
されている。この画像選択装置32のリカレントニュー
ラルネットワーク121も、図2の学習装置23のリカ
レントニューラルネットワーク81に対応するネットワ
ークであり、両者は実質的に等しいものである。すなわ
ち、学習装置23のリカレントニューラルネットワーク
81が、学習を行った結果得られたネットワークが、画
像選択装置32のリカレントニューラルネットワーク1
21である。
【0027】図3に示すように、リカレントニューラル
ネットワーク121には、画像学習時の場合と異なり、
コホネンネットワーク101の出力が、勝利数カウンタ
71を介さずに、そのまま入力される。このとき、コホ
ネンネットワーク101の出力層112の出力は、ウィ
ナーノードのみが1で、他のノードは0となるように調
整される。
【0028】画像選択装置32のリカレントニューラル
ネットワーク121は、出力層133のノードの中の最
大の出力値を有するものが、所定の閾値を超えている場
合、その番号を認識画像の番号として画像表示部33に
出力するようになされている。
【0029】画像表示部33は、画像選択装置32から
の認識画像番号の供給を受けると、対応する画像を仮想
的な表示部に表示させ、必要に応じてLCD204に実際
に表示させるようになされている。
【0030】次に、図4のフローチャートを参照して、
図1の装置の画像学習処理時の動作について説明する。
最初に、ステップS1において、学習回数を表す変数c
に値1が初期設定される。ステップS2においては、処
理した画像の数を表す変数Lに値0が初期設定される。
さらにステップS2において、変数Lが学習する画像の
数より小さいか否かが判定され、いまの場合、小さいの
で、YESの判定が行われ、ステップS3に処理が進む。
ステップS3においては、画像入力部11が、制御装置
4を介して記憶装置5からL番目の画像ファイルを読み
出し、フレームバッファ12のサイズ分の画像データ
を、読み出した画像ファイルから取り出し、フレームバ
ッファ12に供給し、記憶させる。
【0031】ステップS4においては、カテゴリ学習の
回数を表す変数Nに1が初期設定され、変数Nが予め設
定されているカテゴリ学習の繰り返し回数と等しいか、
それより小さいか否かが判定される。いまの場合、N=
1であるので、Nは繰り返し回数より小さいと判定さ
れ、ステップS7に進み、ステップS7においてカテゴ
リ学習処理が実行される。このカテゴリ学習処理の詳細
は、図5のフローチャートに示されている。
【0032】カテゴリ学習時には、ステップS21にお
いて、画像差分検出装置15が、フレームバッファ12
とフレームバッファ13に記憶されている各ピクセル値
の差分を演算し、変化のあったピクセルを算定し、変化
のあったピクセルの総加平均を演算して、重心に相当す
るピクセルの位置を演算する。重心座標は、(cgX,
cgY)に設定される。なお、フレームバッファ13に
は、初期状態において、黒の画素データが記憶されてい
る。この重心座標は、画像差分検出装置15から、情報
収集装置16に出力される。
【0033】情報収集装置16は、ステップS22にお
いて、画像差分検出装置15から供給された重心座標
(cgX,cgY)の周辺領域のピクセルデータを抽出
する処理を実行する。すなわち、情報収集装置16は、
重心座標(cgX,cgY)から、上下左右にdピクセ
ル分の範囲の領域を周辺領域とし、そのピクセルデータ
を抽出し、これを2次元配列fieldに記憶させる。
【0034】次に、ステップS23において、情報収集
装置16は、カラーヒストグラム収集処理を実行する。
すなわち、周辺領域のピクセルデータのRGBのそれぞれ
のヒストグラムを作成する。これにより、例えば、各色
のレベルが0から255のいずれかの値で表されると
き、例えば、R(赤)の0乃至255の各レベル毎の画
素数のヒストグラムが生成される。同様に、G(緑)お
よびB(青)の0乃至255のレベル毎のピクセルの数
を表すヒストグラムが作成される。
【0035】情報収集装置16は、さらに、Rのヒスト
グラム中のピーク値をとる色番号(レベル番号)を0乃
至255の中から選択し、その値を16で割算した値を
得る。同様にして、GのヒストグラムおよびBのヒスト
グラム中のピーク値をとる色番号を16で割算した値が
演算される。これにより、3組の値からなるデータ(以
下、このデータをRGBヒストグラムデータと称する)が
得られる。
【0036】以上のようにして、RGBヒストグラムデー
タが得られたとき、情報収集装置16は、さらにステッ
プS24において、データを2値化(白黒化)する処理
を実行する。このデータを2値化する処理の詳細は、図
6に示されている。
【0037】すなわち、2値化処理においては、最初に
ステップS41において、情報収集装置16は、次式か
ら、2値化のための閾値となる値mを演算する。
【0038】m=(pct/100)×配列fieldのデ
ータ数ここで、pctは、周辺領域のピクセルデータの
うち、黒のピクセルデータの割合を表す。
【0039】次に、ステップS42において、情報収集
装置16は、Rのヒストグラムのデータ値を、レベル0
からレベル255の順に、順次累積する演算を実行し、
その累積値が、ステップS41で求めた値mを超えたと
きの色番号をtとする。
【0040】情報収集装置16は、ステップS43にお
いて、ステップS42で求めた値tと等しいか、それよ
り小さい色番号を有するピクセルを黒とし、値tより大
きい色番号を有するピクセルを白とすることで、Rのピ
クセルを白と黒のピクセルに2値化する処理を行う。
【0041】ステップS44において、情報収集装置1
6は、2次元配列fieldの縦と横のサイズを、それぞれ
1/10に分割する。すなわち、これにより、10×1
0個の部分領域に周辺領域のピクセルが区分されること
になる。情報収集装置16は、さらに、各部分領域毎
に、白のピクセルと黒のピクセルの数を数え、黒のピク
セルの数の方が、白のピクセルの数より多い場合には、
その部分領域の値を1とし、そうでなければ0とする。
これにより、周辺領域の離散2値化データが得られる。
次に、ステップS45において、情報収集装置16は、
周辺領域の1/100のサイズの配列B上に、ステップ
S44で計算された1と0を、それぞれ代入する。
【0042】以上に説明したような2値化処理が行われ
た後、図5のステップS25において、情報収集装置1
6は、ステップS45で生成した配列Bのデータ数を、
内蔵するバッファのデータ数BUFで割算した値が、予め
設定してある所定の閾値以上であるか否かを判定する。
ここで、BUFは1フレーム前の周辺領域の配列Bのデー
タ数であり、前回のフレームの画像データのステップS
26の処理で記憶されたものである。演算結果が、閾値
以上である場合には、すなわち、配列Bのデータ数が多
い場合には、ステップS26において、情報収集装置1
6は、ステップS45で得られた配列Bのデータを、内
蔵するバッファにコピーする。
【0043】以上のようにして、情報収集装置16によ
り、ステップS23において生成されたRGBヒストグラ
ムデータと、ステップS26においてバッファにコピー
された2値化データが、画像学習装置2のカテゴリ形成
装置21に供給される。カテゴリ形成装置21は、ステ
ップS27において、コホネンネットワークによりカテ
ゴリ学習処理を実行する。
【0044】以上の処理を、具体的な図を参照して説明
すると、図7に示すようになる。すなわち、画像差分検
出装置15が、差分画像の重心を演算すると、情報収集
装置16は、その重心の周辺領域を切り出し、その周辺
領域におけるRGBヒストグラムデータを生成する。図7
の例においては、(12,7,3)のRGBヒストグラム
データが生成されている。2進数で表すと、このRGBヒ
ストグラムデータは、(110001110011)と
なる。
【0045】一方、情報収集装置16は、ステップS4
2において、周辺領域のRのヒストグラムデータを抽出
し、ステップS43において、このR成分を所定の閾値
を基準として2値化する。情報収集装置16は、さらに
ステップS44において、この2値化データを10×1
0個の部分領域に区分(メッシュ離散化)し(図7の例
の場合、6×6個に区分されている)、各部分領域を白
と黒のピクセルの数から、1と0を割り当て、離散2値
化データを生成する。情報収集装置16は、さらにステ
ップS45において、この離散2値化データを配列Bに
代入する。
【0046】ステップS27のコホネンネットワークの
カテゴリ学習処理の詳細は、図8に示されている。図8
のステップS51において、カテゴリ形成装置21のコ
ホネンネットワーク51は、情報収集装置16からステ
ップS45で生成された配列Bのデータを1次元展開し
たものを入力層61−1に入力する。また、コホネンネ
ットワーク51は、情報収集装置16がステップS23
で生成したRGBヒストグラムデータの最大値の色番号を
16で割算した値を、入力層61−2に入力する。
【0047】次に、ステップS52において、コホネン
ネットワーク51は、出力層62のすべての出力ノード
に関して、次式を演算する。
【0048】vj=Σj(wij−xi)2 出力層62はまた、上記した式により得られたvのう
ち、最大の値を持つノードjをウィナー(winner)とす
る。
【0049】さらに、ステップS53において、コホネ
ンネットワーク51は、ウィナーのノードに対応する入
力の重み係数wijを、次に示す割合だけ変化させる。
【0050】Δwij=a(xi−wij) より正確には、次式に示す処理が行われる。
【0051】wij(t+1)=wij(t)+d(x
i−wij(t)) 以上のようにして、コホネンネットワーク51により、
ウィナーが決定されると、それがカテゴリ統計処理装置
22の勝利数カウンタ71に供給される。勝利数カウン
タ71は、ステップS28において、そのウィナーのノ
ードの値を1だけ増加させる。
【0052】ステップS25において、配列Bのデータ
数をバッファBUFのデータ数で割算した値が、所定の閾
値より小さいと判定された場合、ステップS26乃至ス
テップS28の処理はスキップされる。すなわち、この
場合には、配列Bのデータ量が少ないので、これらの処
理は省略されるのである。
【0053】図4に戻って、以上のようにして、ステッ
プS7でカテゴリ学習処理が実行された後、ステップS
8において画像移動装置14は、フレームバッファ12
の画像データをフレームバッファ13に移動させる。画
像移動装置14は、さらにステップS9において、フレ
ームバッファ12に記憶されている画像データをX方向
にa、並びにY方向にbだけ移動させたものを、画像入
力部11に、記憶装置5のファイルから読み出させ、フ
レームバッファ12に記憶させる。
【0054】例えば、図9に示すように、番号1乃至8
で示す8個の方向のいずれかの方向に移動された画像デ
ータが、フレームバッファ12に書き込まれる。8個の
方向は、aの値を、例えば、−4,0または+4のいず
れかとし、bの値を、−4,0または+4のいずれかと
することで決定される。このとき、画像データのないピ
クセルは、黒のピクセルデータとされる。
【0055】次に、ステップS4に戻り、カテゴリ学習
処理の回数を表す変数Nを1だけインクリメントし、そ
の値が、予め設定されている繰り返し回数以下であるか
否かを判定する。Nの値が繰り返し回数以下である場合
には、ステップS7に進み、上述した場合と同様に、そ
れ以降の処理が実行される。
【0056】ステップS4において、カテゴリ学習回数
Nが、予め設定された繰り返し回数より大きくなったと
判定された場合、ステップS5に進み、画像移動装置1
4は、ステップS9におけるデータのX方向の移動量a
と、Y方向の移動量bの組み合わせとして、他の組み合
わせがあるか否か、すなわち、設定されているa,bの
組み合わせで規定される方向以外に移動すべき方向があ
るか否か、を判定し、他の組み合わせがある場合には、
ステップS6に進み、移動量aとbの組み合わせを変更
する。そして、ステップS3に戻り、それ以降の処理が
繰り返し実行される。
【0057】ステップS5において、移動量aとbの組
み合わせに、他の組み合わせが存在しないと判定された
場合、ステップS2に戻り、学習に利用した画像パター
ンの数を表す変数Lが、1だけインクリメントされる。
そしてその値が、予め用意した画像パターン数と等しい
か、それより大きくなったか否かが判定される。変数L
が、画像パターン数より小さい場合には、ステップS3
に進み、上述した場合と同様の処理が繰り返し実行され
る。
【0058】ステップS2において、値Lが、予め用意
した画像パターン数と等しいかそれより大きくなったと
判定された場合、ステップS10に進み、制御装置4
は、画像学習回数を表す変数cが、コホネンネットワー
ク51の学習が収束する回数を表す値Mより小さいか否
かを判定する。変数cが、値Mより小さい場合、すなわ
ち、コホネンネットワーク51の学習がまだ収束してい
ない場合、制御装置4は、ステップS11に進み、変数
cを1だけインクリメントする。その後、ステップS2
に戻り、それ以降の処理が繰り返し実行される。
【0059】ステップS10において、変数cが、値M
と等しいか、それより大きくなったと判定された場合、
すなわち、コホネンネットワーク61の学習回数が学習
により得られる係数が収束するほど充分行われた場合、
ステップS12に進み、特徴学習処理が実行される。こ
の特徴学習処理の詳細は、図10に示されている。
【0060】すなわち、最初にステップS61におい
て、カテゴリ統計処理装置22は、勝利数カウンタ71
の配列の値を1に対して正規化し、学習装置23のリカ
レントニューラルネットワーク81の入力層91−1に
出力する。
【0061】リカレントニューラルネットワーク81
は、教師信号を、現在特徴分析の対象となっている画像
番号とし、バックプロパゲーション学習処理を実行す
る。
【0062】以上のようにして、例えば、図11に示す
ような複数の重心の周辺領域の特徴点からカテゴリに対
する多対一のマッピングが、コホネンネットワーク51
により学習されたことになる。また、カテゴリの統計的
集合から画像番号へのマッピングがリカレントニューラ
ルネットワーク81に学習されたことになる。
【0063】以上のようにして、学習処理が行われた
後、画像認識処理を行うことができる。この場合の処理
が、図12のフローチャートに示されている。最初にス
テップS71において、画像入力部11のCCDビデオカ
メラ205の出力する画像データが、フレームバッファ
12に供給され、記憶される。次に、ステップS72に
おいて、カテゴリテスト処理が実行される。このカテゴ
リテスト処理の詳細は、図13に示されている。
【0064】図13のフローチャートに示すステップS
81乃至ステップS88の処理のうち、ステップS81
乃至ステップS86の処理は、図5のステップS21乃
至ステップS26の処理と基本的に同様の処理である。
【0065】すなわち、ステップS81において、画像
差分検出装置15は、フレームバッファ12とフレーム
バッファ13のデータの差分をとり、その重心座標を
(cgX,cgY)に設定する。この重心座標は、情報
収集装置16に供給される。情報収集装置16は、ステ
ップS82において、重心座標(cgX,cgY)か
ら、上下左右にdピクセル分の周辺領域のデータを抽出
し、fieldという2次元配列に取り込む。そして、ステ
ップS83において、RGBヒストグラムデータを生成
し、ステップS84において、データ2値化処理を実行
する。
【0066】ステップS84において、2値化処理され
たデータは、ステップS85において、バッファBUFの
データ数で割算され、その値が予め設定してある所定の
閾値以上である場合には、ステップS86に進み、配列
Bの画像データがバッファにコピーされる。
【0067】次に、ステップS87において、情報収集
装置16が、ステップS83で生成したRGBヒストグラ
ムデータが、コホネンネットワーク101の入力層11
1−2に入力され、また、情報収集装置16が、ステッ
プS86で、バッファにコピーした周辺領域の2値化画
像データは、バッファから読み出され、コホネンネット
ワーク101の入力層111−1に入力される。上述し
たように、コホネンネットワーク101(コホネンネッ
トワーク51)においては、カテゴリが学習されてお
り、コホネンネットワーク101は、ステップS88に
おいて、入力層111に入力されたデータに対して係数
wijを乗算し、出力ノードの中で最大値を有するノー
ド番号をウィナーとして出力する。すなわち、コホネン
ネットワーク101に入力された画像データからカテゴ
リが選択される。
【0068】ステップS85において、ステップS84
で生成した2値化イメージデータの数をバッファBUFの
データ数で割算して得られた値が、所定の閾値より小さ
い場合には、ステップS86乃至ステップS88の処理
はスキップされる。
【0069】以上のようにして、図12のステップS7
2のカテゴリテスト処理が終了した後、ステップS73
に進み、特徴テスト処理が実行される。この特徴テスト
処理の詳細は、図14に示されている。
【0070】最初にステップS91において、コホネン
ネットワーク101のウィナーの値が、画像選択装置3
2のT個の配列のt%T番目に代入される。ここでt
は、特徴テストシステムを動作させたときを0とした場
合における時刻を表し、t%Tは、tをTで割ったとき
の余りを表す。次に、画像選択装置32は、ステップS
92で、T個の配列中の値を調べ、配列中に存在する番
号の入力層131の入力ノードの値を1とし、それ以外
を0とする。
【0071】さらに、ステップS93において、画像選
択装置32のリカレントニューラルネットワーク121
は、その出力層133から入力層131−1に入力され
たデータに対応する画像番号の値を出力する。そして、
画像選択装置32は、リカレントニューラルネットワー
ク121の出力層133の各ノードの出力する値のう
ち、最大の値のものが、閾値以上であれば、その出力ノ
ードの番号をrefとして画像表示部33に出力する。
【0072】以上のようにして、図12のステップS7
3の特徴テスト処理が完了したとき、ステップS74に
おいて、画像表示部33は、画像選択装置32より供給
されたrefに対応する番号の画像を、画像入力部11に
制御装置4を介して記憶装置5から取り込ませ、仮想的
な表示部に表示させる。
【0073】すなわち、予めCCDビデオカメラ205に
より撮像した画像を記憶装置5に記録しておき、その
後、CCDビデオカメラ205から取り込んだ画像を画像
認識し、認識した結果得られた画像を、その記憶装置5
から読み出し、LCD204に表示させる場合には、画像
表示部33は、記憶装置5から読み出した画像をLCD2
04に実際に表示させればよい。
【0074】しかしながら、この例の場合、LCD204
には、仮想現実空間の画像が表示されており、CCDビデ
オカメラ205より取り込んだ画像は、携帯型パーソナ
ルコンピュータ200の向きを検出するために利用され
ている。そこで、この例の場合においては、画像表示部
33は、refで参照される番号の画像を記憶装置5から
読み出すと、その画像に対応する方向(この方向も画像
に対応して記憶装置5に記憶されている)を読み出し、
その方向のデータを、必要に応じてサーバに供給し、サ
ーバから双方向に対応する仮想現実空間の画像データの
提供を受け、これをLCD204に表示させる。
【0075】次に、ステップS75において、画像移動
装置14は、フレームバッファ12に記憶されている画
像データをフレームバッファ13にコピーする。その
後、ステップS71に戻り、それ以降の処理が繰り返し
実行される。
【0076】同一の対象画像であれば、CCDビデオカメ
ラ205を移動することによって得られた重心の位置
は、ランダムな位置に発生するのではなく、ある特定の
部位につてのみ選択的に発生することが多い。例えば、
図11に示すような画像の場合、特徴点として示す位置
にだけ重心の位置が発生する。このことは、CCDビデオ
カメラ205の対象画像に対する角度、あるいは周囲の
光の状態などによる影響を受けにくいことを意味する。
【0077】そこで、上述したように、画像差分の重心
周辺の情報をカテゴリ化してラベルとみなし、1つの対
象画像をラベルの集合体として特徴付け、これらのラベ
ルに関して(カテゴリに関して)、画像学習を行えば、
対象画像全部を処理対象とする場合に較べて、処理対象
とする画像データを少なくすることができ、従って、演
算量を抑制することができ、結果的に、高速なリアルタ
イムでの画像認識処理が可能となる。
【0078】本発明によれば、次に示すような応用が可
能になる。家の中の風景を、部屋毎に、いろいろな場所
から写真撮影し、これらの撮像を、本発明の画像処理方
法によって学習させる。この学習させた結果を記録した
媒体を装備した状態で、本発明の画像処理装置を動作さ
せることにより、どの部屋をどの辺りから眺めているか
を認識することができる。本発明をPCのようなコンピュ
ータ上に実装したと仮定すると、PC上にある特定のアプ
リケーションプログラムと、特定の撮像を関連付けるよ
うなインタフェースを装備することによって、当該特定
の撮像が認識されるような条件下で、当該特定のアプリ
ケーションプログラムを動作させることが可能になる。
【0079】例えば、アプリケーションが料理のレシピ
であり、撮像がキッチンであれば、キッチンを認識する
ことによってレシピのアプリケーションが起動されるよ
うにすることができる。またアプリケーションがオーデ
ィオ装置のコントローラであれば、オーディオ装置が配
置されたような撮像と関連付けることにより、オーディ
オ装置周辺のイメージをキャプチャすることにより、オ
ーディオ装置のコントローラが起動されるようになる。
【0080】レシピの例を、図15乃至図17を用いて
説明する。ここで、図16は、図14における携帯型パ
ーソナルコンピュータ200におけるLCD204上のス
クリーンイメージを示すものである。まず学習登録モー
ドでは、図15のステップS101でアプリケーション
プログラムを選択する。これは、例えば図16において
LCD204上で、レシピ・アプリケーション303を起
動させ、これをマウスのようなポインティングデバイス
で選択してもよいし、あるいは特定のインタフェースの
メニューから可能なアプリケーションを選択させるよう
にしてもよい。
【0081】次にステップS102でシーンの撮影を行
い、一意的な画像番号を割り当てる。例えば図16にお
ける撮影対象301の周囲を図19の装置におけるCCD
ビデオカメラ205で撮影し、これに対して番号を割り
当てる。その後処理は2つに分かれ、一方ではステップ
S103において本発明における画像学習処理を行い、
もう一方ではステップS104において画像番号とレシ
ピ・アプリケーション303を関連付けてデータベース
に登録する。
【0082】認識モードについて図16と図17を用い
て説明する。まず図17のステップS111でシーンの
撮影を行う。このとき、認識装置である携帯型パーソナ
ルコンピュータ200のモードを認識モードに切り替え
る機能が携帯型パーソナルコンピュータ200に備わっ
ていると想定することもできるし、常に認識モードにな
っていると考えることも可能である。ここで撮影対象3
01を撮影することによって、CCDカメラからのイメー
ジ302のような撮像が得られる。
【0083】次に、ステップS112において、本発明
の画像認識処理を行い、結果としてステップS113に
おいて認識された画像番号を取り出す。さらに、この認
識された画像番号をキーとして、ステップS114にお
いて、アプリケーションプログラムであるレシピ・アプ
リケーション303を特定し、起動する。
【0084】なお、ここでは、CCDカメラからのイメー
ジ302やレシピ・アプリケーションは全てLCD204
上に表示されるとしたが、当然のことながら、他の実施
形態も可能である。例えば、図18に示すような実施形
態のシステムでは、レシピ・アプリケーションは、IEEE
1394のようなホームネットワーク上に結合されたホ
ームサーバ400上に存在し、携帯型パーソナルコンピ
ュータ403から無線基地局402などを介して指示さ
れることによって起動される。レシピ・アプリケーショ
ンのイメージは、携帯型パーソナルコンピュータ403
上に表示してもよいし、キッチンに配置した壁面ディス
プレイ401上に表示することも可能である。
【0085】ここで携帯型パーソナルコンピュータは、
ホームネットワークに無線リンクによって結合されると
想定したが、当然のことながら赤外線リンクでも、有線
リンクであっても構わない。最後に、本実施例では全て
携帯型パーソナルコンピュータは、図19に示すような
ものを想定してきたが、これた例えばウェアラブルコン
ピュータ、すなわち、身に着用することができるコンピ
ュータであってもよいことはいうまでもない。
【0086】
【発明の効果】以上の如く、請求項1に記載の画像処理
装置、請求項6に記載の画像処理方法、および請求項1
1に記載の媒体によれば、1つの画像周辺を移動させな
がら検出される画像の差分の重心周辺領域の画像データ
からカテゴリを形成し、移動中に得られた全てのカテゴ
リの集合に基づいて処理された統計情報を用いて画像学
習をしているので、認識時に認識装置が移動しながら撮
影を行っていることを考慮した迅速な学習が可能とな
る。
【0087】また請求項16に記載の画像処理装置、請
求項20に記載の画像処理方法、および請求項24に記
載の媒体によれば、1つの画像周辺を移動させながら検
出される画像の差分の重心周辺領域の画像データからカ
テゴリを形成し、移動中に得られたすべてのカテゴリの
集合に基づいて処理された統計情報を利用して画像認識
を行っているので、認識装置が固定されていないような
環境で撮影を行っている場合においてもリアルタイムで
頑健な画像認識を行うことができる。
【図面の簡単な説明】
【図1】本発明の画像処理装置の機能を示すブロック図
である。
【図2】図1の画像学習装置の構成例を示すブロック図
である。
【図3】図1の画像認識装置の構成例を示すブロック図
である。
【図4】図1の装置の画像学習処理を説明するフローチ
ャートである。
【図5】図4のステップS7のカテゴリ学習処理を説明
するフローチャートである。
【図6】図5のステップS24のデータの2値化処理を
説明するフローチャートである。
【図7】図5のステップS21乃至ステップS26の処
理を説明する図である。
【図8】図5のステップS27のコホネンネットワーク
によるカテゴリ学習処理を説明するフローチャートであ
る。
【図9】図4のステップS9の処理を説明する図であ
る。
【図10】図4のステップS12の特徴学習処理を説明
するフローチャートである。
【図11】図10の処理を説明するフローチャートであ
る。
【図12】図1の装置の画像認識処理を説明するフロー
チャートである。
【図13】図12のステップS72のカテゴリテスト処
理を説明するフローチャートである。
【図14】図12のステップS73の特徴テスト処理を
説明するフローチャートである。
【図15】アプリケーションプログラムと撮像シーンの
関連付けを説明するフローチャートである。
【図16】撮像シーンの認識によってアプリケーション
プログラムが起動されることを説明する図である。
【図17】撮像シーンの認識によりアプリケーションプ
ログラムが起動されることを説明するフローチャートで
ある。
【図18】本発明の実施例の一形態を示すシステム構成
図である。
【図19】従来の携帯型パーソナルコンピュータの構成
例を示す斜視図である。
【符号の説明】
1 共通部, 2 画像学習装置, 3 画像認識装
置, 11 画像入力部, 12,13 フレームバッ
ファ, 14 画像移動装置, 15 画像差分検出装
置, 16 情報収集装置, 21 カテゴリ形成装
置, 21 カテゴリ統計処理装置, 23 学習装
置, 31 カテゴリ選択装置, 32 画像選択装
置, 33 画像表示部, 51 コホネンネットワー
ク, 71 勝利数カウンタ, 81 リカレントニュ
ーラルネットワーク, 101 コホネンネットワー
ク, 121 リカレントニューラルネットワーク

Claims (27)

    【特許請求の範囲】
  1. 【請求項1】 入力された画像データと、その画像デー
    タを移動した画像データとの差分の重心を演算する演算
    手段と、 前記演算手段により求められた前記重心の周辺の領域の
    画像データの情報を収集する収集手段と、 前記収集手段により収集された情報から、カテゴリを形
    成する形成手段と、 前記形成手段により形成されたカテゴリを学習する学習
    手段とを備えることを特徴とする画像処理装置。
  2. 【請求項2】 前記形成手段の出力を統計処理して、前
    記学習手段に供給する統計処理手段をさらに備えること
    を特徴とする請求項1に記載の画像処理装置。
  3. 【請求項3】 前記形成手段は、コホネンネットワーク
    を有することを特徴とする請求項1に記載の画像処理装
    置。
  4. 【請求項4】 前記収集手段は、前記周辺の領域の画像
    データの情報として、RGBヒストグラムデータと2値化
    データを生成することを特徴とする請求項1に記載の画
    像処理装置。
  5. 【請求項5】 前記学習手段は、リカレントニューラル
    ネットワークを有することを特徴とする請求項1に記載
    の画像処理装置。
  6. 【請求項6】 入力された画像データを処理する画像処
    理装置の画像処理方法において、 入力された画像データと、その画像データを移動した画
    像データとの差分の重心を演算する演算ステップと、 前記演算ステップで求められた前記重心の周辺の領域の
    画像データの情報を収集する収集ステップと、 前記収集ステップで収集された情報から、カテゴリを形
    成する形成ステップと、 前記形成ステップで形成されたカテゴリを学習する学習
    ステップとを含むことを特徴とする画像処理方法。
  7. 【請求項7】 前記形成ステップでの処理の出力を統計
    処理して、前記学習ステップでの学習のために供給する
    統計処理ステップをさらに備えることを特徴とする請求
    項6に記載の画像処理方法。
  8. 【請求項8】 前記形成ステップは、コホネンネットワ
    ークによって出力を生成するステップを含むことを特徴
    とする請求項6に記載の画像処理方法。
  9. 【請求項9】 前記収集ステップは、前記周辺の領域の
    画像データの情報として、RGBヒストグラムデータと2
    値化データを生成するステップを含むことを特徴とする
    請求項6に記載の画像処理方法。
  10. 【請求項10】 前記学習ステップは、リカレントニュ
    ーラルネットワークによって学習を行うステップを含む
    ことを特徴とする請求項6に記載の画像処理方法。
  11. 【請求項11】 入力された画像データを処理する画像
    処理装置に、 入力された画像データと、その画像データを移動した画
    像データとの差分の重心を演算する演算ステップと、 前記演算ステップで求められた前記重心の周辺の領域の
    画像データの情報を収集する収集ステップと、 前記収集ステップで収集された情報から、カテゴリを形
    成する形成ステップと、 前記形成ステップで形成されたカテゴリを学習する学習
    ステップとを含むことを特徴とするプログラムを実行さ
    せる媒体。
  12. 【請求項12】 前記形成ステップの出力を統計処理し
    て、前記学習ステップでの学習のために供給する統計処
    理ステップをさらに備えることを特徴とする請求項11
    に記載の媒体。
  13. 【請求項13】 前記形成ステップは、コホネンネット
    ワークによって出力を生成するステップを含むことを特
    徴とする請求項11に記載の媒体。
  14. 【請求項14】 前記収集ステップは、前記周辺の領域
    の画像データの情報として、RGBヒストグラムデータと
    2値化データを生成するステップを含むことを特徴とす
    る請求項11に記載の媒体。
  15. 【請求項15】 前記学習ステップは、リカレントニュ
    ーラルネットワークによって学習を行うステップを含む
    ことを特徴とする請求項11に記載の媒体。
  16. 【請求項16】 入力された画像データと、その画像デ
    ータを移動した画像データとの差分の重心を演算する演
    算手段と、 前記演算手段により求められた前記重心の周辺の領域の
    画像データの情報を収集する収集手段と、 前記収集手段により収集された情報から、カテゴリを選
    択するカテゴリ選択手段と、 前記カテゴリ選択手段によって選択されたカテゴリから
    記憶された画像を選択する画像選択手段とを備えること
    を特徴とする画像処理装置。
  17. 【請求項17】 前記カテゴリ選択手段は、コホネンネ
    ットワークを有することを特徴とする請求項16に記載
    の画像処理装置。
  18. 【請求項18】 前記収集手段は、前記周辺の領域の画
    像データの情報として、RGBヒストグラムデータと2値
    化データを生成することを特徴とする請求項16に記載
    の画像処理装置。
  19. 【請求項19】 前記画像選択手段は、リカレントニュ
    ーラルネットワークを有することを特徴とする請求項1
    6に記載の画像処理装置。
  20. 【請求項20】 入力された画像データを処理する画像
    処理装置の画像処理方法において、 入力された画像データと、その画像データを移動した画
    像データとの差分の重心を演算する演算ステップと、 前記演算ステップで求められた前記重心の周辺の領域の
    画像データの情報を収集する収集ステップと、 前記収集ステップで収集された情報から、カテゴリを選
    択するカテゴリ選択ステップと、 前記カテゴリ選択手段によって選択されたがカテゴリか
    ら記憶された画像を選択する画像選択ステップとを含む
    ことを特徴とする画像処理方法。
  21. 【請求項21】 前記カテゴリ選択ステップは、コホネ
    ンネットワークによって出力を生成するステップを含む
    ことを特徴とする請求項20に記載の画像処理方法。
  22. 【請求項22】 前記収集ステップは、前記周辺の領域
    の画像データの情報として、RGBヒストグラムデータと
    2値化データを生成するステップを含むことを特徴とす
    る請求項20に記載の画像処理方法。
  23. 【請求項23】 前記画像選択ステップは、リカレント
    ニューラルネットワークによって画像選択を行うステッ
    プを含むことを特徴とする請求項20に記載の画像処理
    方法。
  24. 【請求項24】 入力された画像データを処理する画像
    処理装置に、 入力された画像データと、その画像データを移動した画
    像データとの差分の重心を演算する演算ステップと、 前記演算ステップで求められた前記重心の周辺の領域の
    画像データの情報を収集する収集ステップと、 前記収集ステップで収集された情報から、カテゴリを選
    択するカテゴリ選択ステップと、 前記カテゴリ選択ステップで選択されたカテゴリから記
    憶された画像を選択する画像選択ステップとを含むこと
    を特徴とするプログラムを実行させる媒体。
  25. 【請求項25】 前記カテゴリ選択ステップは、コホネ
    ンネットワークによって出力を生成するステップを含む
    ことを特徴とする請求項24に記載の媒体。
  26. 【請求項26】 前記収集ステップは、前記周辺の領域
    の画像データの情報として、RGBヒストグラムデータと
    2値化データを生成するステップを含むことを特徴とす
    る請求項24に記載の媒体。
  27. 【請求項27】 前記画像選択ステップは、リカレント
    ニューラルネットワークによって画像選択を行うステッ
    プを含むことを特徴とする請求項24に記載の媒体。
JP11121128A 1998-05-26 1999-04-28 画像処理装置および方法、並びに媒体 Withdrawn JP2000048206A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11121128A JP2000048206A (ja) 1998-05-26 1999-04-28 画像処理装置および方法、並びに媒体

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP14374698 1998-05-26
JP10-143746 1998-05-26
JP11121128A JP2000048206A (ja) 1998-05-26 1999-04-28 画像処理装置および方法、並びに媒体

Publications (1)

Publication Number Publication Date
JP2000048206A true JP2000048206A (ja) 2000-02-18

Family

ID=26458566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11121128A Withdrawn JP2000048206A (ja) 1998-05-26 1999-04-28 画像処理装置および方法、並びに媒体

Country Status (1)

Country Link
JP (1) JP2000048206A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001091462A1 (fr) * 2000-05-25 2001-11-29 Thomson Licensing Sa Dispositif et procede de synchronisation de programmes audiovisuels diffuses et d'informations complementaires
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム
JP2017111660A (ja) * 2015-12-17 2017-06-22 日本電信電話株式会社 映像パターン学習装置、方法、及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001091462A1 (fr) * 2000-05-25 2001-11-29 Thomson Licensing Sa Dispositif et procede de synchronisation de programmes audiovisuels diffuses et d'informations complementaires
US7015972B2 (en) 2000-05-25 2006-03-21 Thomson Licensing Device and method for synchronizing broadcast audio-visual programs and complementary data
JP2009245236A (ja) * 2008-03-31 2009-10-22 Institute Of Physical & Chemical Research 情報処理装置、情報処理方法、およびプログラム
JP2017111660A (ja) * 2015-12-17 2017-06-22 日本電信電話株式会社 映像パターン学習装置、方法、及びプログラム

Similar Documents

Publication Publication Date Title
US11650659B2 (en) User input processing with eye tracking
JP5227911B2 (ja) 監視映像検索装置及び監視システム
Bobick et al. The recognition of human movement using temporal templates
JP6013241B2 (ja) 人物認識装置、及び方法
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
JP4597391B2 (ja) 顔領域検出装置およびその方法並びにコンピュータ読み取り可能な記録媒体
JP5527423B2 (ja) 画像処理システム、画像処理方法、及び画像処理プログラムを記憶した記憶媒体
US20060210112A1 (en) Behavior recognition system
JP2021522591A (ja) 三次元実物体を実物体の二次元のスプーフと区別するための方法
JP7068745B2 (ja) 学習済モデル提案システム、学習済モデル提案方法、およびプログラム
JP6334767B1 (ja) 情報処理装置、プログラム、及び情報処理方法
WO2022009301A1 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2018200640A (ja) 画像処理装置および画像処理方法
TWI397024B (zh) 影像畫面自動選取方法及其電腦系統
US6526167B1 (en) Image processing apparatus and method and provision medium
JP3860560B2 (ja) 表示インタフェース方法および装置
WO2021250808A1 (ja) 画像処理装置、画像処理方法、及びプログラム
KR20070102360A (ko) 동영상의 동적 피사체 추출 및 영상합성 서비스 방법
JP2000048206A (ja) 画像処理装置および方法、並びに媒体
JP2006343989A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP4972013B2 (ja) 情報提示装置、情報提示方法、情報提示プログラムおよびそのプログラムを記録した記録媒体
JP4750758B2 (ja) 注目領域抽出方法、注目領域抽出装置、コンピュータプログラム、及び、記録媒体
JP7211496B2 (ja) 教師データ生成装置
JP6744536B1 (ja) 目線撮像方法及び目線撮像システム
JP7211495B2 (ja) 教師データ生成装置

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060704