JP2009251940A - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2009251940A
JP2009251940A JP2008099198A JP2008099198A JP2009251940A JP 2009251940 A JP2009251940 A JP 2009251940A JP 2008099198 A JP2008099198 A JP 2008099198A JP 2008099198 A JP2008099198 A JP 2008099198A JP 2009251940 A JP2009251940 A JP 2009251940A
Authority
JP
Japan
Prior art keywords
tracking target
tracking
candidate
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008099198A
Other languages
English (en)
Inventor
Takamasa Yamano
高将 山野
Tomoyuki Otsuki
知之 大月
Kenji Takahashi
健治 高橋
Tetsujiro Kondo
哲二郎 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008099198A priority Critical patent/JP2009251940A/ja
Publication of JP2009251940A publication Critical patent/JP2009251940A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】オブジェクトの追尾中において、ユーザからの補正指示に応じた所定の位置に追尾点を補正することができるようにする。
【解決手段】撮像部21がオブジェクトの周囲の画像を撮像し、移動するオブジェクトの追尾点を追尾対象検出部22が検出する。オブジェクト追尾部23は、オブジェクトの追尾点を追尾し、追尾結果を追尾位置補正部24に出力する。追尾位置補正部24は、指示入力部29を介してユーザから追尾位置の補正が指示された場合、オブジェクト追尾部23からの追尾結果にユーザからの補正値を反映し、その補正状況に応じた拡大率で拡大して画像ディスプレイ25に出力する。本発明は、監視カメラシステムに適用できる。
【選択図】図1

Description

本発明は、情報処理装置および方法並びにプログラムに関し、特に、オブジェクトの追尾前または追尾中において追尾対象を簡単かつ正確に指定することができるようになった情報処理装置および方法並びにプログラムに関する。
従来、動画像を移動するオブジェクトの中からユーザが指示したものを追尾対象として、その追尾対象を追尾する手法が多く提案されている(特許文献1乃至3参照)。
特開平6−14232号公報 特開2007−272732号公報 特開2007−274543号公報
しかしながら、この様に追尾を行う際には、追尾対象を指定する手法が問題となる。
従来の各種指示手法は、ユーザがスティック操作等で直接的に追尾対象を指定する手法(以下、直接指定手法と称する)と、なんらかのアルゴリズムによって全自動で対象を指定する手法(以下、自動指定手法と称する)とに大別できる。
しかしながら、直接指定手法では一般的に、ユーザにとって極めて負荷が重く、特に動画像から所望の対象を指定することはなかなか難しいという問題がある。
一方で、自動指定手法では、操作は極めて容易になる反面、ユーザが所望するオブジェクトが追尾対象として必ずしも選ばれない場合があるという問題がある。
また、多くの場合、初めに追尾対象が指定された後、全自動で追尾処理が行われる。ただし、実際には画像のノイズやオクルージョン、オブジェクトの変形等、様々な要因によって、全自動処理で所望の追尾結果を得ることは極めて困難である。その結果、追尾が外れてしまうことが往々にして起こる。この様な場合の従来の補正手法について、従来幾つかの手法が提案されてきた。ただし、基本的に、リアルタイム修正は行われていない。
一方、上述した特許文献2には、リアルタイムに補正を行いながら追尾を行う機能自体は開示されている。この機能は、追尾に失敗した時にはその場で補正できる非常に便利な機能である。しかしながら、初期設定の煩わしさ、あるいは大きく外れてしまったり別のオブジェクトに移りたいと思った時の不便さに関する解決法は、特許文献2には開示は勿論示唆もされていない。
また、特許文献3には、追尾対象候補を抽出して提示し、その中からユーザが選択するコンセプトについての示唆がなされている。しかしながら、候補抽出手法については具体的な開示はなく、一般的かつ抽象的な開示に止まっている。また、時間方向の対応づけに関する開示もないため、実際に操作したときに、時間遷移と共に、追尾対象候補がパタパタ切り替わり、ユーザが反応しきれないという問題も生ずる。また、提示手法について、いくつかの例が開示されている。ただし、何れの例も、基本的に画面内への重畳を想定しているため、原画,候補,ズーム画面を同時に俯瞰しながら操作することができない。その結果、現在どの状態でどのオブジェクトを選択しているかが分かりにくいという問題も生じていた。
本発明はこのような状況に鑑みてなされたものであり、オブジェクトの追尾前または追尾中において追尾対象を簡単かつ正確に指定することができるようにするものである。
本発明の一側面の情報処理装置は、動画像中を移動するオブジェクトのうちの追尾対象を追尾する追尾手段と、前記動画像を構成する単位画像毎に、前記追尾対象の候補を抽出する候補抽出手段と、前記候補抽出手段により前記単位画像毎に抽出された前記候補について、時間方向の対応づけを行う制御手段と、前記制御手段により時間方向の対応付けが行われた前記候補の表示を制御する表示制御手段と、前記表示制御手段により表示の制御が行われた前記候補の中から、前記追尾対象を指定する指定手段とを備える。
前記制御手段は、第1の時刻の単位画像に含まれる各オブジェクトの代表点をそれぞれ求め、前記第1の時刻の前の第2の時刻の単位画像に含まれる前記候補の代表点に対応する、前記第1の時刻の単位画像中の対応点を求め、前記各代表点のうちの前記対応点と距離が最短の代表点を、前記第1の時刻の候補として決定する。
前記制御手段は、さらに、前記対応点から前記最短の代表点までの距離が第1の閾値以下である場合、前記最短の代表点を前記第1の時刻の候補として決定し、前記距離が第1の閾値を超えていた場合、前記対応点を前記第1の時刻の候補として決定する。
前記制御手段は、さらに、前記距離が第1の閾値を超えた状態の前記単位画像の連続枚数が、第2の閾値を超えた場合、前記追尾対象候補に選ばれていない代表点を、前記第1の時刻の候補として決定する。
前記表示制御手段は、さらに、表示画面の第1の領域に、前記動画像の原画像または前記追尾対象の拡大画像を表示させ、前記表示画面の第2の領域に前記候補を表示させる制御を行う。
前記表示制御手段は、前記拡大画像を前記第1の領域に表示させている場合、さらに、前記原画像の縮小画像を前記第2の領域に表示させる制御を行う。
本発明の一側面の情報処理方法およびプログラムは、上述した本発明の一側面の情報処理装置に対応する情報処理方法およびプログラムである。
本発明の一側面の情報処理装置および方法並びにプログラムにおいては、動画像中を移動するオブジェクトのうちの追尾対象を追尾する処理として、前記動画像を構成する単位画像毎に、前記追尾対象の候補が抽出され、前記単位画像毎に抽出された前記追尾対象の候補について、時間方向の対応づけが行われ、時間方向の対応付けが行われた前記候補が表示され、表示された前記候補の中から、前記追尾対象が指定される。
以上のごとく、本発明の一側面によれば、オブジェクトの追尾前または追尾中において追尾対象を簡単かつ正確に指定することができるようになる。
以下、本発明の実施の形態について図を参照して説明する。
なお、本実施の形態では、動画像の処理単位として、フレームを採用する。ただし、処理単位は、フレームに限定されず、例えばフィールド等でも構わない。以下、このようなフィールドやフレームといった動画像の処理単位を、単位画像と称する。即ち、本発明は、任意の単位画像に対する処理に適用可能であり、以下に説明するフレームは単位画像の例示にしか過ぎない点留意すべきである。
図1は、本発明が適用される情報処理装置の一実施の形態としての画像処理装置11の構成例を示している。
画像処理装置11は、操作部21、表示部22、追尾部23、制御部24、および候補抽出部25から構成されている。
操作部21は、ユーザ操作による指示を制御部24に伝達する。追尾対象を指定するユーザ操作の手法としては、追尾対象の位置を直接的に指定する手法と、抽出された追尾対象候補の中から選択的に選ぶ手法の2通りが存在する。操作部21は、例えば、赤外線や電波を使ったリモートコントローラ、キーボードやマウス等から構成することができる。
表示部22は、追尾対象と、候補抽出部25により抽出された追尾対象候補とを含む画像を、出力画像として出力する。
例えば、図2に示されるように、丸形状のオブジェクト31、三角形状のオブジェクト32、および、四角形状のオブジェクト33が含まれる画像が、入力画像として入力されたとする。そして、追尾対象がオブジェクト31であったとする。また、追尾対象候補が、オブジェクト32およびオブジェクト33であったとする。この場合、表示部22は、追尾対象の位置座標を制御部24から受け取り、入力画像にマーク等を重畳し、追尾候補を切り出して例えば画面右側の所定領域(以下、候補表示領域とそれぞれ称する)に付加する。即ち、図2の例では、追尾対象であるオブジェクト31に対して、×印のマークが重畳される。そして、画面右側の候補表示領域41のうちの、上から順に、枠41aには追尾対象であるオブジェクト31が、枠41bには追尾対象候補であるオブジェクト32が、枠41cには追尾対象候補であるオブジェクト33が、それぞれ切り出されて表示される。
また例えば、表示部22は、追尾対象の位置座標を制御部24から受け取り、その位置座標を中心として入力画像を拡大表示する。その際、追尾対象候補は上述の例と同様に切り出されて、画面右側の候補表示領域41に表示される。この際、図3に示されるように、表示部22は、画面右側の候補表示領域41の1つの枠(図3の例では図中一番上の枠41a)に、原画像を縮小表示させる。これにより、ユーザは、ズーム画像とともに、全体俯瞰も同時にできるようになる。
追尾部23は、制御部21により指示された追尾対象を追尾する。なお、制御部21により指示される追尾対象とは、本実施の形態では、操作部21に対するユーザ操作により指示された対象となる。
追尾部23の追尾手法自体は、特に限定されない。例えば、一般的に知られているブロックマッチング法を採用することができる。また例えば、特開2005-301984号公報や特開2005-303983号公報に記載されている手法を採用することもできる。
また、追尾部23は、追尾を行う際に、例えば特許文献2に記載されている補正等を組み合わせることもできる。この場合、ユーザにとっては、意図したユーザ操作がより一段と実現し易くなる。
制御部24は、ユーザ操作による指示を操作部21を介して受け取り、追尾部23に送る。また、制御部24は、追尾部23から追尾結果(例えば追尾対象の位置座標)を受け取り、表示部22に送る。また、制御部24は、候補抽出部25からの候補抽出結果(例えば追尾対象候補の位置座標) を受け取り、表示部22に送る。
候補抽出部25は、入力画像から、ユーザが追尾対象として所望するであろう対象を、追尾対象候補として抽出して、制御部24に送る。なお、追尾対象候補の抽出手法については後述する。
図4は、画像処理装置11の画像処理の一例を説明するフローチャートである。
図4の例は、追尾手法として、2フレーム間のブロックマッチング法を採用した場合の例である。ただし、追尾手法として別の手法を採用してもよいことは言うまでもない。
ステップS1において、制御部24は、ユーザが追尾対象の位置を指定し、追尾開始を指示したか否かを判定する。
指示されていないと判定された場合、ステップS1においてNOであると判定されて、処理はステップS2に進む。
ステップS2において、制御部24は、ユーザが候補抽出部25から得られた追尾対象候補を選択したか否かを判定する。
選択されていないと判定された場合、処理はステップS1に戻され、それ以降の処理が繰り返される。
即ち、任意のフレームにおいて、ユーザは、所望の追尾対象を指定することができる。この場合の指定手法としては、例えばリモートコントローラ等で構成される操作部21を用いて追尾対象の位置を直接的に設定する手法と、抽出された追尾対象候補の中から選択する手法の2通りがある。前者の手法による指定がなされた場合、ステップS1においてYESであると判定されて、処理はステップS3に進む。また、後者の手法による指定がなされた場合、ステップS2においてYESであると判定されて、処理はステップS3に進む。
ステップS3において、追尾部23は、制御部24の制御に基づいて、設定した追尾点を元に追尾を開始する。
ステップS4において、画像処理装置11は、次フレームを入力する。
ステップS5において、候補抽出部25は、追尾対象候補を抽出する。ただし、抽出手法の具体例については後述する。
ステップS6において、制御部24は、ユーザが候補表示領域41に表示された原画縮小図を選択したか否かを判定する。
候補表示領域41に原画縮小図が表示されている場合とは、図3の出力画像に示されるように、追尾対象(図3の例ではオブジェクト31)が拡大表示(ズーム)されている状態である。そこで、ユーザは、このズーム状態を解除したい場合、操作部21を操作して、候補表示領域41のうちの原画縮小図が表示された枠41aを選択することができる。かかるユーザ操作がなされた場合、ステップS6においてYESであると判定されて、処理はステップS12に進む。ステップS12において、表示部22は、ズーム状態を解除する。これにより、出力画像は、図2の状態に戻る。その後、処理はステップS1に戻され、それ以降の処理が繰り返される。
これに対して、ステップS6において、ユーザが候補表示領域41に表示された原画縮小図を選択していないと判定された場合、処理はステップS7に進む。
ステップS7において、制御部24は、ユーザが候補抽出部25から得られた追尾対象候補を選択したか否かを判定する。
ここでは、後述するステップS10の処理により、出力画像の状態は図3の状態である。即ち、画面右側の候補表示領域41のうちの、枠41bには追尾対象候補であるオブジェクト32が、枠41cには追尾対象候補であるオブジェクト33が、それぞれ表示されている状態である。この状態で、ユーザは、例えば追尾対象を変更したいと所望した場合、変更を希望する追尾対象候補を選択することができる。具体的には例えば、オブジェクト32を追尾対象としたい場合、ユーザは、操作部21を操作して、候補表示領域41のうちの枠41bを選択すればよい。また例えば、オブジェクト33を追尾対象としたい場合、ユーザは、操作部21を操作して、候補表示領域41のうちの枠41cを選択すればよい。かかるユーザ操作がなされた場合、ステップS7においてYESであると判定されて、処理はステップS8に進む。ステップS8において、制御部24は、対象位置を選択した追尾対象候補に移動する。これにより、処理はステップS10に進む。
これに対して、追尾対象候補が選択されない場合、ステップS7においてNOであると判定されて、処理はステップS9に進む。ステップS9において、追尾部23は、現フレームと、ステップS4の処理で入力された次フレームとの間でブロックマッチング処理を行うことで、次フレームにおける対象位置を算出する。これにより、処理はステップS10に進む。
ステップS10において、表示部22は、対象位置をズームして出力する。
ステップS11において、制御部24は、ユーザからの追尾終了の指示があったか否かを判定する。
例えば、ユーザが操作部21を操作して追尾終了を指示した場合、ステップS11においてYESであると判定されて、図4の例の画像処理は終了となる。
これに対して、追尾終了が指示されていない場合、ステップS11においてNOであると判定されて、処理はステップS4に戻され、それ以降の処理が繰り返される。
具体的には例えば、画像処理装置11は、このような画像処理を実行することで、ユーザからの次のような指示に応じて、次のようなことを行うことができる。
例えば、出力画像の状態が図2の状態であったとする。即ち、3つの追尾対象または追尾対象候補がそれぞれ、画面右側の候補表示領域41の枠41a乃至41cに表示されていたとする。そして、操作部21がリモートコントローラで構成されており、そのうちのaボタン、bボタン、およびcボタンのそれぞれが、枠41a、枠41b、および枠41cのそれぞれに対応付けられているとする。
この場合、ボタンk(kはa乃至cのうちの何れか)がユーザにより押下されると、ステップS1の処理でYESであると判定される。そして、ボタンkに対応する枠41kに表示された追尾対象候補の中央の点等が追尾点として設定される。これにより、ステップS3において、その追尾点の追尾が開始される。即ち、追尾点として設定された追尾対象候補が追尾対象に設定される。そして、ステップS4乃至S10の処理により、追尾対象がズームアップ表示される。例えば追尾対象がオブジェクト31であった場合には、出力画像は図3に示される状態になる。
その後さらに、ユーザは、追尾対象を変更したいと所望した場合、所望の追尾対象候補が表示された枠41k(ただし、図3の例では、kはbかcの何れかになる)に対応するボタンkを押下するだけでよい。この場合、ステップS7の処理でYESであると判定され、押下されたボタンkに対応する追尾対象候補のの中央の点等が対象位置(追尾点)として設定され、その対象位置を中心にズームアップ表示が行われる。
一方、出力画像の状態が図3の状態で、ユーザは、ズーム状態を解除したいと所望した場合、ボタンaを押下するだけでよい。即ち、ボタンaは、全体を俯瞰するための原画縮小画が表示された枠41aと対応付けられている。よって、ステップS6の処理でYESであると判定されて、ステップS12の処理で、ズーム状態が解除される。
次に、追尾対象候補を抽出するための手法(以下、候補抽出手法と称する)の具体例について説明する。
本例では、候補抽出手法は、次の第1の段階と第2の段階とに大別される。第1の段階とは、画像内から動オブジェクトを抽出する段階(以下、動オブジェクト抽出段階と称する)の手法である。第2の段階とは、抽出された動オブジェクトについて、時間的対応を取ることで連続した追尾対象候補とする段階(以下、時間連続対応づけ段階と称する)の手法である。
以下、動オブジェクト抽出段階と時間連続対応段階とのそれぞれについて、その順番で個別に説明していく。
まず、動オブジェクト抽出段階について説明する。
候補抽出部25は、入力画像(処理対象フレーム)の全画面内から、動オブジェクト領域を抽出する。
この場合の動オブジェクト領域抽出手法については、特に限定されない。例えば、安易かつ精度の高い手法として、全画面動きを検出し、画面中の代表ブロック毎にその全画面動き先との差分を求め、その差分値と代表ブロックのアクティビティの大小関係から前景(動オブジェクト) を抽出する、といった手法を採用できる。また例えば、特開2004-310595号公報に記載されているような手法、即ち、次フレーム、次々フレーム間の動きベクトルの相関が高いブロックを動オブジェクト領域とみなす、とった手法を採用してもよい。また例えば、特開2004-207786号公報に記載されているような手法、即ち、ブロックの動きの相関性から動オブジェクト領域を検出する、といった手法を採用してもよい。
候補抽出部25は、上述の様にして求められた各動オブジェクト領域に対して、それぞれ重心を求め、その重心を各動オブジェクト代表点とする。
次に、時間連続対応づけ段階について説明する。
動オブジェクト抽出段階において抽出された動オブジェクト代表点を追尾対象候補として提示する際に、提示する順番を考えないで無作為に提示を行うと、次のような問題が生ずる。即ち、追尾対象候補が時間方向で切り替わったり、新たな追尾対象候補が生成されたり、追尾対象候補が消失したりして、追尾対象候補の時間方向連続性がなくなるため、ユーザが反応しきれない、といった問題が生ずる。
そこで、本実施の形態では、動オブジェクト抽出段階において抽出された動オブジェクト代表点に対して、時間方向の対応づけを行うことにする。これにより、追尾対象候補は、ユーザにとって選択しやすい追尾対象候補となる。
時間連続対応づけ段階の処理としては、例えば図5のフローチャートに従った処理を採用することができる。
ステップS21において、候補抽出部25は、次フレームを処理対象フレームとして、処理対象フレームの動オブジェクト代表点を求める。
なお、ステップS21の処理とは、動オブジェクト抽出段階の処理である。よって、正確には、次のステップS22以降の処理が、時間連続対応づけ段階の処理の一例となる。
ステップS22において、候補抽出部25は、処理対象フレームが初期フレームであるか否かを判定する。
処理対象フレームが初期フレームの場合、ステップS22においてYESであると判定されて、処理はステップS27に進む。ステップS27において、候補抽出部25は、追尾対象候補に選ばれていない動オブジェクト代表点から、新たに追尾対象候補を選択する。その後、処理はステップS30に進む。なお、ステップS30以降の処理については後述する。
これに対して、処理対象フレームが初期フレーム以外の場合、ステップS22においてNOであると判定されて、処理はステップS23に進む。
ステップS23において、候補抽出部25は、各追尾対象候補に対して、マッチングにより、次フレーム(処理対象フレーム)における対応点を求める。
ステップS24において、候補抽出部25は、処理対象フレームにおいて、各対応点に対して、最も近い動オブジェクト代表点までの距離を求める。
ステップS25において、候補抽出部25は、距離がしきい値以下であるか否かを判定する。
距離がしきい値以下である場合、ステップS25においてYESであると判定されて、処理はステップS29に進む。ステップS29において、候補抽出部25は、最も近い動オブジェクト代表点を、追尾対象候補とする。具体的には例えば、図6のtフレーム(現フレーム)において右上側の動オブジェクト代表点が追尾対象候補となっているものについては、t-1フレーム(次フレームである処理対象フレーム)においては、「最も近い動オブジェクト代表点」が追尾対象候補になる。
これに対して、距離がしきい値を超えている場合、ステップS25においてNOであると判定されて、処理はステップS26に進む。ステップS26において、候補抽出部25は、距離がしきい値を超えた連続フレーム数が、しきい値以上であるか否かを判定する。
なお、連続フレーム数と比較されるしきい値は、当然ながら、距離と比較されるしきい値とは独立した別のしきい値である。
距離がしきい値を超えた連続フレーム数が、しきい値以上である場合、ステップS26の処理でYESであると判定されて、処理はステップS27に進む。即ち、追尾対象候補は消滅したとして、別の追尾対象候補が新たに選択されるのである。
これに対して、距離がしきい値を超えた連続フレーム数が、しきい値未満である場合、ステップS26の処理でNOであると判定されて、処理はステップS28に進む。ステップS28において、候補抽出部25は、求めた対応点をそのまま追尾対象候補にする。具体的には例えば、図6のtフレーム(現フレーム)において左下側の動オブジェクト代表点が追尾対象候補となっているものについては、t-1フレーム(次フレームである処理対象フレーム)においては、「対応点」がそのまま追尾対象候補になる。
このようにして、ステップS27乃至S29のうちの何れかの処理が終了すると、処理はステップS30に進む。ステップS30において、候補抽出部25は、全ての追尾対象候補に対して処理が終了したか否かを判定する。
まだ全ての追尾対象候補に対して処理が終了していない場合、ステップS30においてNOであると判定されて、処理はステップS25に戻され、それ以降の処理が繰り返される。
即ち、処理対象フレームの各追尾対象候補に対して、ステップS25乃至S30のループ処理が繰り返し施され、次フレームの追尾対象候補が決定されていく。そして、全ての追尾対象候補に対して処理が終了した場合、ステップS30においてYESであると判定されて、処理はステップS31に進む。
ステップS31において、候補抽出部25は、全フレームについて処理が終了したか否かを判定する。
ステップS31において、全フレームについて処理がまだ処理が終了していないと判定された場合、次々フレームが処理対象フレームとなって、処理はステップS21に戻され、それ以降の処理が繰り返される。
これに対して、ステップS31において、全フレームについて処理が終了したと判定された場合、図5の例の画像処理は終了となる。
以下、図7乃至図12の具体例を用いて、候補抽出部25による図5の例の画像処理についてさらに説明する。
図7に示されるように、現フレームの追尾対象候補は、オブジェクト71乃至74の各動オブジェクト代表点(図示せず)であったとする。この場合、ステップS23の処理で次フレームにおける対応点として、点P1乃至点P3が求められる。
ここで、オブジェクト71乃至74の各動オブジェクト代表点が、図8に示されるように、点O1乃至点O4であったとする。即ち、前回のステップS21の処理で、動オブジェクト代表点O1乃至O4が求まっていたとする。
対応点P1に対し、最も近い動オブジェクト代表点O1までの距離がしきい値以下であったとする。この場合、ステップS25の処理でYESと判定されて、図9に示されるように、ステップS29の処理で動オブジェクト代表点O1が、追尾対象候補となる。その結果、候補表示領域41の枠41bには、動オブジェクト代表点O1により特定されるオブジェクト71が表示される。
同様に、対応点P2に対し、最も近い動オブジェクト代表点O2までの距離がしきい値以下であったとする。この場合、ステップS25の処理でYESと判定されて、図9に示されるように、ステップS29の処理で動オブジェクト代表点O2が、追尾対象候補となる。その結果、候補表示領域41の枠41aには、動オブジェクト代表点O2により特定されるオブジェクト72が表示される。
また、対応点P3に対し、最も近い動オブジェクト代表点O3までの距離がしきい値以下であったとする。この場合、ステップS25の処理でYESと判定されて、図9に示されるように、ステップS29の処理で動オブジェクト代表点O3が、追尾対象候補となる。その結果、候補表示領域41の枠41cには、動オブジェクト代表点O3により特定されるオブジェクト73が表示される。
ここで例えば、仮に前回のステップS21の処理で、オブジェクト73の動オブジェクト代表点の抽出に失敗し、図10に示されるように、オブジェクト73とは離れた位置に動オブジェクト代表点ONGが求められていたとする。この場合、対応点P3に対し、最も近い動オブジェクト代表点ONGまでの距離がしきい値を超えることになるので、ステップS25の処理でNOであると判定される。そして、ステップS26の処理でNOであると判定された場合には、図10に示されるように、ステップS28の処理で、対応点P3がそのまま、追尾対象候補となる。その結果、候補表示領域41の枠41cには、対応点P3により特定されるオブジェクト73が表示される。
また例えば、次フレームにおいてオブジェクト73が消失してしまったとする。この場合、対応点P3に対し、最も近い動オブジェクト代表点とは、図11に示されるように点O4になる。この場合も、ステップS25の処理で距離がしきい値を超えている(NOである)と判定されることになる。よって、ステップS26の処理でNOであると判定された場合には、図11に示されるように、ステップS28の処理で、対応点P3がそのまま、追尾対象候補となる。この場合、対応点P3により特定されるオブジェクト73は次フレームでは消失してしまっているので、候補表示領域41の枠41cには何も表示されない。
その後、このような状態、即ち、対応点P3に対して、最も近い動オブジェクト代表点O4の距離がしきい値を超えた状態が何フレームも続いたとする。この場合、ステップS26の処理でYESであると判定されて、ステップS27の処理で、追尾対象候補に選ばれていない動オブジェクト代表点から、新たに追尾対象候補が選択されることになる。例えば図12の例では、追尾対象候補に選ばれていない動オブジェクト代表点O4が、新たに追尾対象候補として選択される。その結果、候補表示領域41の枠41cには、動オブジェクト代表点O4により特定されるオブジェクト73が表示される。
以上説明したように、図1の画像処理装置11等本発明が適用される情報処理装置は、次のような効果を奏することが可能になる。即ち、ユーザは、従来の様に追尾対象を直接指定する煩わしさから開放される。即ち、ユーザにとっては、信号処理によって検出された追尾対象候補の中からズームしたい対象(追尾対象)を選ぶという簡易な操作を行うだけで、所望のズーム画像を得ることができようになる。
ここで重要な点は、ユーザが全て指示するのではなく、装置側が全自動で判断するのでもなく、ユーザと装置が協調することで、少ない操作で所望の操作を実現するところにある点である。
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図13は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成の例を示すブロック図である。
図13において、CPU(Central Processing Unit)101は、ROM(Read Only Memory)102、または記憶部108に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)103には、CPU101が実行するプログラムやデータなどが適宜記憶される。これらのCPU101、ROM102、およびRAM103は、バス104により相互に接続されている。
CPU101にはまた、バス104を介して入出力インタフェース105が接続されている。入出力インタフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続されている。CPU101は、入力部106から入力される指令に対応して各種の処理を実行する。そして、CPU101は、処理の結果を出力部107に出力する。
入出力インタフェース105に接続されている記憶部308は、例えばハードディスクからなり、CPU101が実行するプログラムや各種のデータを記憶する。通信部109は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。
また、通信部109を介してプログラムを取得し、記憶部108に記憶してもよい。
入出力インタフェース105に接続されているドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部108に転送され、記憶される。
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図13に示されるように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compajct Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111、または、プログラムが一時的もしくは永続的に格納されるROM102や、記憶部108を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部109を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した画像処理装置の構成例を示すブロック図である。 図1の画像処理装置の入力画像と出力画像の一例を示す図である。 図1の画像処理装置の入力画像と出力画像の一例を示す図である。 図1の画像処理装置の画像処理の一例を説明するフローチャートである。 図1の画像処理装置の画像処理の一例を説明するフローチャートである。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 図5の画像処理の一部の処理を具体例を用いて説明する図である。 本発明を適用した監視カメラシステムの少なくとも一部をパーソナルコンピュータで構成した場合の構成例を示すブロック図である。
符号の説明
11 画像処理装置, 21 操作部, 22 表示部, 23 追尾部, 24 制御部, 25 候補抽出部, 101 CPU, 102 ROM, 103 RAM, 108 記憶部, 111 リムーバブルメディア

Claims (8)

  1. 動画像中を移動するオブジェクトのうちの追尾対象を追尾する追尾手段と、
    前記動画像を構成する単位画像毎に、前記追尾対象の候補を抽出する候補抽出手段と、
    前記候補抽出手段により前記単位画像毎に抽出された前記候補について、時間方向の対応づけを行う制御手段と、
    前記制御手段により時間方向の対応付けが行われた前記候補の表示を制御する表示制御手段と、
    前記表示制御手段により表示の制御が行われた前記候補の中から、前記追尾対象を指定する指定手段と
    を備える情報処理装置。
  2. 前記制御手段は、第1の時刻の単位画像に含まれる各オブジェクトの代表点をそれぞれ求め、前記第1の時刻の前の第2の時刻の単位画像に含まれる前記候補の代表点に対応する、前記第1の時刻の単位画像中の対応点を求め、前記各代表点のうちの前記対応点と距離が最短の代表点を、前記第1の時刻の候補として決定する
    請求項1に記載の情報処理装置。
  3. 前記制御手段は、さらに、前記対応点から前記最短の代表点までの距離が第1の閾値以下である場合、前記最短の代表点を前記第1の時刻の候補として決定し、前記距離が第1の閾値を超えていた場合、前記対応点を前記第1の時刻の候補として決定する
    請求項2に記載の情報処理装置。
  4. 前記制御手段は、さらに、前記距離が第1の閾値を超えた状態の前記単位画像の連続枚数が、第2の閾値を超えた場合、前記追尾対象候補に選ばれていない代表点を、前記第1の時刻の候補として決定する
    請求項3に記載の情報処理装置。
  5. 前記表示制御手段は、さらに、表示画面の第1の領域に、前記動画像の原画像または前記追尾対象の拡大画像を表示させ、前記表示画面の第2の領域に前記候補を表示させる制御を行う
    請求項1に記載の情報処理装置。
  6. 前記表示制御手段は、前記拡大画像を前記第1の領域に表示させている場合、さらに、前記原画像の縮小画像を前記第2の領域に表示させる制御を行う
    請求項5に記載の情報処理装置。
  7. 情報処理装置が、動画像中を移動するオブジェクトのうちの追尾対象を追尾するステップとして、
    前記動画像を構成する単位画像毎に、前記追尾対象の候補を抽出し、
    前記単位画像毎に抽出された前記追尾対象の候補について、時間方向の対応づけを行い、
    時間方向の対応付けが行われた前記候補の表示を制御し、
    表示の制御が行われた前記候補の中から、前記追尾対象を指定する
    ステップを含む情報処理方法。
  8. コンピュータに実行させるステップのうち、動画像中を移動するオブジェクトのうちの追尾対象を追尾するステップとして、
    前記動画像を構成する単位画像毎に、前記追尾対象の候補を抽出し、
    前記単位画像毎に抽出された前記追尾対象の候補について、時間方向の対応づけを行い、
    時間方向の対応付けが行われた前記候補の表示を制御し、
    表示の制御が行われた前記候補の中から、前記追尾対象を指定する
    ステップを含むプログラム。
JP2008099198A 2008-04-07 2008-04-07 情報処理装置および方法、並びにプログラム Withdrawn JP2009251940A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008099198A JP2009251940A (ja) 2008-04-07 2008-04-07 情報処理装置および方法、並びにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008099198A JP2009251940A (ja) 2008-04-07 2008-04-07 情報処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2009251940A true JP2009251940A (ja) 2009-10-29

Family

ID=41312585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008099198A Withdrawn JP2009251940A (ja) 2008-04-07 2008-04-07 情報処理装置および方法、並びにプログラム

Country Status (1)

Country Link
JP (1) JP2009251940A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134322A (ja) * 2009-12-23 2011-07-07 Intel Corp モデル・ベースの競技場位置合わせ
WO2014064878A1 (ja) 2012-10-23 2014-05-01 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
WO2014122884A1 (en) 2013-02-06 2014-08-14 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
WO2018105006A1 (ja) * 2016-12-05 2018-06-14 Eizo株式会社 画像処理装置、画像表示装置及びプログラム
WO2019070011A1 (ja) * 2017-10-05 2019-04-11 パナソニックIpマネジメント株式会社 移動体追跡装置及び移動体追跡方法

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011134322A (ja) * 2009-12-23 2011-07-07 Intel Corp モデル・ベースの競技場位置合わせ
US8553982B2 (en) 2009-12-23 2013-10-08 Intel Corporation Model-based play field registration
WO2014064878A1 (ja) 2012-10-23 2014-05-01 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
US10187610B2 (en) 2012-10-23 2019-01-22 Sony Corporation Controlling display based on an object position in an imaging space
WO2014122884A1 (en) 2013-02-06 2014-08-14 Sony Corporation Information processing apparatus, information processing method, program, and information processing system
US9870684B2 (en) 2013-02-06 2018-01-16 Sony Corporation Information processing apparatus, information processing method, program, and information processing system for achieving a surveillance camera system
WO2018105006A1 (ja) * 2016-12-05 2018-06-14 Eizo株式会社 画像処理装置、画像表示装置及びプログラム
WO2019070011A1 (ja) * 2017-10-05 2019-04-11 パナソニックIpマネジメント株式会社 移動体追跡装置及び移動体追跡方法
EP3694205A4 (en) * 2017-10-05 2020-08-12 Panasonic Intellectual Property Management Co., Ltd. MOBILE ENTITY TRACKING DEVICE AND MOBILE ENTITY TRACKING METHOD
JPWO2019070011A1 (ja) * 2017-10-05 2020-11-05 パナソニックIpマネジメント株式会社 移動体追跡装置及び移動体追跡方法
JP7246005B2 (ja) 2017-10-05 2023-03-27 パナソニックIpマネジメント株式会社 移動体追跡装置及び移動体追跡方法
US11638068B2 (en) 2017-10-05 2023-04-25 Panasonic Intellectual Property Management Co., Ltd. Mobile entity tracking device and method for tracking mobile entity

Similar Documents

Publication Publication Date Title
JP4429241B2 (ja) 画像処理装置及び方法
US8629897B2 (en) Image processing device, image processing method, and program
US8289402B2 (en) Image processing apparatus, image pickup apparatus and image processing method including image stabilization
US8274570B2 (en) Image processing apparatus, image processing method, hand shake blur area estimation device, hand shake blur area estimation method, and program
JP5703448B2 (ja) 画像表示装置及び画像表示方法
JP4698754B2 (ja) シーンチェンジ検出方法および装置
JP6682559B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び記憶媒体
JP2009063822A (ja) 画像表示制御装置、画像表示制御方法、プログラム、および記録媒体
JP5091976B2 (ja) 映像表示装置、映像表示方法及び映像表示プログラム
JP5987306B2 (ja) 画像処理装置、画像処理方法、プログラム
JP5066497B2 (ja) 顔検出装置及び方法
JP2013162333A (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2009251940A (ja) 情報処理装置および方法、並びにプログラム
US10237488B2 (en) Image capturing apparatus and image capturing method
JP6500535B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP4513039B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US9111363B2 (en) Video playback apparatus and video playback method
JP5783696B2 (ja) 撮像装置、オートズーム方法、及び、プログラム
US20130342712A1 (en) Photographing control apparatus and photographing control method
JP5884723B2 (ja) 画像合成装置、画像合成方法及びプログラム
JP2006094053A (ja) フォトムービー作成方法および装置、並びにフォトムービー作成プログラム
JP2008203756A (ja) 映像信号処理装置、映像表示装置、映像信号処理方法
JP2009055160A (ja) 撮像装置、および撮像方法
JP6274272B2 (ja) 画像処理装置、画像処理方法、プログラム
JP2015180048A (ja) 画像処理装置及び画像処理方法

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20110607