JP4482778B2 - 画像処理装置および画像処理方法、並びに記録媒体 - Google Patents

画像処理装置および画像処理方法、並びに記録媒体 Download PDF

Info

Publication number
JP4482778B2
JP4482778B2 JP2000274766A JP2000274766A JP4482778B2 JP 4482778 B2 JP4482778 B2 JP 4482778B2 JP 2000274766 A JP2000274766 A JP 2000274766A JP 2000274766 A JP2000274766 A JP 2000274766A JP 4482778 B2 JP4482778 B2 JP 4482778B2
Authority
JP
Japan
Prior art keywords
object extraction
image
processes
screen
result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000274766A
Other languages
English (en)
Other versions
JP2002092613A (ja
Inventor
哲二郎 近藤
寿一 白木
秀雄 中屋
裕二 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000274766A priority Critical patent/JP4482778B2/ja
Priority to US09/950,019 priority patent/US6934414B2/en
Publication of JP2002092613A publication Critical patent/JP2002092613A/ja
Priority to US11/144,296 priority patent/US7340097B2/en
Application granted granted Critical
Publication of JP4482778B2 publication Critical patent/JP4482778B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Description

【0001】
【発明の属する技術分野】
本発明は、画像処理装置および画像処理方法、並びに記録媒体に関し、特に、例えば、容易な操作で、的確なオブジェクト抽出を行うことができるようにする画像処理装置および画像処理方法、並びに記録媒体に関する。
【0002】
【従来の技術】
画像から、いわゆる前景等となっている物体の部分であるオブジェクトを抽出する方法としては、様々な手法が提案されている。
【0003】
即ち、例えば、特開平10−269369号公報には、あるフレームについて、オブジェクトの輪郭を検出することにより、オブジェクトを抽出し、その次のフレームについては、前のフレームのオブジェクトの周辺を探索して、オブジェクトの輪郭を検出し、さらに、その検出結果に基づいて、オブジェクトを抽出することを繰り返す方法が記載されている。
【0004】
また、例えば、ある画素の画素値と似た画素値を有する画素を探索し、そのような画素でなる領域を、オブジェクトとして抽出する方法等もある。
【0005】
【発明が解決しようとする課題】
しかしながら、従来のオブジェクト抽出方法では、装置が、あらかじめ決められた閾値その他のパラメータに基づいて、オブジェクトの抽出を行うため、ある特定の特徴を有する画像からのオブジェクト抽出は良好に行うことができるが、他の特徴を有する画像からのオブジェクト抽出を良好に行うことができないことがあった。
【0006】
そこで、オブジェクト抽出時に用いるパラメータを可変に設定する方法が考えられるが、パラメータを可変にしても、ある値に設定されたパラメータが適している部分の抽出は良好に行うことができるが、そのパラメータが適していない部分の抽出を良好に行うことができない場合があり、その結果、オブジェクト全体を的確に抽出することが困難であった。
【0007】
また、例えば、ユーザに、オブジェクトの輪郭を指定してもらい、その指定された輪郭に基づいて、オブジェクトを抽出する方法があるが、この場合、オブジェクトを的確に抽出するには、ユーザが、オブジェクトの輪郭を、細部にわたって指定する必要があり、ユーザの操作負担が大であった。
【0008】
本発明は、このような状況に鑑みてなされたものであり、容易な操作で、的確なオブジェクト抽出を行うことができるようにするものである。
【0009】
【課題を解決するための手段】
本発明の一側面の画像処理装置、又は、記録媒体は、画像から所定のオブジェクトを抽出する画像処理装置であって、注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出手段と、前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択手段と、前記選択手段において選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映手段と、前記複数の処理によるオブジェクト抽出結果の順位付けを行うときに操作される操作手段と、前記オブジェクト抽出結果の順位付けに基づいて、前記複数の処理の内容を決定する決定手段とを備え、前記複数の処理は、異なる閾値を用いた処理であり、前記決定手段は、前記複数の処理によるオブジェクト抽出結果に対して、ユーザから順位付けの入力があった場合、その順位付けに基づいて、第1位のオブジェクト抽出結果を得たときに用いられた第1位の閾値と、第2位のオブジェクト抽出結果を得たときに用いられた第2位の閾値との間の値を、次の前記複数の処理のうちの1つの処理に用いられる閾値に決定する画像処理装置、又は、画像処理装置として、コンピュータを機能させるためのプログラムが記録された記録媒体である。
【0010】
本発明の一側面の画像処理方法は、画像から所定のオブジェクトを抽出する画像処理方法であって、注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出ステップと、前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択ステップと、前記選択ステップにおいて選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映ステップと、ユーザからの前記オブジェクト抽出結果の順位付けに基づいて、前記複数の処理の内容を決定する決定ステップとを備え、前記複数の処理は、異なる閾値を用いた処理であり、前記決定ステップでは、前記複数の処理によるオブジェクト抽出結果に対して、前記複数の処理によるオブジェクト抽出結果の順位付けを行うときに操作される操作手段が操作されることにより、ユーザから順位付けの入力があった場合、その順位付けに基づいて、第1位のオブジェクト抽出結果を得たときに用いられた第1位の閾値と、第2位のオブジェクト抽出結果を得たときに用いられた第2位の閾値との間の値を、次の前記複数の処理のうちの1つの処理に用いられる閾値に決定する画像処理方法である。
【0012】
本発明の一側面においては、注目している注目画面の画像から、複数の処理によってオブジェクトが抽出され、前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものが、ユーザからの入力に基づいて選択される。そして、その選択されたオブジェクト抽出結果が、最終的なオブジェクト抽出結果に反映される。前記複数の処理は、異なる閾値を用いた処理であり、前記複数の処理によるオブジェクト抽出結果に対して、前記複数の処理によるオブジェクト抽出結果の順位付けを行うときに操作される操作手段が操作されることにより、ユーザから順位付けの入力があった場合、その順位付けに基づいて、第1位のオブジェクト抽出結果を得たときに用いられた第1位の閾値と、第2位のオブジェクト抽出結果を得たときに用いられた第2位の閾値との間の値が、次の前記複数の処理のうちの1つの処理に用いられる閾値に決定される。
【0013】
【発明の実施の形態】
図1は、本発明を適用した画像処理装置の一実施の形態のハードウェア構成例を示している。
【0014】
この画像処理装置は、コンピュータをベースに構成されており、コンピュータには、後述するようなオブジェクト抽出を行うための一連の処理を実行するプログラム(以下、適宜、オブジェクト抽出処理プログラムという)がインストールされている。
【0015】
なお、画像処理装置は、このように、コンピュータにプログラムを実行させることによって構成する他、それ専用のハードウェアにより構成することも可能である。
【0016】
ここで、オブジェクト抽出処理プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録される。
【0017】
あるいはまた、オブジェクト抽出処理プログラムは、フロッピーディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリなどのリムーバブル記録媒体111に、一時的あるいは永続的に格納(記録)される。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウエアとして提供することができる。
【0018】
なお、オブジェクト抽出処理プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送し、コンピュータでは、そのようにして転送されてくるオブジェクト抽出処理プログラムを、通信部108で受信し、内蔵するハードディスク105にインストールすることができる。
【0019】
コンピュータは、CPU(Central Processing Unit)102を内蔵している。CPU102には、バス101を介して、入出力インタフェース110が接続されており、CPU102は、入出力インタフェース110を介して、ユーザによって、キーボードや、マウス、マイク等で構成される入力部107が操作等されることにより指令が入力されると、それにしたがって、ROM(Read Only Memory)103に格納されているオブジェクト抽出処理プログラムを実行する。あるいは、また、CPU102は、ハードディスク105に格納されているオブジェクト抽出処理プログラム、衛星若しくはネットワークから転送され、通信部108で受信されてハードディスク105にインストールされたオブジェクト抽出処理プログラム、またはドライブ109に装着されたリムーバブル記録媒体111から読み出されてハードディスク105にインストールされたオブジェクト抽出処理プログラムを、RAM(Random Access Memory)104にロードして実行する。これにより、CPU102は、後述するようなフローチャートにしたがった処理、あるいは後述するブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、LCD(Liquid CryStal Display)やスピーカ等で構成される出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
【0020】
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
【0021】
また、プログラムは、1のコンピュータにより処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
【0022】
図2は、図1の画像処理装置の機能的構成例を示している。なお、この機能的構成は、図1のCPU102がオブジェクト抽出処理プログラムを実行することによって実現される。
【0023】
ストレージ1は、オブジェクトを抽出する対象の動画の画像データを記憶する。また、ストレージ1は、処理制御部7から供給される、後述するような各フレームの履歴情報等も記憶する。
【0024】
注目フレーム処理部2は、ストレージ1に記憶された画像データの所定のフレームを注目フレームとして、その注目フレームの画像データを読み出し、処理制御部7からの制御にしたがい、注目フレームに関する処理を行う。
【0025】
即ち、注目フレーム処理部2は、注目フレームバッファ21、背景バッファ22、オブジェクトバッファ23、およびセレクタ24等から構成されている。注目フレームバッファ21は、ストレージ1から読み出された注目フレームの画像データを記憶する。背景バッファ22は、注目フレームバッファ21に記憶された注目フレームの画像のうち、後述するオブジェクトバッファ23に記憶された部分以外の残りを、背景画像として記憶する。オブジェクトバッファ23は、後述するオブジェクト抽出部3で抽出される注目フレームのオブジェクトを記憶する。セレクタ24は、注目フレームバッファ21に記憶された注目フレーム、背景バッファ22に記憶された背景画像、またはオブジェクトバッファ23に記憶されたオブジェクトのうちのいずれか1つを選択し、表示部5に供給する。
【0026】
オブジェクト抽出部3は、処理制御部7の制御にしたがい、注目フレームバッファ21に記憶された注目フレームから、複数の処理によってオブジェクトを抽出する。
【0027】
即ち、オブジェクト抽出部3は、境界検出部31、切り出し部32、および結果処理部33等から構成されている。境界検出部31は、注目フレームバッファ21に記憶された注目フレームの画像の境界部分を検出し、その境界部分と、境界部分でない部分(以下、適宜、非境界部分という)とを表す2値で構成される、複数種類(ここでは、例えば、3種類)の境界画像を作成する。切り出し部32は、境界検出部31において作成された3つの境界画像を参照し、注目フレームバッファ21に記憶された注目フレームから、オブジェクトを構成する領域を切り出す。さらに、切り出し部32は、3つの出力バッファ32A乃至32Cを有しており、3種類の境界画像を参照して切り出した領域を、出力バッファ32A乃至32Cにそれぞれ記憶させる。結果処理部33は、切り出し部32が有する3つの出力バッファ32A乃至32Cに対応して、3つの結果バッファ33A乃至33Cを有しており、オブジェクトバッファ23に記憶されたオブジェクトの抽出結果に、出力バッファ32A乃至32Cの記憶内容それぞれを合成して、その3つの合成結果を、結果バッファ33A乃至33Cにそれぞれ記憶させる。さらに、結果処理部33は、ユーザがマウス9を操作することによって与えられる入力に基づいて、結果バッファ33A乃至33Cの記憶内容のうちのいずれかを選択し、オブジェクトバッファ23の記憶内容に反映させる。
【0028】
履歴管理部4は、処理制御部7の制御の下、履歴情報を管理する。
【0029】
即ち、履歴管理部4は、指定位置記憶部41、履歴画像記憶部42、およびパラメータテーブル記憶部43等から構成されている。指定位置記憶部41は、ユーザがマウス9を操作することにより入力した注目フレーム上の位置の座標の履歴を記憶する。履歴画像記憶部42は、オブジェクト抽出部42における処理の内容の履歴を表す履歴画像を記憶し、パラメータテーブル記憶部43は、その履歴画像を構成する画素値としてのIDに対応付けて、オブジェクト抽出部3における処理の内容を表すパラメータを記憶する。即ち、パラメータテーブル記憶部43は、オブジェクト抽出部3における処理の内容を表すパラメータを、ユニークなIDと対応付けて記憶する。そして、履歴画像記憶部42は、オブジェクトを構成する画素ごとに、オブジェクトを構成する画素として抽出するのに用いた処理の内容に対応するIDを記憶する。従って、オブジェクトを構成するある画素を、オブジェクトとして抽出するのに用いた処理の内容は、その画素の履歴画像における画素値としてのIDに対応付けられている、パラメータテーブル記憶部43のパラメータを参照することで認識することができる。
【0030】
ここで、履歴画像記憶部42には、上述のように、画素をオブジェクトとして抽出したときの処理の内容を表すパラメータに対応付けられているIDを、画素値として、そのような画素値で構成される画像が記憶されるため、その画像は、オブジェクト抽出に用いた処理の内容の履歴を表していることから、履歴画像と呼んでいる。また、以下、適宜、指定位置記憶部41、履歴画像記憶部42、およびパラメータテーブル記憶部43における記憶内容をまとめて、履歴情報という。
【0031】
なお、指定位置記憶部41、履歴画像記憶部42、およびパラメータテーブル記憶部43は、少なくとも2つのバンクを有しており、バンク切り替えによって、注目フレームと、その注目フレームの1フレーム前のフレーム(前フレーム)についての履歴情報を記憶することができるようになっている。
【0032】
表示部5は、セレクタ24が出力する画像(注目フレームの画像、背景画像、またはオブジェクト)と、結果処理部33の結果バッファ33A乃至33Cに記憶された画像を表示する。
【0033】
動き検出部6は、処理制御部7の制御の下、注目フレームの画像の、前フレームの画像を基準とする動きベクトルを検出し、処理制御部7に供給する。
【0034】
即ち、動き検出部6は、前フレームバッファ61を内蔵しており、ストレージ1から、前フレームの画像データを読み出し、前フレームバッファ61に記憶させる。そして、動き検出部6は、前フレームバッファ61に記憶された前フレームの画像データと、注目フレーム処理部2の注目フレームバッファ21に記憶された注目フレームの画像データとを対象としたブロックマッチング等を行うことにより、動きベクトルを検出して、処理制御部7に供給する。
【0035】
処理制御部7は、イベント検出部8から供給されるイベント情報等に基づき、注目フレーム処理部2、オブジェクト抽出部3、履歴管理部4、および動き検出部6を制御する。さらに、処理制御部7は、イベント検出部8から供給されるイベント情報や、履歴管理部4で管理されている履歴情報に基づいて、オブジェクト抽出部3における処理の内容を決定し、その決定結果に基づいて、オブジェクト抽出部3にオブジェクトを抽出させる。また、処理制御部7は、位置補正部71を内蔵しており、イベント検出部8からイベント情報として供給される注目フレームの画像上の位置の情報や、履歴管理部4の指定位置記憶部41に記憶された位置の情報等を、動き検出部6からの動きベクトルにしたがって補正する。この補正された位置の情報は、後述するように、オブジェクト抽出部3に供給され、オブジェクトの抽出に用いられる。あるいは、また、履歴管理部41に供給され、指定位置記憶部41で記憶される。
【0036】
イベント検出部8は、ユーザがマウス9を操作することにより発生するイベントを検出し、そのイベントの内容を表すイベント情報を、処理制御部7に供給する。
【0037】
マウス9は、表示部5に表示された画像上の位置を指定する場合や、所定のコマンドを装置に与える場合等に、ユーザによって操作される。
【0038】
次に、図3は、表示部5における画面の表示例を示している。
【0039】
オブジェクト抽出処理プログラムが実行されると、表示部5には、図3に示すような横と縦がそれぞれ2分割されたウインドウが表示される。
【0040】
この4分割されたウインドウにおいて、左上の画面は、基準画面とされており、右上、左下、右下の画面は、それぞれ結果画面#1,#2,#3とされている。
【0041】
基準画面には、セレクタ24が出力する画像が表示される。上述したように、セレクタ24は、注目フレームバッファ21に記憶された注目フレーム、背景バッファ22に記憶された背景画像、またはオブジェクトバッファ23に記憶されたオブジェクトのうちのいずれか1つを選択し、表示部5に供給するので、基準画面には、注目フレームの画像(原画像)、オブジェクト、または背景のうちのいずれかが表示される。表示部5に、上述のいずれの画像を表示させるかは、ユーザが、マウス9を操作することにより切り替えることができるようになっている。図3の実施の形態においては、背景バッファ22に記憶された背景画像、即ち、原画像から、オブジェクトバッファ23にオブジェクトとして取り込まれた画像を除いた画像が、基準画面に表示されている。なお、基準画面において斜線を付してある部分が、現在、オブジェクトバッファ23に取り込まれている部分を表している(以下、同様)。
【0042】
また、基準画面の左下には、チェンジディスプレイ(Change Display)ボタン201、ユースレコード(Use Record)ボタン202、デリートパートリィ(Delete Partly)ボタン203、およびアンドゥ(Undo)ボタン204が設けられている。
【0043】
チェンジディスプレイボタン201には、基準画面に表示させる画像を切り替えるときに操作される。即ち、セレクタ24は、チェンジディスプレイボタン201がマウス9でクリックされるごとに、注目フレームバッファ21、背景バッファ22、オブジェクトバッファ23の出力を、いわば巡回的に選択し、その結果、基準画面に表示される画像が、原画像、オブジェクト、背景の順に、巡回的に切り替えられる。
【0044】
ユースレコードボタン202は、注目フレームバッファ21に記憶された注目フレームからオブジェクトを抽出するのに、履歴管理部4に記憶されている履歴情報を利用するかどうかを設定するときに操作される。即ち、ユースレコードボタン202がマウス9でクリックされると、基準画面には、履歴情報の利用を許可するかどうか等を設定するためのプルダウンメニューが表示されるようになっている。なお、本実施の形態では、基本的に、履歴情報の利用が許可されているものとする。
【0045】
デリートパートリィボタン203は、オブジェクトバッファ23に、オブジェクトとして記憶された画像の一部を削除する(オブジェクトから背景に戻す)ときに操作される。即ち、ユーザがマウス9を操作することにより、基準画面に表示されたオブジェクトの所定の部分を範囲指定した後、デリートパートリィボタン203をマウス9でクリックすると、その範囲指定されたオブジェクトの所定の部分が、オブジェクトバッファ23から削除される。従って、デリートパートリィボタン203は、例えば、オブジェクトバッファ23に、背景の一部が、オブジェクトとして取り込まれた場合に、その背景部分を、オブジェクトから削除するような場合に使用される。
【0046】
アンドゥボタン204は、結果処理部33の結果バッファ33A乃至33Cから、オブジェクトバッファ23に、オブジェクトとして取り込まれた画像のうち、前回取り込まれた部分を削除するときに操作される。従って、アンドゥボタン204が操作されると、オブジェクトバッファ23に記憶された画像は、結果バッファ33A乃至33Cから画像が取り込まれる直前の状態に戻る。なお、オブジェクトバッファ23は、複数バンクを有しており、結果バッファ33A乃至33Cから画像が取り込まれる直前の状態を、少なくとも保持している。そして、アンドゥボタン204が操作された場合には、オブジェクトバッファ23は、直前に選択していたバンクへのバンク切り替えを行うことにより、セレクタ24に出力する画像を切り替える。
【0047】
結果画面#1乃至#3には、注目フレームから、異なる処理で抽出されたオブジェクトが記憶された結果バッファ33A乃至33Cの記憶内容、即ち、3つの異なる処理で行われたオブジェクト抽出の結果がそれぞれ表示される。また、結果画面#1乃至#3それぞれの左下には、ランクリザルト(Rank Result)ボタン206、グラブオール(Grab All)ボタン207、およびグラブパートリィ(Grab Partly)ボタン208が設けられている。
【0048】
ランクリザルトボタン206は、結果画面#1乃至#3に表示されたオブジェクト抽出結果の順位付けを行うときに操作される。即ち、結果画面#1乃至#3それぞれのランクリザルトボタン206を、ユーザがマウス9を操作することにより、オブジェクト抽出結果として好ましいと考える順番でクリックすると、そのクリック順に、結果画面#1乃至#3に表示されたオブジェクト抽出結果に対して、順位付けが行われる。そして、オブジェクト抽出部3では、その順位付けに基づいて、再度、オブジェクトの抽出が行われ、そのオブジェクト抽出結果が、結果画面#1乃至#3に表示される。
【0049】
グラブオールボタン207は、結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかを、オブジェクトバッファ23に反映する(取り込む)ときに操作される。即ち、ユーザがマウス9を操作することにより、結果画面#1乃至#3のうちの、好ましいと考えるオブジェクト抽出結果が表示されているもののグラブオールボタン207をクリックすると、その結果画面に表示されたオブジェクト抽出結果を記憶している結果バッファの記憶内容のすべてが選択され、オブジェクトバッファ23に反映される。
【0050】
グラブパートリィボタン208は、結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかの一部を、オブジェクトバッファ23に反映する(取り込む)ときに操作される。即ち、ユーザがマウス9を操作することにより、結果画面#1乃至#3のうちの、好ましいと考えるオブジェクト抽出結果の一部分を範囲指定した後、グラブパートリィボタン208をマウス9でクリックすると、その範囲指定されたオブジェクト抽出結果の一部分が選択され、オブジェクトバッファ23に反映される。
【0051】
次に、図4のフローチャートを参照して、図2の画像処理装置の処理の概要について説明する。
【0052】
ユーザがマウス9を操作することにより、何らかのイベントが生じると、イベント検出部8は、ステップS1において、そのイベントの内容を判定する。
【0053】
ステップS1において、イベントが、表示部5の基準画面に表示させる画像を切り替える「画面選択」を指示するものであると判定された場合、即ち、チェンジディスプレイボタン201(図3)がクリックされた場合、イベント検出部8は、「画面選択」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「画面選択」を表すイベント情報を受信すると、ステップS2に進み、注目フレーム処理部2のセレクタ24を制御し、処理を終了する。
【0054】
これにより、セレクタ24は、注目フレームバッファ21、背景バッファ22、またはオブジェクトバッファ23の出力の選択を切り替え、その結果、基準画面に表示される画像が、図5に示すように、注目フレームバッファ21に記憶された注目フレームの原画像、背景バッファ22に記憶された背景画像、またはオブジェクトバッファ23に記憶されたオブジェクトのうちのいずれかに切り替えられる。
【0055】
また、ステップS1において、イベントが、オブジェクトバッファ23に直前反映された画像を削除する「アンドゥ」を指示するものであると判定された場合、即ち、アンドゥボタン204がクリックされた場合、イベント検出部8は、「アンドゥ」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「アンドゥ」を表すイベント情報を受信すると、ステップS3に進み、注目フレーム処理部2のオブジェクトバッファ23を制御し、オブジェクトバッファ23に直前に反映されたオブジェクトの部分を削除させ、ステップS4に進む。
【0056】
ステップS4では、処理制御部7は、履歴管理部41を制御することにより、ステップS3でオブジェクトバッファ23から削除された画像に関する履歴情報を削除させ、処理を終了する。
【0057】
即ち、オブジェクトバッファ23に、オブジェクトとなる画像が反映された(取り込まれた)場合、後述するように、その反映された画像に関して、履歴管理部4で管理されている履歴情報が更新される。このため、オブジェクトバッファ23から画像が削除された場合には、その削除された画像に関する履歴情報が削除される。
【0058】
一方、ステップS1において、イベントが、オブジェクトバッファ23に反映された画像の一部分を削除する「部分削除」を指示するものであると判定された場合、即ち、所定の範囲が指定され、さらに、デリートパートリィボタン203がクリックされた場合、イベント検出部8は、「部分削除」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「部分削除」を表すイベント情報を受信すると、ステップS5に進み、注目フレーム処理部2のオブジェクトバッファ23を制御し、オブジェクトバッファ23にオブジェクトとして記憶された画像のうちの、範囲指定された部分を削除させ、ステップS4に進む。
【0059】
ステップS4では、処理制御部7は、履歴管理部41を制御することにより、ステップS5でオブジェクトバッファ23から削除された画像に関する履歴情報を削除させ、処理を終了する。
【0060】
従って、例えば、図6(A)に示すように、オブジェクトバッファ23に、人間の胴体部分を表すオブジェクトobj1が記憶されているとともに、背景バッファ22に、人間の頭部を表すオブジェクトobj2とともに、風景等の背景が記憶されている場合において、オブジェクト抽出部3において、人間の頭部を表すオブジェクトobj2が抽出され、オブジェクトバッファ23に反映されると、図6(B)に示すように、オブジェクトバッファ23の記憶内容は、オブジェクトobj1とobj2となり、背景バッファ22の記憶内容は、風景等の背景部分のみとなる。
【0061】
この場合に、ユーザが、マウス9で、アンドゥボタン204をクリックすると、図6(C)に示すように、オブジェクトバッファ23の記憶内容は、人間の頭部を表すオブジェクトobj2が反映される前の、人間の胴体部分を表すオブジェクトobj1だけが記憶されている状態に戻り、背景バッファ22の記憶内容も、人間の頭部を表すオブジェクトobj2とともに、風景等の背景が記憶されている状態に戻る。即ち、背景バッファ22およびオブジェクトバッファ23の記憶内容は、図6(A)に示した状態に戻る。
【0062】
また、ユーザが、マウス9を操作することにより、例えば、図6(B)に示すように、人間の頭部を表すオブジェクトobj2の一部を範囲指定し、さらに、デリートパートリィボタン203をクリックすると、図6(D)に示すように、オブジェクトバッファ23の記憶内容は、オブジェクトobj2のうちの、範囲指定された部分が削除された状態となり、背景バッファ22の記憶内容は、その範囲指定された部分が、風景等の背景部分に加えられた状態になる。
【0063】
一方、ステップS1において、イベントが、基準画面または結果画面#1乃至#3のうちのいずれかに表示された画像上の位置を指定する「位置指定」を表すものであると判定された場合、即ち、例えば、図7に示すように、ユーザがマウス9を操作することにより、基準画面に表示された原画像や背景画像におけるオブジェクトのある位置をクリックした場合、イベント検出部8は、「位置指定」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「位置指定」を表すイベント情報を受信すると、ステップS6に進み、マウス9でクリックされた位置等に基づいて、オブジェクト抽出部3に行わせる3つのオブジェクト抽出処理の内容を決定し、その3つのオブジェクト抽出処理によりオブジェクトの抽出を行うように、オブジェクト抽出部3を制御する。
【0064】
これにより、オブジェクト抽出部3は、ステップS7において、3つのオブジェクト抽出処理を行い、その結果得られる3つのオブジェクト抽出結果を、結果処理部33の結果バッファ33A乃至33Cに、それぞれ記憶させる。
【0065】
そして、ステップS8に進み、表示部5は、結果バッファ33A乃至33Cに記憶されたオブジェクト抽出結果を、結果画面#1乃至#3にそれぞれ表示し、処理を終了する。
【0066】
また、ステップS1において、イベントが、結果画面#1乃至#3それぞれに表示されたオブジェクト抽出結果の(良好さの)順位を指定する「順位指定」を表すものであると判定された場合、即ち、結果画面#1乃至#3それぞれに表示されたランクリザルトボタン206が、所定の順番でクリックされた場合、イベント検出部8は、「順位指定」を表すイベント情報を、処理制御部7に供給する。処理制御部7は、「順位指定」を表すイベント情報を受信すると、ステップS6に進み、「順位指定」によって指定された順位に基づいて、オブジェクト抽出部3に行わせる3つのオブジェクト抽出処理の内容を決定し、その3つのオブジェクト抽出処理によりオブジェクトの抽出を行うように、オブジェクト抽出部3を制御する。そして、以下、ステップS7,S8に順次進み、上述した場合と同様の処理が行われる。
【0067】
一方、ステップS1において、イベントが、結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかを選択し、その全部または一部を、オブジェクトバッファ23に反映する「全取得」または「部分取得」を表すものであると判定された場合、即ち、結果画面#1乃至#3のうちのいずれかのグラブオールボタン207がクリックされた場合、または結果画面#1乃至#3に表示されたオブジェクト抽出結果のうちのいずれかの一部が範囲指定され、さらに、グラブパートリィボタン208がクリックされた場合、イベント検出部8は、「全取得」または「部分取得」を表すイベント情報を、処理制御部7に供給し、処理制御部7は、「全取得」または「部分取得」を表すイベント情報を受信すると、ステップS9に進む。
【0068】
ステップS9では、処理制御部7が、オブジェクト抽出部3の結果処理部33を制御することにより、結果画面#1乃至#3のうちの、グラブオールボタン207がクリックされたものに対応する結果バッファに記憶されたオブジェクト抽出結果の全体を選択させ、オブジェクトバッファ23に反映させる(記憶させる)。あるいは、また、ステップS9では、処理制御部7が、オブジェクト抽出部3の結果処理部33を制御することにより、結果画面#1乃至#3のうちの、グラブパートリィボタン208がクリックされたものに対応する結果バッファに記憶されたオブジェクト抽出結果のうちの範囲指定された部分を選択させ、オブジェクトバッファ23に反映させる。
【0069】
従って、例えば、オブジェクトバッファ23の記憶内容が、図8(A)に示すようなものであり、ある結果画面#iに対応する結果バッファに記憶されたオブジェクト抽出結果が、図8(B)に示すようなものである場合において、結果画面#iに表示されたグラブオールボタン207が操作されたときには、オブジェクトバッファ23の記憶内容は、図8(C)に示すように、図8(B)に示した結果バッファに記憶されたオブジェクト抽出結果に更新(上書き)される。
【0070】
また、結果画面#iに表示されたオブジェクト抽出結果のうちの一部が、図8B)に長方形で囲んで示すように範囲指定され、さらに、結果画面#iに表示されたグラブパートリィボタン208が操作されたときには、オブジェクトバッファ23の記憶内容は、図8(D)に示すように、図8(A)に示したオブジェクトに、図8(B)に示した範囲指定された部分のオブジェクト抽出結果を加えた(合成した)ものに更新される。
【0071】
そして、ステップS10に進み、処理制御部7は、履歴管理部4を制御することにより、ステップS9でオブジェクトバッファ23に反映させた画像に関して、履歴情報を更新させ、処理を終了する。
【0072】
以上のように、3つのオブジェクト抽出処理によるオブジェクト抽出結果が結果画面#1乃至#3にそれぞれ表示され、ユーザが、結果画面#1乃至#3のうちのいずれかにおけるグラブオールボタン207またはグラブパートリィボタン208をクリックすると、その結果画面に表示されたオブジェクト抽出結果が、オブジェクトバッファ23に反映される。従って、ユーザは、結果画面#1乃至#3に表示された異なるオブジェクト抽出処理によるオブジェクト抽出結果を見て、良好なものを選択する操作をするだけで良く、さらに、オブジェクトバッファ23には、異なるオブジェクト抽出処理により得られたオブジェクト抽出結果のうち、ユーザが良好であると判断して選択したものが反映される。その結果、容易な操作で、的確なオブジェクト抽出を行うことができる。
【0073】
また、結果画面#1乃至#3には、それぞれ異なる処理によって抽出されたオブジェクトが表示されるが、ある処理によるオブジェクト抽出結果が、全体としては、それほど良好でなくても、その一部についてだけ見れば、良好な場合がある。この場合、その一部を範囲指定して、グラブパートリィボタン208をクリックすることにより、その良好に抽出されているオブジェクトの一部分を、オブジェクトバッファ23に反映させることができ、その結果、最終的には、オブジェクトバッファ23に、良好なオブジェクト抽出結果が記憶されることになる。
【0074】
一方、ステップS1において、イベントが、注目フレームからの最終的なオブジェクト抽出結果を、オブジェクトバッファ23に記憶された画像に確定する「確定」を表すものであると判定された場合、イベント検出部8は、「確定」を表すイベント情報を、処理制御部7に供給する。
【0075】
処理制御部7は、「確定」を表すイベント情報を受信すると、ステップS11に進み、注目フレーム処理部2から、オブジェクトバッファ23に記憶された注目フレームのオブジェクトを読み出すとともに、履歴管理部4から、注目フレームについての履歴情報を読み出し、ストレージ1に供給して記憶させる。そして、ステップS12に進み、処理制御部7は、ストレージ1に、注目フレームの次のフレームが記憶されているかどうかを判定し、記憶されていないと判定した場合、ステップS13およびS14をスキップして、処理を終了する。
【0076】
また、ステップS12において、ストレージ1に、注目フレームの次のフレームが記憶されていると判定された場合、ステップS13に進み、処理制御部7は、その、次のフレームを、新たに注目フレームとし、注目フレームバッファ21に供給して記憶させる。さらに、処理制御部7は、背景バッファ22、結果バッファ33A乃至33C、前フレームバッファ61の記憶内容をクリアして、ステップS14に進む。ステップS14では、処理制御部7の制御の下、ステップS13で注目フレームバッファ21に新たに記録された注目フレームについて、後述するような初期抽出処理が行われ、処理を終了する。
【0077】
次に、図2のオブジェクト抽出部3が行うオブジェクト抽出処理について説明する。
【0078】
本実施の形態では、オブジェクト抽出部3は、基本的に、注目フレームにおける境界部分を検出し、その境界部分で囲まれる領域を、オブジェクトとして抽出するようになっている。
【0079】
即ち、図9は、オブジェクト抽出部3の境界検出部31の構成例を示している。
【0080】
HSV分離部211は、注目フレームバッファ21に記憶された注目フレームを読み出し、その画素値を、H(色相),S(彩度),V(明度)の各成分に分離する。即ち、注目フレームの画素値が、例えば、RGB(Red, Green, Blue)で表現されている場合、HSV分離部211は、例えば、次式にしたがって、RGBの画素値を、HSVの画素値に変換する。
【0081】
V=max(R,G,B)
X=min(R,G,B)
S=(V−X)/V×255
H=(G−B)/(V−X)×60 但し、V=Rのとき
H=(B−R)/(V−X+2)×60 但し、V=Gのとき
H=(R−G)/(V−X+4)×60 但し、上記以外のとき
なお、ここでは、注目フレームの元の画素値であるR,G,Bの各成分が、例えば、8ビット(0乃至255の範囲の整数値)で表されるものとしてある。また、max()は、カッコ内の値の最大値を表し、min()は、カッコ内の値の最小値を表す。
【0082】
HSV分離部211は、HSVの各成分に変換した画素値のうち、H,S,V成分を、それぞれ、エッジ検出部212H,212S,212Vに供給する。
【0083】
エッジ検出部212H,212S,212Vは、HSV分離部211からのH,S,V成分で構成される画像(以下、適宜、それぞれを、Hプレーン、Sプレーン、Vプレーンという)それぞれを対象に、エッジ検出を行う。
【0084】
即ち、エッジ検出部212Hは、Hプレーンの画像に、ソーベルオペレータ(Sobel Operator)によるフィルタリングを行うことで、Hプレーンの画像からエッジを検出する。
【0085】
具体的には、Hプレーンの画像の左からx+1番目で、上からy+1番目の画素のH成分を、I(x,y)と表すとともに、その画素のソーベルオペレータによるフィルタリング結果をE(x,y)と表すと、エッジ検出部212Hは、次式で表される画素値E(x,y)で構成されるエッジ画像を求める。
【0086】
Figure 0004482778
【0087】
エッジ検出部212Sと212Vでも、エッジ検出部212Hにおける場合と同様にして、SプレーンとVプレーンの画像について、エッジ画像が求められる。
【0088】
H,S,Vプレーンの画像から得られたエッジ画像は、エッジ検出部212H,212S,212Vから、二値化部213H,213S,213Vにそれぞれ供給される。二値化部213H,213S,213Vは、H,S,Vプレーンのエッジ画像を、所定の閾値と比較することで二値化し、その結果得られるH,S,Vプレーンの二値化画像(画素値が0か、または1の画像)を、細線化部214H,214S,214Vにそれぞれ供給する。
【0089】
細線化部214H,214S,214Vは、二値化部213H,213S,213Vから供給されるH,S,Vプレーンの二値化画像における境界部分の細線化を行い、その結果得られるH,S,Vプレーンの境界画像を、境界画像記憶部215H,215S,215Vにそれぞれ供給して記憶させる。
【0090】
次に、図10を参照して、図9の細線化部214Hにおいて、Hプレーンの二値化画像を対象に行われる細線化処理について説明する。
【0091】
細線化処理では、図10(A)のフローチャートに示すように、まず最初に、ステップS21において、所定のフラグvが0にリセットされ、ステップS22に進む。ステップS22では、Hプレーンの二値化画像を構成する画素が、ラスタスキャン順に参照され、ステップS23に進む。ステップS23では、Hプレーンの二値化画像を構成する画素のうち、ラスタスキャン順で、まだ参照されていない画素が存在するかどうかが判定され、まだ参照されていない画素が存在すると判定された場合、ラスタスキャン順で最初に検出される、まだ参照されていない画素を、注目画素として、ステップS24に進む。
【0092】
ステップS24では、注目画素の上下左右にそれぞれ隣接する4つの画素のうちの1以上の画素値が0であり、かつ注目画素の画素値cが所定の値a(0および1以外の値)に等しくないかどうかが判定される。ステップS24において、注目画素の上下左右にそれぞれ隣接する4つの画素のうちの1以上の画素値が0でないと判定されるか(従って、隣接する4つの画素の中に、画素値が0のものがない)、または注目画素の画素値cが所定の値aに等しいと判定された場合、ステップS22に戻り、以下、同様の処理を繰り返す。
【0093】
また、ステップS24において、注目画素の上下左右にそれぞれ隣接する4つの画素のうちの1以上の画素値が0であり、かつ注目画素の画素値cが所定の値aに等しくないと判定された場合、ステップS25に進み、フラグvに1がセットされ、ステップS26に進む。
【0094】
ステップS26では、図10(B)に示すような、注目画素cに隣接する8つの画素の画素値a1,a2,a3,a4,a5,a6,a7,a8の加算値(a1+a2+a3+a4+a5+a6+a7+a8が6以下であるかどうかが判定される。
【0095】
ステップS26において、注目画素cに隣接する8つの画素値の加算値が6以下でないと判定された場合、ステップS28に進み、注目画素の画素値cに、所定の値aがセットされ、ステップS22に戻る。
【0096】
また、ステップS26において、注目画素cに隣接する8つの画素値の加算値が6以下であると判定された場合、ステップS27に進み、次の条件式が成立するか否かが判定される。
【0097】
(a2+a4+a6+a8)-(a1&a2&a3)-(a4&a5&a6)-(a7&a8&a1)=1
但し、&は、論理積を表す。
【0098】
ステップS27において、条件式が成立しないと判定された場合、ステップS28に進み、上述したように、注目画素の画素値cに、所定の値aがセットされ、ステップS22に戻る。
【0099】
また、ステップS27において、条件式が成立すると判定された場合、ステップS29に進み、注目画素の画素値cが0とされ、ステップS22に戻る。
【0100】
一方、ステップS23において、Hプレーンの二値化画像を構成する画素のうち、ラスタスキャン順で、まだ参照されていない画素が存在しないと判定された場合、即ち、二値化画像を構成するすべての画素を注目画素として処理を行った場合、ステップS30に進み、フラグvが0であるかどうかが判定される。
【0101】
ステップS30において、フラグvが0でないと判定された場合、即ち、フラグvが1である場合、ステップS21に戻り、以下、同様の処理が繰り返される。また、ステップS30において、フラグvが0であると判定された場合、処理を終了する。
【0102】
その後、細線化部214Hは、上述の細線化処理の結果得られた画像を構成する画素のうち、画素値が所定の値cになっているものの画素値を1に変換し、その変換後の画像を、境界画像として、境界画像記憶部215Hに供給する。これにより、境界画像記憶部215Hには、Hプレーンの画像において境界部分が1で、非境界部分が0となっている境界画像が記憶される。
【0103】
細線化部214Sと214Vでも、細線化部214Hにおける場合と同様の処理が行われることにより、SとHプレーンの境界画像がそれぞれ求められる。
【0104】
ここで、図10で説明したような細線化の方法については、例えば、横井、鳥脇、福村、「標本化された2値図形のトポロジカルな性質について」、電子情報通信学会論文誌(D),J56−D,pp.662−669,1973等に、その詳細が開示されている。なお、細線化の方法は、上述した手法に限定されるものではない。
【0105】
図11は、境界画像の例を示している。
【0106】
図11(A)は、原画像を示しており、図11(B)は、図11(A)の原画像から得られたVプレーンの境界画像を示している。また、図11(C)は、図11(A)の原画像から得られたHプレーンの境界画像を示している。図11(B)と図11(C)を比較することにより、Vプレーンでは、比較的小さな凹または凸部分も、境界部分として検出されているのに対して、Hプレーンでは、比較的大きな凹または凸部分だけが、境界部分として検出されていることが分かる。このように、H,S,Vプレーンでは、境界部分として検出される凹または凸部分のレベルが異なる。
【0107】
ここで、図11(B)および図11(C)では、白抜きの部分(境界部分)が、境界画像において画素値が1になっている部分を表しており、黒塗りの部分が、境界画像において画素値が0になっている部分を表している。
【0108】
なお、境界検出部31では、上述のように、H,S,Vプレーンそれぞれについて、3つの境界画像が作成される他、いずれか1つのプレーンについて、二値化するときの閾値を3つ用いることにより、その3つの閾値にそれぞれ対応する3つの境界画像が作成される場合がある。以下、適宜、H,S,Vプレーンについて、3つの境界画像が作成される場合に用いられる閾値を、それぞれ、THH,THS,THVと表す。また、ある1つのプレーンについて3つの境界画像が作成される場合に用いられる3つの閾値を、以下、適宜、TH1,TH2,TH3と表す。
【0109】
次に、図12のフローチャートを参照して、図2の切り出し部32で行われる切り出し処理について説明する。なお、境界検出部31では、上述したように、3つの境界画像が得られるが、ここでは、そのうちの1つの境界画像に注目して、切り出し処理を説明する。また、以下、適宜、3つの出力バッファ32A乃至32Cのうちの、注目している境界画像(注目境界画像)に基づいて、注目フレームから切り出される画像が記憶されるものを、注目出力バッファという。
【0110】
切り出し処理では、注目出力バッファの記憶内容がクリアされた後、ステップS41において、ユーザが、マウス9を操作することにより指定した注目フレームの画像上の位置(指定位置)にある画素の画素値が、注目フレームバッファ21から読み出され、注目出力バッファに書き込まれる。即ち、オブジェクト抽出部3は、図4で説明したように、ユーザが「位置指定」または「順位指定」を行った場合に処理を行うが、ステップS41では、ユーザが直前に行った「位置指定」によって指定した注目フレーム上の位置にある画素の画素値が、注目出力バッファに書き込まれる。そして、ステップS42に進み、注目出力バッファに、未処理の画素(画素値)が記憶されているかどうかが判定される。
【0111】
ステップS42において、注目出力バッファに、未処理の画素が記憶されていると判定された場合、ステップS43に進み、注目出力バッファに記憶されている画素のうちの、未処理の画素の任意の1つが、注目画素とされ、ステップS44に進む。ステップS44では、注目画素の上、下、左、右、左上、左下、右上、右下にそれぞれ隣接する8画素の画素値が、境界画像から取得され、ステップS45に進む。
【0112】
ステップS45では、境界画像における、注目画素に隣接する8画素の画素値の中に、境界部分となっている境界画素(本実施の形態では、画素値が1になっている画素)が存在するかどうかが判定される。ステップS45において、注目画素に隣接する8画素の画素値の中に、境界画素が存在すると判定された場合、ステップS46をスキップして、ステップS42に戻り、以下、同様の処理が繰り返される。即ち、注目画素に隣接する8画素の画素値の中に、境界画素が存在する場合は、その8画素の画素値の注目出力バッファへの書き込みは行われない。
【0113】
また、ステップS45において、注目画素に隣接する8画素の画素値の中に、境界画素が存在しないと判定された場合、ステップS46に進み、その8画素の画素値が、注目フレームバッファ21から読み出され、注目出力バッファの対応するアドレスに記憶される。即ち、注目画素に隣接する8画素の画素値の中に、境界画素が存在しない場合は、その8画素が、ユーザがマウス9でクリックした位置(「位置指定」により指定した位置)を含むオブジェクトの内部の領域であるとして、その8画素の画素値が、注目出力バッファに書き込まれる。
【0114】
その後は、ステップS42に戻り、以下、同様の処理が繰り返される。
【0115】
なお、注目出力バッファに対して、ステップS46で画素値を書き込もうとしている画素に、画素値が、既に書き込まれている場合は、画素値が上書きされる。また、画素値が上書きされた画素が、既に、注目画素とされている場合には、その画素は、上書きが行われても、未処理の画素とはされず、処理済みの画素のままとされる。
【0116】
一方、ステップS42において、注目出力バッファに、未処理の画素が記憶されていないと判定された場合、処理を終了する。
【0117】
次に、図13を参照して、切り出し部32が行う切り出し処理について、さらに説明する。
【0118】
切り出し部32は、図13(A)に示すように、ユーザが、マウス9を操作することにより指定した注目フレームの画像上の位置(指定位置)にある画素の画素値を、注目フレームバッファ21から読み出し、出力バッファに書き込む。さらに、切り出し部32は、出力バッファに記憶されている画素のうちの、未処理の画素の任意の1つを、注目画素とし、その注目画素に隣接する8画素の画素値を、境界画像から取得する。そして、切り出し部32は、境界画像における、注目画素に隣接する8画素の画素値の中に、境界画素が存在しない場合には、その8画素の画素値を、注目フレームバッファ21から読み出し、出力バッファに書き込む。その結果、出力バッファには、図13(B)に示すように、ユーザがマウス9によって指定した位置にある画素(図13(B)において、●印で示す)を起点として、境界画素で囲まれる領域の内部を構成する画素の画素値が書き込まれていく。
【0119】
以上の処理が、出力バッファに記憶された画素の中に、未処理の画素がなくなるまで行われることにより、出力バッファには、注目フレームの画像のうちの、境界画素で囲まれる領域が記憶される。
【0120】
従って、以上のような切り出し処理によれば、ユーザが、オブジェクトであるとして指定した点を起点として、その起点を含む、境界部分で囲まれる注目フレームの領域が切り出されるので、オブジェクトを構成する領域を、精度良く切り出すことができる。即ち、オブジェクトを構成する領域の切り出しを、すべて自動で行う場合には、ある領域が、オブジェクトを構成するかどうかの判断が困難であり、その結果、オブジェクトを構成しない画素から、領域の切り出しが開始されることがある。これに対して、図12の切り出し処理では、ユーザが、オブジェクトであるとして指定した点を起点として、領域の切り出しが行われるので、必ず、オブジェクトを構成する領域の画素から、領域の切り出しが開始され、オブジェクトを構成する領域を、精度良く切り出すことができる。
【0121】
なお、図12の切り出し処理は、境界検出部31で得られる3つの境界画像それぞれに基づいて行われ、その3つの境界画像に基づいて得られる領域の切り出し結果は、それぞれ、出力バッファ32A乃至32Cに記憶される。そして、その出力バッファ32A乃至32Cの記憶内容が、結果バッファ33A乃至33Cにそれぞれ転送され、その結果、結果画面#1乃至#3には、それぞれ、異なる処理によって得られたオブジェクト抽出結果が表示される。
【0122】
次に、図14乃至図16を参照して、図2の履歴管理部4が管理する履歴情報について説明する。
【0123】
「部分取得」または「全取得」によって、結果バッファ33A乃至33Cのうちのいずれかに記憶されたオブジェクト抽出結果の全部または一部が、オブジェクトバッファ23に反映されると(書き込まれると)、履歴管理部4は、指定位置記憶部41に記憶された指定位置、履歴画像記憶部42に記憶された履歴画像、およびパラメータテーブル記憶部43のエントリを更新する。
【0124】
即ち、例えば、いま、人間の全身が表示された注目フレームから、その人間が表示された部分をオブジェクトとして抽出する場合において、その胴体部分と下半身部分の画像が、オブジェクトとして、既に抽出され、オブジェクトバッファ23に記憶されているとすると、履歴画像記憶部42には、例えば、図14(A)に示すように、胴体部分を抽出するのに用いた境界画像のプレーンと、その境界画像を得るのに用いた閾値に対応付けられたID1が画素値となっている胴体部分の画素、および下半身部分を抽出するのに用いた境界画像のプレーンと、その境界画像を得るのに用いた閾値に対応付けられたID2が画素値となっている下半身部分の画素からなる履歴画像が記憶されている。
【0125】
なお、図14(A)の実施の形態では、胴体部分を抽出するのに用いた境界画像のプレーンはHプレーンとなっており、そのHプレーンの境界画像を得るのに用いた閾値(境界画像を得るための二値化に用いられた閾値)は100となっている。また、下半身部分を抽出するのに用いた境界画像のプレーンはVプレーンとなっており、その境界画像を得るのに用いた閾値は80となっている。
【0126】
そして、この場合、パラメータテーブル記憶部43には、ID1と、Hプレーンおよび閾値100とが対応付けられて記憶されているとともに、ID2と、Vプレーンおよび閾値80とが対応付けられて記憶されている。
【0127】
ここで、オブジェクトバッファ23に記憶されたオブジェクトの抽出に用いられた境界画像のプレーンと、その境界画像を得るのに用いられた閾値とのセットを、以下、適宜、パラメータセットという。
【0128】
その後、ユーザが、人間の全身が表示された注目フレームにおける頭部の画素をマウス9でクリックして指定すると、オブジェクト抽出部3では、上述したようにして、3種類のオブジェクト抽出処理が行われ、その3種類のオブジェクト抽出処理による頭部のオブジェクト抽出結果が、図14(B)に示すように、結果バッファ33A乃至33Cにそれぞれ記憶されるとともに、その結果バッファ33A乃至33Cの記憶内容が、結果画面#1乃至#3にそれぞれ表示される。
【0129】
そして、ユーザが、結果画面#1乃至#3に表示された頭部のオブジェクト抽出結果を参照して、良好なものを「全取得」すると、結果画面#1乃至#3に表示された頭部のオブジェクト抽出結果のうち、「全取得」が指示されたものが選択され、図14(C)に示すように、オブジェクトバッファ23に反映される。
【0130】
この場合、履歴管理部4は、オブジェクトバッファ23に反映された頭部のオブジェクト抽出結果を得るのに用いた境界画像のプレーンと、その境界画像を得るのに用いた閾値のパラメータセットとを、ユニークなID3に対応付けて、パラメータテーブル記憶部43に登録する。
【0131】
さらに、履歴管理部4は、図14(D)に示すように、履歴画像記憶部42の頭部を構成する画素の画素値に、ID3を書き込み、これにより、履歴画像を更新する。ここで、図14(D)の実施の形態では、頭部を抽出するのに用いた境界画像のプレーンはSプレーンとなっており、その境界画像を得るのに用いた閾値は50となっている。
【0132】
また、履歴管理部4は、図14(E)に示すように、オブジェクトバッファ23に反映された頭部のオブジェクト抽出結果を得るときにユーザがクリックした注目フレーム上の点の位置(指定位置)を表す座標(x4,y4)を、指定位置記憶部41に追加する。ここで、図14(E)の実施の形態では、指定位置記憶部41には、既に、3つの指定位置の座標(x1,y1),(x2,y2),(x3,y3)が記憶されており、そこに、新たな座標(x4,y4)が追加されている。
【0133】
以上のような注目フレームについての履歴情報は、例えば、その次のフレームが新たに注目フレームとされた場合に、その新たな注目フレームからのオブジェクトの抽出に利用される。
【0134】
即ち、例えば、いま、注目フレームの1フレーム前のフレーム(前フレーム)について、図15(A)に示すような履歴画像を得ることができたとして、注目フレームのある点を、ユーザがマウス9によってクリックしたとする。この場合、処理制御部7は、動き検出部6を制御することにより、ユーザがマウス9でクリックした点である指定位置(x,y)の、前フレームを基準とする動きベクトル(vx,vy)を求めさせる。さらに、処理制御部7は、その内蔵する位置補正部71に、指定位置(x,y)を、動きベクトル(vx,vy)によって補正させることにより、指定位置(x,y)に対応する前フレーム上の位置(x’,y’)を求めさせる。即ち、この場合、位置補正部71は、例えば、式(x’,y’)=(x,y)−(vx,vy)によって、指定位置(x,y)に対応する前フレーム上の位置(x’,y’)を求める。
【0135】
その後、処理制御部7は、指定位置(x,y)に対応する前フレーム上の位置(x’,y’)におけるパラメータセットのIDを、履歴画像記憶部42に記憶された前フレームの履歴画像を参照することで取得し、さらに、そのIDに対応付けられたパラメータセットを、パラメータテーブル記憶部43を参照することで取得する。そして、処理制御部7は、上述のようにして取得したパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、指定位置(x,y)を起点とする領域の切り出しを行うことを決定し、その旨の決定情報を、オブジェクト抽出部3に供給する。
【0136】
これにより、オブジェクト抽出部3では、図15(B)に示すように、注目フレームを対象として、決定情報に対応するパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、指定位置(x,y)を起点とする領域の切り出しが行われ、これにより、3パターンのオブジェクトが抽出される。このようにして注目フレームから抽出された3パターンのオブジェクトは、図15(C)に示すように、結果バッファ33A乃至33Cにそれぞれ記憶され、結果画面#1乃至#3においてそれぞれ表示される。
【0137】
注目フレームからオブジェクトを抽出する場合に、ユーザにより入力された指定位置の部分のオブジェクト抽出は、前フレームの対応する部分のオブジェクト抽出と同様に行うことにより、良好なオブジェクト抽出を行うことができると予想されるから、上述のように、決定情報に対応するパラメータセットに基づく境界画像の作成、およびその境界画像からの、指定位置(x,y)を起点とする領域の切り出しを行うことにより、迅速に、良好なオブジェクト抽出結果を得ることが可能となる。
【0138】
即ち、オブジェクト抽出部3では、例えば、ユーザが、「位置指定」を行うと、その「位置指定」によって指定された位置を起点として、3つの処理によるオブジェクト抽出が行われるが、その3つの処理によるオブジェクト抽出結果のうちのいずれもが良好でないときには、ユーザによって「順位指定」が行われ、後述するように、パラメータセットを替えてのオブジェクト抽出が行われる。従って、上述のように、前フレームの履歴情報を利用しない場合には、ある程度良好なオブジェクト抽出結果を得るために、ユーザが、「順位指定」を何度が行わなければならないことがある。これに対して、前フレームの履歴情報を利用する場合には、ユーザが「順位指定」を行わなくても、注目フレームのオブジェクト上の幾つかの点を指定するという容易な操作だけで、良好なオブジェクト抽出結果を、即座に得ることができる可能性が高くなる。
【0139】
また、注目フレームからのオブジェクト抽出にあたって、前フレームについての履歴情報は、例えば、次のように利用することも可能である。
【0140】
即ち、例えば、いま、注目フレームの1フレーム前のフレーム(前フレーム)について、図16(A)に示すような履歴画像と、図16(B)に示すような3つの指定位置(x1,y1),(x2,y2),(x3,y3)を得ることができたとする。
【0141】
この場合、処理制御部7は、動き検出部6を制御することにより、前フレームの指定位置(x1,y1)を基準とする注目フレームの動きベクトル(vx,vy)を求めさせる。さらに、処理制御部7は、その内蔵する位置補正部71に、前フレームの指定位置(x1,y1)を、動きベクトル(vx,vy)によって補正させることにより、前フレームの指定位置(x,y)に対応する注目フレーム上の位置(x1’,y1’)を求めさせる。即ち、この場合、位置補正部71は、例えば、式(x1’,y1’)=(x1,y1)+(vx,vy)によって、前フレームの指定位置(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を求める。
【0142】
その後、処理制御部7は、前フレームの指定位置(x1,y1)におけるパラメータセットのIDを、履歴画像記憶部42に記憶された前フレームの履歴画像を参照することで取得し、さらに、そのIDに対応付けられたパラメータセットを、パラメータテーブル記憶部43を参照することで取得する。そして、処理制御部7は、上述のようにして取得したパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、前フレームの指定位置(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を起点とする領域の切り出しを行うことを決定し、その旨の決定情報を、オブジェクト抽出部3に供給する。
【0143】
これにより、オブジェクト抽出部3では、図16(C)に示すように、注目フレームを対象として、決定情報に対応するパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、位置(x1’,y1’)を起点とする領域の切り出しが行われることにより、3パターンのオブジェクトが抽出される。
【0144】
前フレームの3つの指定位置(x1,y1),(x2,y2),(x3,y3)のうちの残りの2つの指定位置(x2,y2)と(x3,y3)についても同様の処理が行われ、これにより、その2つの指定位置に対応する注目フレーム上の位置(x2’,y2’)と(x3’,y3’)それぞれを起点とする3パターンのオブジェクトが抽出される。
【0145】
このようにして、前フレームの各指定位置に対応する注目フレーム上の位置それぞれを起点として、注目フレームから抽出されたオブジェクトの各部は、その後合成され、その結果得られるオブジェクト抽出結果は、図16(D)に示すように、結果バッファに記憶され、結果画面において表示される。
【0146】
上述したように、注目フレームからのオブジェクトの抽出は、前フレームの対応する部分のオブジェクト抽出と同様に行うことにより、良好なオブジェクト抽出を行うことができると予想されるから、決定情報に対応するパラメータセットに基づく3つの境界画像の作成、およびその3つの境界画像からの、前フレームの指定位置(x,y)に対応する注目フレームの位置を起点とする領域の切り出しを行うことにより、図15における場合と同様に、迅速に、良好なオブジェクト抽出結果を得ることが可能となる。
【0147】
さらに、図15における場合には、ユーザが、注目フレームのオブジェクト上の点を指定する必要があったが、図16における場合においては、ユーザが、そのような指定を行う必要がないので、ユーザの操作負担を、より軽減することができる。
【0148】
なお、図16で説明したように、ユーザが、注目フレームのオブジェクト上の点を指定する前に、前フレームについての履歴情報を利用して、注目フレームのオブジェクト抽出を行い、そのオブジェクト抽出結果を、結果画面#1乃至#3に表示するか否かは、例えば、上述した基準画面のユースレコードボタン202(図3)をクリックすることにより表示されるプルダウンメニューにおいて設定することができる。
【0149】
次に、図17のフローチャートを参照して、処理制御部7が図4のステップS6で行う、複数のオブジェクト抽出処理の内容を決定する処理について説明する。
【0150】
処理制御部7は、まず最初に、ステップS51において、イベント検出部8からのイベント情報が、「位置指定」を表すものであるか、または「順位指定」を表すものであるかを判定する。ステップS51において、イベント情報が、「位置指定」を表すものであると判定された場合、ステップS52に進み、処理制御部7は、前フレームの履歴情報が、履歴管理部4に記憶されているかどうかを判定する。
【0151】
ステップS52において、前フレームの履歴情報が、履歴管理部4に記憶されていると判定された場合、ステップS53に進み、処理制御部7は、例えば、図15で説明したように、前フレームの履歴情報に基づいて、注目フレームからオブジェクトを抽出する3つのオブジェクト抽出処理の内容を決定し、その旨の決定情報を、オブジェクト抽出部3に供給して、処理を終了する。
【0152】
また、ステップS52において、前フレームの履歴情報が、履歴管理部4に記憶されていないと判定された場合、即ち、例えば、注目フレームが、ストレージ1に記憶された動画のフレームの中で、最初に注目フレームとされたものである場合、ステップS54に進み、処理制御部7は、注目フレームからオブジェクトを抽出する3つのオブジェクト抽出処理の内容を、デフォルト値に決定し、その旨の決定情報を、オブジェクト抽出部3に供給して、処理を終了する。
【0153】
一方、ステップS51において、イベント情報が、「順位指定」を表すものであると判定された場合、ステップS55に進み、処理制御部7は、ユーザがマウス9を操作することにより行った順位付けに基づいて、注目フレームからオブジェクトを抽出する3つのオブジェクト抽出処理の内容を決定し、その旨の決定情報を、オブジェクト抽出部3に供給して、処理を終了する。
【0154】
次に、図18のフローチャートを参照して、図17のステップS53乃至S55における、オブジェクト抽出処理の内容の決定方法について、具体的に説明する。なお、イベント情報が「位置指定」を表すものである場合には、ユーザがマウス9をクリックすることにより、注目フレーム上のある位置を指定した場合であるが、そのユーザが指定した位置の座標は、イベント情報に含まれるものとする。また、イベント情報が「順位指定」を表すものである場合には、ユーザが、マウス9を操作することにより、3つの結果画面#1乃至#3に表示されたオブジェクト抽出結果に順位付けを行った場合であるが、そのオブジェクト抽出結果の順位(ここでは、第1位乃至第3位)も、イベント情報に含まれるものとする。
【0155】
図17のステップS53において、前フレームの履歴情報に基づいて、オブジェクト抽出処理の内容を決定する場合には、図18(A)のフローチャートに示すように、まず最初に、ステップS61において、処理制御部7は、前フレームの履歴情報を参照することにより、前フレームの最終的なオブジェクト抽出結果(オブジェクトバッファ23に最終的に記憶されたオブジェクト)が得られたときに用いられた境界画像のプレーンと同一のプレーンの境界画像を用いることを決定する。
【0156】
即ち、処理制御部7は、ユーザがマウス9によって指定した注目フレームの位置に対応する前フレームの位置の画素が、オブジェクトとして抽出されたときに用いられた境界画像のプレーンを、前フレームの履歴情報を参照することにより認識し、そのプレーンの境界画像を、境界検出部31で作成することを決定する。ここで、このようにして、注目フレームのオブジェクト抽出に用いることが決定された境界画像のプレーンを、以下、適宜、決定プレーンという。
【0157】
そして、ステップS62に進み、処理制御部7は、ユーザがマウス9によって指定した注目フレームの位置に対応する前フレームの位置の画素が、オブジェクトとして抽出されたときに境界画像を得るための二値化で用いられた閾値を、前フレームの履歴情報を参照することにより認識し、その閾値を、注目画像について、決定プレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3のうちの2番目の閾値TH2として決定する。ここで、このようにして決定された閾値TH2を、以下、適宜、決定閾値という。
【0158】
その後、処理制御部7は、ステップS63に進み、3つの閾値TH1乃至TH3のうちの決定閾値TH2以外の残りの2つの閾値TH1とTH3を、決定閾値TH2に基づき、例えば、式TH1=TH2−20と、TH3=TH2+20にしたがって決定し、決定プレーン、決定閾値TH2、決定閾値TH2に基づいて決定された閾値TH1とTH3を、決定情報として、オブジェクト抽出部3に供給して、処理を終了する。
【0159】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーンの画像についてエッジ検出を行うものにおいて、エッジ検出が行われる。そして、そのエッジ検出部に接続する二値化部において、決定閾値TH2、および決定閾値TH2を用いて決定された閾値TH1とTH3の3つの閾値を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0160】
以上のように、前フレームの履歴情報が存在する場合には、その履歴情報と、ユーザが指定した注目フレーム上の位置に基づいて、注目フレームについてのオブジェクト抽出処理の内容が決定されるので、注目フレームにおいて、前フレームと同じような特徴を有する部分については、前フレームにおける場合と同様の処理によって、オブジェクト抽出が行われる。従って、容易な操作で、的確なオブジェクト抽出を行うことが可能となる。
【0161】
次に、図18(B)のフローチャートを参照して、図17のステップS54において、オブジェクト抽出処理の内容をデフォルト値に決定する場合の処理制御部7の処理について説明する。
【0162】
この場合、まず最初に、ステップS71において、処理制御部7は、ユーザがマウス9でクリックした注目フレーム上の位置(指定位置)の画素付近の画素のV成分の平均値、即ち、例えば、指定位置の画素を含む横×縦が8×8画素のV成分の平均値が、50未満であるかどうかを判定する。
【0163】
ステップS71において、指定位置の画素を含む8×8画素のV成分の平均値が50未満であると判定された場合、ステップS72に進み、処理制御部7は、Vプレーンの境界画像を、境界検出部31で作成することを決定する。
【0164】
即ち、V成分が小さい領域については、HやSプレーンの境界画像を用いた場合には、Vプレーンの境界画像を用いた場合に比較して、領域の切り出しが不正確になることが経験的に認められるため、ステップS72では、上述のように、決定プレーンがVプレーンとされる。
【0165】
そして、ステップS73に進み、処理制御部7は、決定プレーンであるVプレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3を、デフォルト値である、例えば、40,100,180にそれぞれ決定し、決定プレーンがVプレーンである旨と、閾値TH1乃至TH3を、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0166】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーンであるVプレーンの画像についてエッジ検出を行うエッジ検出部212Vにおいて、エッジ検出が行われる。そして、エッジ検出部212Vに接続する二値化部213Vにおいて、閾値TH1乃至TH3としての40,100,180の3つの閾値を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0167】
一方、ステップS71において、指定位置の画素を含む8×8画素のV成分の平均値が50未満でないと判定された場合、ステップS74に進み、処理制御部7は、H,S,Vプレーンそれぞれの境界画像を、境界検出部31で作成することを決定する。
【0168】
即ち、V成分がある程度大きい領域については、その領域の特徴によって、正確に、領域を切り出すことのできる境界画像のプレーンが異なる。さらに、いまの場合、前フレームの履歴情報が存在しないため、いずれのプレーンの境界画像が領域の切り出しに適切であるかを予測することが困難である。そこで、ステップS74では、H,S,Vの3つのプレーンが、決定プレーンとされる。
【0169】
そして、ステップS75に進み、処理制御部7は、決定プレーンであるH,S,Vプレーンの境界画像をそれぞれ得るための二値化に用いる閾値THH,THS,THVを、例えば、いずれも、デフォルト値である100に決定し、決定プレーンがH,S,Vプレーンである旨と、閾値THH,THS,THVを、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0170】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vそれぞれにおいて、H,S,Vプレーンの画像について、エッジ検出が行われる。そして、エッジ検出部212H,212S,212Vに接続する二値化部213H,213S,213Vそれぞれにおいて、閾値THH,THS,THV(上述したように、ここでは、いずれも100)を用いて二値化が行われ、これにより、3つのH,S,Vプレーンの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成されたH,S,Vプレーンの境界画像それぞれについて、ユーザが指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0171】
次に、図18(C)のフローチャートを参照して、図17のステップS55において、指定順位に基づいて、オブジェクト抽出処理の内容を決定する場合の処理制御部7の処理について説明する。
【0172】
この場合、まず最初に、ステップS81において、処理制御部7は、順位付けが、H,S,Vの3つのプレーンの境界画像を用いて得られたオブジェクト抽出結果に対して行われたもの(以下、適宜、プレーンに対する順位付けという)であるか、または、ある1つのプレーンの境界画像であって、3つの異なる閾値による二値化により作成されたものを用いて得られたオブジェクト抽出結果に対して行われたもの(以下、適宜、閾値に対する順位付けという)であるかを判定する。
【0173】
ステップS81において、順位付けが、プレーンに対する順位付けであると判定された場合、ステップS82に進み、処理制御部7は、H,S,Vの3つのプレーンの境界画像を用いて得られたオブジェクト抽出結果に対する順位を認識し、第1位のオブジェクト抽出結果が得られたプレーンの境界画像を、境界検出部31で作成することを決定する。即ち、処理制御部7は、第1位のオブジェクト抽出結果が得られた境界画像のプレーンを、決定プレーンとする。
【0174】
そして、ステップS83に進み、処理制御部7は、決定プレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3を、デフォルト値である、例えば、40,100,180にそれぞれ決定し、決定プレーンが例えばVプレーンである旨と、閾値TH1乃至TH3を、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0175】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーン(第1位の順位付けが行われたオブジェクト抽出結果が得られた境界画像のプレーン)の画像についてエッジ検出を行うものにおいて、エッジ検出が行われる。そして、そのエッジ検出部に接続する二値化部において、閾値TH1乃至TH3としての40,100,180の3つの閾値を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが直前に指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0176】
一方、ステップS81において、順位付けが、閾値に対する順位付けであると判定された場合、ステップS84に進み、処理制御部7は、その順位付けが行われた注目フレームのオブジェクト抽出結果を得たときに用いられた境界画像のプレーンと同一のプレーンの境界画像を、境界検出部31で作成することを決定する。即ち、処理制御部7は、注目フレームについての前回のオブジェクト抽出結果を得たときに用いられた境界画像のプレーンを、決定プレーンとする。
【0177】
そして、ステップS85に進み、処理制御部7は、決定プレーンの境界画像を得るための二値化に用いる3つの閾値TH1乃至TH3を、閾値に対する順位付けに基づいて決定する。即ち、処理制御部7は、前回のオブジェクト抽出結果を得たときに用いられた3つの閾値のうち、第1位に指定された閾値を、閾値TH1に決定する。さらに、処理制御部7は、前回のオブジェクト抽出結果を得たときに用いられた3つの閾値のうち、第1位に指定された閾値と第2位に指定された閾値の平均値を、閾値TH2に決定する。また、処理制御部7は、前回のオブジェクト抽出結果を得たときに用いられた3つの閾値のうち、第2位に指定された閾値を、閾値TH3に決定する。その後、処理制御部7は、決定プレーンと、閾値TH1乃至TH3を、決定情報として、オブジェクト抽出部3に供給し、処理を終了する。
【0178】
この場合、オブジェクト抽出部3の境界検出部31(図9)では、エッジ検出部212H,212S,212Vのうち、決定プレーン(前回のオブジェクト抽出結果を得たときに用いられた境界画像のプレーンと同一のプレーン)の画像についてエッジ検出を行うものにおいて、エッジ検出が行われる。そして、そのエッジ検出部に接続する二値化部において、前回用いられた閾値の順位付けに基づいて上述のように決定された3つの閾値TH1乃至TH3を用いて二値化が行われ、これにより、3つの境界画像が作成される。さらに、オブジェクト抽出部3の切り出し部32では、境界検出部31で作成された3つの境界画像それぞれについて、ユーザが直前に指定した注目フレーム上の位置を起点とした、図12および図13で説明した領域の切り出しが行われる。
【0179】
以上のようにして、オブジェクト抽出処理の内容を決定する場合においては、ユーザが、注目フレーム上のある位置を指定すると、前フレームの履歴情報が存在しない場合であって、指定位置付近のV成分の平均値が50以上である場合には、H,S,Vの3つのプレーンの境界画像から、3つのオブジェクト抽出結果が求められる(図18(B)におけるステップS71,S74,S75)。そして、その3つのオブジェクト抽出結果に対して、プレーンに対する順位付けが行われると、第1位の1つのプレーンの画像と、3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められる(図18(C)におけるステップS81乃至S83)。
【0180】
さらに、ユーザが、注目フレーム上のある位置を指定した場合に、前フレームの履歴情報が存在せず、かつ、指定位置付近のV成分の平均値が50未満であるときも、1つのプレーンであるVプレーンの画像と、デフォルトの3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められる(図18(B)におけるステップS71乃至S73)。
【0181】
また、ユーザが、注目フレーム上のある位置を指定した場合に、前フレームの履歴情報が存在するときも、その履歴情報に基づいて決定される1つのプレーンの画像と、履歴情報に基づいて決定される3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められる(図18(A))。
【0182】
以上のように、1つのプレーンの画像と、3つの閾値から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められた後に、その3つのオブジェクト抽出結果に対して順位付け(閾値に対する順位付け)が行われると、上述したように、その順位付けに基づいて、3つの閾値TH1乃至TH3が更新されていく(図18(C)におけるステップS81,S84,S85)。
【0183】
即ち、例えば、図19(A)に示すように、閾値TH1,TH2,TH3が、第1位、第2位、第3位に、それぞれ指定された場合には、次のオブジェクト抽出処理においては、図19(B)に示すように、閾値TH1は、前回の第1位の閾値に、閾値TH2は、前回の第1位と第2位の閾値の平均値に、閾値TH3は、前回の第2の閾値に、それぞれ決定される。さらに、このように決定された3つの閾値TH1乃至TH3を用いて得られる3つのオブジェクト抽出結果に対して順位付けが行われ、これにより、図19(B)に示すように、閾値TH1,TH2,TH3が、第3位、第1位、第2位に、それぞれ指定された場合には、次のオブジェクト抽出処理においては、図19(C)に示すように、やはり、閾値TH1は、前回の第1位の閾値に、閾値TH2は、前回の第1位と第2位の閾値の平均値に、閾値TH3は、前回の第2の閾値に、それぞれ決定される。そして、このように決定された3つの閾値TH1乃至TH3を用いて得られる3つのオブジェクト抽出結果に対して、再び、順位付けが行われ、これにより、図19(C)に示すように、閾値TH1,TH2,TH3が、第3位、第1位、第2位に、それぞれ指定された場合には、次のオブジェクト抽出処理においては、図19(D)に示すように、やはり、閾値TH1は、前回の第1位の閾値に、閾値TH2は、前回の第1位と第2位の閾値の平均値に、閾値TH3は、前回の第2の閾値に、それぞれ決定される。
【0184】
従って、順位付けを繰り返すことにより、閾値TH1,TH2,TH3は、注目フレームからオブジェクトを抽出するのに、より適した値に収束していくことになり、その結果、的確なオブジェクト抽出が可能となる。
【0185】
さらに、前フレームの履歴情報が存在する場合には、その履歴情報に基づいて、3つの閾値TH1乃至TH3が決定されることにより、その3つの閾値TH1乃至TH3は、注目フレームからオブジェクトを抽出するのにある程度適した値となることから、ユーザは、「順位指定」の操作を、それほどの回数行わなくても、即ち、最良の場合には、「順位指定」の操作を一度も行わなくても、注目フレームについて、良好なオブジェクト抽出結果を得ることが可能となる。
【0186】
なお、図18および図19の実施の形態では、履歴情報がない場合において、指定位置付近のV成分の平均値が50以上であるときには、H,S,Vの3つのプレーンの境界画像から、3つのオブジェクト抽出結果が求められ、その3つのオブジェクト抽出結果に対して、プレーンに対する順位付けが行われると、第1位の1つのプレーンの画像と、3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められ、その後に、閾値に対する順位付けが可能な状態となる。
【0187】
これに対して、履歴情報がない場合でも、指定位置付近のV成分の平均値が50未満であるときには、上述したように、経験則から、1つのプレーンであるVプレーンの画像と、3つの閾値TH1乃至TH3から作成される3つの境界画像から、3つのオブジェクト抽出結果が求められ、その後に、閾値に対する順位付けが可能な状態となる。従って、この場合、ユーザは、プレーンに対する順位付けを行う必要がなく、その分、ユーザの操作負担を軽減することができる。
【0188】
次に、図4のステップS14における初期抽出処理について説明する。
【0189】
初期抽出処理では、新たな注目フレームについて、ユーザが、オブジェクトの位置を指定する「位置指定」を行わなくても、前フレームから得られた最終的なオブジェクト抽出結果や履歴情報を利用して、複数(本実施の形態では、3つ)のオブジェクト抽出処理が行われ、そのオブジェクト抽出結果が、表示部5に表示される。
【0190】
即ち、図20は、新たな注目フレームについて、初期抽出処理が行われた直後の表示部5における画面の表示例を示している。
【0191】
図20の実施の形態において、基準画面には、新たな注目フレームの画像(原画像)が表示されており、結果画面#1乃至#3には、前フレームから得られた最終的なオブジェクト抽出結果や履歴情報を利用して行われた3つのオブジェクト抽出処理による3つのオブジェクト抽出結果が、それぞれ表示されている。
【0192】
なお、図20の実施の形態では、基準画面のアンドゥボタン204の下部に、リセットレコードボタン(Reset Record)205が新たに表示されているが、このリセットレコードボタン205は、前フレームの履歴情報を消去するときに操作される。即ち、リセットレコードボタン205を、マウス9によりクリックすると、履歴管理部4に記憶されている前フレームの履歴情報が使用不可になる。但し、リセットレコードボタン205を再度クリックすると、履歴情報は、使用可能な状態となる。
【0193】
結果画面#1乃至#3に表示される、新たな注目フレームについてのオブジェクト抽出結果は、オブジェクト抽出部3において、例えば、次のような第1乃至第3の初期抽出処理が行われることにより、それぞれ求められる。
【0194】
即ち、例えば、いま、前フレームについて、図21(A)に示すような履歴画像を得ることができていたとする。ここで、図21(A)の実施の形態は、人間の全身が表示された前フレームから、その人間が表示された部分がオブジェクトとして抽出された場合の履歴画像を示している。さらに、図21(A)の履歴情報は、人間の頭部の領域については、Sプレーンの画像と、二値化における閾値50を用いて、胴体部分の領域については、Hプレーンの画像と、二値化における閾値100を用いて、下半身部分の領域については、Vプレーンの画像と、二値化における閾値80を用いて、それぞれ、オブジェクト抽出が行われたことを表している。従って、図21の履歴画像において、人間の頭部の領域を構成するすべての画素、胴体部分の領域を構成するすべての画素、または下半身部分の領域を構成するすべての画素の画素値は、それぞれ同一のIDとなっている。
【0195】
第1の初期抽出処理では、例えば、処理制御部7が、まず、前フレームの履歴画像において同一のIDを画素値とする画素の集合でなる領域の重心を求める。従って、図21(A)の実施の形態では、人間の頭部の領域、胴体部分の領域、下半身部分の領域の重心がそれぞれ求められる。
【0196】
なお、ある領域の重心の座標を(X,Y)と表すと、重心(X,Y)は、例えば、次式にしたがって求められる。
【0197】
X=Σxk/N
Y=Σyk/N
但し、Nは、ある領域を構成する画素数を表し、Σは、変数kを1からNに変えてのサメーションを表す。また、(xk,yk)は、ある領域を構成するk番目の画素の座標を表す。
【0198】
人間の頭部の領域、胴体部分の領域、下半身部分の領域のそれぞれについて、例えば、図21(B)に示すように、重心(x1,y1),(x2,y2),(x3,y3)が求められると、処理制御部7は、動き検出部6を制御することにより、前フレームの重心(x1,y1)を基準とする注目フレームの動きベクトル(vx,vy)を求めさせる。さらに、処理制御部7は、その内蔵する位置補正部71に、前フレームの指定位置(x1,y1)を、動きベクトル(vx,vy)によって補正させることにより、前フレームの重心(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を求めさせる。即ち、この場合、位置補正部71は、例えば、式(x1’,y1’)=(x1,y1)+(vx,vy)によって、前フレームの重心(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を求める。
【0199】
その後、処理制御部7は、前フレームの重心(x1,y1)の画素の画素値であるIDを、履歴画像記憶部42に記憶された前フレームの履歴画像を参照することで取得し、さらに、そのIDに対応付けられたパラメータセットを、パラメータテーブル記憶部43を参照することで取得する。そして、処理制御部7は、上述のようにして取得したパラメータセットに基づく境界画像の作成、およびその3つの境界画像からの、前フレームの重心(x1,y1)に対応する注目フレーム上の位置(x1’,y1’)を起点とする領域の切り出しを行うことを決定し、その旨の決定情報を、オブジェクト抽出部3に供給する。
【0200】
処理制御部7は、図21(B)に示した3つの領域の重心(x1,y1),(x2,y2),(x3,y3)のうちの残りの2つの重心(x2,y2)と(x3,y3)についても、それぞれ同様の処理を行う。
【0201】
これにより、オブジェクト抽出部3では、図21(C)に示すように、注目フレームを対象として、決定情報に対応するパラメータセットに基づく境界画像の作成、およびその境界画像からの、前フレームの重心(x1,y1),(x2,y2),(x3,y3)に対応する注目フレーム上の位置(x1’,y1’),(x2’,y2’),(x3’,y3’)をそれぞれ起点とする領域の切り出しが行われ、オブジェクトが抽出される。このオブジェクト抽出結果は、図21(D)に示すように、結果バッファ33Aに記憶され、図20に示したように、結果画面#1において表示される。
【0202】
次に、第2の初期抽出処理では、オブジェクト抽出部3は、例えば、テンプレートマッチングを行うことによって、注目フレームからオブジェクトを抽出する。
【0203】
即ち、オブジェクト抽出部3は、注目フレーム処理部2を介して、ストレージ1から、前フレームの最終的なオブジェクト抽出結果と、注目フレームを読み出し、図22(A)に示すように、前フレームの最終的なオブジェクト抽出結果と、注目フレームとを重ねて、対応する画素の画素値(例えば、輝度)どうしの絶対値差分の総和を演算する。オブジェクト抽出部3は、このような絶対値差分の総和を、図22(B)に示すように、前フレームの最終的なオブジェクト抽出結果と、注目フレームとを重ね合わせる位置を、例えば、1画素ごとに変えて求め、絶対値差分の総和が最小になるときの、前フレームの最終的なオブジェクト抽出結果と、注目フレームとの位置関係を求める。さらに、オブジェクト抽出部3は、図22(C)に示すように、その位置関係において、前フレームの最終的なオブジェクト抽出結果との画素値どうしの絶対値差分が、例えば20以下になる画素を、注目フレームから検出し、その画素値を、注目フレームについてのオブジェクト抽出結果として、結果バッファ33Bに書き込む。このようにして結果バッファ33Bに書き込まれたオブジェクト抽出結果は、図20に示したように、結果画面#2において表示される。
【0204】
次に、第3の初期抽出処理では、オブジェクト抽出部3は、例えば、図16で説明した場合と同様にして、注目フレームからオブジェクトを抽出する。このオブジェクト抽出結果は、結果バッファ33Cに書き込まれ、図20に示したように、結果画面#3において表示される。
【0205】
以上の初期抽出処理は、注目フレームが新たなフレームに変更された後に、ユーザからの入力を特に待つことなく、いわば自動的に行われるため、「位置指定」や「順位指定」といったユーザの操作負担を軽減することができる。
【0206】
ところで、初期抽出処理によって得られた3つのオブジェクト抽出結果のうちのいずれかに対して、ユーザが、「全取得」または「部分取得」の操作を行い、これにより、その3つのオブジェクト抽出結果のうちのいずれかの全部または一部が、オブジェクトバッファ23に反映され、注目フレームの最終的なオブジェクト抽出結果とされた場合には、その最終的なオブジェクト抽出結果のうち、初期抽出処理によって得られた部分については、履歴情報が存在しないこととなり、次のフレームが注目フレームとされたときに、前フレームの履歴情報が存在せず、その結果、ユーザの操作負担が増加することがある。
【0207】
そこで、前フレームの履歴情報は、次のフレームの履歴情報に継承することが可能である。
【0208】
即ち、例えば、図23(A)に示すように、前フレームについて最終的なオブジェクト抽出結果が得られた後に、初期抽出処理が行われることにより、注目フレームのオブジェクト抽出結果が結果画面に表示され、そのオブジェクト抽出結果の一部が、ユーザによる「部分取得」操作によって、オブジェクトバッファ23に反映されたとする。
【0209】
この場合、処理制御部7は、オブジェクトバッファ23に反映されたオブジェクトの部分の動きベクトルを、動き検出部6を制御することにより求めさせ、図23(B)に示すように、その動きベクトルによって、前フレームの履歴画像の、オブジェクトバッファ23に反映された領域に対応する部分の位置を補正する。さらに、処理制御部7は、履歴管理部4を制御することにより、その補正後の履歴画像の部分を、注目フレームの履歴画像としてコピーさせる。
【0210】
また、処理制御部7は、注目フレームの履歴画像としてコピーした前フレームの履歴画像の範囲内に、ユーザがマウス9をクリックすることによって指定した前フレーム上の位置が存在するかどうかを、指定位置記憶部41を参照することにより判定し、存在する場合には、図23(C)に示すように、その位置(指定位置)を、図23(B)で説明した動きベクトルによって補正する。そして、処理制御部7は、履歴管理部4を制御することにより、その補正後の指定位置の座標を、注目フレームの指定位置の座標として、指定位置記憶部41に記憶させる。
【0211】
なお、このような履歴情報の継承は、上述の第1乃至第3の初期抽出処理のうちの、第1と第3の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合にのみ行い、第2の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合には行わないようにすることが可能である。
【0212】
即ち、第1と第3の初期抽出処理では、上述したように、前フレームの履歴情報に基づいて、注目フレームからのオブジェクト抽出が行われるため、そのオブジェクト抽出結果が、オブジェクトバッファ23に反映されるということは、注目フレームについて、前フレームの履歴情報を用いずにオブジェクト抽出を行ったとしても、前フレームと同様の処理によって得られたオブジェクト抽出結果が、最終的なオブジェクト抽出結果とされる可能性が高く、従って、前フレームと同様の履歴情報が作成される可能性が高い。
【0213】
これに対して、第2の初期抽出処理では、上述したように、テンプレートマッチングによって、注目フレームからオブジェクトが抽出されるため、そのオブジェクト抽出結果が、オブジェクトバッファ23に反映されたとしても、その反映された部分は、前フレームの履歴情報とは無関係に、注目フレームから抽出されたものであるから、前フレームの履歴情報を用いずにオブジェクト抽出を行ったときに、前フレームと同様の処理によって得られたオブジェクト抽出結果が、最終的なオブジェクト抽出結果とされる可能性が高いとはいえず、従って、前フレームと同様の履歴情報が作成される可能性が高いともいえない。
【0214】
このため、上述したように、履歴情報の継承は、第1と第3の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合にのみ行い、第2の初期抽出処理によって得られたオブジェクト抽出結果が、オブジェクトバッファ23に反映された場合には行わないようにすることができる。
【0215】
但し、履歴情報の継承は、第1乃至第3の初期抽出処理によって得られたオブジェクト抽出結果のうちのいずれが、オブジェクトバッファ23に反映された場合であっても行うようにすることが可能である。
【0216】
以上のように、複数の処理によって、複数のオブジェクト抽出結果を求め、その複数のオブジェクト抽出結果の中から、良好なものを、ユーザに判断してもらい、最終的なオブジェクト抽出結果に反映するようにしたので、容易な操作で、的確なオブジェクト抽出を行うことができる。
【0217】
さらに、前フレームの履歴情報が存在する場合には、その履歴情報と、ユーザにより入力された注目フレーム上の位置に基づいて、注目フレームのオブジェクト抽出を行うようにしたので、やはり、容易な操作で、的確なオブジェクト抽出を行うことができる。
【0218】
即ち、図2の画像処理装置では、ユーザが、注目フレームのオブジェクト上のある位置を指定すると、その位置を起点として、注目フレームの領域が、3つの処理によって切り出され(オブジェクト抽出され)、その結果得られる3つのオブジェクト抽出結果が表示される。さらに、ユーザが、必要に応じて、3つのオブジェクト抽出結果に対して順位を指定すると、その順位に基づく3つの処理によって、注目フレームの領域が再度切り出され、その結果得られる3つのオブジェクト抽出結果が表示される。そして、ユーザが、3つのオブジェクト抽出結果の中から、適切と思うものを指定すると、その指定されたオブジェクト抽出結果が、最終的なオブジェクト抽出結果に反映される。従って、ユーザが、オブジェクト上の位置の指定、必要な順位の指定、および適切なオブジェクト抽出結果の指定という負担の少ない操作を、必要な回数だけ繰り返すことにより、注目フレームから、的確に、オブジェクトを抽出することができる。
【0219】
さらに、次のフレームが注目フレームとされた場合には、その1フレーム前のフレーム(前フレーム)について作成された履歴情報を参照することにより、注目フレーム上のユーザ入力した位置の画素に対応する前フレームの画素をオブジェクトとして抽出するのに用いられたパラメータセットが認識され、そのパラメータセットに基づいて、3つのオブジェクト抽出処理の内容が決定される。従って、ユーザは、注目フレームのオブジェクト上の位置を指定するという負担の少ない操作を行うだけで、注目フレームから、良好なオブジェクト抽出結果を得ることができる。
【0220】
なお、本実施の形態では、ユーザに、注目フレームのオブジェクト上の位置を指定してもらうようにしたが、その他、例えば、注目フレームのオブジェクトの一部の範囲を指定してもらうようにすることも可能である。
【0221】
また、本実施の形態では、注目フレームのオブジェクト抽出を、前フレームのみの履歴情報に基づいて行うようにしたが、注目フレームのオブジェクト抽出は、その他、例えば、過去数フレームの履歴情報に対して重み付けをし、その重み付けされた履歴情報に基づいて行うことも可能である。また、本実施の形態では、時間順に、フレームを処理するものとして、前フレームの履歴情報を、注目フレームからのオブジェクト抽出に用いることとしたが、その他、例えば、時間の逆順に、フレームが処理される場合には、注目フレームからのオブジェクト抽出には、時間的に後行するフレームの履歴情報を用いることが可能である。
【0222】
さらに、本実施の形態では、動画の各フレームからオブジェクトを抽出するようにしたが、本発明は、静止画からのオブジェクト抽出にも適用可能である。
【0223】
また、本発明は、いわゆる前景となっている部分を抽出する場合の他、例えば、背景の一部の構成要素を抽出する場合にも適用可能である。
【0224】
さらに、本実施の形態で説明したオブジェクト抽出処理は例示であり、どのようなオブジェクト抽出処理を採用するかは、特に限定されるものではない。
【0225】
また、本発明は、放送システムや編集システム等の画像処理装置に広く適用可能である。
【0226】
【発明の効果】
本発明よれば簡単な操作で、的確に、オブジェクトを抽出することが可能となる。
【図面の簡単な説明】
【図1】本発明を適用した画像処理装置の一実施の形態のハードウェア構成例を示すブロック図である。
【図2】図1の画像処理装置の機能的構成例を示すブロック図である。
【図3】表示部5における画面の表示例を示す図である。
【図4】図2の画像処理装置の処理を説明するフローチャートである。
【図5】基本画面における表示の切り替え説明するための図である。
【図6】「アンドゥ」と「部分削除」を説明するための図である。
【図7】ユーザが、オブジェクト上の点を指定する様子を示す図である。
【図8】「全取得」と「部分取得」を説明するための図である。
【図9】境界検出部31の構成例を示すブロック図である。
【図10】細線化処理を説明するための図である。
【図11】境界画像を示す図である。
【図12】切り出し部32の処理を説明するためのフローチャートである。
【図13】切り出し部32の処理を説明するための図である。
【図14】履歴情報の更新を説明するための図である。
【図15】履歴情報に基づくオブジェクト抽出を説明するための図である。
【図16】履歴情報に基づくオブジェクト抽出を説明するための図である。
【図17】処理制御部7の処理を説明するためのフローチャートである。
【図18】図17のステップS53乃至S55の処理のより詳細を説明するためのフローチャートである。
【図19】閾値の更新を説明するための図である。
【図20】表示部5における画面の表示例を示す図である。
【図21】第1の初期抽出処理を説明するための図である。
【図22】第2の初期抽出処理を説明するための図である。
【図23】履歴情報の継承を説明するための図である。
【符号の説明】
1 ストレージ, 2 注目フレーム処理部, 3 オブジェクト抽出部, 4 履歴管理部, 5 表示部, 6 動き検出部, 7 処理制御部, 8 イベント検出部, 9 マウス, 21 注目フレームバッファ, 22 背景バッファ, 23 オブジェクトバッファ, 24 セレクタ, 31 境界検出部, 32 切り出し部, 32A乃至32C 出力バッファ, 33 結果処理部, 33A乃至33C 結果バッファ, 41 指定位置記憶部, 42履歴画像記憶部, 43 パラメータテーブル記憶部, 61 前フレームバッファ, 71 位置補正部, 101 バス, 102 CPU, 103 ROM, 104 RAM, 105 ハードディスク, 106 出力部, 107 入力部, 108 通信部, 109 ドライブ, 110 入出力インタフェース, 111 リムーバブル記録媒体, 201 チェンジディスプレイボタン, 202 ユースレコードボタン, 203 デリートパートリィボタン,204 アンドゥボタン, 205 リセットレコードボタン, 206 ランクリザルトボタン, 207 グラブオールボタン, 208 グラブパートリィボタン, 211 HSV分離部, 212H,212S,212V エッジ検出部, 213H,213S,213V 二値化部, 214H,214S,214V 細線化部, 215H,215S,215V 境界画像記憶部

Claims (9)

  1. 画像から所定のオブジェクトを抽出する画像処理装置であって、
    注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出手段と、
    前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択手段と、
    前記選択手段において選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映手段と
    前記複数の処理によるオブジェクト抽出結果の順位付けを行うときに操作される操作手段と、
    前記オブジェクト抽出結果の順位付けに基づいて、前記複数の処理の内容を決定する決定手段と
    を備え、
    前記複数の処理は、異なる閾値を用いた処理であり、
    前記決定手段は、前記複数の処理によるオブジェクト抽出結果に対して、ユーザから順位付けの入力があった場合、その順位付けに基づいて、第1位のオブジェクト抽出結果を得たときに用いられた第1位の閾値と、第2位のオブジェクト抽出結果を得たときに用いられた第2位の閾値との間の値を、次の前記複数の処理のうちの1つの処理に用いられる閾値に決定する
    像処理装置。
  2. 前記選択手段は、前記ユーザからの入力に基づいて、前記複数の処理によるオブジェクト抽出結果のうちの1つの全部または一部を選択する
    求項1に記載の画像処理装置。
  3. 前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出に用いられた処理の内容である処理履歴を記憶する処理履歴記憶手段をさらに備え
    前記履歴情報は、前記オブジェクトを構成する画素ごとの、前記オブジェクトの抽出に用いられた閾値を含み、
    前記決定手段は、前記処理履歴記憶手段に記憶された、注目画面より時間的に前に処理された前画面についての前記処理履歴に基づいて、
    前記前画面において、同一の所定の閾値を用いて、オブジェクトとして抽出された領域の中の所定の点を、前記注目画面と前画面との間の動きベクトルによって補正することにより、前記前画面の所定の点に対応する、前記注目画面の点を求め、
    前記所定の閾値を、前記注目画面の、前記前画面の所定の点に対応する点を含むオブジェクトを抽出する処理に用いられる閾値に決定する
    請求項1に記載の画像処理装置。
  4. 前記処理履歴記憶手段は、前記注目画面から、前記前画面についての前記処理履歴に基づいて抽出されたオブジェクトが、前記注目画面の最終的なオブジェクト抽出結果に反映された場合、前記前画面についての前記処理履歴に含まれる前記オブジェクトを構成する画素ごとの閾値を、前記注目画面と前画面との間の動きベクトルによって補正することにより得られる、その動きベクトル分だけ移動した位置の画素ごとの閾値を、前記注目画面についての処理履歴としてコピーする処理履歴継承を行う
    請求項3に記載の画像処理装置。
  5. 前記オブジェクト抽出手段は、ユーザが入力した目画面上のに基づいて、その点を含むオブジェクトを、前記注目画面か抽出す
    請求項1に記載の画像処理装置。
  6. 前記最終的なオブジェクト抽出結果に反映されたオブジェクトの抽出時にユーザが入力したの履歴である入力履歴を記憶する入力履歴記憶手段をさらに備え
    前記決定手段は、前記入力履歴記憶手段に記憶された、注目画面より時間的に前に処理された前画面についての前記入力履歴に基づいて、前記前画面において、前記ユーザが入力した所定の点を、前記注目画面と前画面との間の動きベクトルによって補正することにより、前記前画面の所定の点に対応する、前記注目画面の点を求め、
    前記オブジェクト抽出手段は、前記前画面の所定の点に対応する、前記注目画面の点を含むオブジェクトを、前記注目画面から抽出する
    請求項5に記載の画像処理装置。
  7. 前記入力履歴記憶手段は、前記前画面についての入力履歴に基づいて前記注目画面から抽出されたオブジェクトが、注目画面の最終的なオブジェクト抽出結果に反映された場合、前記前画面についての入力履歴である、前記前画面の所定の点を、前記注目画面と前画面との間の動きベクトルによって補正することにより得られる、前記前画面の所定の点に対応する、前記注目画面の点を、前記注目画面についての入力履歴としてコピーする入力履歴継承を行う
    請求項6に記載の画像処理装置。
  8. 画像から所定のオブジェクトを抽出する画像処理方法であって、
    注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出ステップと、
    前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択ステップと、
    前記選択ステップにおいて選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映ステップと
    ユーザからの前記オブジェクト抽出結果の順位付けに基づいて、前記複数の処理の内容を決定する決定ステップと
    を備え
    前記複数の処理は、異なる閾値を用いた処理であり、
    前記決定ステップでは、前記複数の処理によるオブジェクト抽出結果に対して、前記複数の処理によるオブジェクト抽出結果の順位付けを行うときに操作される操作手段が操作されることにより、ユーザから順位付けの入力があった場合、その順位付けに基づいて、第1位のオブジェクト抽出結果を得たときに用いられた第1位の閾値と、第2位のオブジェクト抽出結果を得たときに用いられた第2位の閾値との間の値を、次の前記複数の処理のうちの1つの処理に用いられる閾値に決定する
    像処理方法。
  9. 画像から所定のオブジェクトを抽出する画像処理を、コンピュータに行わせるプログラムが記録されている記録媒体であって、
    注目している注目画面の画像から、複数の処理によってオブジェクトを抽出するオブジェクト抽出手段と、
    前記複数の処理によるオブジェクト抽出結果から、最終的なオブジェクト抽出結果に反映させるものを、ユーザからの入力に基づいて選択する選択手段と、
    前記選択手段において選択されたオブジェクト抽出結果を、最終的なオブジェクト抽出結果に反映させる反映手段
    前記複数の処理によるオブジェクト抽出結果の順位付けを行うときに操作される操作手段と、
    前記オブジェクト抽出結果の順位付けに基づいて、前記複数の処理の内容を決定する決定手段と
    して、コンピュータを機能させるためのプログラムであり、
    前記複数の処理は、異なる閾値を用いた処理であり、
    前記決定手段は、前記複数の処理によるオブジェクト抽出結果に対して、ユーザから順位付けの入力があった場合、その順位付けに基づいて、第1位のオブジェクト抽出結果を得たときに用いられた第1位の閾値と、第2位のオブジェクト抽出結果を得たときに用いられた第2位の閾値との間の値を、次の前記複数の処理のうちの1つの処理に用いられる閾値に決定する
    プログラムが記録されている録媒体。
JP2000274766A 2000-09-11 2000-09-11 画像処理装置および画像処理方法、並びに記録媒体 Expired - Fee Related JP4482778B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2000274766A JP4482778B2 (ja) 2000-09-11 2000-09-11 画像処理装置および画像処理方法、並びに記録媒体
US09/950,019 US6934414B2 (en) 2000-09-11 2001-09-10 Image processing apparatus, image processing method, and recording medium
US11/144,296 US7340097B2 (en) 2000-09-11 2005-06-03 Image processing apparatus, image processing method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000274766A JP4482778B2 (ja) 2000-09-11 2000-09-11 画像処理装置および画像処理方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2002092613A JP2002092613A (ja) 2002-03-29
JP4482778B2 true JP4482778B2 (ja) 2010-06-16

Family

ID=18760477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000274766A Expired - Fee Related JP4482778B2 (ja) 2000-09-11 2000-09-11 画像処理装置および画像処理方法、並びに記録媒体

Country Status (2)

Country Link
US (2) US6934414B2 (ja)
JP (1) JP4482778B2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5738663A (en) * 1995-12-15 1998-04-14 Icu Medical, Inc. Medical valve with fluid escape space
US7213061B1 (en) 1999-04-29 2007-05-01 Amx Llc Internet control system and method
US6657646B2 (en) * 1999-06-08 2003-12-02 Amx Corporation System and method for multimedia display
GB0116877D0 (en) * 2001-07-10 2001-09-05 Hewlett Packard Co Intelligent feature selection and pan zoom control
US6999207B2 (en) * 2001-09-19 2006-02-14 Kabushiki Kaisha Toshiba Image processing apparatus, image forming apparatus, and method of them
JP3964646B2 (ja) * 2001-10-25 2007-08-22 富士フイルム株式会社 画像処理方法、画像処理装置、および画像信号作成方法
JP4099357B2 (ja) * 2002-07-08 2008-06-11 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー 画像処理方法および装置
JP3809411B2 (ja) * 2002-09-27 2006-08-16 キヤノン株式会社 画像処理方法及び装置並びに印刷装置
JP3947973B2 (ja) * 2003-02-14 2007-07-25 ソニー株式会社 画像処理装置および方法、プログラム、並びに記録媒体
JP4140402B2 (ja) * 2003-03-03 2008-08-27 松下電工株式会社 画像処理装置
JP3787783B2 (ja) 2003-09-02 2006-06-21 松下電器産業株式会社 対象物進行方向検出方法
US7809186B2 (en) * 2004-04-27 2010-10-05 Canon Kabushiki Kaisha Image processing apparatus, image processing method, program thereof, and recording medium
EP1612653A1 (de) * 2004-06-30 2006-01-04 Siemens Aktiengesellschaft Scrolling-Vorrichtung mit Fixierungsmechanismus
US20060045381A1 (en) * 2004-08-31 2006-03-02 Sanyo Electric Co., Ltd. Image processing apparatus, shooting apparatus and image display apparatus
US7342584B2 (en) * 2004-11-18 2008-03-11 Amx, Llc Method and computer program for implementing interactive bargraphs of any shape or design on a graphical user interface
TWI270824B (en) * 2005-05-02 2007-01-11 Pixart Imaging Inc Method for dynamically recognizing objects in an image based on diversities of object characteristics and system for using the same
US8049731B2 (en) * 2005-07-29 2011-11-01 Interlink Electronics, Inc. System and method for implementing a control function via a sensor having a touch sensitive control input surface
CA2621713C (en) 2005-09-07 2016-01-26 Amx Llc Method and computer program for device configuration
JP4817882B2 (ja) * 2006-02-24 2011-11-16 キヤノン株式会社 画像処理方法及び画像処理装置
JP4817881B2 (ja) * 2006-02-24 2011-11-16 キヤノン株式会社 画像処理方法及び画像処理装置
JP2007256162A (ja) * 2006-03-24 2007-10-04 Honda Motor Co Ltd バルブシート隙間計測装置
US20110044544A1 (en) * 2006-04-24 2011-02-24 PixArt Imaging Incorporation, R.O.C. Method and system for recognizing objects in an image based on characteristics of the objects
JP4813517B2 (ja) * 2008-05-29 2011-11-09 オリンパス株式会社 画像処理装置、画像処理プログラム、画像処理方法、および電子機器
US8384739B2 (en) * 2008-09-30 2013-02-26 Konica Minolta Laboratory U.S.A., Inc. Systems and methods for optimization of pixel-processing algorithms
JP5779089B2 (ja) * 2011-12-28 2015-09-16 株式会社ドワンゴ エッジ検出装置、エッジ検出プログラム、およびエッジ検出方法
KR20140112891A (ko) * 2013-03-14 2014-09-24 삼성전자주식회사 미디어 편집을 위한 영역 선택 처리 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
JP5799273B2 (ja) * 2013-10-02 2015-10-21 パナソニックIpマネジメント株式会社 寸法計測装置、寸法計測方法、寸法計測システム、プログラム
JP7423951B2 (ja) * 2019-09-19 2024-01-30 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5019975A (en) * 1986-08-08 1991-05-28 Fuji Photo Film Co., Ltd. Method for constructing a data base in a medical image control system
US4821118A (en) * 1986-10-09 1989-04-11 Advanced Identification Systems, Inc. Video image system for personal identification
US5748931A (en) * 1994-10-24 1998-05-05 Infosis Group Ltd. Information display system for simultaneously displaying graphical images and text of a publication
JP3189870B2 (ja) * 1996-12-24 2001-07-16 シャープ株式会社 画像処理装置
JPH1191169A (ja) * 1997-09-19 1999-04-06 Fuji Photo Film Co Ltd 画像処理装置
DE69937476T2 (de) * 1998-07-31 2008-08-28 Canon K.K. Bildverarbeitungsvorrichtung und -Verfahren und Speichermedium
US6217520B1 (en) * 1998-12-02 2001-04-17 Acuson Corporation Diagnostic medical ultrasound system and method for object of interest extraction
JP2000357234A (ja) * 1999-06-16 2000-12-26 Canon Inc 画像処理装置およびその方法
US6470151B1 (en) * 1999-06-22 2002-10-22 Canon Kabushiki Kaisha Camera, image correcting apparatus, image correcting system, image correcting method, and computer program product providing the image correcting method

Also Published As

Publication number Publication date
US20020076106A1 (en) 2002-06-20
US7340097B2 (en) 2008-03-04
US6934414B2 (en) 2005-08-23
US20050226504A1 (en) 2005-10-13
JP2002092613A (ja) 2002-03-29

Similar Documents

Publication Publication Date Title
JP4482778B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP3690391B2 (ja) 画像編集装置、画像のトリミング方法、及びプログラム
US20180232863A1 (en) Enhanced Vectorization of Raster Images
US20050220346A1 (en) Red eye detection device, red eye detection method, and recording medium with red eye detection program
JP2001236497A (ja) 写真画像のクロッピングされズームされた変形を自動的に形成する方法
JP2001109895A (ja) 複数のディジタル画像の処理方法
JP2004046632A (ja) 画像処理装置
CN108154471A (zh) 一种用于遥感影像拼接的方法与装置
JP2001521656A (ja) イメージ構成のためのインテリジェント・シザーズを提供するコンピュータ・システム・プロセス及びユーザ・インターフェース
US20220270232A1 (en) Apparatus for adjusting parameter related to defect detection for image processing for image processing, method for information processing, and program
JP4052128B2 (ja) 画像トリミング装置、画像のトリミング方法、及びプログラム
US6816633B1 (en) Image retrieval apparatus and method
JP4482779B2 (ja) 画像処理装置および画像処理方法、並びに記録媒体
JP2001128115A (ja) 対話型ビデオ処理環境を実施するシステムと、その記憶媒体および処理方法
KR102045753B1 (ko) 이미지의 배경 영역에 대한 투명화 처리를 지원하는 이미지 편집 처리 장치 및 그 동작 방법
JP2000339452A (ja) 画像抽出方法及び装置並びに記憶媒体
JP2006133874A (ja) 画像処理方法及びその装置
JP2002208013A (ja) 画像領域抽出装置及び画像領域抽出方法
JPH07121710A (ja) 画像セグメンテーション方法及び装置
US20230169708A1 (en) Image and video matting
JP3719247B2 (ja) 画像編集装置、画像のトリミング方法、及びプログラム
JPH1145345A (ja) 画像処理装置
JP2017162035A (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JPH07225848A (ja) 画像抽出方法
JP2000020687A (ja) 画像加工装置および画像加工方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100225

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100310

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees