JP5210318B2 - 画像処理装置、方法、および記憶媒体 - Google Patents

画像処理装置、方法、および記憶媒体 Download PDF

Info

Publication number
JP5210318B2
JP5210318B2 JP2009535516A JP2009535516A JP5210318B2 JP 5210318 B2 JP5210318 B2 JP 5210318B2 JP 2009535516 A JP2009535516 A JP 2009535516A JP 2009535516 A JP2009535516 A JP 2009535516A JP 5210318 B2 JP5210318 B2 JP 5210318B2
Authority
JP
Japan
Prior art keywords
candidate
target
combination
similarity
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009535516A
Other languages
English (en)
Other versions
JPWO2009125596A1 (ja
Inventor
康伸 小倉
祐亮 物部
慎也 小嶋
幸靖 深見
桂一 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2009535516A priority Critical patent/JP5210318B2/ja
Publication of JPWO2009125596A1 publication Critical patent/JPWO2009125596A1/ja
Application granted granted Critical
Publication of JP5210318B2 publication Critical patent/JP5210318B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Description

本発明は、画像中から対象物体を抽出するための技術に関するものである。
近年、デジタルスチルカメラやデジタルビデオカメラ等に代表される、撮像機能を有する小型の電子機器が普及するとともに、これらの撮像機能の高機能化が進んでいる。
例えば、これらの撮像装置は、通常、LCD等のディスプレイを備えており、ユーザは記録される映像をディスプレイで確認しながら、被写体を撮影することが可能である。
また、デジタルスチルカメラにおいて、シャッターを半押しにした状態にすることで、ディスプレイの中央座標を中心に、決まったサイズの矩形を、対象物の領域と設定し、設定した領域から対象物の特徴を抽出し、最初に抽出した特徴と、その抽出がされた入力画像よりも後の入力画像とのマッチングを行い、対象物の追跡を行い、自動合焦機能(AF(Auto Focus))や自動露光機能(AE(Auto Exposure))等を調整することができる撮像装置も存在する。
従来の技術としては、ユーザがマウスやタッチペンなどを用い、対象物体を完全に包含する矩形や楕円の領域をマニュアル操作によって設定し、設定した領域から背景色の成分を推定し、設定された領域内から背景色の成分を除くことにより対象物の色成分を特定し、対象物体の抽出を行う(例えば、特許文献1参照)。図19は、前記特許文献1に記載された従来技術のブロック図である。なお、従来の対象物追跡装置1600(図19)は、機能部1611、機能部1612、機能部1601〜機能部1606の各機能部を備える。図19の各機能部のそれぞれに付される文字は、その機能部で行われる処理を示す。
特開2004−252748号公報
しかしながら、前記従来技術では、ユーザが指定する領域内から対象物体の抽出を行うため、ユーザが、対象物を完全に包含する領域を指定することができていない場合は、対象物全体を正しく抽出することができなかった。
また、デジタルスチルカメラやデジタルビデオカメラ等の従来のユーザインターフェースでは、対象物の領域を指定する操作が困難であった。
本発明は、前記従来の課題を解決するもので、ユーザが簡易な操作をするだけで、例えば対象物体の領域の一部を指定するだけなどで、対象物全体を正しく抽出することができる画像処理装置および画像処理方法並びに記憶媒体を提供することを目的とする。
前記従来の課題を解決するために、次の構成を採った。
本発明の画像処理装置は、画像中の対象物体を抽出する画像処理装置であって、前記入力された画像上の位置を指定する指定手段と、前記指定された位置を基準に、第1の対象領域候補と第1の背景領域候補とからなる第1の組み合わせと、第1の組み合わせとは異なる第2の対象領域候補と第2の背景領域候補とからなる第2の組み合わせとを設定する設定手段と、前記第1の対象領域候補の正規化色ヒストグラムと、前記第2の対象領域候補の正規化色ヒストグラムと、前記第1の背景領域候補の正規化色ヒストグラムと、前記第2の背景領域候補の正規化色ヒストグラムとを作成するヒストグラム作成手段と、前記作成された第1の対象領域候補の正規化色ヒストグラムと、前記作成した第1の背景領域候補の正規化色ヒストグラムとから、前記第1の組み合わせの類似度を算出し、前記作成された第2の対象領域候補の正規化色ヒストグラムと、前記作成した第2の背景領域候補の正規化色ヒストグラムとから、前記第2の組み合わせの類似度を算出する類似度算出手段と、前記第1の組み合わせの類似度と前記第2の組み合わせの類似度とから、類似度が小さい組み合わせを選択する選択手段とを備えた画像処理装置である。
本発明によれば、ユーザが指定した位置を基準に、対象領域候補と背景領域候補の組み合わせを複数設定し、各組み合わせに対して対象領域候補の色ヒストグラムと、背景領域候補の色ヒストグラムとから類似度を算出することで、対象物体を抽出することができる。また、対象領域候補の色ヒストグラムと、背景領域候補の色ヒストグラムとから、背景色成分を特定し、対象領域候補と背景領域候補とから対象物の領域を抽出して、抽出した対象物の領域を統合することで、対象物を包含する、対象物の外接領域を正しく検出することができる。
図1は、本発明の実施の形態1における画像処理装置のブロック図である。 図2は、本発明の実施の形態1における画像処理装置のフローチャートである。 図3は、本発明の実施の形態1,2における位置設定の例を示す図(固定座標を設定)である。 図4は、本発明の実施の形態1,2における位置設定の例を示す図(タッチパネル)である。 図5は、本発明の実施の形態1における対象領域候補設定の例を示す図である。 図6は、本発明の実施の形態1における背景領域候補設定の例を示す図である。 図7は、本発明の実施の形態1における領域設定の例を示す図である。 図8は、本発明の実施の形態1における領域設定の例を示す図である。 図9は、本発明の実施の形態1における領域設定の例を示す図である。 図10は、本発明の実施の形態1,2における使用する色空間の例を示す図である。 図11は、色ヒストグラムの例を示す図である。 図12は、本発明の実施の形態1,2における対象物・背景の色成分を抽出する例を示す図である。 図13は、本発明の実施の形態2における画像処理装置のブロック図である。 図14は、本発明の実施の形態2における画像処理装置のフローチャートである。 図15は、本発明の実施の形態2における対象領域候補設定の例を示す図である。 図16は、本発明の実施の形態2における背景領域候補設定の例を示す図である。 図17は、本発明の実施の形態における記録媒体のブロック図である。 図18は、画像処理装置が高精度枠を特定する処理を説明する図である。 図19は、従来技術のブロック図である。
以下本発明の実施の形態について、図面を参照しながら説明する。
(実施の形態1)
図1は、本発明の実施の形態1における画像処理装置100のブロック図である。
図1において、対象物抽出を行う画像処理装置100は、指示部101と設定部102とヒストグラム作成部103と類似度算出部104と選択部105と枠処理部106と表示部107とを備える。
なお、これら指示部101等の機能ブロックは、それぞれ、例えば、図17に示されるCPU1501が予め定められたプログラムを実行することで実現される機能であってもよい。例えば、画像処理装置100は、図17に示されるシステム1500である。なお、指示部101等の機能ブロックは、その機能ブロックが、所謂オブジェクト指向のプログラムにより実現される場合、例えば、1つまたは複数のオブジェクトによる機能の機能ブロックであると解されてもよい。
画像処理装置100は、I個の対象領域候補O_i(1≦i≦I、図5)などに基づいて、対象物objの輪郭に合った対象物領域(高精度対象物領域)を特定する。ここで、高精度対象物領域は、例えば、後で詳しく説明されるように、I個の対象領域候補O_iのうちで比較的適切な領域である。そして、画像処理装置100は、例えば、デジタルビデオカメラなどの、対象物objが含まれる静止画や動画(入力画像100I参照)を撮像する撮像装置または、そのような撮像装置に設けられる部品である。そして、画像処理装置100は、例えば、特定される対象物領域に基づいて、対象物領域の特定結果から画像処理装置100等が特定する焦点距離で、画像処理装置100に撮像を行わせる。特定される対象物領域は、例えばこのような自動合焦機能の処理などの、各種の対象物領域を利用する処理に用いられる。
図2は、本発明の実施の形態1に係る、画像処理装置100のフローチャートである。
まず、画像処理装置100により、入力画像100I(図1)が当該画像処理装置100に入力される(ステップS200)。
図3は、画像処理装置100により表示される入力画像100Iを示す図である。
入力画像100Iを入力後、表示部107は、入力された入力画像100Iを表示する(ステップS201)。
次に、指示部101は、ユーザの指示に基づいて、座標(対象物箇所座標)を指定する(ステップS202)。具体的には、ユーザは、対象物objに含まれる部分の座標を指定する。なお、この指定の処理については、後で、より詳しく説明される。
図5は、対象領域候補501(対象領域候補O_i)を示す図である。
図6は、背景領域候補601(背景領域候補B_i)を示す図である。
設定部102は、指示部101の処理により指定された座標を基準に、対象領域候補O_iと背景領域候補B_iとの組み合わせをI個設定する(ステップS203、1≦i≦I)。ここでは、説明の便宜上、組み合わせの個数が2である(I=2、i=1,2)ものとして説明するが、組み合わせの数は2組に限らない。
ヒストグラム作成部103は、設定された対象領域候補O_iと背景領域候補B_iとの画像データから、色ヒストグラムをそれぞれ算出する(ステップS204)。つまり、ヒストグラム作成部103は、入力画像100Iのうちで、対象領域候補O_iの部分の画像の画像データから、対象領域候補O_iの色ヒストグラムを算出する。また、ヒストグラム作成部103は、入力画像100Iのうちで、背景領域候補B_iの部分の画像の画像データから、対象領域候補O_iの色ヒストグラムを算出する。
類似度算出部104は、対象領域候補O_iの色ヒストグラムと背景領域候補B_iの色ヒストグラムとから、対象領域候補O_iと背景領域候補B_iとの間の類似度L_iを算出する。類似度算出部104は、各組み合わせに対してそれぞれ、その組み合わせを構成する対象領域候補O_iと背景領域候補B_iとの各色ヒストグラムの間の類似度を算出し、I個の類似度を算出する(ステップS205)。
選択部105は、算出されたI個の類似度を比較して、類似度が最も低い組み合わせを1つ選択する(ステップS206)。つまり、選択部105は、組み合わせの類似度を、他の組み合わせの類似度と比較する。そして、選択部105は、設定部102により特定された各組み合わせのうちで、その組み合わせ以外の他の何れの組み合わせよりも類似度が大きくない組み合わせ(選択組み合わせ)を選択する。
枠処理部106は、選択された組み合わせの対象領域候補O_sの色ヒストグラムと、背景領域候補B_sの色ヒストグラム(1≦s≦I)とから、背景色の色成分と、対象物obj(図5等)の色成分とを特定する。つまり、枠処理部106は、背景色に含まれる、1以上の色の種類を特定する。特定される1以上の種類は、背景を構成する色の色成分である。こうして、背景色の各色成分を特定することは、背景色を特定することと呼ばれる。また、枠処理部106は、対象物objを構成する、1以上の色の種類を特定する。なお、色ヒストグラムについては、後で、より詳しく説明される。
また、枠処理部106は、入力画像100Iから、対象物objの色成分の画素を抽出し、抽出された画素を1つの対象物領域(高精度対象物領域)として統合する(ステップS207)。つまり、枠処理部106は、例えば、入力画像100Iのうちの、予め定められた和領域に含まれる各画素のうちで、対象物objの色成分である各画素を特定する。ここで、この和領域は、例えば、選択組み合わせの対象領域候補O_sおよび背景領域候補B_iの2つの領域の少なくとも一方に含まれる各箇所が集まってなる領域である。そして、枠処理部106は、この特定された各画素の全体よりなる領域を、対象物領域(高精度対象物領域)として特定する。
最後に、表示部107は、統合された対象物領域の枠を表示する(ステップS208)。
以下、各ステップの詳細を説明する。
まず、ステップS201では、入力画像100Iが表示される。
ステップS202では、画像処理装置100のユーザは、表示された入力画像100Iを確認しながら、入力画像100I中の対象物obj上の座標を指示する。指示する座標は、図3に示すように、例えば、画像処理装置100の操作ボタンが押されるタイミングにおける、表示画像(入力画像100I)の固定の座標としてもよい。
要するに、指示部101は、画像処理装置100に入力される複数の入力画像100Iのうちから1つの入力画像100Iを特定してもよい。そして、指示部101は、特定される入力画像100Iにおける、上記固定の座標(予め定められた座標)を、対象物objに含まれる箇所の座標として特定するものであってもよい。
図4は、ユーザの指401bによるタッチにより座標が指定される際の入力画像401aを示す図である。
また、例えば、表示部107の上部にタッチパネル装置を取り付け、図4に示すように、ユーザがパネルに接触することにより、座標を指示してもよい。なお、座標の指示にはマウス、タッチペン等の入力デバイスを用いてもよい。
なお、要するに、指示部101は、対象物objに含まれる箇所の座標としてユーザが当該画像処理装置100に対して指定する座標(対象物箇所座標)を特定する。
次に、ステップS203では、図5に示す通り、ユーザが指定した座標を基準に、Miピクセル×Niピクセルの対象領域候補O_i(1≦i≦I)が設定部102により設定される。また、図6に示す通り、ユーザが指定した座標を基準に、Oiピクセル×Piピクセルの背景領域候補B_i1≦i≦I)が設定部102により設定される。このとき、Mi<Oi、Ni<Piである。なお、これら、対象領域候補501および背景領域候補601は、例えば、中心が、指示部101により特定された座標である領域であってもよい。また、背景領域候補601は、例えば、対応する対象領域候補501を包含する領域であってもよい。
図7は、円領域701を示す図である。
図8は、楕円領域702を示す図である。
図9は、互いに離れた2個以上の領域が集まってなる集合領域703を示す図である。
なお、対象領域候補501と背景領域候補601の形は、矩形に限らない。例えば、対象領域候補501と背景領域候補601とのうちの一方または両方は、図7に示す通り、半径Riの円領域701であってもよいし、長軸Si、短軸Tiの楕円領域702であってもよい。また、設定部102が設定するこれらの領域の一方または両方は、2個以上の領域に分割された集合領域703であってもよい。
そして、ステップS204では、まず、ステップS203で設定した各領域(対象領域候補O_iおよび背景領域候補B_i、1≦i≦I)の色ヒストグラムが、ヒストグラム作成部103により算出される。
図11は、色ヒストグラム900を示す図である。
色ヒストグラム900は、予め定められた複数の色の種類のうちの、それぞれの色の種類に対応する度数(数値)を特定するデータである。特定される数値は、その色ヒストグラム900の画像に含まれる各画素のうちで、その数値の種類の色の画素の個数である。なお、例えば、上記色の種類の予め定められた個数は、例えば、後述されるQ(=16)個である。なお、色ヒストグラム900については、後で、さらに詳しく説明される。図11の色ヒストグラム900では、横軸が、16個の色の種類を示し、縦軸が、その種類の色の画素の個数を示す。
図10は、HSVの色空間における色相(H)の色成分軸801を示す図である。
色ヒストグラムの計算では、予め定められた色空間における各色成分軸をQ分割したL次元ヒストグラムがヒストグラム作成部103により作成される。つまり、作成される色ヒストグラムは、例えば、画素の個数を特定する色の種類の個数がQ個である。そして、それぞれの種類の色は、上記色空間をQ分割した各部分空間のうちの1つである。そして、例えば、それらの部分空間は、色空間における各色成分軸のうちで予め定められた1つの色成分軸(例えば色相の色成分軸、L=1)をQ分割した際の各部分の色である。
ここでは、一例として、図10に示す通り、Q=16、L=1として、また、色空間をHSV空間とする。そして、上記1つの色成分軸は、H(色相)の色成分軸であるとする。このH(色相)の色成分軸に基づいて、この、色相の色成分軸を、16個に分割した1次元ヒストグラム(図11の色ヒストグラム900)を、ヒストグラム作成部103は作成するものとする。
そして、ヒストグラム作成部103は、対象領域候補501内の各画素について、色空間内の16個に分割された要素(色成分)のうちのどの要素に含まれる色の画素か判定する。分割された各要素に含まれる色を有する画素の画素数をヒストグラム作成部103は数えて、対象領域候補501の色ヒストグラムを算出する。背景領域候補601についても同様に色ヒストグラムをヒストグラム作成部103は算出する。
図11に色ヒストグラムの一例を示す。横軸は、各要素(色成分)を示す番号q(q=0,1,2,・・・,15)である。縦軸は、色ヒストグラムの度数、すなわち、その色成分の色を有する画素の個数である。
16個に分割した各要素のうちのq番目の要素(0≦Q≦Q−1)の度数(画素の個数)をD個とすると、色ヒストグラム900の総画素数は式(1)で求められる。
Figure 0005210318
次に、色ヒストグラム900の各要素の度数のそれぞれを、領域の総画素数で割って得られる正規化ヒストグラムNDを算出する。
Figure 0005210318
正規化ヒストグラムは、各要素の総和が1となるように正規化されている。
すなわち、正規化ヒストグラムは、色ヒストグラムの画像の各画素の総数に占める、各色成分のそれぞれの画素の個数の割合を特定するデータである。
次に、ステップS205では、対象領域候補501と背景領域候補601の組み合わせの類似度が算出される。ここでは、類似度の尺度として、式(3)に示すヒストグラムインターセクションSobを用いる。このような類似度が、各組み合わせに対してそれぞれ類似度算出部104により算出される。
Figure 0005210318
図12は、対象領域候補501の正規化ヒストグラム1001と、背景領域候補601の正規化ヒストグラム1002とを示す図である。なお、図12に示される、減算結果ヒストグラム1003とについては、後で詳しく説明される。
ここで、図12に示されるOは、対象領域候補501の正規化ヒストグラム1001の各要素の度数であり、Bは、背景領域候補601の正規化ヒストグラム1002の各要素の度数である。対象領域候補501の正規化ヒストグラム1001と背景領域候補601の正規化ヒストグラム1002とは、どちらも、総和が1となるように正規化されている。したがって、ヒストグラムインターセクションSobは0から1までの値となる。
つまり、ヒストグラムインターセクションSobは、対象領域候補501の正規化ヒストグラム1001の形(図12)に対して、他方の正規化ヒストグラム1002の形(図12)が重ね合わせられた際に、それら2つの形が重なる重複領域の面積に対応する。
そして、先述のように、設定部102は、対象領域候補501と背景領域候補601との組み合わせをI個、設定する。そして、ヒストグラム作成部103は、それらI個の組み合わせのそれぞれについて、その組み合わせ(i番目の組み合わせ)の対象領域候補501(対象領域候補o_i)と背景領域候補601(背景領域候補B_i)の2つの領域の色ヒストグラム900(正規化色ヒストグラム)を算出する。そして、類似度算出部104も、それらI個の組み合わせのそれぞれについて、類似度を算出する。
ステップS206では、類似度を算出したI個の組み合わせの中から、最も算出された類似度が低い組み合わせが、最も適切な、対象領域候補O_iと背景領域候補B_iとの組み合わせとして選択部105により選択される。
図12の右図では、減算結果ヒストグラム1003が示される。
次に、ステップS207では、まず、式(4)に示すように、背景領域候補B_iの正規化ヒストグラム1002の各要素の度数から、対象領域候補O_iの正規化ヒストグラム1001の各要素の度数を枠処理部106が減算して、それらの度数の間の大小を枠処理部106が判定する。つまり、枠処理部106は、各色成分について、それぞれ、正規化ヒストグラム1001における、その色成分の個数Bから、正規化ヒストグラム1002におけるその色成分の個数Oを減算する。これにより、枠処理部106は、各色成分の度数が、それぞれ、その色成分についてのこの減算の減算結果Eである減算結果ヒストグラム1003を算出する。
Figure 0005210318
減算結果Eが正であれば、その減算がされた要素(色成分)を、背景の色成分として、枠処理部106は決定する。他方で、減算結果Eが負であれば、その色成分を、対象物objの色成分として枠処理部106は決定する。図12に一例を示す。
なお、減算結果Eに基づいて対象物objの色成分か否かを決定するのではなく、次のように決定してもよい。選択組み合わせの背景領域候補601の正規化ヒストグラム1002の中での度数が高い順番に、u個の色成分、つまり、最も度数が高い色成分から、u番目に高い色成分までの各色成分を、背景の色成分として、枠処理部106は特定する。対象領域候補501の正規化ヒストグラム1001の各色成分から、特定されたu個の色成分を除去し、残った各色成分を対象物の色成分として枠処理部106は決定する。
次に、決定した対象物objの色成分(例えば、上記演算結果ヒストグラムにおいて画素の個数が予め定められた閾値(例えば0)以上の各色成分)の画素を、選択組み合わせの対象領域候補501と背景領域候補601となどの、適切な対象領域候補501および背景領域候補601から、枠処理部106は抽出する。そして、対象領域候補501と背景領域候補601とから抽出した、対象物objの各画素が含まれるように、矩形を、枠処理部106は設定する。つまり、例えば、枠処理部106は、抽出された各画素が何れも含まれる最小の矩形を、対象物領域(高精度対象物領域)として特定する。また、抽出した、対象物objの各画素に対して、楕円フィッティングを行った結果を対象物領域として枠処理部106は用いてもよい。また、ステップS206で選択された領域の組み合わせ(選択組み合わせ)の対象領域候補501を、そのまま対象物領域として枠処理部106は設定してもよい。
最後に、ステップS208で、ステップS207で設定した矩形枠または楕円枠を表示部107に画像処理装置100は出力する。この出力がされることで、表示部107は、設定された対象物領域(高精度対象物領域)を表示する。
(実施の形態2)
図13は、本発明の実施の形態2における画像処理装置1100のブロック図である。
図13において、対象物抽出を行う画像処理装置1100は、指示部1101と設定部1102とヒストグラム作成部1103と類似度算出部1104と判定部1105と枠処理部1106と表示部1107とを備える。
図14は、本発明の実施の形態2に係る、画像処理装置1100のフローチャートである。
入力画像100Iを画像処理装置1100が当該画像処理装置1100に入力した後、表示部1107は、入力された入力画像100Iを表示する(ステップS1201)。
指示部1101は、画像処理装置1100のユーザの指示に基づいて座標を指定する(ステップS1202)。
設定部1102は、指定された座標を基準に、Mピクセル×Mピクセルの対象領域候補O_1(対象領域候補O_t、t≧1)と、Nピクセル×Nピクセルの背景領域候補B_1(背景領域候補B_t、t≧1)を設定する(ステップS1203、S1204)。
ヒストグラム作成部1103は、設定された対象領域候補O_1(対象領域候補O_t)と背景領域候補B_1(背景領域候補B_t)の画像データから、それら各領域の色ヒストグラムをそれぞれ算出する(ステップS1205)。
類似度算出部1104は、対象領域候補O_1(対象領域候補O_t)の色ヒストグラムと、背景領域候補B_1(背景領域候補B_t)の色ヒストグラムとから、対象領域候補O_1(対象領域候補O_t)と背景領域候補B_1(背景領域候補B_t)の類似度を算出する(ステップS1206)。
判定部1105は、類似度の判定を行う(ステップS1207)。
枠処理部1106は、類似度の判定で予め定められた判定がされた場合に、その判定がされた対象領域候補O_tの色ヒストグラムと背景領域候補B_tの色ヒストグラムとから、背景色の色成分を特定し、対象物となる背景色の色成分の各画素を抽出し、抽出された各画素を1つの対象物として統合を行う(ステップS1208)。
最後に表示部1107で、枠処理部1106が統合を行った結果の枠を表示する(ステップS1209)。
以下、各ステップの詳細を説明する。
まず、ステップS1201とステップS1202は、それぞれ、実施の形態1のステップS201とステップS202と同様である。
図15は、対象領域候補O_t(対象領域候補1301)を示す図である。
図16は、背景領域候補B_tを示す図である。
次に、ステップS1203では、図15に示す通り、ユーザに指示された座標を含むMピクセル×Mピクセルの領域が、対象領域候補O_1として設定部1102により設定される(t=1)。同様に、ステップS1204では、図16に示す通り、ユーザに指示された座標を含むNピクセル×Nピクセルの領域を、背景領域候補B_tとして設定部1102が設定する(t≧1)。このとき、例えば、背景領域候補B_tは対象領域候補O_tよりも広い領域である(M<N)。なお、後述されるように、例えば、設定される対象領域候補O_tは、対象領域候補O_tの「t」に関わらず、同じ領域(対象領域候補1301)である。
そして、ステップS1205では、ステップS1203で設定した対象領域候補O_tの色ヒストグラムと、ステップS1204で設定した背景領域候補B_tの色ヒストグラムとがヒストグラム作成部1103により算出される。そして、それぞれの各色ヒストグラムを正規化した正規化ヒストグラムがヒストグラム作成部1103により算出される。色ヒストグラム、正規化色ヒストグラムの作成は、実施の形態1と同様である。
次に、ステップS1206で、対象領域候補O_tと背景領域候補B_tとの類似度を類似度算出部1104が算出する。類似度の尺度としては、例えば、ヒストグラムインターセクションSob(先述)を用いる。
ステップS1207で、類似度と、予め設定した閾値THを判定部1105は比較する。類似度が閾値THよりも高いと判定されれば、背景領域候補B_tが背景色を十分に含んでいないと判定部1105は判定し、背景領域候補B_tのサイズを設定部1102が拡大して(Nを増加して)、画像処理装置1100の処理はステップS1204に戻る。
なお、戻った後のステップS1204〜ステップS1207の処理におけるtの値は、戻る前の現在のtの値に対して1が加算された値(t+1)である。そして、設定部1102は、戻った後において、背景領域候補B_(t+1)として、上述の拡大がされた領域を設定する。背景領域候補B_(t+1)は、例えば、背景領域候補B_tを包含する領域である。
背景領域候補B_tのサイズを、tの内容が大きくなるにつれて、徐々に拡大していくと、背景領域候補B_tがほぼ対象物objを包含してしまうまでは、背景領域候補B_tに占める対象物objの色成分は増加する。このとき、対象領域候補O_tと、拡大した背景領域候補B_(t+1)との類似度が、対象領域候補O_tと、背景領域候補B_tとの類似度よりも大きくなり、算出される類似度が増加する。対象物objを包含した後、さらに背景領域候補601のサイズを拡大すると、背景領域候補601に占める背景成分の割合が増加する。このとき、対象領域候補501と拡大した背景領域候補601との間の類似度は低下する。
つまり、背景領域候補601のサイズの変化に応じて、例えば、類似度は次のように変化する。背景領域候補B_(t+1)には含まれて、かつ、背景領域候補B_tには含まれない新入画素は、背景領域候補B_tが対象物objを包含する場合には、対象物objの画素以外の他の画素である。このため、背景領域候補B_(t+1)による類似度は、背景領域候補B_tによる類似度よりも小さい。つまり、背景領域候補B_(t+1)の類似度は、背景領域候補B_tの類似度に対して、低下する。他方で、背景領域候補B_tが、対象物objの一部のみを包含する場合には、対象物objの画素である新入画素が背景領域候補B_(t+1)に含まれる。これにより、背景領域候補601の類似度は増加する。なお、類似度が極大となるtの値における背景領域候補601は、背景領域候補B_1、背景領域候補B_2、…のうちで、対象物objの形に近い形(例えば、最も近い形)を有する領域である。
このように、類似度が閾値THよりも低くなるまで、ステップS1204からステップS1207までの処理が繰り返される。なお、繰り返す過程では、ステップS1205の対象領域候補1301の色ヒストグラムと正規化色ヒストグラムの作成の処理は、必ずしも繰り返す必要はない。
類似度が閾値THよりも低ければ、背景領域候補B_(t+1)が背景色を十分に包含していると判定部1105が判定して、ステップS1208へ進む。
ステップS1201とステップS1202とは、それぞれ、実施の形態1のステップS201とステップS202と同様である。
ステップS1208とステップS1209とは、それぞれ、実施の形態1のステップS207とステップS208と同様である。
(実施の形態3)
実施の形態1あるいは実施の形態2における物体抽出装置(画像処理装置100、画像処理装置1100)の各構成要素の機能をプログラムにより構築し、そのプログラムをコンピュータにインストールする。そして、そのコンピュータまたはそのコンピュータを備えた装置を、物体抽出装置として利用する。このプログラムをインストールしたコンピュータ等には、指示部101、設定部102、ヒストグラム作成部103、類似度算出部104、選択部105、枠処理部106(指示部1101等)が、プロセス、またはプログラムモジュールとして実装される。
図17は、システム1500を示す図である。
図17に示すように、このプログラムは、典型的には、CD−ROMやDVD−ROM等の記憶媒体1509に格納され、ドライブ1510、I/O1511を介してHDD(Hard Disk Drive)1507等の記憶装置にインストールされる。そして、CPU1501が、ROM1512、RAM1506、HDD1507等をアクセスしながら、このプログラムを実行することにより、上記実施の形態に係る、対象物抽出装置(物体抽出装置)が実現される。
なお、入力画像100Iと、出力画像の一方または両方を、ネットワークを介して流通させることも可能である。
以上説明されたシステム1500(画像処理装置100、画像処理装置1100)は、画像中の対象物体を抽出する画像処理装置であって、入力された画像を表示する表示部107(表示部1107)と、ユーザの指示により対象物の初期位置を設定する領域指示処理部(指示部101、指示部1101)と、前記設定した初期位置を基準に少なくとも2組以上の対象領域と背景領域の組み合わせを設定する設定部102(設定部1102)と、前記設定した複数の領域対群の色ヒストグラムをそれぞれの領域で算出するヒストグラム作成部103(ヒストグラム作成部1103)と、前記算出した対象領域と背景領域の正規化色ヒストグラムから類似度を算出する類似度算出部104(類似度算出部1104)と、前記類似度が一番小さい、対象領域と背景領域の組み合わせを選択する選択部105(判定部1105)と、前記選択された領域の組から対象物体領域に枠表示を行う枠処理部(枠処理部106、表示部107等)とを備え、対象物の抽出を行う。
これにより、ユーザが指定する初期領域内に対象物が完全に含まれない場合でも、対象物全体を正しく抽出することができる。
なお、ヒストグラム作成部103(ヒストグラム作成部1103)は、例えば、背景領域候補601の色ヒストグラムとして、背景領域候補601から、この背景領域候補601に包含される対象領域候補501を除いたドーナツ状の領域の色ヒストグラムを作成してもよい。そして、類似度算出部104等は、ドーナツ状の領域の色ヒストグラムに対応する類似度を算出するなどとしてもよい。
図18は、画像処理装置100(システム1500)が高精度枠を特定する処理を説明する図である。
画像処理装置100は、選択組み合わせを特定した後に、次の処理をしてもよい。
設定部102は、選択組み合わせの対象領域候補501を特定した後、その対象領域候補501の位置の近傍の予め定められた複数の位置の探索領域501y(図18の中央の上図および下図参照)を特定する。
ヒストグラム作成部103および類似度算出部104は、特定された複数の探索領域501yについて、それぞれ、その探索領域501yの類似度を算出する。ここで、算出される類似度は、例えば、選択組み合わせの背景領域候補601と、その探索領域501yの間の類似度であってもよい。なお、選択組み合わせの背景領域候補601は、例えば、何れの探索領域501yをも包含するものであってもよい。
枠処理部106は、算出された、複数の探索領域501yの類似度のうちで、予め定められた第1の閾値より大きな類似度の個数を特定する。そして、枠処理部106は、特定された個数が、予め定められた第2の閾値よりも大きいか否かを判定する。
図18の上段の右図により、第1の閾値よりも大きいと特定された類似度の個数が、第2の閾値よりも大きいと判定された際における画像処理装置100の処理が示される。
大きな対象物obj1は、別の、小さい対象物objxよりも大きい対象物である。そして、大きな対象物obj1は、何れの探索領域501yについても、その探索領域501yに含まれる部分が、小さな対象物objxがその探索領域501yに含まれる部分よりも大きい。このため、大きな対象物obj1は、第2の閾値よりも多い探索領域501yの類似度が、第1の閾値よりも大きいと判定される。他方で、小さな対象物objxは、大きな対象物obj1よりも小さく、第2の閾値よりも少ない探索領域501yの類似度のみが、第1の閾値よりも大きいと特定される。
枠処理部106は、大きな類似度が第2の閾値よりも多いと判定されれば、表示部107に表示させる枠として、選択組み合わせの対象領域候補501xよりも大きな枠501aを特定する。これにより、表示部107は、特定される大きな枠501a(高精度対象物領域)を表示する。大きな枠501aは、例えば、中心の位置が、選択組み合わせの対象領域候補501の中心の位置と同じであり、かつ、選択組み合わせの対象領域候補501よりも大きな枠であってもよい。なお、枠処理部106は、大きな類似度の個数が少ないと判定されれば、例えば、選択組み合わせの対象領域候補501xを表示させるものとしてもよい。これにより、対象物が大きな対象物obj1である場合には、その大きな対象物obj1の大きさに近い枠が表示部107により表示できる。
また、枠処理部106は、図2のステップS205で算出された類似度が、予め定められた第3の閾値よりも小さいか否かを判定する。
図18の下段の右図により、対象領域候補501xの類似度が小さいと判定された場合の画像処理装置100の処理が示される。
小さな対象物obj2は、対象物objxよりも小さい、比較的小さな対象物である。そして、小さな対象物obj2は、選択組み合わせの対象領域候補501zに含まれる部分が、対象物objxがその対象領域候補501zに含まれる部分よりも小さい。このため、小さな対象物obj2は、ステップS205で算出される類似度が第3の閾値よりも小さいと判定される対象物である。
枠処理部106は、ステップS205で算出された類似度が小さいとのこの判定がされた場合には、表示部107に表示させる枠として、選択組み合わせの対象領域候補501zよりも小さな枠501b(図18下段の右図)を特定する。なお、小さな枠501bは、例えば、中心の位置が、選択組み合わせの対象領域候補501xの中心の位置と同じであり、かつ、選択組み合わせの対象領域候補501xの領域より小さい枠である。枠処理部106は、逆に、ステップS205で算出された類似度が大きいと判定された場合には、例えば、選択組み合わせの対象領域候補501x(選択組み合わせの対象領域候補501z)を表示させる。これにより、対象物が小さいときに、その大きさに近い枠が表示部107により表示できる。
以上説明されたように、指示部101は、ユーザにより指定された、前記画像における前記対象物体の位置を特定する。また、設定部102は、前記第1の対象領域候補(例えば、対象領域候補o_t)、前記第2の対象領域候補(対象領域候補o_(t+1))として、それぞれ、指示部101により特定される前記位置が含まれた領域を設定する。また、ヒストグラム作成部103は、2つの前記対象領域候補と2つの前記背景領域候補との4つの領域のそれぞれについて、予め定められた複数の色成分(Q個の色成分)の画素が、その領域の各画素のうちで占める割合を示すデータ(正規化ヒストグラム、色ヒストグラム900)を算出する。また、類似度算出部104は、前記類似度として、前記複数の色成分のそれぞれの色成分について、一方の正規化ヒストグラムのその色成分の度数が、他方の正規化ヒストグラムのその色成分の度数に近いほど類似性が高いことを示す類似度を算出する。そして、選択部105は、2つの前記組み合わせのうちから、前記対象物が含まれる位置が含まれる各対象領域候補に基づいて算出された前記類似度が小さい方の組み合わせを選択する。
これにより、対象物objと、背景とをより的確に切り分けた方の組み合わせが選択できる。
本発明に係る画像処理装置はユーザが座標点で対象物を指定することで、対象物体に対して対象物の外接領域を抽出する場合に有用である。
100、1100 画像処理装置
100I、301a、401a 入力画像
101、1101 指示部
102、1102 設定部
103、1103 ヒストグラム作成部
104、1104 類似度算出部
105 選択部
106、1106 枠処理部
107、1107 表示部
301 座標表示
301b、401c、obj 対象物
501、1301 対象領域候補
601 背景領域候補
701 円領域
702 楕円領域
703 集合領域
1001、1002 正規化ヒストグラム
1003 減算結果ヒストグラム
1105 判定部
1500 システム
1501 CPU
1506 RAM
1507 HDD
1509 記憶媒体
1510 ドライブ
1511 I/O
1512 ROM

Claims (9)

  1. 画像中の対象物体を抽出する画像処理装置であって、
    入力された前記画像上の位置を指定する指定手段と、
    前記指定された位置を基準に、第1の対象領域候補と第1の背景領域候補とからなる第1の組み合わせと、第1の組み合わせとは異なる、第2の対象領域候補と第2の背景領域候補とからなる第2の組み合わせとを設定する設定手段と、
    前記第1の対象領域候補の正規化色ヒストグラムと、前記第2の対象領域候補の正規化色ヒストグラムと、前記第1の背景領域候補の正規化色ヒストグラムと、前記第2の背景領域候補の正規化色ヒストグラムとを作成するヒストグラム作成手段と、
    前記作成された第1の対象領域候補の正規化色ヒストグラムと、前記作成した第1の背景領域候補の正規化色ヒストグラムとから、前記第1の組み合わせの類似度を算出し、前記作成された第2の対象領域候補の正規化色ヒストグラムと、前記作成した第2の背景領域候補の正規化色ヒストグラムとから、前記第2の組み合わせの類似度を算出する類似度算出手段と、
    前記第1の組み合わせの類似度と前記第2の組み合わせの類似度とから、類似度が小さい組み合わせを選択する選択手段と
    を備えた画像処理装置。
  2. 前記設定手段は、
    前記第2の対象領域候補と同じ領域を、前記第1の対象領域候補として設定し、かつ、何れも前記第1の対象領域候補を包含して、サイズが互いに異なる2つの領域を各々前記第1の背景領域候補および前記第2の背景領域候補として設定する
    請求項1に記載の画像処理装置。
  3. 入力された画像を表示する表示手段と、
    前記選択された組み合わせの対象領域候補に基づいて、入力画像の中の対象物体領域に枠を表示する枠処理手段とを備える
    請求項1に記載の画像処理装置。
  4. 前記第1の対象領域候補と、前記第1の対象領域候補と、前記第1の背景領域候補と、前記第2の背景領域候補とのうちの少なくとも1つの領域が、2つ以上の領域に分割されている
    請求項1に記載の画像処理装置。
  5. 前記選択された選択組み合わせの対象領域候補を示す枠を、前記対象物体の領域として表示する枠処理手段を備える
    請求項1に記載の画像処理装置。
  6. 前記枠処理手段は、
    前記選択された選択組み合わせの対象領域候補の色ヒストグラムと、当該選択組み合わせの背景領域候補の色ヒストグラムとから、前記対象物体の色成分を推定する対象色推定部と、
    前記選択組み合わせの対象領域候補と背景領域候補とから、前記推定された色成分の画素を抽出する対象色抽出部と、
    前記抽出された画素を1つの対象物として統合し、前記対象物体の領域を決定する対象物統合部とを備える
    請求項に記載の画像処理装置。
  7. 前記指定手段は、ユーザにより指定された、前記画像における前記対象物体の位置を特定し、
    前記設定手段は、前記第1の対象領域候補および前記第2の対象領域候補として、それぞれ、特定される前記位置が含まれた領域を設定し、
    前記ヒストグラム作成手段は、2つの前記対象領域候補と2つの前記背景領域候補との4つの領域のそれぞれについて、予め定められた複数の色成分の画素が、その領域の各画素のうちで占める割合を示すデータを算出し、
    前記類似度算出手段は、前記類似度として、前記複数の色成分のそれぞれの色成分について、一方の正規化ヒストグラムのその色成分の度数が、他方の正規化ヒストグラムのその色成分の度数に近いほど類似性が高いことを示す類似度を算出し、
    前記選択手段は、2つの前記組み合わせのうちから、算出される前記類似度が小さい方の組み合わせを選択する
    請求項1に記載の画像処理装置。
  8. 画像中の対象物体を抽出する画像処理する方法であって、
    前記入力された画像上の位置を指定する指定ステップと、
    前記指定された位置を基準に、第1の対象領域候補と第1の背景領域候補とからなる第1の組み合わせと、第1の組み合わせとは異なる、第2の対象領域候補と第2の背景領域候補とからなる第2の組み合わせとを設定する設定ステップと、
    前記第1の対象領域候補の正規化色ヒストグラムと、前記第2の対象領域候補の正規化色ヒストグラムと、前記第1の背景領域候補の正規化色ヒストグラムと、前記第2の背景領域候補の正規化色ヒストグラムとを作成するヒストグラム作成ステップと、
    前記作成された第1の対象領域候補の正規化色ヒストグラムと、前記作成した第1の背景領域候補の正規化色ヒストグラムとから、前記第1の組み合わせの類似度を算出し、前記作成された第2の対象領域候補の正規化色ヒストグラムと、前記作成した第2の背景領域候補の正規化色ヒストグラムとから、前記第2の組み合わせの類似度を算出する類似度算出ステップと、
    前記第1の組み合わせの類似度と前記第2の組み合わせの類似度とから類似度が小さい組み合わせを選択する選択ステップと、
    を備えた画像処理方法。
  9. 画像中の対象物体を抽出する画像処理するプログラムをコンピュータ読み取り可能に記憶した記憶媒体であって、前記プログラムは、
    前記入力された画像上の位置を指定する指定ステップと、
    前記指定された位置を基準に、第1の対象領域候補と第1の背景領域候補とからなる第1の組み合わせと、第1の組み合わせとは異なる、第2の対象領域候補と第2の背景領域候補とからなる第2の組み合わせとを設定する設定ステップと、
    前記第1の対象領域候補の正規化色ヒストグラムと、前記第2の対象領域候補の正規化色ヒストグラムと、前記第1の背景領域候補の正規化色ヒストグラムと、前記第2の背景領域候補の正規化色ヒストグラムとを作成するヒストグラム作成ステップと、
    前記作成された第1の対象領域候補の正規化色ヒストグラムと前記作成した第1の背景領域候補の正規化色ヒストグラムとから、前記第1の組み合わせの類似度を算出し、前記作成された第2の対象領域候補の正規化色ヒストグラムと、前記作成した第2の背景領域候補の正規化色ヒストグラムとから、前記第2の組み合わせの類似度を算出する類似度算出ステップと、
    前記第1の組み合わせの類似度と前記第2の組み合わせの類似度とから類似度が小さい組み合わせを選択する選択ステップと
    を備える記憶媒体。
JP2009535516A 2008-04-11 2009-04-09 画像処理装置、方法、および記憶媒体 Expired - Fee Related JP5210318B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009535516A JP5210318B2 (ja) 2008-04-11 2009-04-09 画像処理装置、方法、および記憶媒体

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008103509 2008-04-11
JP2008103509 2008-04-11
JP2009535516A JP5210318B2 (ja) 2008-04-11 2009-04-09 画像処理装置、方法、および記憶媒体
PCT/JP2009/001654 WO2009125596A1 (ja) 2008-04-11 2009-04-09 画像処理装置、方法、および記憶媒体

Publications (2)

Publication Number Publication Date
JPWO2009125596A1 JPWO2009125596A1 (ja) 2011-07-28
JP5210318B2 true JP5210318B2 (ja) 2013-06-12

Family

ID=41161732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009535516A Expired - Fee Related JP5210318B2 (ja) 2008-04-11 2009-04-09 画像処理装置、方法、および記憶媒体

Country Status (5)

Country Link
US (1) US8089548B2 (ja)
EP (1) EP2151801B1 (ja)
JP (1) JP5210318B2 (ja)
CN (1) CN101681501B (ja)
WO (1) WO2009125596A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010205067A (ja) * 2009-03-04 2010-09-16 Fujifilm Corp 領域抽出装置、領域抽出方法及び領域抽出プログラム
US8885977B2 (en) * 2009-04-30 2014-11-11 Apple Inc. Automatically extending a boundary for an image to fully divide the image
US9465993B2 (en) * 2010-03-01 2016-10-11 Microsoft Technology Licensing, Llc Ranking clusters based on facial image analysis
US20110211737A1 (en) * 2010-03-01 2011-09-01 Microsoft Corporation Event Matching in Social Networks
US8743139B2 (en) * 2010-07-20 2014-06-03 Apple Inc. Automatically keying an image
EP2410467A1 (en) * 2010-07-23 2012-01-25 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO System and method for identifying image locations showing the same person in different images
WO2012057768A1 (en) * 2010-10-28 2012-05-03 Hewlett-Packard Development Company, L.P. Previewing a sign in an online store-front ordering process
JP2013077879A (ja) * 2011-09-29 2013-04-25 Sony Corp 撮像装置と撮像方法およびプログラム
US9171222B2 (en) 2011-11-17 2015-10-27 Panasonic Intellectual Property Corporation Of America Image processing device, image capturing device, and image processing method for tracking a subject in images
US8897554B2 (en) 2011-12-13 2014-11-25 The Nielsen Company (Us), Llc Video comparison using color histograms
US8750613B2 (en) 2011-12-13 2014-06-10 The Nielsen Company (Us), Llc Detecting objects in images using color histograms
US8897553B2 (en) 2011-12-13 2014-11-25 The Nielsen Company (Us), Llc Image comparison using color histograms
CN103548056B (zh) 2012-03-26 2017-02-22 松下电器(美国)知识产权公司 图像处理装置、摄像装置以及图像处理方法
US9064184B2 (en) 2012-06-18 2015-06-23 Ebay Inc. Normalized images for item listings
US9554049B2 (en) * 2012-12-04 2017-01-24 Ebay Inc. Guided video capture for item listings
CN103955713B (zh) * 2014-04-24 2017-08-18 海信集团有限公司 一种图标识别方法和装置
CN105847670B (zh) * 2015-02-04 2019-06-21 佳能株式会社 电子设备、摄像控制装置及其控制方法
EP3099081B1 (en) * 2015-05-28 2020-04-29 Samsung Electronics Co., Ltd. Display apparatus and control method thereof
US10007860B1 (en) 2015-12-21 2018-06-26 Amazon Technologies, Inc. Identifying items in images using regions-of-interest
US9953242B1 (en) * 2015-12-21 2018-04-24 Amazon Technologies, Inc. Identifying items in images using regions-of-interest
US10824878B2 (en) 2016-03-08 2020-11-03 Accuware, Inc. Method and arrangement for receiving data about site traffic derived from imaging processing
US10026003B2 (en) 2016-03-08 2018-07-17 Accuware, Inc. Method and arrangement for receiving data about site traffic derived from imaging processing
US10089721B2 (en) * 2016-09-08 2018-10-02 Sony Corporation Image processing system and method for object boundary smoothening for image segmentation
US10825200B2 (en) * 2019-01-30 2020-11-03 Trivver, Inc. Texture based pixel count determination
US11043022B2 (en) * 2019-01-30 2021-06-22 Trivver, Inc. Viewability metrics of a multidimensional object in a multidimensional digital environment
JP7287667B2 (ja) * 2019-07-16 2023-06-06 i-PRO株式会社 監視カメラおよび情報処理装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006654A (ja) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> 動画像における移動体の特徴量抽出方法と自動追跡方法及びそれらの装置、並びに、それらの方法の実行プログラムとこの実行プログラムを記録した記録媒体
JP2004252748A (ja) * 2003-02-20 2004-09-09 Toshiba Corp 画像処理方法、画像処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6774889B1 (en) * 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
CN1839410B (zh) * 2003-07-18 2015-05-20 佳能株式会社 图像处理设备、摄像设备、图像处理方法
US7705908B2 (en) * 2003-12-16 2010-04-27 Eastman Kodak Company Imaging method and system for determining camera operating parameter
JP4242796B2 (ja) * 2004-03-12 2009-03-25 パナソニック株式会社 画像認識方法及び画像認識装置
CN100405388C (zh) * 2004-05-14 2008-07-23 欧姆龙株式会社 特定被摄体检测装置
JP2006260401A (ja) * 2005-03-18 2006-09-28 Toshiba Corp 画像処理装置、方法、およびプログラム
JP2007272684A (ja) * 2006-03-31 2007-10-18 Fujifilm Corp 画像整理装置および方法ならびにプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003006654A (ja) * 2001-06-20 2003-01-10 Nippon Telegr & Teleph Corp <Ntt> 動画像における移動体の特徴量抽出方法と自動追跡方法及びそれらの装置、並びに、それらの方法の実行プログラムとこの実行プログラムを記録した記録媒体
JP2004252748A (ja) * 2003-02-20 2004-09-09 Toshiba Corp 画像処理方法、画像処理装置

Also Published As

Publication number Publication date
EP2151801B1 (en) 2016-05-11
WO2009125596A1 (ja) 2009-10-15
CN101681501B (zh) 2012-08-22
EP2151801A4 (en) 2014-08-20
US20100177234A1 (en) 2010-07-15
JPWO2009125596A1 (ja) 2011-07-28
US8089548B2 (en) 2012-01-03
CN101681501A (zh) 2010-03-24
EP2151801A1 (en) 2010-02-10

Similar Documents

Publication Publication Date Title
JP5210318B2 (ja) 画像処理装置、方法、および記憶媒体
CN110163198B (zh) 一种表格识别重建方法、装置和存储介质
US8331619B2 (en) Image processing apparatus and image processing method
JP5763965B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US10043313B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
US8254630B2 (en) Subject extracting method and device by eliminating a background region using binary masks
JP5397481B2 (ja) 画像選別装置及び画像選別方法
TWI526982B (zh) 區域分割方法、電腦程式產品及檢查裝置
EP2506218B1 (en) Method, terminal, and computer-readable recording medium for trimming a piece of image content
JP5878924B2 (ja) 画像処理装置、撮像装置および画像処理方法
EP3438875A1 (en) Image processing apparatus and control method therefor
JP7118622B2 (ja) 物体検出装置、物体検出方法及びプログラム
JP6754717B2 (ja) 物体候補領域推定装置、物体候補領域推定方法、及び物体候補領域推定プログラム
JP5952942B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5509621B2 (ja) 画像処理装置、カメラおよびプログラム
JP6776532B2 (ja) 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2007058630A (ja) 画像認識装置
JP6150419B2 (ja) カメラおよびプログラム
JP5487126B2 (ja) 画像処理装置、撮像装置、および画像処理プログラム
JP2010197968A (ja) 合焦評価装置、カメラおよびプログラム
JP6405638B2 (ja) 被写体検出装置、撮像装置及びプログラム
JP2015191481A (ja) 画像処理装置および画像処理プログラム
JP2024009653A (ja) 情報処理装置及びその制御方法及びプログラム
CN117635763A (zh) 基于人像部件分析的自动换装方法、装置、设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130222

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 5210318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees