JP2010097355A - 画像分離装置、画像分離方法および画像分離プログラム - Google Patents
画像分離装置、画像分離方法および画像分離プログラム Download PDFInfo
- Publication number
- JP2010097355A JP2010097355A JP2008266784A JP2008266784A JP2010097355A JP 2010097355 A JP2010097355 A JP 2010097355A JP 2008266784 A JP2008266784 A JP 2008266784A JP 2008266784 A JP2008266784 A JP 2008266784A JP 2010097355 A JP2010097355 A JP 2010097355A
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground
- background
- objective function
- instruction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
【課題】ユーザの作業負荷および作業時間を軽減しつつ、画像の前景と背景を適切に分離することができる。
【解決手段】画像を前景と背景に分離するための画像分離装置であって、画像を入力し、記憶手段140に記憶するデータ入力手段100と、画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける指示受付手段110と、ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、前記画像を前景と背景に分離する分離手段120と、分離した背景と前景とをそれぞれ表示する表示手段130と、を有する。
【選択図】図1
【解決手段】画像を前景と背景に分離するための画像分離装置であって、画像を入力し、記憶手段140に記憶するデータ入力手段100と、画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける指示受付手段110と、ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、前記画像を前景と背景に分離する分離手段120と、分離した背景と前景とをそれぞれ表示する表示手段130と、を有する。
【選択図】図1
Description
本発明は、画像に含まれる前景と背景とを分離する技術に関する。
1枚の画像の中から、当該画像を構成する前景(興味の対象、物体)と背景とを抽出する場合、例えば非特許文献1などの画像編集ツールを用いて手作業で対象となる前景の画像を分離抽出することが行われている。
"Photoshop"、[online]、[平成20年9月12日検索]、インターネット<URL: http://web.kyoto-inet.or.jp/people/hikeda/justnet/smu/index.html>
"Photoshop"、[online]、[平成20年9月12日検索]、インターネット<URL: http://web.kyoto-inet.or.jp/people/hikeda/justnet/smu/index.html>
上記のような画像編集ツールを用いる場合、ユーザは、抽出対象である前景の輪郭を手作業で指定・設定する。そのため、抽出対象の輪郭が煙や毛のように細かくまたは不明瞭な場合、前景と背景を適切に分離することは困難であるとともに、ユーザの作業負荷が大きく、またユーザの熟練した技術や経験が必要となる。
また、動画において、前景と背景とを分離抽出し、分離抽出した前景を別のシーンの背景と合成して新しい動画を創り出すことも行われている。動画は複数の画像フレームから構成され、画像フレーム毎に抽出対象の輪郭を手作業で指定するため、動画の場合、数日以上かけて分離抽出作業が行われている。
本発明は上記事情に鑑みてなされたものであり、本発明の目的は、ユーザの作業負荷および作業時間を軽減しつつ、画像の前景と背景を適切に分離することにある。
本発明は、画像を前景と背景に分離するための画像分離装置であって、画像を入力し、記憶手段に記憶するデータ入力手段と、前記画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける指示受付手段と、前記ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、前記画像を前景と背景に分離する分離手段と、前記分離した背景と前景とをそれぞれ表示する表示手段と、を有する。
また、本発明は、画像分離装置が行う、画像を前景と背景に分離するための画像分離方法であって、画像を入力し、記憶手段に記憶するデータ入力ステップと、前記画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける指示受付ステップと、前記ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、前記画像を前景と背景に分離する分離ステップと、前記分離した背景と前景とをそれぞれ表示する表示ステップと、を行う。
また、本発明は、前記画像分離方法をコンピュータに実行させる時空間画像分離プログラムである。
本発明によれば、ユーザの作業負荷および作業時間を軽減しつつ、画像の前景と背景を適切に分離することができる。
以下、本発明の実施形態について説明する。
図1は、本発明の実施形態に係る画像分離装置の概略構成図である。本実施形態の画像分離装置は、画像濃淡値(輝度)Iが、前景Fと背景Bとがある比率αで合成されたI=αF+(1−α)Bであるとする画像モデルにおいて、F、B、αを推定することを目的とした目的関数を生成し、当該目的関数を解析することにより、画像を前景と背景に分離抽出する。なお、前景は、興味の対象となるものである。
図示する画像分離装置は、データ入力部100と、指示受付部110と、画像分離部120と、表示部130と、データ蓄積部140と、指示変位部150とを有する。
データ入力部100は、1枚の画像(静止画像)または時空間画像(動画)を入力し、記憶手段であるデータ蓄積部140に記憶する。指示受付部110は、画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける。画像分離部120は、ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、画像を前景と背景に分離する。表示部130は、分離した背景と前景とをそれぞれ表示する。指示変位部150は、動画が入力された場合、前後する画像フレーム間の前景および背景の動きを検出し、第1の画像フレームに対して入力されたユーザの指示を、検出した動きに応じて変位させて第2の画像フレーム以降に反映させる。
上記説明した画像分離装置は、例えば、CPUと、メモリと、外部記憶装置と、入力装置と、出力装置と、これらの各装置を接続するバスと、を備えた汎用的なコンピュータシステムを用いることができる。このコンピュータシステムにおいて、CPUがメモリ上にロードされた画像分離装置用のプログラムを実行することにより、画像分離装置の各機能が実現される。なお、画像分離装置のデータ蓄積部140には、メモリまたは外部記憶装置が用いられる。なお、画像分離装置は、必要に応じて、他の装置と接続するための通信制御装置を備えることとしてもよい。
また、画像分離装置用のプログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MOなどのコンピュータ読み取り可能な記録媒体に記憶すること、または、ネットワークを介して配信することも可能である。
次に、画像を前景と背景に分離する方法について説明する。
図2は、画像の分離処理のフローチャートである。まず、データ入力部100は、カメラまたなネットワークを介して1枚の画像(静止画像)または時空間画像を入力し、データ蓄積部140に格納する(S11)。時空間画像は、時系列に連続する複数の画像フレーム(映像フレーム)から構成される動画データである。
そして、指示受付部110は、データ蓄積部140に格納された画像を読み出し、出力装置に表示する。データ蓄積部140に格納された画像が時空間画像の場合は、指示受付部110は、1枚目(先頭)の画像フレームを出力装置に表示する。
ユーザは、出力装置に表示された画像に、マウスやキーボードなどの入力装置を用いて、インタラクティブに前景と背景の領域を指定(定義)する。そして、指示受付部110は、ユーザの指示を受け付ける(S12)。なお、指示受付部110には、一般的な画像編集ルーツを用いることが考えられる。
図3は、画像に入力されたユーザの指示の一例と、前景と背景に分離抽出された結果を示す図である。
ユーザは、マウスなどを用いて、表示された画像200の前景の領域201の一部に任意の線(曲線または直線)202を入力するとともに、背景の領域の一部に任意の線203を入力する。そして、後述する処理により、画像200は、背景のみの画像210と、前景のみの画像220に分離される。
そして、画像分離部120は、後述する処理により、データ蓄積部140に格納された画像を、前景と背景に分離する(S13)。すなわち、画像分離部120は、画像を構成する各画素について、前景の画素であるか背景の画素であるかを判別する。表示部130は、分離された前景(前景と判別された画素)と、背景(背景と判別された画素)を、それぞれ表示装置に表示する(S14)。また、表示部130は、分離した前景と背景を、分離する前の元の画像と対応付けてデータ蓄積部140に記憶する。
そして、指示変位部150は、S11で入力され記憶された画像に、次の画像フレームがあるか否かを(すなわち、動画であるか否か)を判別する(S15)。指示変位部150は、入力した画像のファイル番号・フレーム番号や、画像の属性などから、静止画であるのか、時系列に連続する動画であるのかを判別する。入力された画像が1枚の静止画である場合(S15:NO)は、処理を終了する。
一方、入力された画像が動画であって、次の画像フレームが存在する場合(S15:YES)、指示変位部150は、S12で入力されたユーザの指示(図3参照)を、2枚目の画像フレームに反映(コピー)する(S16)。
ここで、前景および背景が、時空間的に変化している場合がある。そのため、指示変位部150は、分離処理済みの画像フレーム(ここでは1枚目の画像フレーム)と、次の時刻の画像フレーム(ここでは2枚目の画像フレーム)の2枚の画像フレームを用いて、動き推定法により画像の動きを取得する。動き推定法には、オプティカルフロー、相互相関法などを用いることができる。指示変位部150は、取得した画像の動きに基づいて、ユーザが前景および背景として定義した線の位置および形状を時空間的に変位(移動、変形)させて、2枚目の画像フレームに設定する。
そして、S13に戻り、2枚目の画像フレームを前景と背景に分離し、分離した前景と背景をそれぞれ表示し、データ蓄積部140に記憶する(S14)。そして、次の画像フレームが存在するか否かを判別し、全ての画像フレームについて、以降の処理を繰り返し行う。
図4は、動画を前景と背景に分離する処理を模式的に示した図である。
図4には、前景と背景を指定したユーザの指示401、402が入力された1枚目の画像フレーム400が示されている。また、図5には、複数の画像フレームから構成される動画410と、画像フレーム毎に分離された前景420と背景430とが示されている。ここで、分離された前景420からわかるように、前景は、時間とともに変形および移動している。
ここで、指示変位部150は、1枚目の画像フレーム411と、2枚目の画像フレーム412との間で、オプティカルフローや相互相関法などの動き推定法により、前景の変位を検出する。そして、指示変位部150は、検出した変位に基づいて、1枚目の画像フレーム400に入力されたユーザの指示401、402を、413に示すように変形および移動させて、2枚目の画像フレームに設定(反映)する。3枚目の画像フレームについては、2枚目の画像フレームと3枚目の画像フレームとの間の動きを検出し、当該動きに基づいて2枚目の画像フレームに設定されたユーザ指示を変位させて設定する。これにより、ユーザは、1枚目の画像フレームに、前景と背景の指示を入力するだけで、全ての画像フレームにユーザの指示が自動的に反映される。
次に、S13の画像分離部120の処理、すなわち1枚の画像から、前景と背景を分離抽出する方法について説明する。なお、この方法は、マッティング(matting)法とも呼ばれている。
まず、1枚の画像モデルとして、前景と背景の2つの対象がそれぞれある比率で合成されたものとする。これは数式表現として、画素の濃淡値(または輝度)をIとした場合、以下の式(1)で表現することができる。
Fは前景の画像濃淡値で、Bは背景の画像濃淡値である。αは、αブレンディングに関する小数であり、0.0から1.0の範囲にある。式(1)は、1枚の画像を構成する画素単位ごとに生成される。
本実施形態では、1枚の画像を与えたときに、画素毎にF、B、小数αを推定し、前景と背景とを分離とすることを目的とする。この推定には、以下に示す4つの方法がある。第1のおよび第2の方法は、S12でユーザが指定した前景および背景の情報を用い、一方、第3および第4の方法は、S12でユーザが指定した前景および背景の情報を用いない。第3および第4方法を用いる場合は、S12、S16の処理を省略することができる。分離する画像に応じて、どの方法を用いるかをあらかじめ決めておくものとする。
[第1の方法]
まず、αを画素の画像濃淡値Iの一次線形関数で近似できるものと仮定した画像モデルを考える。この画像モデルの場合、αは以下の式(2)のように表現できる。また、前景と背景は、テクスチャが少ない比較的滑らかな画像(空間微分が小さい)であると仮定する。
まず、αを画素の画像濃淡値Iの一次線形関数で近似できるものと仮定した画像モデルを考える。この画像モデルの場合、αは以下の式(2)のように表現できる。また、前景と背景は、テクスチャが少ない比較的滑らかな画像(空間微分が小さい)であると仮定する。
wは、画像の中の小さい領域(窓領域)であって、近傍の画素の集合である。窓の大きさは「3画素×3画素」〜「5画素×5画素」である。iは、窓領域の中における画素の位置を示す。
式(2)の未知数α、a、bを推定するために、以下に示す式(3)の目的関数の最小化問題に帰着させることができる。
εは、調整係数であり、前景と背景の画像の滑らかさに応じて、所定の値が設定される。また、εaj 2の項は、正則化項であり、数値的な不安定性問題を緩和する役割がある。jは、j番目の窓領域を示す。
しかし、このままでは、ajおよびbjの目的関数を一意に決定するためには、条件が不足(under-constraint)しているため、事前知識が必要である。(3)は、α、a、bについての2次関数であり、N個の画素については、未知数は3N個である。
そのため、拘束条件として、ユーザがマウス操作により任意の曲線として入力した窓領域jについては、前景として指定した位置の画素の画像濃淡値をFに、また、背景として指定した位置の画素の画像濃淡値をBに設定(反映)をする。
そして、式(3)を、最小2乗法を用いて解析することにより、画素単位にα、a、bを取得する。そして、取得したα、a、bを式(2)のただしの部分に代入し、式(2)のただしの部分の連立方程式を解くことにより画素単位にF、Bを取得する。
そして、画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別する。例えば、Fの画像濃淡値およびBの画像濃淡値の少なくとも1つが所定の閾値(例えば10)より小さい画素については背景の画素と判別し、それ以外の画素については前景の画素であると判別する。
そして、前景と判別した各画素を抽出することにより、図3に示すような前景画像220を背景から分離して抽出することができる。また。背景と判別した各画像のみを抽出することにより、図3に示すような前景部分がマスク(黒く表示)された背景画像210のみを分離抽出することができる。また、前景と背景を分離抽出できるだけでなく、前景と背景とが重なり合っている領域でのαを推定することができる。
[第2の方法]
前景と背景が滑らかな画像の場合には、前述の第1の方法の式(3)により前景と背景とを適切に分離抽出することができる。しかしながら、対象(前景)がテクスチャに富んでいる場合、輝度の変化が大きく、式(3)の最小二乗法では推定誤差を引き起こす場合がある。
前景と背景が滑らかな画像の場合には、前述の第1の方法の式(3)により前景と背景とを適切に分離抽出することができる。しかしながら、対象(前景)がテクスチャに富んでいる場合、輝度の変化が大きく、式(3)の最小二乗法では推定誤差を引き起こす場合がある。
そのため、第2の方法では、式(3)の代わりに以下の式(4)を適用する。式(4)は、ロバスト統計学で用いられているロバスト関数ρを用いた非線形最小二乗法の式である。
ロバスト関数は、以下の式(5)で表現することができ、λは、調整パラメータであって、0.001から0.1の範囲である。
式(4)の最小化のための必要条件は以下の式(6)であり、式(4)を共役勾配法など非線形最小二乗法を用いて解析することにより、画素単位にα、a、bを取得することができる。
そして、取得したα、a、bを式(2)のただしの部分に代入し、式(2)のただしの部分の連立方程式を解くことにより画素単位にF、Bを取得する。これにより、第1の方法と同様に画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する。
図5は、テクスチャに富んだ前景を有する画像300を、第1の方法と第2の方法で分離した結果を示す。図5(a)は第1の方法による分離結果で、図5(b)は第2の方法による分離結果である。
図5(a)の第1の方法では、推定誤差が引き起こされ、前景として分離抽出された画像310には、背景の一部が含まれている。すなわち、前景と背景とが適切に分離されていない。これに対し、図5(b)に示す第2の方法では、ロバスト関数を用いることにより、前景330と背景340とが適切に分離されている。すなわち、ロバスト関数を用いた第2の方法では、テクスチャに富んだ1枚の画像330から、前景330と背景340を適切に分離抽出することができる。
[第3の方法]
第3の方法は、S12でユーザが指定した前景および背景の情報を用いることなく、前述の式(1)のみを用いて画像を分離する。
第3の方法は、S12でユーザが指定した前景および背景の情報を用いることなく、前述の式(1)のみを用いて画像を分離する。
まず、式(1)から派生して以下の式(7)および式(8)を生成する。
すなわち、最小化問題の観点から、式(1)から式(7)を容易に導出することができる。これにより、関数V1の最小化問題となる。しかし、このままでは条件不足(under-constraint)問題となっているため、拘束条件が必要となる。そこで、ある画素点pに着目したとき、滑らかさ条件を課すことが考えられる。そこで、qをpの4点連結近傍点として式(8)を生成し、式(8)を最小化する。
そして、式(7)および(8)をまとめて、以下の式(9)の目的関数を得ることができる。
ここで、eとfは係数である。式(4)の最小化のための必要条件は、以下の式(10)である。
ここで、eは未知数α、F、Bであり、それぞれの変数について偏微分される。これにより、未知数α、F、Bを画素単位に取得することができる。これにより、第1の方法と同様に画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する。
[第4の方法]
第4の方法では、第3の方法にロバスト関数を適用する。すなわち、第3の方法の式(7)および式(8)の代わりに、以下の式(11)を適用する。式(11)は、ロバスト統計学で用いられているロバスト関数ρを用いた非線形最小二乗法の式である。
第4の方法では、第3の方法にロバスト関数を適用する。すなわち、第3の方法の式(7)および式(8)の代わりに、以下の式(11)を適用する。式(11)は、ロバスト統計学で用いられているロバスト関数ρを用いた非線形最小二乗法の式である。
式(11)から以下の式(12)の目的関数を得ることができる。
ここで、cおよびdは係数である。この式(12)を非線形最小二乗法の枠組みで解くことにより、未知数α、F、Bを画素単位に取得することができる。これにより、第1の方法と同様に画素単位に取得したFおよびBの画像濃淡値を用いて、当該画素が前景の画素であるか、背景の画素であるかを判別し、前景と背景とを分離する。
以上説明した本実施形態では、ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、ユーザの作業負荷および作業時間を軽減しつつ、画像の前景と背景を適切に分離することができる。また、本実施形態では、画像の画像濃淡値Iが、前景Fと背景Bとがある比率αで合成されたものであるとする画像モデルにおいて、F、B、αを推定することを目的とした目的関数を生成し、当該目的関数を解析することにより、前景(対象)の輪郭が細かい毛や細い線で構成されている場合であっても、画像を前景と背景に分離することができる。
また、本実施形態では、目的関数の拘束条件として近傍の画素における推定値の類似性が高いという目的関数関数(式(4))を生成し、最小値問題として解析することにより、画像の前景と背景を適切に分離することができる。
また、本実施形態では、ロバスト関数を用いることにより、テクスチャに富んだ画像から、前景と背景を適切に分離抽出することができる。
また、本実施形態では、複数の画像フレームから構成される動画の場合であっても、画像フレーム毎に前景と背景とを分離することができる。これにより、ユーザが手作業で分離する場合と比べ、作業負荷および分離作業に要する時間が大幅に軽減される。
本実施形態では、画像フレーム間での前景および背景の動きを検出し、当該動きに対応して、ユーザが1枚目の画像フレームに入力したユーザの指示を変位(移動・変形)させて、2枚目以降の画像フレームに逐次適用(反映)する。これにより、ユーザは一度指示するだけで、自動的に全ての画像フレームが前景と背景に分離される。また、前景や背景が変形移動する場合であっても、適切に前景と背景を分離することができる。
なお、前景(対象)の運動がバネのように振動運動している既知の物理現象の場合は、動き推定された結果を弾性方式により補正することで、より精度の高い動き推定を行い、この動き推定により、前景が振幅運動している場合であっても適正に前景と背景を分離することができる。
本発明は上記の実施形態に限定されるものではなく、その要旨の範囲内で数々の変形が可能である。
100 データ入力部
110 指示受付部
120 画像分離部
130 表示部
140 データ蓄積部
150 指示変位部
110 指示受付部
120 画像分離部
130 表示部
140 データ蓄積部
150 指示変位部
Claims (7)
- 画像を前景と背景に分離するための画像分離装置であって、
画像を入力し、記憶手段に記憶するデータ入力手段と、
前記画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける指示受付手段と、
前記ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、前記画像を前景と背景に分離する分離手段と、
前記分離した背景と前景とをそれぞれ表示する表示手段と、を有すること
を特徴とする画像分離装置。 - 請求項1記載の画像分離装置であって、
前記分離手段は、ロバスト関数を介した目的関数を生成し、当該目的関数を非線形最小二乗法を用いて解析することにより、前記画像を前景と背景に分離すること
を特徴とする画像分離装置。 - 請求項1または請求項2記載の画像分離装置であって、
前記データ入力手段が入力する画像は、複数の画像フレームから構成される時空間画像であって、
前後する画像フレーム間の前景および背景の動きを検出し、前記時空間画像の第1の画像フレームに対して前記指示受付手段が受け付けたユーザの指示を、前記検出した動きに応じて変位させて第2の画像フレーム以降に反映させる指示変位手段を、さらに有すること
を特徴とする画像分離装置。 - 画像分離装置が行う、画像を前景と背景に分離するための画像分離方法であって、
画像を入力し、記憶手段に記憶するデータ入力ステップと、
前記画像の前景の一部に入力したユーザの指示と、背景の一部に入力したユーザの指示とを受け付ける指示受付ステップと、
前記ユーザが指示した箇所の前景および背景の画像濃淡値を拘束条件として目的関数を生成し、当該目的関数を最小二乗法を用いて解析することにより、前記画像を前景と背景に分離する分離ステップと、
前記分離した背景と前景とをそれぞれ表示する表示ステップと、を行うこと
を特徴とする画像分離方法。 - 請求項4記載の画像分離方法であって、
前記分離ステップは、ロバスト関数を介した目的関数を生成し、当該目的関数を非線形最小二乗法を用いて解析することにより、前記画像を前景と背景に分離すること
を特徴とする画像分離方法。 - 請求項4または請求項5記載の画像分離方法であって、
前記データ入力ステップで入力する画像は、複数の画像フレームから構成される時空間画像であって、
前後する画像フレーム間の前景および背景の動きを検出し、前記時空間画像の第1の画像フレームに対して前記指示受付ステップで受け付けたユーザの指示を、前記検出した動きに応じて変位させて第2の画像フレーム以降に反映させる指示変位ステップを、さらに行うこと
を特徴とする画像分離方法。 - 請求項4から請求項6のいずれか1項に記載の画像分離方法をコンピュータに実行させる画像分離プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008266784A JP2010097355A (ja) | 2008-10-15 | 2008-10-15 | 画像分離装置、画像分離方法および画像分離プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008266784A JP2010097355A (ja) | 2008-10-15 | 2008-10-15 | 画像分離装置、画像分離方法および画像分離プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011121264A Division JP2011227909A (ja) | 2011-05-31 | 2011-05-31 | 画像分離装置、画像分離方法および画像分離プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010097355A true JP2010097355A (ja) | 2010-04-30 |
Family
ID=42259001
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008266784A Pending JP2010097355A (ja) | 2008-10-15 | 2008-10-15 | 画像分離装置、画像分離方法および画像分離プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010097355A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013015381A1 (ja) * | 2011-07-27 | 2013-01-31 | 国立大学法人 東京大学 | 画像処理装置 |
US10812770B2 (en) | 2017-09-13 | 2020-10-20 | Canon Kabushiki Kaisha | Image processing system, image processing apparatus, image processing method, and program |
CN114851206A (zh) * | 2022-06-06 | 2022-08-05 | 天津中科智能识别有限公司 | 基于视觉引导机械臂抓取炉具的方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006014121A (ja) * | 2004-06-29 | 2006-01-12 | Sanyo Electric Co Ltd | 画像符号化方法、画像符号化装置および撮像装置 |
-
2008
- 2008-10-15 JP JP2008266784A patent/JP2010097355A/ja active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006014121A (ja) * | 2004-06-29 | 2006-01-12 | Sanyo Electric Co Ltd | 画像符号化方法、画像符号化装置および撮像装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013015381A1 (ja) * | 2011-07-27 | 2013-01-31 | 国立大学法人 東京大学 | 画像処理装置 |
US10812770B2 (en) | 2017-09-13 | 2020-10-20 | Canon Kabushiki Kaisha | Image processing system, image processing apparatus, image processing method, and program |
CN114851206A (zh) * | 2022-06-06 | 2022-08-05 | 天津中科智能识别有限公司 | 基于视觉引导机械臂抓取炉具的方法 |
CN114851206B (zh) * | 2022-06-06 | 2024-03-29 | 天津中科智能识别有限公司 | 基于视觉引导机械臂抓取炉具的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11610082B2 (en) | Method and apparatus for training neural network model used for image processing, and storage medium | |
WO2009113144A1 (ja) | 対象物追跡装置および対象物追跡方法 | |
US9697583B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
CN101601287A (zh) | 产生照片级真实感图像缩略图的设备和方法 | |
JP2011211628A (ja) | 画像処理装置および方法、並びにプログラム | |
JP6811796B2 (ja) | 拡張現実アプリケーションのためのビデオにおけるリアルタイムオーバーレイ配置 | |
KR20200008343A (ko) | 영상 처리 장치 및 그 동작방법 | |
KR20140053960A (ko) | 이미지 잡음 제거, 압축 및 보간을 위한 비등방성 구배 조정 | |
JP2010097355A (ja) | 画像分離装置、画像分離方法および画像分離プログラム | |
JP5617841B2 (ja) | 画像処理装置、画像処理方法および画像処理用プログラム | |
US7522189B2 (en) | Automatic stabilization control apparatus, automatic stabilization control method, and computer readable recording medium having automatic stabilization control program recorded thereon | |
JP2006338365A (ja) | 動画生成装置、動画生成方法、動画生成プログラム | |
JP6645076B2 (ja) | 画像処理装置 | |
JP7010783B2 (ja) | 画像処理装置、画像処理システム、画像処理方法及びプログラム | |
Gallea et al. | Automatic aesthetic photo composition | |
KR101592087B1 (ko) | 배경 영상의 위치를 이용한 관심맵 생성 방법 및 이를 기록한 기록 매체 | |
JP5660300B2 (ja) | 画像処理装置 | |
JP2015197818A (ja) | 画像処理装置およびその方法 | |
JP2011227909A (ja) | 画像分離装置、画像分離方法および画像分離プログラム | |
JP2007156954A (ja) | 信頼度テーブル作成方法、オプティカルフロー推定方法、信頼度テーブル作成装置、オプティカルフロー推定装置、及びプログラム | |
JP6854629B2 (ja) | 画像処理装置、画像処理方法 | |
WO2023228717A1 (ja) | コンピュータプログラム、処理方法、および、処理装置 | |
JP6375778B2 (ja) | 画像処理方法および画像処理装置 | |
US20230368490A1 (en) | Preview and capture of stroke outlines from images and video | |
JP7321464B2 (ja) | 抽出プログラム、画像生成プログラム、抽出方法、画像生成方法、抽出装置、および画像生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101215 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110301 |