JP5672168B2 - 画像処理装置、画像処理方法及びプログラム - Google Patents
画像処理装置、画像処理方法及びプログラム Download PDFInfo
- Publication number
- JP5672168B2 JP5672168B2 JP2011136854A JP2011136854A JP5672168B2 JP 5672168 B2 JP5672168 B2 JP 5672168B2 JP 2011136854 A JP2011136854 A JP 2011136854A JP 2011136854 A JP2011136854 A JP 2011136854A JP 5672168 B2 JP5672168 B2 JP 5672168B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- predetermined
- subject
- area
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Description
画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段と、この取得手段により取得された合成画像に対して所定の画像処理を施す処理手段と、前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する特定手段と、この特定手段により特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する抽出手段と、を備えたことを特徴としている。
画像処理装置を用いた画像処理方法であって、画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する工程と、取得された合成画像に対して所定の画像処理を施す工程と、前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する工程と、特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する工程と、を含むことを特徴としている。
画像処理装置のコンピュータを、画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段、この取得手段により取得された合成画像に対して所定の画像処理を施す処理手段、前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する特定手段、この特定手段により特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する抽出手段、として機能させることを特徴としている。
図1は、本発明を適用した一実施形態の画像処理システム100の概略構成を示すブロック図である。
ユーザ端末2は、例えば、パーソナルコンピュータ等により構成され、サーバ3により開設されるWebページ(例えば、画像抽出用ページ)にアクセスして、当該Webページ上で各種の指示を入力する。
図2に示すように、ユーザ端末2は、具体的には、中央制御部201と、操作入力部202と、表示部203と、記録媒体制御部204と、通信制御部205等を備えている。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、ユーザ端末2で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
なお、操作入力部202としてタッチパネル(図示略)を表示部203の表示画面に配設して、タッチパネルの接触位置に応じて各種の指示を入力するような構成としても良い。
即ち、表示部203は、例えば、サーバ3から送信され通信制御部205により受信されたWebページ(例えば、画像抽出用ページ)のページデータに基づいて、対応するWebページを表示画面に表示する。具体的には、表示部203は、画像抽出処理(後述)に係る各種の処理画面の画像データに基づいて、各種の処理画面を表示画面に表示する。
ここで、被写体存在画像とは、所定の背景内に主要な被写体が存在する画像のことである。また、記録媒体Cには、撮像装置1の画像処理部(図示略)により所定の符号化形式(例えば、JPEG形式等)に従って符号化された被写体存在画像の画像データが記録されている。
そして、通信制御部205は、記録媒体制御部204から出力され入力された被写体存在画像の画像データをサーバ3に所定の通信ネットワークNを介して送信する。
なお、記録媒体Cは、例えば、不揮発性メモリ(フラッシュメモリ)等により構成されるが、一例であってこれに限られるものではなく、適宜任意に変更可能である。
サーバ3は、Web(World Wide Web)サーバとしてインターネット上にWebページ(例えば、画像抽出用ページ)を開設する機能を具備するものであり、ユーザ端末2からのアクセスに応じて当該ユーザ端末2にWebページのページデータを送信する。また、サーバ3は、画像処理装置として、被写体切り抜き画像P1(図5(a)参照)に係る被写体領域(所定領域)Psと背景領域との境界線Lに基づいて、所定の画像処理が施された画像処理済み画像P3(図6(b)参照)から被写体領域Psに対応する被写体対応領域Qs(図8(b)参照)を抽出する。
図3に示すように、サーバ3は、具体的には、中央制御部301と、記憶部302と、表示部303と、通信制御部304と、画像処理部305等を備えて構成されている。
RAMは、例えば、CPUにより実行される処理プログラム等を展開するためのプログラム格納領域や、入力データや上記処理プログラムが実行される際に生じる処理結果等を格納するデータ格納領域などを備える。
ROMは、コンピュータ読み取り可能なプログラムコードの形態で格納されたプログラム、具体的には、サーバ3で実行可能なシステムプログラム、当該システムプログラムで実行可能な各種処理プログラムや、これら各種処理プログラムを実行する際に使用されるデータ等を記憶する。
具体的には、通信制御部304は、例えば、画像抽出処理(後述)にてユーザ端末2から所定の通信ネットワークNを介して送信された被写体存在画像の画像データを受信して、当該画像データを中央制御部301のCPUに出力する。
中央制御部301のCPUは、入力された被写体存在画像の画像データを切抜部305aに出力する。
即ち、切抜部305aは、公知の被写体切抜手法を用いて、被写体存在画像から被写体が含まれる領域Psが切り抜かれた被写体切り抜き画像P1を生成する。
具体的には、切抜部305aは、被写体存在画像における被写体領域Psの位置を示し、当該被写体領域Psを抽出するための被写体位置情報M(図5(b)参照)を生成する位置情報生成部a1を備えている。
ここで、被写体位置情報Mとしては、例えば、被写体存在画像の各画素について、被写体画像を所定の背景に対してアルファブレンディングする際の重みをアルファ値(0≦α≦1)として表したアルファマップが挙げられる。
その後、位置情報生成部a1は、例えば、上記の面積が最大の画素集合が「1」、その他の部分が「0」である二値化された差分情報に対してローパスフィルタを施して境界部分に中間値を生じさせることでアルファ値を作成する。この場合、被写体領域Psはアルファ値が「1」となり、被写体存在画像の所定の背景に対する透過度が0%となる。一方、被写体の背景部分はアルファ値が「0」となり、当該被写体存在画像の所定の背景に対する透過度が100%となる。
被写体切り抜き画像P1の画像データは、例えば、位置情報生成部a1により生成された被写体位置情報M(アルファマップ)と対応付けられたデータである。
また、切抜部305aは、被写体存在画像から被写体が含まれる被写体領域Psを切り抜くようにしたが、切抜部305aによる切り抜きの対象領域は一例であってこれに限られるものではなく、適宜任意に変更可能である。即ち、切抜部305aは、被写体領域Ps以外の所定領域、例えば、背景領域等を切り抜きの対象領域としても良い。
即ち、画像合成部305bは、被写体切り抜き画像P1と他の画像である背景画像Pbとを合成して被写体合成画像P2(図6(a)参照)を生成する。具体的には、画像合成部305bは、切抜部305aにより生成された被写体切り抜き画像P1の画像データ及び記憶部302から読み出された背景画像Pbの画像データを取得する。そして、画像合成部305bは、背景画像Pbの各画素のうち、被写体切り抜き画像P1のアルファ値が「0」の画素は背景画像Pbに対して透過させ、被写体切り抜き画像P1のアルファ値が「1」の画素は被写体切り抜き画像P1の対応する画素の画素値で背景画像Pbの画素を上書きし、さらに、背景画像Pbの各画素のうち、被写体切り抜き画像P1の画素のアルファ値が「0<α<1」の画素は1の補数(1−α)を用いて被写体切り抜き画像P1の被写体領域Psを切り抜いた画像(背景画像×(1−α))を生成した後、被写体位置情報M(アルファマップ)における1の補数(1−α)を用いて被写体切り抜き画像P1を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P1から減算し、それを被写体領域Psを切り抜いた画像(背景画像×(1−α))と合成する。
即ち、画像取得部305cは、被写体切り抜き画像P1と他の画像である背景画像Pbとが合成された被写体合成画像P2を取得する。具体的には、画像取得部305cは、画像合成部305bから当該画像合成部305bにより生成された被写体合成画像P2の画像データを取得する。
なお、画像取得部305cによる被写体合成画像P2の取得方法は、一例であってこれに限られるものではなく、適宜任意に変更可能である。即ち、例えば、サーバ3と外部の情報通信機器とが所定の通信ネットワークNを介して情報通信可能に接続された状態で、この情報通信機器から送信された生成済みの被写体合成画像の画像データを受信して、当該画像データを取得するようにしても良い。また、例えば、サーバ3に記録媒体制御部を備え、この記録媒体制御部に装着された記録媒体Cから被写体合成画像の画像データを読み出して取得するようにしても良い。
ここで、アート変換処理とは、処理対象となる被写体合成画像P2の視覚的効果、即ち、表示部に表示された状態における表示態様を変化させる画像処理のことである。アート変換処理としては、具体的には、例えば、油彩絵の具で描いたような視覚的効果を有する画像に加工する「油彩画風」(図6(b)参照)や、水彩絵の具で描いたような視覚的効果を有する画像に加工する「水彩画風」や、色鉛筆で書いたような視覚的効果を有する画像に加工する「色鉛筆風」等が挙げられるが、一例であってこれらに限られるものではなく、適宜任意に変更可能である。
そして、アート変換処理部305dは、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定された所定の処理内容のアート変換処理(例えば、「油彩画風」等)を被写体合成画像P2に対して施し、画像処理済み画像P3の画像データを取得する。
また、処理対象の画像を各種の視覚的効果を有する画像に加工する技術は、例えば、公知の画像処理関連のソフトウェアを用いた処理と略同様の処理によって実現され、HSV色空間における色相、彩度、明度などを変更したり各種のフィルタを用いることで行われるが、公知の技術であるので、詳細な説明を省略する。また、「○○風」とは、公知の画像処理関連のソフトウェアによって実現可能なアート変換処理が施された視覚的効果のことを言う。
即ち、境界線特定部305eは、切抜部305aにより生成された被写体切り抜き画像P1内で被写体領域(所定領域)Psの位置を示す被写体位置情報Mを用いて境界線Lを特定する。具体的には、境界線特定部305eは、位置情報生成部a1により生成された被写体位置情報M(例えば、アルファマップ)を複製し、当該被写体位置情報Mの被写体領域Psと背景領域(図5(b)に示す被写体位置情報Mにおける「黒塗り」で表す領域等)との境界をなす縁部分をトレースした軌跡を境界線Lとして特定する。そして、境界線特定部305eは、特定された境界線Lを表す境界線画像P4(図7(a)参照)を所定のデータ形式(例えば、SVG(Scalable Vector Graphics)で記述された画像フォーマット等)で生成する。
即ち、三値画像生成部305fは、被写体を構成する被写体構成領域Asの各画素を第1の画素値(例えば、「1」等)、背景を構成する背景構成領域Abの各画素を第2の画素値(例えば、「0」等)、被写体であるか背景であるか未確定の領域(未確定領域)である境界領域Alの各画素を第3の画素値(例えば、「0.5」等)とする三値画像P6(図8(a)参照)を生成する。具体的には、先ず、三値画像生成部305fは、境界線特定部305eにより生成された所定のデータ形式(例えば、SVGで記述された画像フォーマット等)の境界線画像P4の画像データを取得し、当該境界線Lを基準とする所定の範囲内の各画素を画素値が未確定の領域として設定して境界領域画像P5(図7(b)参照)を生成する。例えば、三値画像生成部305fは、SVGで記述された画像フォーマットの境界線画像P4の画像データの「fill」、「stroke」、「stroke-width」、「StrokeLineCap」等の項目を逐次調整して、当該境界線Lの太さを変更することで画素値が未確定の領域としての境界領域Alを設定する。
ここで、境界領域Alの設定に係る境界線Lの太さの変更度合は、被写体合成画像P2に対する画像処理(例えば、アート変換処理)の処理内容に応じて変化させても良い。即ち、被写体合成画像P2に対するアート変換処理が、例えば、筆跡を表現するためのタッチの細かさ、絵の具や刺繍を表現するためのテクスチャの大きさ、画像を表現するキャンバスの粗さ等を基準として、元画像の視覚的効果、特に主要部の形状の変化が相対的に大きい画像加工処理の場合には、境界線Lの太さを相対的に太くするように変更度合を設定し、一方、元画像の主要部の形状の変化が相対的に小さい画像加工処理の場合には、境界線Lの太さを相対的に細くするように変更度合を設定しても良い。
なお、図8(a)にあっては、三値画像P6における背景構成領域Abを「黒塗り」で、被写体構成領域Asを「白抜き」で、境界領域(未確定領域)Alにドットを付して表している。
即ち、抽出部305gは、境界線特定部305eにより特定された境界線Lに基づいて、所定の画像処理が施された画像処理済み画像P3から被写体領域Psに対応する被写体対応領域Qsを抽出する。具体的には、抽出部305gは、三値画像生成部305fにより生成された三値画像P6に基づいて、画像処理済み画像P3の境界線Lを基準とする境界領域(所定の範囲)Al内でエッジを検出するエッジ検出処理を行い、当該エッジ検出処理の結果に基づいて、当該画像処理済み画像P3から被写体対応領域Qsを特定して抽出する。例えば、抽出部305gは、エッジ検出処理により境界領域Al内で被写体領域Psのエッジ(背景領域との境目)を検出し、画像処理済み画像P3内で当該エッジにより区分される領域(例えば、エッジにより囲まれる内側領域等)を被写体対応領域Qsとして特定した後、画像処理済み画像P3から被写体対応領域Qsを抽出した被写体抽出画像P7(図8(b)参照)を生成する。
上記のエッジ検出処理は、公知の技術であるので、ここでは詳細な説明を省略する。
ここで、図4は、画像抽出処理に係る動作の一例を示すフローチャートである。
また、図5(a)は、被写体切り抜き画像P1の一例を模式的に示す図であり、図5(b)は、被写体位置情報Mの一例を模式的に示す図である。また、図6(a)は、被写体合成画像P2の一例を模式的に示す図であり、図6(b)は、画像処理済み画像P3の一例を模式的に示す図である。また、図7(a)は、境界線画像P4の一例を模式的に示す図であり、図7(b)は、境界領域画像P5の一例を模式的に示す図である。また、図8(a)は、三値画像P6の一例を模式的に示す図であり、図8(b)は、被写体抽出画像P7の一例を模式的に示す図である。
サーバ3の通信制御部304によって、ユーザ端末2から送信されたアクセス指示が受信されると、中央制御部301のCPUは、画像抽出用ページのページデータを通信制御部304により所定の通信ネットワークNを介してユーザ端末2に送信させる(ステップS2)。
そして、ユーザ端末2の通信制御部205によって、画像抽出用ページのページデータが受信されると、中央制御部201のCPUは、当該画像抽出用ページのページデータに基づいて、画像抽出用ページの所定の画面を表示部203に表示させる。続けて、ユーザによる操作入力部202の所定操作に基づいて、記録媒体制御部204は、記録媒体Cからユーザ所望の被写体存在画像の画像データを読み出した後、中央制御部201のCPUは、読み出された被写体存在画像の画像データを通信制御部205により所定の通信ネットワークNを介してサーバ3に送信させる(ステップS3)。
具体的には、切抜部305aの位置情報生成部a1は、被写体存在画像における被写体領域Psの位置を示し、当該被写体領域Psを抽出するための被写体位置情報M(アルファマップ;図5(b)参照)を生成する。その後、切抜部305aは、生成された被写体位置情報Mに基づいて、被写体存在画像の各画素のうち、アルファ値が「1」の画素を所定の単一色画像に対して透過させずに、且つ、アルファ値が「0」の画素を透過させるように、被写体領域Psの画像を所定の単一色画像と合成して被写体切り抜き画像P1の画像データを生成する。
サーバ3の通信制御部304によって、ユーザ端末2から送信された背景画像Pbの指定指示が受信されると、画像処理部305の画像合成部305bは、被写体切り抜き画像P1と背景画像Pbとを合成して被写体合成画像P2(図6(a)参照)を生成する(ステップS6)。
具体的には、画像合成部305bは、通信制御部304により受信された指定指示に係る背景画像Pbの画像データを記憶部302から取得するとともに、被写体切り抜き画像P1の画像データを切抜部305aから取得する。そして、画像合成部305bは、背景画像Pbの各画素のうち、被写体切り抜き画像P1のアルファ値が「0」の画素は背景画像Pbに対して透過させ、被写体切り抜き画像P1のアルファ値が「1」の画素は被写体切り抜き画像P1の対応する画素の画素値で背景画像Pbの画素を上書きし、さらに、背景画像Pbの各画素のうち、被写体切り抜き画像P1の画素のアルファ値が「0<α<1」の画素は1の補数(1−α)を用いて被写体切り抜き画像P1の被写体領域Psを切り抜いた画像(背景画像×(1−α))を生成した後、アルファマップにおける1の補数(1−α)を用いて被写体切り抜き画像P1を生成した際に単一背景色とブレンドした値を計算し、当該値を被写体切り抜き画像P1から減算し、それを被写体領域Psを切り抜いた画像(背景画像×(1−α))と合成する。
サーバ3の通信制御部304によって、ユーザ端末2から送信されたアート変換処理の実行指示が受信されると、画像処理部305の画像取得部305cは、画像合成部305bにより生成された被写体合成画像P2の画像データを取得した後(ステップS8)、アート変換処理部305dは、ユーザによるユーザ端末2の操作入力部202の所定操作に基づいて指定された所定の処理内容のアート変換処理(例えば、「油彩画風」等)を被写体合成画像P2に対して施し、画像処理済み画像P3(図6(b)参照)の画像データを取得する(ステップS9)。
具体的には、境界線特定部305eは、位置情報生成部a1により生成された被写体位置情報M(アルファマップ)を複製し、当該被写体位置情報Mの被写体領域Psと背景領域との境界をなす縁部分をトレースした軌跡を境界線Lとして特定した後、当該境界線Lを表す境界線画像P4を所定のデータ形式(例えば、SVGで記述された画像フォーマット等)で生成する。
続けて、三値画像生成部305fは、位置情報生成部a1により生成された被写体位置情報M(アルファマップ)を複製し、当該被写体位置情報Mと生成済みの境界領域画像P5とを併合して、被写体構成領域As、背景構成領域Ab及び境界領域Alの各画素の画素値が互いに異なる三値画像P6(図8(a)参照)を生成する(ステップS12)。具体的には、三値画像生成部305fは、被写体位置情報Mの被写体領域Psのうち、境界領域Alと重なり合わない部分を画素値が「1」の被写体構成領域Asとし、同様に、被写体位置情報Mの背景領域のうち、境界領域Alと重なり合わない部分を画素値が「0」の背景構成領域Abとする。また、三値画像生成部305fは、被写体位置情報Mの被写体領域Ps及び背景領域のうち、境界領域Alと重なり合った部分を画素値が「0.5」の境界領域(未確定領域)Alとする。
具体的には、抽出部305gは、三値画像P6に基づいて、画像処理済み画像P3の境界線Lを基準とする境界領域Al内でエッジを検出するエッジ検出処理を行い、境界領域Al内で被写体領域Psのエッジを特定する。そして、抽出部305gは、画像処理済み画像P3内で特定されたエッジにより区分される領域(例えば、エッジの内側領域等)を被写体対応領域Qsとして特定した後、画像処理済み画像P3から被写体対応領域Qsを抽出した被写体抽出画像P7(図8(b)参照)を生成する。
そして、ユーザ端末2の通信制御部205によって、被写体抽出画像P7の画像データが受信されると、中央制御部201のCPUは、当該画像データに基づいて、被写体抽出画像P7を表示部203に表示させる(ステップS15)。
これにより、画像抽出処理を終了する。
従って、所定の画像処理が施された画像処理済み画像P3からの所望の被写体対応領域Qsの抽出を簡便に行うことができる。
特に、被写体構成領域As、背景構成領域Ab及び境界領域Alの各画素の画素値が互いに異なる三値画像P6を利用することで、画像処理済み画像P3内にてエッジ検出処理の処理対象となる境界領域Alだけでなく、被写体構成領域As及び背景構成領域Abの特定も簡便に、且つ、適正に行うことができる。
さらに、画像合成部305bにより生成された被写体合成画像P2を取得するので、当該被写体合成画像P2を処理対象として、所定の画像処理を施して画像処理済み画像P3を生成することができる。
例えば、上記実施形態にあっては、被写体構成領域As、背景構成領域Ab及び境界領域Alの各画素の画素値が互いに異なる三値画像P6を利用して、画像処理済み画像P3から被写体対応領域Qsを抽出するようにしたが、被写体対応領域Qsの抽出に三値画像P6を利用するか否かは適宜任意に変更可能である。即ち、サーバ3は、必ずしも三値画像P6を生成する三値画像生成部305fを具備する必要はなく、被写体切り抜き画像P1に係る被写体領域Psと背景領域との境界線Lを基準として、画像処理済み画像P3から被写体対応領域Qsを抽出可能であれば如何なる構成であっても良い。
即ち、例えば、予めサーバ3の記憶部302に被写体存在画像の画像データを記憶しておき、被写体切り抜き画像P1の生成の際に、切抜部305aが当該被写体存在画像の画像データを取得するようにしても良い。また、例えば、被写体切り抜き画像P1の生成の際に、切抜部305aは、ユーザ端末2と異なる外部の情報通信機器から所定の通信ネットワークNを介して送信され通信制御部304により受信された被写体存在画像の画像データを取得するようにしても良い。
即ち、プログラムを記憶するプログラムメモリ(図示略)に、取得処理ルーチン、画像処理ルーチン、特定処理ルーチン、抽出処理ルーチンを含むプログラムを記憶しておく。そして、取得処理ルーチンにより中央制御部301のCPUを、画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段として機能させるようにしても良い。また、画像処理ルーチンにより中央制御部301のCPUを、取得手段により取得された合成画像に対して所定の画像処理を施す処理手段として機能させるようにしても良い。また、特定処理ルーチンにより中央制御部301のCPUを、切り抜き画像に係る所定領域と背景領域との境界線Lを特定する特定手段として機能させるようにしても良い。また、抽出処理ルーチンにより中央制御部301のCPUを、特定手段により特定された境界線Lに基づいて、所定の画像処理が施された合成画像から所定領域に対応する対応領域を抽出する抽出手段として機能させるようにしても良い。
本発明のいくつかの実施形態を説明したが、本発明の範囲は、上述の実施の形態に限定するものではなく、特許請求の範囲に記載された発明の範囲とその均等の範囲を含む。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
<請求項1>
画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段と、
この取得手段により取得された合成画像に対して所定の画像処理を施す処理手段と、
前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する特定手段と、
この特定手段により特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する抽出手段と、
を備えたことを特徴とする画像処理装置。
<請求項2>
前記抽出手段は、更に、
前記所定の画像処理が施された合成画像の前記境界線を基準とする所定の範囲内でエッジを検出するエッジ検出処理を行い、当該エッジ検出処理の結果に基づいて、当該合成画像から前記対応領域を特定して抽出することを特徴とする請求項1に記載の画像処理装置。
<請求項3>
前記所定領域を構成する領域、前記背景領域を構成する領域及び前記境界線を基準とする所定の範囲における各画素の画素値を互いに異ならせた三値画像を生成する生成手段を更に備え、
前記抽出手段は、
前記生成手段により生成された前記三値画像に基づいて、前記所定の画像処理が施された合成画像から前記対応領域を特定して抽出することを特徴とする請求項1又は2に記載の画像処理装置。
<請求項4>
画像から所定領域を切り抜いて切り抜き画像を生成する切抜手段を更に備え、
前記特定手段は、
前記切抜手段により生成された前記切り抜き画像内で前記所定領域の位置を示す位置情報を用いて前記境界線を特定することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。
<請求項5>
前記切抜手段により生成された前記切り抜き画像と前記他の画像とを合成して合成画像を生成する合成手段を更に備え、
前記取得手段は、
前記合成手段により生成された前記合成画像を取得することを特徴とする請求項4に記載の画像処理装置。
<請求項6>
画像処理装置を用いた画像処理方法であって、
画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する工程と、
取得された合成画像に対して所定の画像処理を施す工程と、
前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する工程と、
特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する工程と、
を含むことを特徴とする画像処理方法。
<請求項7>
画像処理装置のコンピュータを、
画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段、
この取得手段により取得された合成画像に対して所定の画像処理を施す処理手段、
前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する特定手段、
この特定手段により特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する抽出手段、
として機能させることを特徴とするプログラム。
3 サーバ
301 中央制御部
305 画像処理部
305a 切抜部
305b 画像合成部
305c 画像取得部
305d アート変換処理部
305e 境界線特定部
305f 三値画像生成部
305g 抽出部
Claims (7)
- 画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段と、
この取得手段により取得された合成画像に対して所定の画像処理を施す処理手段と、
前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する特定手段と、
この特定手段により特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する抽出手段と、
を備えたことを特徴とする画像処理装置。 - 前記抽出手段は、更に、
前記所定の画像処理が施された合成画像の前記境界線を基準とする所定の範囲内でエッジを検出するエッジ検出処理を行い、当該エッジ検出処理の結果に基づいて、当該合成画像から前記対応領域を特定して抽出することを特徴とする請求項1に記載の画像処理装置。 - 前記所定領域を構成する領域、前記背景領域を構成する領域及び前記境界線を基準とする所定の範囲における各画素の画素値を互いに異ならせた三値画像を生成する生成手段を更に備え、
前記抽出手段は、
前記生成手段により生成された前記三値画像に基づいて、前記所定の画像処理が施された合成画像から前記対応領域を特定して抽出することを特徴とする請求項1又は2に記載の画像処理装置。 - 画像から所定領域を切り抜いて切り抜き画像を生成する切抜手段を更に備え、
前記特定手段は、
前記切抜手段により生成された前記切り抜き画像内で前記所定領域の位置を示す位置情報を用いて前記境界線を特定することを特徴とする請求項1〜3の何れか一項に記載の画像処理装置。 - 前記切抜手段により生成された前記切り抜き画像と前記他の画像とを合成して合成画像を生成する合成手段を更に備え、
前記取得手段は、
前記合成手段により生成された前記合成画像を取得することを特徴とする請求項4に記載の画像処理装置。 - 画像処理装置を用いた画像処理方法であって、
画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する工程と、
取得された合成画像に対して所定の画像処理を施す工程と、
前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する工程と、
特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する工程と、
を含むことを特徴とする画像処理方法。 - 画像処理装置のコンピュータを、
画像から所定領域が切り抜かれた切り抜き画像と他の画像とが合成された合成画像を取得する取得手段、
この取得手段により取得された合成画像に対して所定の画像処理を施す処理手段、
前記切り抜き画像に係る前記所定領域と背景領域との境界線を特定する特定手段、
この特定手段により特定された前記境界線に基づいて、前記所定の画像処理が施された合成画像から前記所定領域に対応する対応領域を抽出する抽出手段、
として機能させることを特徴とするプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011136854A JP5672168B2 (ja) | 2011-06-21 | 2011-06-21 | 画像処理装置、画像処理方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011136854A JP5672168B2 (ja) | 2011-06-21 | 2011-06-21 | 画像処理装置、画像処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013003990A JP2013003990A (ja) | 2013-01-07 |
JP5672168B2 true JP5672168B2 (ja) | 2015-02-18 |
Family
ID=47672471
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011136854A Expired - Fee Related JP5672168B2 (ja) | 2011-06-21 | 2011-06-21 | 画像処理装置、画像処理方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5672168B2 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7447417B2 (ja) | 2019-09-27 | 2024-03-12 | ソニーグループ株式会社 | 画像処理装置、画像処理方法、プログラム |
JP7276120B2 (ja) * | 2019-12-25 | 2023-05-18 | セイコーエプソン株式会社 | 表示装置の制御方法、及び表示装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0792651A (ja) * | 1993-09-24 | 1995-04-07 | Konica Corp | 画像切り抜き装置 |
JPH0991398A (ja) * | 1995-09-25 | 1997-04-04 | Toshiba Corp | イメージ処理装置 |
JPH1011568A (ja) * | 1996-06-20 | 1998-01-16 | Dainippon Printing Co Ltd | 画像処理方法 |
JPH1065923A (ja) * | 1996-08-23 | 1998-03-06 | Fuji Photo Film Co Ltd | 画像処理方法および装置 |
JPH10293390A (ja) * | 1997-04-21 | 1998-11-04 | Toppan Printing Co Ltd | 切抜き合成画像及び画像切抜き装置及びマスクデータ記録媒体 |
JPH11122471A (ja) * | 1997-10-15 | 1999-04-30 | Fuji Photo Film Co Ltd | 画像再生システム |
JP4360237B2 (ja) * | 2004-03-18 | 2009-11-11 | セイコーエプソン株式会社 | 画像修整装置、画像修整方法およびコンピュータプログラム |
JP5045619B2 (ja) * | 2008-09-08 | 2012-10-10 | ソニー株式会社 | 画像処理装置および方法、並びにプログラム |
-
2011
- 2011-06-21 JP JP2011136854A patent/JP5672168B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013003990A (ja) | 2013-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7613363B2 (en) | Image superresolution through edge extraction and contrast enhancement | |
CN105138317A (zh) | 用于终端设备的窗口显示处理方法及装置 | |
WO2008039693A2 (en) | Improving image masks | |
US10592766B2 (en) | Image processing apparatus and medium storing program executable by image processing apparatus | |
KR101869302B1 (ko) | 래스터 이미지 변환 장치, 화상독취장치, 래스터 이미지 변환 방법 및 컴퓨터 판독가능 기록매체 | |
JP2019207535A (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP5893379B2 (ja) | 画像圧縮装置、画像圧縮方法、コンピュータプログラム | |
JP5512903B1 (ja) | 画像処理装置、画像処理方法、情報記憶媒体、及びプログラム | |
JP2004334852A (ja) | ピクセルタイプによる画像処理 | |
JP5672168B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
KR101887929B1 (ko) | 이미지 처리 장치, 이미지 처리 방법, 컴퓨터 판독가능 기록매체 및 화상형성장치 | |
CN113313027A (zh) | 图像处理方法、装置、电子设备和存储介质 | |
JP2015041992A (ja) | 画像処理装置及びプログラム | |
US20110187721A1 (en) | Line drawing processing apparatus, storage medium storing a computer-readable program, and line drawing processing method | |
JP2010074342A (ja) | 画像処理装置、画像形成装置、及びプログラム | |
RU2458396C1 (ru) | Способ редактирования статических цифровых комбинированных изображений, включающих в себя изображения нескольких объектов | |
US9905030B2 (en) | Image processing device, image processing method, information storage medium, and program | |
CN112927321B (zh) | 基于神经网络的图像智能设计方法、装置、设备及存储介质 | |
JP6414475B2 (ja) | コンピュータプログラム及び制御装置 | |
CN113012085A (zh) | 图像处理方法和装置 | |
JP6711031B2 (ja) | 画像処理装置、画像処理方法、画像処理システムおよびプログラム | |
EP2466548A1 (en) | Method of processing an object-based image file with content type dependent image processing algorithms | |
JP4911585B2 (ja) | 画像処理装置、画像処理方法、プログラム及び情報記録媒体 | |
JP6428166B2 (ja) | 画像処理装置、および、コンピュータプログラム | |
JP5862370B2 (ja) | 画像処理装置、画像処理方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140224 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141114 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141125 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141208 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5672168 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |