JP2015225476A - 画像処理装置およびプログラム - Google Patents

画像処理装置およびプログラム Download PDF

Info

Publication number
JP2015225476A
JP2015225476A JP2014109576A JP2014109576A JP2015225476A JP 2015225476 A JP2015225476 A JP 2015225476A JP 2014109576 A JP2014109576 A JP 2014109576A JP 2014109576 A JP2014109576 A JP 2014109576A JP 2015225476 A JP2015225476 A JP 2015225476A
Authority
JP
Japan
Prior art keywords
image
feature
pasted
scene
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014109576A
Other languages
English (en)
Inventor
山本 隆之
Takayuki Yamamoto
隆之 山本
耕輔 丸山
Kosuke Maruyama
耕輔 丸山
佐々木 信
Makoto Sasaki
信 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2014109576A priority Critical patent/JP2015225476A/ja
Priority to US14/558,924 priority patent/US10186063B2/en
Priority to AU2014280984A priority patent/AU2014280984A1/en
Priority to CN201510006901.6A priority patent/CN105306833B/zh
Publication of JP2015225476A publication Critical patent/JP2015225476A/ja
Priority to AU2017201441A priority patent/AU2017201441B2/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

【課題】貼り付け先の画像への他の画像の貼り付けを機械的に且つ一律に行う場合に比べ、貼り付け先の画像に他の画像を貼り付けて生成される合成画像の違和感を低減する。
【解決手段】符号3Aで示すように、シーン画像(の景観)の特徴を把握する。そして、この特徴を、符号3Bで示す貼付画像に反映する。そして、符号3Cで示す、特徴反映後の貼付画像を、シーン画像に貼り付ける。これにより、符号3Dに示すように、シーン画像の違和感が小さくなる。
【選択図】図3

Description

本発明は、画像処理装置およびプログラムに関する。
特許文献1には、第2の画像の明度成分を第1の画像の明度成分に混合して新たな明度成分を作成する手段を具備し、第1の画像の色度成分と合成した明度成分とを組み合わせることにより合成した第3の画像を形成する画像処理装置が開示されている。
また、非特許文献1には、画像の輝度および色度の統計量を一致させることで複数の画像間の印象をマッチさせる手法が提案されている。
特開平11−331554号公報
Reinhard, E., Ashikhmin, M., Gooch, B., And Shirley, P. 2001. Color transfer between images. IEEE Computer Graphics and Applications 21, 34-41.
ここで、貼り付け先の画像に対して他の画像の貼り付けを行って合成画像を生成するに際して、この貼り付けを機械的に且つ一律に行ってしまうと、この他の画像が貼り付け先の画像に溶け込まずに、合成後の画像に違和感が生じることがある。
本発明の目的は、貼り付け先の画像への他の画像の貼り付けを機械的に且つ一律に行う場合に比べ、貼り付け先の画像に他の画像を貼り付けて生成される合成画像の違和感を低減することにある。
請求項1に記載の発明は、貼り付け先の画像である第1の画像と、当該第1の画像に貼り付けられる第2の画像とを合成し、当該第1の画像の中に当該第2の画像が含まれた合成画像を生成する合成画像生成手段と、前記第1の画像の特徴量を取得する特徴量取得手段と、前記特徴量取得手段により取得された前記第1の画像の前記特徴量を用い、当該第1の画像の特徴を前記第2の画像に反映する反映手段と、を備える画像処理装置である。
請求項2に記載の発明は、前記特徴量取得手段は、前記第1の画像の一部の特徴量を取得し、前記反映手段は、前記第1の画像の前記一部の特徴量を用い、当該第1の画像の特徴の前記第2の画像への反映を行うことを特徴とする請求項1に記載の画像処理装置である。
請求項3に記載の発明は、前記特徴量取得手段は、前記第1の画像の前記一部の特徴量を取得するに際し、当該第1の画像のうちの、前記第2の画像が配置される箇所の周囲に位置する部分の特徴量を取得することを特徴とする請求項2に記載の画像処理装置である。
請求項4に記載の発明は、前記反映手段は、前記第1の画像の特徴を、前記第2の画像の一部に反映することを特徴とする請求項1乃至3の何れかに記載の画像処理装置である。
請求項5に記載の発明は、前記第2の画像に対する前記第1の画像の特徴の反映度合いを示す調整値をユーザから取得する調整値取得手段を更に備えることを特徴とする請求項1乃至4の何れかに記載の画像処理装置である。
請求項6に記載の発明は、貼り付け先の画像である第1の画像と、当該第1の画像に貼り付けられる第2の画像とを合成し、当該第1の画像の中に当該第2の画像が含まれた合成画像を生成する合成画像生成機能と、前記第1の画像の特徴量を取得する特徴量取得機能と、前記特徴量取得機能により取得された前記第1の画像の特徴量を用い、当該第1の画像の特徴を前記第2の画像に反映する反映機能と、をコンピュータに実現させるためのプログラムである。
請求項1の発明によれば、貼り付け先の画像への他の画像の貼り付けを機械的に且つ一律に行う場合に比べ、貼り付け先の画像に他の画像を貼り付けて生成される合成画像の違和感を低減できる。
請求項2の発明によれば、貼り付け先の画像の印象が一様ではない場合にも合成画像の違和感を低減することができる。
請求項3の発明によれば、画像が貼り付らけれる部分の周囲に位置する周囲部分と、周囲部分以外の部分とで、貼り付け先画像の印象が異なる場合でも、合成画像の違和感を低減できる。
請求項4の発明によれば、合成画像の違和感を低減しつつ、貼り付けられる画像の特徴を部分的に残せるようになる。
請求項5の発明によれば、特徴の反映度合いを示す調整値をユーザから取得する手段を備えていない場合に比べ、ユーザに与えられる違和感がより少ない合成画像を生成することができる。
請求項6の発明によれば、貼り付け先の画像への他の画像の貼り付けを機械的に且つ一律に行う場合に比べ、貼り付け先の画像に他の画像を貼り付けて生成される合成画像の違和感を低減できる。
本発明の実施形態に係る画像処理装置のハードウェア構成を例示したブロック図である。 画像処理装置における処理例を示した図である。 シーン画像への貼付画像の貼り付けに際し、制御部にて実行される処理の概要を示した図である。 シーン画像への貼付画像の貼り付けに際し、制御部にて実行される処理の流れを示したフローチャートである。 特徴獲得部にて実施される処理を説明する図である。 画像処理装置にて行われる処理の一例を示した図である。 シーン画像の特徴を把握する際の処理を説明する図である。 シーン画像の一部の特徴を貼付用画像に反映して特徴反映済みシーン画像を生成する際の処理の流れを示した図である。 画像処理装置にて行われる他の処理例を示した図である。 添付画像の一部に対してシーン画像の特徴を反映する際に制御部にて実行される処理の流れを示した図である。 画像処理装置にて行われる他の処理の一例を示した図である。 添付画像への特徴の反映度を変化させる際に制御部にて実行される処理の流れを示した図である。 画像処理装置にて行われる表示処理の他の一例を示した図である。
以下、添付図面を参照して、本発明の実施の形態について説明する。
図1は、本発明の実施形態に係る画像処理装置1のハードウェア構成を例示したブロック図である。本実施形態の画像処理装置1には、制御部100、記憶部200、表示部300、操作部400、画像取得部500が設けられている。
制御部100は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)(何れも不図示)を備えている。
ROMは、CPUにより実行される制御プログラムを記憶している。CPUは、ROMに記憶されている制御プログラムを読み出し、RAMを作業エリアにして制御プログラムを実行する。CPUにより制御プログラムが実行されることで、後述する画像貼り付け部11などの各機能部が実現される。
なお、CPUによって実行されるプログラムは、磁気記録媒体(磁気テープ、磁気ディスクなど)、光記録媒体(光ディスクなど)、光磁気記録媒体、半導体メモリなどのコンピュータが読取可能な記録媒体に記憶した状態で、画像処理装置1へ提供しうる。また、インターネットなどの通信手段を用い、画像処理装置1へダウンロードしてもよい。
記憶部200は、例えばハードディスク装置により構成され、画像データなどの各種データを記憶する。
表示部300は、例えば、液晶のタッチパネルディスプレイにより構成され、制御部100による制御の下、例えば、画像データに基づく画像を表示する。
操作部400は、ユーザによる操作がなされる部分であり、ユーザにより入力される情報を取得する。操作部400は、例えば液晶のタッチパネルディスプレイにより構成される。ここで、操作部400および表示部300が、液晶のタッチパネルディスプレイにより構成される場合は、操作部400と表示部300とが、共通の部材により構成されることになる。なお、操作部400は、マウスやキーボードなどにより構成してもよい。
画像取得部500は、ユーザから提供された画像(画像データ)の取得を行う。具体的には、後述するシーン画像や、貼り付け元画像などの取得を行う。画像取得部500は、例えば、外部機器に接続される接続インタフェースにより構成される。また、本実施形態では、画像取得部500にて画像が取得されると、記憶部200にこの画像が出力され、記憶部200に画像が格納される。
図2は、画像処理装置1における処理例を示した図である。
図2では、同図(A)に示すシーン画像(貼り付け先画像)に対して、同図(B)に示す、貼り付け元画像の一部を貼り付け、同図(C)あるいは同図(D)に示す合成画像を生成する処理を示している。
より具体的には、同図(A)に示す、室内を示すシーン画像に対して、同図(B)の貼り付け元画像に含まれる、「植木鉢」(屋外に置かれた「植木鉢」)の画像を貼り付け、「植木鉢」が置かれた室内の合成画像を生成する場合を例示している。
なお、以下、本明細書では、この「植木鉢」のように、シーン画像に貼り付けられる画像を「貼付画像」と称することがある。
ここで、単に、シーン画像に対して貼付画像を貼り付けてしまうと、違和感のある合成画像が生成されやすくなる。図2を参照して具体的に説明すると、室内を示すシーン画像に対して、屋外に置かれた「植木鉢」の画像を貼り付けてしまうと、同図(C)に示すように、違和感のある合成画像が生成されやすくなる。
一方で、以下に説明する、本実施形態の処理では、シーン画像の特徴(景観の特徴)が、「植木鉢」の画像に反映されるようになり、同図(D)に示すように、違和感が少ない合成画像が生成される。
図3は、シーン画像への貼付画像の貼り付けに際し、制御部100にて実行される処理の概要を示した図である。
本実施形態における処理では、同図の符号3Aで示すように、シーン画像の特徴(特徴量)を把握する。そして、この特徴を、符号3Bで示す貼付画像に反映する。これにより、符号3Cで示す、特徴反映後の貼付画像が生成される。次いで、特徴反映後のこの添付画像を、シーン画像に貼り付ける。これにより、符号3Dに示すように、シーン画像の違和感が小さくなる。
図4は、シーン画像への貼付画像の貼り付けに際し、制御部100にて実行される処理の流れを示したフローチャートである。
本実施形態の処理では、まず、貼り付け元画像(図2(B)参照)に対するユーザの操作が行われ、上記「植木鉢」のような貼付画像が、貼り付け元画像から切り取られて取得される。そして、この貼付画像が、合成画像生成手段として機能する画像貼り付け部11に入力される。
画像貼り付け部11では、シーン画像(第1の画像)に対する貼付画像(第2の画像)の貼り付けが行われて、シーン画像の中に貼付画像が含まれた合成画像が生成される。
付言すると、本実施形態では、シーン画像への貼付画像の貼り付けに先だって、シーン画像が記憶部200(図1)から、画像貼り付け部11に出力されている。
そして、画像貼り付け部11に貼付画像が入力されると、シーン画像への添付画像の貼り付けが行われ、貼付画像の貼り付けが行われたシーン画像(以下、このシーン画像を「貼り付け済みシーン画像」と称する)が生成される。その後、この貼り付け済みシーン画像が、特徴反映部(特徴マージ部)13に出力される。
一方、記憶部200から出力されたシーン画像は、特徴量取得手段として機能する特徴獲得部12にも入力され、この特徴獲得部12によって、シーン画像の特徴(特徴量)が取得される。そして、この特徴についての情報である特徴情報が、特徴反映部13に出力される。
次いで、反映手段として機能する特徴反映部13が、この特徴情報に基づき、貼付画像に対して、シーン画像の特徴を反映する。これにより、シーン画像の特徴が貼付画像に反映された、貼り付け済みシーン画像が生成される(以下、このシーン画像を、「特徴反映済みシーン画像」と称する)。付言すると、図3の符号3Dで示したような画像が生成される。
ここで、特徴獲得部12における処理について説明すると、この特徴獲得部12では、図5(特徴獲得部12にて実施される処理を説明する図)の、(a2)、(b2)、(c2)で示すように、L*,a*,b*色空間において、シーン画像全体のL*,a*,b*の画素値の平均である、E(L*scene),E(a*scene),E(b*scene)が、特徴量として算出される。また、シーン画像全体のL*,a*,b*の分散である、V(L*scene),V(a*scene),V(b*scene)も、特徴量として算出される。
特徴反映部13では、特徴獲得部12にて算出された、上記平均および分散を用い、さらに、次の数式(1)〜(3)を用い、添付画像のLab値(CIE Lab値)を画素ごとに調整する。
Figure 2015225476
なお、数式(1)〜(3)において、L*a*b*は、調整前の貼付画像の画素値を示し、L*’a*’b*’は、調整後の貼付画像の画素値を示している。
また、E(L*clip),E(a*clip),E(b*clip)は、図5の(a1)、(b1)、(c1)にも示すように、添付画像(特徴反映前の添付画像)のL*,a*,b*の値の平均値であり、V(L*clip),V(a*clip),V(b*clip)は、図5の(a1)、(b1)、(c1)に示すように、添付画像(特徴反映前の添付画像)のL*,a*,b*の値の分散である。
図6は、画像処理装置1にて行われる処理の一例を示した図である。なお、図6では、画像処理装置1が、いわゆるタブレット端末により構成された場合を例示している。
この処理では、同図(A)に示すように、一つの画面上に、貼り付け元画像と、シーン画像とが表示されている。なお、貼り付け元画像の方が、シーン画像よりも大きく表示されている。
そして、この処理では、同図(A)に示すように、貼り付け元画像に含まれる貼付画像の輪郭をユーザがなぞるなどして、貼付画像を、貼り付け元画像から分離する。なお、この例では、タッチパネルを操作して、貼付画像の分離を行うが、マウスなどを操作して、添付画像の分離を行ってもよい。また、添付画像の分離は、領域を直接指定する方法の他に、グラフカットやグローカットなどを用いるようにしてもよい。
その後、同図(A)の矢印に示すように、ドラッグ&ドロップ操作で、貼付画像を、画面右下に位置するシーン画像まで移動する。これにより、同図(B)に示すように、貼り付け元画像が消え、これに替わり、シーン画像が表示される。次いで、ユーザが、貼付画像を、シーン画像のうちのユーザが希望する箇所まで移動して、表示画面上から手を離す。これより、同図(C)に示すように、貼付画像がシーン画像に貼り付けられる。また、貼付画像に対して、シーン画像の特徴が反映され、画像全体の違和感が小さくなる。
なお、シーン画像の特徴は、シーン画像の全体から把握するようにしてもよいし、シーン画像の一部から把握するようにしてもよい。
図7(シーン画像の特徴を把握する際の処理を説明する図)を参照して具体的に説明すると、例えば、シーン画像のうち、貼付画像が貼られる部分(添付画像が配置される箇所)の周囲に位置する部分の特徴を把握する。さらに具体的には、例えば、シーン画像のうち、添付画像の周囲に位置する部分であって、添付画像とシーン画像との境界から、30ピクセル分の画像の特徴を把握する。
ここで、例えば、シーン画像中に明るい部分と暗い部分とが存在している状態にて、この暗い部分に、貼付画像が貼り付けられる場合、シーン画像の全体の特徴を反映するよりも、貼付画像の周囲の画像の特徴を貼付画像に反映した方が、違和感が少なくなりやすい。このため、図7に示す例では、シーン画像のうち、貼付画像が貼られる部分の周囲に位置する部分の特徴を把握する。
また、他の例として、添付画像の周囲に限らず、周囲以外の部分の特徴を把握してもよい。より具体的には、例えば、色度や輝度、周波数帯域の類似性に基づき、特徴の把握を行う部分(領域)を自動で決定するようにしてもよい。
図8は、シーン画像の一部の特徴を貼付用画像に反映して特徴反映済みシーン画像を生成する際の処理の流れを示した図である。なお、基本的な処理は、図4にて示した処理と同様であり、ここでは、図4とは異なる部分を説明する。
この処理では、特徴獲得領域決定部14によって、タッチパネル上に表示されているシーン画像に対するユーザの操作(タッチパネルに対する操作)が検知され、この操作に基づき、シーン画像のうちの特徴を把握する領域が決定される。
なお、ここでは、タッチパネルに対するユーザの操作に基づき、特徴を把握する領域を決定したが、マウスなどの機器をユーザが操作する形態では、この機器に対するユーザの操作に基づき、領域を把握する。
そして、本実施形態では、特徴を把握する領域を示す領域情報が、特徴獲得領域決定部14から、特徴獲得部12へ出力される。
特徴獲得部12は、シーン画像のうちの、上記領域情報により特定される領域に位置する部分の特徴を把握する。具体的には、図5の(a2)、(b2)、(c2)にて示した、L*,a*,b*の画素値の平均である、E(L*scene),E(a*scene),E(b*scene)、L*,a*,b*の分散である、V(L*scene),V(a*scene),V(b*scene)を、領域情報により特定される領域について取得する。
その後、特徴獲得部12により取得された特徴情報が、特徴反映部13に出力され、特徴反映部13では、貼り付け済みシーン画像に対する特徴の反映が行われる。これにより、特徴が反映されたシーン画像である特徴反映済みシーン画像が生成される。付言すると、上記式(1)〜(3)が用いられて、特徴を反映した後のシーン画像の、Labの画素値が取得される。
図9は、画像処理装置1にて行われる他の処理例を示した図である。
この処理では、添付画像の全てに対して、シーン画像の特徴を反映するのではなく、添付画像の一部に対して、シーン画像の特徴を反映する。具体的には、同図(B)に示すように、例えば、添付画像の輪郭に近い部分に対して、シーン画像の特徴を反映する。より具体的には、例えば、貼付画像の輪郭よりも内側の指定ピクセル分を特徴反映領域とし、この領域に、シーン画像の特徴を反映する。このように、添付画像の一部に対して特徴を反映する場合、特徴反映済みシーン画像の違和感を低減しつつ、添付画像の特徴を部分的に残せるようになる。
なお、添付画像のうちの特徴の反映を行う部分は、ユーザからの指示に基づき決定してもよいし、色度や輝度、周波数帯域の類似性に基づき、自動で決定してもよい。
また、図9に示す例では、添付画像の輪郭の部分(輪郭に近い部分)に対して、特徴の反映を行ったが、これ以外に、たとえば、添付画像の内部の部分に対して、特徴を反映するようにしてもよい。また、例えば、添付画像が「植木鉢」である場合には、「植木の部分」にのみに特徴を反映したり、「鉢」の部分のみに特徴を反映したりしてもよい。
図10は、添付画像の一部に対してシーン画像の特徴を反映する際に制御部100にて実行される処理の流れを示した図である。なお、基本的な処理は、図4にて示した処理と同様であり、ここでは、図4とは異なる部分を説明する。
この図10に示す処理では、特徴反映領域決定部15によって、タッチパネル上に表示されている貼付画像に対するユーザの操作が検知され、この検知結果に基づき、添付画像のうちの特徴を反映する領域を決定する。
そして、特徴を反映する領域である特徴反映領域についての情報が、特徴反映部13に出力される。なお、ここでは、タッチパネルに対するユーザの操作に基づき、特徴を反映する領域を決定したが、上記と同様、マウスなどの外部機器を介してユーザから入力される情報に基づき、特徴を反映する領域を決定してもよい。
特徴反映部13は、貼付画像に対して、シーン画像の特徴を反映する際、添付画像のうちの、上記特徴反映領域により特定される領域に対して、シーン画像の特徴を反映する。
より具体的には、特徴反映部13では、上記式(1)〜(3)が用いられて、特徴を反映した後の貼付画像の、Labの画素値が取得される。
なお、この式(1)〜(3)を用いるにあたっては、この式におけるE(L*clip),E(a*clip),E(b*clip)は、特徴反映領域のL*,a*,b*の値の平均値となり、V(L*clip),V(a*clip),V(b*clip)は、特徴反映領域のL*,a*,b*の値の分散となる。
図11は、画像処理装置1にて行われる他の処理の一例を示した図である。
図11(A)〜(C)は、何れも、添付画像への特徴の反映を行った特徴反映済みシーン画像を示している。この処理例では、添付画像への特徴の反映度合いを変化させられるようになっており、反映度合いを変化させると、同図(A)〜(C)に示すように、添付画像の状態が変化する。これにより、ユーザは、自身の好みにより近い特徴反映済みシーン画像を得られるようになる。
図12は、添付画像への特徴の反映度を変化させる際に制御部100にて実行される処理の流れを示した図である。なお、上記と同様、基本的な処理は、図4にて示した処理と同様であり、ここでは、図4とは異なる部分を説明する。
図12にて示すこの処理では、添付画像への特徴の反映度合いを変化させる反映度調整部16に対して、画像貼り付け部11により生成された貼り付け済みシーン画像、および、特徴反映部13により生成された特徴反映済みシーン画像が入力される。
なお、特徴反映部13では、シーン画像の特徴を、100%、添付画像に反映する処理を行い、シーン画像の特徴の反映度が100%の貼付画像を有するシーン画像が生成される。このため、反映度調整部16には、シーン画像の特徴の反映度が100%の貼付画像を有する特徴反映済みシーン画像が入力される。
その一方で、貼り付け済みシーン画像においては、添付画像への特徴の反映が未だ行われておらず、反映度調整部16には、シーン画像の特徴の反映度が0%の貼付画像を有する貼り付け済みシーン画像が入力される。
また、本実施形態では、添付画像に対するシーン画像の特徴の反映度合いを示す調整値をユーザから取得する調整値取得手段として機能するパラメータ獲得部17が設けられている。パラメータ獲得部17は、タッチパネル(表示画面)に対するユーザの操作を検知し、ユーザによって入力されるパラメータαを獲得する。
そして、パラメータ獲得部17にてパラメータαが獲得されると、パラメータ獲得部17から反映度調整部16へ、パラメータαが出力される。ここで、パラメータαは、上記のとおり、シーン画像の特徴の、添付画像への反映の度合いを示しており、αは、0以上且つ1以下(0≦α≦1)となっている。
反映度調整部16は、パラメータαを受け付けると、このパラメータαと、次の式(4)〜(6)とを用い、貼り付け済みシーン画像と、特徴反映済みシーン画像との合成を行い、合成画像を得る。
Figure 2015225476
ここで、式(4)〜(6)の各々において、L*pasted,a*pasted,b*pastedは、貼り付け済みシーン画像の画素値、L*merged,a*merged,b*mergedは、特徴反映済みシーン画像の画像値、L*’,a*’,b*’は、合成画像の画素値である。
ここで、本実施形態では、ユーザがパラメータαを変化させると、合成画像における、貼り付け済みシーン画像、特徴反映済みシーン画像の各々の割合が変化する。これにより、ユーザは、自身の好みにより近い特徴反映済みシーン画像を得られるようになる。また、この処理では、ユーザがパラメータαを小さくすることで、合成画像の違和感を低減しつつ、貼付画像が有していた元々の特徴を残せるようになる。
図13は、画像処理装置1にて行われる表示処理の他の一例を示した図である。なお、本図でも、画像処理装置1が、いわゆるタブレット端末により構成された場合を例示している。
この処理では、上記図6にて示した処理と同様、図13(A)に示すように、一つの画面上に、貼り付け元画像と、シーン画像とが表示されている。そして、貼り付け元画像に含まれる貼付画像の輪郭の部分をユーザがなぞるなどして、貼付画像を、貼り付け元画像から分離し、貼付画像を生成する。
その後、同図(A)の矢印に示すように、ドラッグ&ドロップ操作で、貼付画像を、画面右下に位置するシーン画像まで移動する。これにより、同図(B)に示すように、貼り付け元画像が消え、これに替わり、シーン画像が表示される。次いで、ユーザが、貼付画像を、シーン画像のうちのユーザが希望する箇所まで移動して、表示画面上から手を離す。これより、貼付画像がシーン画像に貼り付けられる。
その後、同図(C)に示すように、タッチパネル上にて、ユーザが、指を左右にスライド移動させる。そして、このスライド移動が行われると、このスライド移動に基づき(ユーザの指の移動量に基づき)、パラメータ獲得部17が、上記パラメータαを獲得する。
具体的には、例えば、ユーザの指が図13(C)にて、左方向へスライド移動した場合には、小さい値のパラメータαを獲得し、ユーザの指が右方向へスライド移動した場合には、大きい値のパラメータαを獲得する。
そして、パラメータαが獲得されると、このパラメータαにより決定される割合で、貼り付け済みシーン画像と、特徴反映済みシーン画像との合成が行われ、図13(D)に示すように、新たな特徴反映済みシーン画像が生成される。
(その他)
上記では、画像処理装置1が、いわゆるタブレット端末により構成された場合を一例に説明したが、画像処理装置1は、モニタ、キーボード、マウスなどを備えたPC(Personal Computer)により構成してもよい。
また、上記では、いわゆるスワイプ操作で、パラメータαを変化させる場合を説明したが、表示画面上に、スライド移動する表示ボタンを表示し、この表示ボタンをユーザが移動させることで、パラメータαを変化させる態様も考えられる。また、テンキー(ハードキー、ソフトキーの何れもでもよい)を用い、パラメータαの数値を直接入力するようにしてもよい。さらに、マウスなどで、パラメータαを入力するようにしてもよい。
また、上記の実施形態では、L*,a*,b*色空間で画質調整を行う例を示したが、画像の印象を変化させることができる色空間であれば他の色空間を用いてもよく、例えば、RGB色空間、Lαβ色空間、IPT色空間などの色空間で、同様の画質調整を行ってもよい。
また、画像貼り付け部11では、単純に画像の一部分を切り取ってもう一方の画像に貼り付ける以外のいかなる方法で画像を貼り付けてもよい。例えば、ポアソン方程式を解いて繋ぎ目を目立たなくする方法、α合成などの方法を利用してもよい。
さらに、本実施形態では、景観を映した画像であるシーン画像の特徴を把握して、この特徴を貼付画像に反映する処理を説明したが、特徴を把握する画像は、このようなシーン画像に限らず、景観以外を映した画像から特徴を把握して、この特徴を貼付画像に反映するようにしてもよい。
また、本実施形態では、L*a*b*の各画像値をシーン画像の特徴として把握する場合を一例に説明したが、その他に、例えば、シーン画像の光沢についてのヒストグラム情報を特徴として取得し、このヒストグラム情報を用いて、シーン画像の特徴を貼付画像に反映するようにしてもよい。この場合、光沢の具合が、シーン画像と貼付画像との間で類似するようになる。
1…画像処理装置、11…画像貼り付け部、12…特徴獲得部、13…特徴反映部、17…パラメータ獲得部

Claims (6)

  1. 貼り付け先の画像である第1の画像と、当該第1の画像に貼り付けられる第2の画像とを合成し、当該第1の画像の中に当該第2の画像が含まれた合成画像を生成する合成画像生成手段と、
    前記第1の画像の特徴量を取得する特徴量取得手段と、
    前記特徴量取得手段により取得された前記第1の画像の前記特徴量を用い、当該第1の画像の特徴を前記第2の画像に反映する反映手段と、
    を備える画像処理装置。
  2. 前記特徴量取得手段は、前記第1の画像の一部の特徴量を取得し、
    前記反映手段は、前記第1の画像の前記一部の特徴量を用い、当該第1の画像の特徴の前記第2の画像への反映を行うことを特徴とする請求項1に記載の画像処理装置。
  3. 前記特徴量取得手段は、前記第1の画像の前記一部の特徴量を取得するに際し、当該第1の画像のうちの、前記第2の画像が配置される箇所の周囲に位置する部分の特徴量を取得することを特徴とする請求項2に記載の画像処理装置。
  4. 前記反映手段は、前記第1の画像の特徴を、前記第2の画像の一部に反映することを特徴とする請求項1乃至3の何れかに記載の画像処理装置。
  5. 前記第2の画像に対する前記第1の画像の特徴の反映度合いを示す調整値をユーザから取得する調整値取得手段を更に備えることを特徴とする請求項1乃至4の何れかに記載の画像処理装置。
  6. 貼り付け先の画像である第1の画像と、当該第1の画像に貼り付けられる第2の画像とを合成し、当該第1の画像の中に当該第2の画像が含まれた合成画像を生成する合成画像生成機能と、
    前記第1の画像の特徴量を取得する特徴量取得機能と、
    前記特徴量取得機能により取得された前記第1の画像の特徴量を用い、当該第1の画像の特徴を前記第2の画像に反映する反映機能と、
    をコンピュータに実現させるためのプログラム。
JP2014109576A 2014-05-27 2014-05-27 画像処理装置およびプログラム Pending JP2015225476A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2014109576A JP2015225476A (ja) 2014-05-27 2014-05-27 画像処理装置およびプログラム
US14/558,924 US10186063B2 (en) 2014-05-27 2014-12-03 Image processing apparatus, non-transitory computer readable medium, and image processing method for generating a composite image
AU2014280984A AU2014280984A1 (en) 2014-05-27 2014-12-30 Image processing apparatus, program, and image processing method
CN201510006901.6A CN105306833B (zh) 2014-05-27 2015-01-07 图像处理装置和图像处理方法
AU2017201441A AU2017201441B2 (en) 2014-05-27 2017-03-02 Image processing apparatus, program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014109576A JP2015225476A (ja) 2014-05-27 2014-05-27 画像処理装置およびプログラム

Publications (1)

Publication Number Publication Date
JP2015225476A true JP2015225476A (ja) 2015-12-14

Family

ID=54702417

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014109576A Pending JP2015225476A (ja) 2014-05-27 2014-05-27 画像処理装置およびプログラム

Country Status (4)

Country Link
US (1) US10186063B2 (ja)
JP (1) JP2015225476A (ja)
CN (1) CN105306833B (ja)
AU (2) AU2014280984A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128946A (ja) * 2017-02-10 2018-08-16 富士ゼロックス株式会社 画像処理装置、画像処理システム及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6349962B2 (ja) * 2014-05-27 2018-07-04 富士ゼロックス株式会社 画像処理装置およびプログラム

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222651A (ja) * 1997-01-31 1998-08-21 Casio Comput Co Ltd 画像処理装置およびそのプログラム記録媒体
JP3062859U (ja) * 1999-03-16 1999-10-15 日立ソフトウエアエンジニアリング株式会社 画像合成装置
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP2004007770A (ja) * 1998-08-31 2004-01-08 Hitachi Software Eng Co Ltd 画像合成方法および装置
JP2010206685A (ja) * 2009-03-05 2010-09-16 Casio Computer Co Ltd 画像処理装置及びプログラム
JP2013149219A (ja) * 2012-01-23 2013-08-01 Canon Inc 映像処理装置及びその制御方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
JPH11331554A (ja) 1998-05-20 1999-11-30 Konica Corp 画像処理装置及び画像出力装置
US6862364B1 (en) * 1999-10-27 2005-03-01 Canon Kabushiki Kaisha Stereo image processing for radiography
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
US7680354B2 (en) * 2006-03-22 2010-03-16 Arcsoft, Inc. Image deblur based on two images
US8068693B2 (en) 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
US8380005B1 (en) * 2009-02-02 2013-02-19 Adobe Systems Incorporated System and method for image composition using non-destructive editing model and fast gradient solver
CN101853498B (zh) 2009-03-31 2012-01-11 华为技术有限公司 图像合成方法及图像处理装置
DE102009053471B4 (de) * 2009-11-16 2018-08-02 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Identifizierung und Zuordnung von Koronarkalk zu einem Herzkranzgefäß sowie Computerprogrammprodukt
US8345998B2 (en) * 2010-08-10 2013-01-01 Xerox Corporation Compression scheme selection based on image data type and user selections
CN102360490B (zh) 2011-09-30 2012-11-28 北京航空航天大学 基于颜色转换和编辑传播的图像季节特征增强方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222651A (ja) * 1997-01-31 1998-08-21 Casio Comput Co Ltd 画像処理装置およびそのプログラム記録媒体
JP2004007770A (ja) * 1998-08-31 2004-01-08 Hitachi Software Eng Co Ltd 画像合成方法および装置
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP3062859U (ja) * 1999-03-16 1999-10-15 日立ソフトウエアエンジニアリング株式会社 画像合成装置
JP2010206685A (ja) * 2009-03-05 2010-09-16 Casio Computer Co Ltd 画像処理装置及びプログラム
JP2013149219A (ja) * 2012-01-23 2013-08-01 Canon Inc 映像処理装置及びその制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018128946A (ja) * 2017-02-10 2018-08-16 富士ゼロックス株式会社 画像処理装置、画像処理システム及びプログラム

Also Published As

Publication number Publication date
US10186063B2 (en) 2019-01-22
AU2017201441A1 (en) 2017-03-23
AU2014280984A1 (en) 2015-12-17
AU2017201441B2 (en) 2018-06-14
US20150348298A1 (en) 2015-12-03
CN105306833A (zh) 2016-02-03
CN105306833B (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
JP6349962B2 (ja) 画像処理装置およびプログラム
US10607372B2 (en) Cosmetic information providing system, cosmetic information providing apparatus, cosmetic information providing method, and program
US10311600B2 (en) Method and system for setting interface element colors
JP5999359B2 (ja) 画像処理装置及び画像処理プログラム
US10769830B2 (en) Transferring vector style properties to a vector artwork
JP2017059235A (ja) イメージの明るさを調整する方法及び装置
WO2021078036A1 (zh) 图像处理方法及装置
CN109948093B (zh) 表情图片生成方法、装置及电子设备
EP3912136A1 (en) Systems and methods for generating personalized videos with customized text messages
JPWO2008133195A1 (ja) 画質調整能力測定方法、装置およびプログラム、並びに画質調整方法、装置およびプログラム
US11308677B2 (en) Generating personalized videos with customized text messages
US20190088033A1 (en) System and method of digitally overlaying clothing on an image of a user
JP6336406B2 (ja) 画像合成装置,画像合成方法ならびに画像合成プログラムおよびそのプログラムを格納した記録媒体
JP2015225476A (ja) 画像処理装置およびプログラム
JP2018132821A (ja) 情報処理装置、情報処理システム、端末装置、プログラム及び情報処理方法
CN114512094B (zh) 屏幕色彩调节方法、装置、终端及计算机可读存储介质
JP2007102478A (ja) 画像処理装置、画像処理方法、及び半導体集積回路
JP6167942B2 (ja) デザイン編集装置及びプログラム
JP2021089654A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2018168375A1 (ja) 合成画像生成装置,合成画像生成方法およびそのプログラム
CN111489429B (zh) 一种图像渲染控制方法、终端设备和存储介质
JP2024037556A (ja) 情報処理装置及びプログラム
KR102214439B1 (ko) 저전력 모드를 위한 영상 처리 방법 및 장치
JP2017161857A (ja) 画像表示装置
JP2016059010A (ja) 情報処理装置、情報処理プログラム、記録媒体、及び情報処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20181016