CN105306833A - 图像处理装置和图像处理方法 - Google Patents

图像处理装置和图像处理方法 Download PDF

Info

Publication number
CN105306833A
CN105306833A CN201510006901.6A CN201510006901A CN105306833A CN 105306833 A CN105306833 A CN 105306833A CN 201510006901 A CN201510006901 A CN 201510006901A CN 105306833 A CN105306833 A CN 105306833A
Authority
CN
China
Prior art keywords
image
feature
attachment
scene
characteristic quantity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510006901.6A
Other languages
English (en)
Other versions
CN105306833B (zh
Inventor
山本隆之
丸山耕辅
佐佐木信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN105306833A publication Critical patent/CN105306833A/zh
Application granted granted Critical
Publication of CN105306833B publication Critical patent/CN105306833B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

提供一种图像处理装置和图像处理方法,该装置包括:合成图像生成单元,其合成为附着目标图像的第一图像和将被附着到第一图像的第二图像,以生成第二图像包括在第一图像中的合成图像;特征量获取单元,其获取第一图像的特征量;以及反映单元,其使用通过特征量获取单元获取的第一图像的特征量,将第一图像的特征反映到第二图像中。

Description

图像处理装置和图像处理方法
技术领域
本发明涉及图像处理装置和图像处理方法。
背景技术
专利文献1公开了一种图像处理装置,包括用于混合第一图像的亮度分量和第二图像的亮度分量以产生新亮度分量、并且结合第一图像的色度分量和合成的亮度分量以形成第三合成图像的方法。
此外,非专利文献1公开一种使得图像的亮度和色度的统计信息相互匹配,从而使多个图像之间的印象匹配的技术。
专利文献1:JP-A-11-331554
非专利文献1:Reinhard,E.,Ashikhmin,M.,Gooch,B.,和Shirley,P.,2001,“Colortransferbetweenimages”,IEEEComputerGraphicsandApplication21,pp.34-41
发明内容
在此,当将不同图像附着到附着目标图像以生成合成图像时,如果附着被机械地和均匀地执行,则不同图像无法融入附着目标图像,其可能导致合成图像中的不适感觉。
与被机械地和均匀地执行将不同图像附着到附着目标图像的情况相比,本发明的目标在于提供一种能够减少通过将不同图像附着到附着目标图像而生成的合成图像的不适感觉的技术。
根据本发明的第一方面,提供一种图像处理装置,包括:
合成图像生成单元,其合成作为附着目标图像的第一图像和将被附着到第一图像的第二图像,以生成第二图像包括在第一图像中的合成图像;
特征量获取单元,其获取第一图像的特征量;以及
反映单元,其使用由特征量获取单元获取的第一图像的特征量,将第一图像的特征反映到第二图像中。
根据本发明的第二方面,提供一种根据第一方面的图像处理装置,其中
特征量获取单元获取第一图像的一部分的特征量,以及
反映单元使用第一图像的该部分的特征量,将第一图像的特征反映到第二图像中。
根据本发明的第三方面,提供一种根据第二方面的图像处理装置,其中
当在获取第一图像的该部分的特征量时,特征量获取单元获取第一图像的位于第二图像被布置的位置周围的部分的特征量。
根据本发明的第四方面,提供一种根据第一至第三方面中的任一个的图像处理装置,其中
反映单元将第一图像的特征反映到第二图像的一部分中。
根据本发明的第五方面,提供一种根据第一至第四方面中的任一个的图像处理装置,还包括:
调节值获取单元,其从用户处获取指示第一图像的特征到第二图像的反映度的调节值。
根据本发明的第六方面,提供一种图像处理方法,包括:
合成作为附着目标图像的第一图像和将被附着到第一图像的第二图像,以生成第二图像包括在第一图像中的合成图像;
获取第一图像的特征量;以及
使用由特征量获取单元获取的第一图像的特征量,将第一图像的特征反映到第二图像中。
根据本发明的第七方面,提供根据第一方面的图像处理装置,其中
特征量是:L*、a*和b*的像素值、或者其他色空间中的点的坐标的像素值;或者直方图信息。
根据本发明的第八方面,提供根据第六方面的图像处理方法,其中
特征量是:L*、a*和b*的像素值;或者其他色空间中的点的坐标的像素值;或者直方图信息。
根据本发明的第一和第七方面,与机械地和均匀地执行将不同图像附着到附着目标图像的情况相比,可以减少通过将不同图像附着到附着目标图像而生成的合成图像的不适感觉。
根据本发明的第二方面,即使当附着目标图像的印象不均匀时,也可以减少合成图像的不适感觉。
根据本发明的第三方面,即使在在位于图像被附着的部分周围的外围部分与除了该外围部分之外的部分之间附着目标图像的印象不同时,也可以减少合成图像的不适感觉。
根据本发明的第四方面,在减少合成图像的不适感觉的同时,允许附着图像的特征被部分保留。
根据本发明的第五方面,与不提供从用户处获取指示特征的反映度的调节值的调节值获取单元的情况相比,可以为用户生成具有减少的不适感觉的合成图像。
根据本发明的第六和第八方面,与机械地和均匀地执行将不同图像附着到附着目标图像的情况相比,可以减少将不同图像附着到附着目标图像而生成的合成图像的不适感觉。
附图说明
将基于以下附图详细地描述本发明的示例性实施例,其中:
图1是示出了根据本发明的示例性实施例的图像处理装置的硬件配置的示例的框图;
图2A至图2D是示出了图像处理装置中的处理示例的视图;
图3是示出了当附着图像被附着到场景图像时由控制单元执行的处理的概要的视图;
图4是示出了当附着图像被附着到场景图像时由控制单元执行的处理的流程的流程图;
图5A至图5F是示出了由特征获取单元执行的处理的视图;
图6A至图6C是示出了在图像处理装置中执行的处理的示例的视图;
图7是示出了当场景图像的特征被抓取时的处理的视图;
图8是示出了当通过将场景图像的一部分的特征反映到附着图像来生成特征反映场景图像时的处理的流程的视图;
图9A和图9B是示出了在图像处理装置中执行的另一个处理示例的视图;
图10是示出了当场景图像的特征被反映到附着图像的一部分中时由控制单元执行的处理的流程的视图;
图11是示出了在图像处理装置中执行的另一个处理示例的视图;
图12是示出了当附着图像中的特征反映度改变时由控制单元执行的处理的流程的视图;以及
图13A至图13D是示出了在图像处理装置中执行的显示处理的另一个示例的视图。
具体实施方式
在下文中,将参考附图描述本发明的示例性实施例。
图1是示出了根据本发明的示例性实施例的图像处理装置1的硬件配置的示例的框图。本示例性实施例的图像处理装置1包括控制单元100、存储单元200、显示单元300、操作单元400、以及图像获取单元500。
控制单元100包括中央处理单元(CPU)、只读存储器(ROM)、以及随机存取存储器(RAM)(所有均未示出)。
ROM存储将由CPU执行的控制程序。CPU读取存储在ROM中的控制程序,并且使用RAM作为工作区来执行控制程序。当控制程序由CPU执行时,诸如随后将描述的图像附着单元11的各功能部件将被实现。
由CPU执行的程序以被存储在诸如磁性记录介质(磁带、磁盘等)、光学记录介质(光盘等)、磁性光学记录介质、或半导体存储器的计算机可读记录介质中的状态被提供给图像处理装置1。此外,可以使用诸如互联网的通信设备来将程序下载到图像处理装置1。
例如,存储单元200由硬盘设备配置,并且存储诸如图像数据的多种数据。
例如,显示单元300由液晶触摸面板显示器配置,并且(例如)在控制单元100的控制下根据图像数据来显示图像。
操作单元400是在其中执行用户的操作的部件,并且获取由用户输入的信息。例如,操作单元400由液晶触摸面板显示器配置。在此,当操作单元400和显示单元300由液晶触摸面板显示器配置时,操作单元400和显示单元300可以由常用材料配置。操作单元400可以由鼠标、键盘等配置。
图像获取单元500获取由用户提供的图像(图像数据)。具体地,图像获取单元500获取随后将描述的场景图像、附着源图像等。例如,图像获取单元500由连接至外部设备的连接接口配置。此外,在本示例性实施例中,如果通过图像获取单元500获取图像,则图像被输出到存储单元200中以被存储于其中。
图2A至图2D是示出了在图像处理装置1中的处理示例的视图。
图2A至图2D示出了将图2B中所示的附着源图像的一部分附着到图2A中所示的场景图像(附着目标图像)的处理、以及图2C或图2D中所示的生成合成图像的处理。
具体的,图2A至图2D示出了图2B中所示的附着源图像中包括的“花盆”(放在户外的“花盆”)的图像被附着到图2A中所示的表示室内的场景图像,以生成放置“花盆”的室内的合成图像的示例。
此后,在本说明书中,类似于“花盆”的附着到场景图像的图像可以被称为“附着图像”。
在此,如果附着图像被简单地附着到场景图像,则容易生成具有不适感觉的合成图像。具体的,参考图2A至图2D,如果放在户外的“花盆”被附着到表示室内的场景图像,则容易生成具有不适感觉的合成图像,如图2C中所示。
相反,在根据以下将描述的本示例性实施例的处理中,场景图像的特征(场景的特征)被反映到“花盆”图像中,并从而生成具有减少的不适感觉的合成图像,如图2D中所示。
图3是示出了当附着图像被附着到场景图像时由控制单元100执行的处理的概要的视图。
在本示例性实施例的处理中,如由图3的参考符号3A指示的,抓取场景图像的特征(特征量)。然后,该特征被反映到由参考符号3B指示的附着图像中。从而,生成如参考符号3C指示的特征反映附着图像。然后,特征反映附着图像被附着到场景图像。从而,减少场景图像的不适感觉,如由参考符号3D指示的。
图4是示出了当附着图像被附着到场景图像时由控制单元100执行的处理的流程的流程图。
在本示例性实施例的处理中,首先,对附着源图像(参见图2B)执行用户的操作以从附着源图像切割并且获取诸如“花盆”的附着图像。然后,附着图像被输入到用作合成图像生成单元的图像附着单元11。
图像附着单元11将附着图像(第二图像)附着到场景图像(第一图像),以生成附着图像包括在场景图像中的合成图像。
换句话说,在本示例性实施例中,在附着图像被附着到场景图像之前,场景图像从存储单元200(图1)输出到图像附着单元11。
在将附着图像输入到图像附着单元11之后,执行附着图像到场景图像的附着,以生成附着了附着图像的场景图像(在下文中将被称为“附着完成场景图像”)。然后,附着完成场景图像被输出到特征反映单元(特征合并单元)13。
同时,从存储单元200输出的场景图像还被输入到用作特征量获取单元的特征获取单元12,使得通过特征获取单元12获取场景图像的特征(特征量)。此外,特征信息(与特征相关的信息)被输出到特征反映单元13。
然后,用作反映单元的特征反映单元13基于特征信息在附着图像中反映场景图像的特征。从而,生成场景图像的特征被反映到附着图像中的附着完成场景图像(在下文中将被称为“特征反映场景图像”)。换句话说,生成诸如由图3的参考符号3D指示的图像的图像。
在此,将描述特征获取单元12的处理。特征获取单元12计算作为L*a*b*色空间中的整个场景图像的L*像素、a*像素和b*像素的平均值的E(L*场景)、E(a*场景)和E(b*场景),以作为特征量,如图5A至图5F(其是示出了由特征获取单元12执行的处理的各示意图)中的图5B、图5D和图5F中所示。此外,特征获取单元12还计算作为整个场景图像的L*像素、a*像素和b*像素的方差的V(L*场景)、V(a*场景)和V(b*场景),以作为特征量。
对于每个像素,特征反映单元13使用由特征获取单元12计算的平均值和方差、并且使用以下表达式(1)至(3)来调节附着图像的Lab值(CIELab值)。
L*’=(L*-E(L* clip))(V(L* scene)/V(L* clip))+E(L* scene)(1)
a*’=(a*-E(a* clip))(V(a* scene)/V(a* clip))+E(a* scene)(2)
b*’=(b*-E(b* clip))(V(b* scene)/V(b* clip))+E(b* scene)(3)
在表达式(1)至(3)中,L*、a*和b*表示调节之前的附着图像的像素值,并且L*’、a*’和b*’表示调节之后的附着图像的像素值。
此外,E(L* clip)、E(a* clip)和E(b* clip)表示附着图像(特征反映之前的附着图像)的L*、a*和b*值的平均值,如图5A、图5C和图5E中所示,并且V(L* clip)、V(a* clip)和V(b* clip)表示附着图像(特征反映之前的附着图像)的L*、a*和b*值的方差,如图5A、图5C和图5E中所示。
图6A至图6C是示出了在图像处理装置1中执行的处理的示例的视图。图6A至图6C示出图像处理装置1由所谓的平板终端配置的示例。
在该处理中,如图6A中所示,在单个屏幕上显示附着源图像和场景图像。在此,附着源图像被显示为尺寸大于场景图像。
此外,在该处理中,如图6A中所示,例如,用户描绘包括在附着源图像中的附着图像的轮廓,以从附着源图像分离出附着图像。在本示例中,用户通过操作触摸面板分离附着图像,但是可以通过操作鼠标等分离附着图像。此外,附着图像的分离可以通过用于直接指定区域的方法执行,或者可以使用图形分割(graphcut)算法或增长分割(growcut)算法执行。
在下文中,如由图6A中的箭头指示的,用户通过拖放将附着图像移动到位于屏幕的右下部分中的场景图像。从而,如图6B中所示,附着源图像消失,并且反而显示场景图像。然后,用户将附着图像移动到场景图像中的用户期望位置,并且将手与显示屏分离。从而,如图6C中所示,附着图像被附着到场景图像。此外,场景图像的特征被反映到附着图像中,其减少了整个图像的不适感觉。
场景图像的特征可以从整个场景图像中抓取,或者可以从场景图像的一部分中抓取。
具体的,参考图7(其是示出了当抓取场景图像的特征时的处理的视图),例如,抓取位于附着了附着图像的部分(布置附着图像的位置)的周围的场景图像的一部分的特征。更具体的,例如,抓取了作为位于附着图像周围并且存在于离附着图像和场景图像之间的边界30个像素的范围内的图像(其为场景图像的一部分)的特征。
在此,例如,当在场景图像中存在亮部和暗部并且附着图像被附着到暗部时,与整个场景图像的特征被反映到附着图像的情况相比,更有利的是将附着图像周围的图像的特征反映到附着图像以减少不适感觉。从而,在图7中所示的示例中,抓取了位于附着了附着图像的部分周围的该部分场景图像的特征。
而且,作为另一个示例,代替附着图像周围的部分,可以抓取附着图像周围的部分之外的部分的特征。具体的,例如,可以基于色度、亮度或频带的相似性来自动地确定将被抓取特征的部分(区域)。
图8是示出了当通过将场景图像的一部分的特征反映到附着图像中来生成特征反映场景图像时的处理的流程的流程图。在此,由于基本处理与图4中所示的处理相同,以下将描述与其不同的点。
在图8中所示的处理中,通过特征获取区域确定单元14检测与显示在触摸面板上的场景图像相关的用户操作(触摸面板相关的操作),并且基于该操作确定场景图像中将被抓取特征的区域。
在此,基于与触摸面板相关的用户操作来确定场景图像中将被抓取特征的区域,但是在用户操作诸如鼠标的设备的类型中,基于与该设备相关的用户操作来抓取该区域。
在本示例性实施例中,指示将被抓取特征的区域的区域信息从特征获取区域确定单元14被输出到特征获取单元12。
特征获取单元12抓取位于由区域信息指定的区域中的场景图像的部分的特征。具体的,特征获取单元12针对由区域信息指定的区域来获取作为L*、a*和b*像素值的平均值的E(L* scene),E(a* scene)和E(b* scene)、以及作为L*、a*和b*的方差的V(L* scene),V(a* scene)andV(b* scene),如图5B、图5D和图5F中所示。
此后,由特征获取单元12获取的特征信息被输出到特征反映单元13,然后,特征反映单元13将特征反映到附着完成场景图像中。从而,生成作为特征被反映到附着图像中的场景图像的特征反映场景图像。换句话说,使用上述表达式(1)至(3),获取了其中的特征被反映到附着图像中的场景图像的Lab像素值。
图9A和图9B是示出了在图像处理装置1中执行的另一个处理示例的视图。
在该处理中,场景图像的特征不被反映到整个附着图像中,而是被反映到附着图像的一部分中。具体的,如图9B中所示,例如,场景图像的特征被反映到接近附着图像的轮廓的部分中。更具体的,例如,处于附着图像的轮廓与从该轮廓向内分开指定量的内部像素的线之间的区域被设定为特征反映区域,并且场景图像的特征被反映到该特征反映区域中。以此方式,当场景图像的特征被反映到附着图像的该部分中时,在减少特征反映场景图像的不适感觉的同时,附着图像的特征被部分保留。
可以基于用户的指令确定或者可以基于色度、亮度或频带的相似性自动地确定特征将被反映到其中的附着图像的部分。
此外,在图9A和图9B中所示的实例中,特征被反映到附着图像的轮廓的部分(接近轮廓的部分)中,但是作为代替,特征可以被反映到附着图像的内部。此外,例如,当附着图像是“花盆”时,特征可以仅被反映到“花”的部分中,或者可以仅被反映到“盆”的部分中。
图10是示出了当场景图像的特征被反映到附着图像的一部分中时,由控制单元100执行的处理的流程的视图。在此,由于基本处理与在图4中所示的处理相同,以下将描述与其不同的点。
在图10中所示的处理中,通过特征反映区域确定单元15检测与显示在触摸面板上的场景图像相关的用户操作,并且基于检测结果来确定特征将被反映到其中的附着图像的区域。
此外,与作为特征将被反映到其中的区域的特征反映区域相关的信息被输出到特征反映单元13。在此,基于与触摸面板相关的用户操作来确定特征将被反映到其中的区域,但是可以由用户通过诸如鼠标的外部设备输入的信息来确定特征将被反映到其中的区域,类似于上述特征抓取。
当将场景图像的特征反映到附着图像中时,特征反映单元13将场景图像的特征反映到由特征反映区域指定的附着图像的区域中。
具体的,在将特征反映到附着图像之后,特征反映单元13使用上述表达式(1)至(3)获取附着图像的Lab像素值。
当应用表达式(1)至(3)时,表达式(1)至(3)中的E(L* clip)、E(a* clip)和E(b* clip)表示特征反映区域的L*、a*和b*的平均值,并且V(L* clip)、V(a* clip)和V(b* clip)表示特征反映区域的L*、a*和b*值的方差。
图11是示出了在图像处理装置1中执行的另一个处理示例的视图。图11中所示的所有场景图像都是特征被反映到附着图像中的特征反映场景图像。在该处理示例中,特征被反映到附着图像中的反映度可以被改变。从而,如果改变反映度,则如图11中所示,附着图像的状态被改变。因此,用户可以获得接近他或她的偏好的特征反映场景图像。
图12是示出了当到附着图像中的特征反映度被改变时,由控制单元100执行的处理的流程的视图。在此,类似地,由于基本处理与图4中所示的处理相同,以下将描述与其不同的点。
在图12中所示的处理中,由图像附着单元11生成的附着完成场景图像和由特征反映单元13生成的特征反映场景图像被输入到反映度调节单元16,其改变附着图像中的特征反映度。
特征反映单元13执行将场景图像的100%特征反映到附着图像中的处理,以生成包括场景图像的特征的反映度是100%的附着图像的场景图像。从而,包括场景图像的特征的反映度是100%的附着图像的特征反映场景图像被输入到反映度调节单元16。
另一方面,在附着完成场景图像中,由于场景图像的特征还未被反映到附着图像中,包括场景图像的特征的反映度是0%的附着图像的附着完成场景图像被输入到反映度调节单元16。
此外,在本示例性实施例中,提供用作调节值获取单元的参数获取单元17,调节值获取单元从用户获取调节值,调节值表示场景图像的特征反映到附着图像中的反映度。参数获取单元17检测与触摸面板(显示屏)相关的用户操作以获取由用户输入的参数α。
此外,当参数获取单元17获取参数α时,参数α从参数获取单元17输出到反映度调节单元16。在此,如上所述,参数α表示场景图像的特征反映到附着图像中的反映度,其是从0至1的值(0≤α≤1)。
在接收参数α之后,反映度调节单元16使用参数α和以下表达式(4)至(6)执行附着完成场景图像和特征反映场景图像的合成,以获取合成图像。
L*’=αL* merged+(1-α)L* pasted(4)
a*’=αa* merged+(1-α)a* pasted(5)
b*’=αb* merged+(1-α)b* pasted(6)
在此,在各表达式(4)至(6)中,L* pasted、a* pasted和b* pasted表示附着完成场景图像的像素值,L* merged、a* merged和b* merged表示特征反映场景图像的像素值,并且L*’、a*’和b*’表示合成图像的像素值。
在此,在本示例性实施例中,如果用户改变参数α,则合成图像中的附着完成场景图像和特征反映场景图像的比率被改变。因此,用户可以获得接近他或她的偏好的特征反映场景图像。此外,在该处理中,当用户减小参数α时,在减小合成图像的不适感觉的同时保持了附着图像的原始特征。
图13A至图13D是示出了在图像处理装置1中执行的显示处理的另一个示例的视图。类似地,图13A至图13D示出了图像处理装置1通过所谓的平板终端配置的示例。
在该处理中,类似于图6A至图6C中所示的处理,如图13A中所示,在一个屏幕上显示附着源图像和场景图像。此外,例如,用户在包括在附着源图像中的附着图像的轮廓的一部分上执行盖写以从附着源图像分离附着图像,由此生成附着图像。
此后,如图13A中所示,通过拖放将附着图像移动到位于屏幕的右下部分中的场景图像。由此,如图13B中所示,附着源图像消失,并且作为代替,显示场景图像。然后,用户将附着图像移动到场景图像中的用户期望的位置,并且将手与显示屏分离。由此,附着图像被附着到场景图像。
此后,如图13C中所示,用户将他或她的手指滑动到触摸面板上的右侧或左侧。当执行滑动时,参数获取单元17基于滑动(基于用户的手指的移动量)获取参数α。
具体的,例如,当用户的手指滑动到图13C中的左侧时,获取小值的参数α,并且当用户的手指滑动到图13C中的右侧时,获取大值的参数α。
此外,在获取参数α之后,根据由参数α确定的比率执行附着完成场景图像和特征反映场景图像的合成,使得生成新的特征反映场景图像,如图13D中所示。
其他
在以上说明中,描述了通过所谓的平板终端配置图像处理装置1的示例,但是可以通过提供有监视器、键盘、鼠标等的个人计算机(PC)配置图像处理装置1。
此外,在以上说明中,描述通过所谓的滑移(swiping)改变参数α的情况,但是可以考虑在显示屏上显示滑动显示按钮并且用户移动显示按钮以改变参数α的配置。而且,参数α的数值可以使用数值键(其可以是硬键或软键)直接输入。另外,参数α可以使用鼠标等输入。
此外,在上述示例性实施例中,描述了在L*a*b*色空间中执行图像质量调节的示例,作为代替,可以使用可以改变图像的印象的任何色空间。例如,可以在RGB色空间、Lαβ色空间、IPT色空间等中执行相同图像质量调节。
此外,图像附着单元11可以通过用于简单地分割图像的一部分并且将分割部分附着到另一个图像的任何方法来执行图像附着。例如,可以使用通过解算泊松方程加亮接合点的方法、α合成方法等。
另外,在本示例性实施例中,描述了抓取场景图像(通过拍摄场景获得的图像)的特征并且将该特征反映到附着图像中的处理,但是用于抓取特征的图像不限于场景图像。例如,可以根据通过拍摄除了场景之外的对象而获得的图像抓取特征,并且该特征可以被反映到附着图像中。
另外,在本示例性实施例中,描述了抓取各像素值L*、a*和b*作为场景图像的特征的示例,但是作为代替,例如,关于场景图像的光泽的直方图信息可以被获取为特征,并且可以使用直方图信息将场景图像的特征反映到附着图像中。在该情况下,在场景图像和附着图像之间的光泽状态变得类似。
以上提供的对本发明的示例性实施例的说明用于示出和说明的目的。其并非意味着穷举或将本发明限于所公开的准确形式。显然,很多修改和改变对于本领域技术人员来说是明显的。选择并且描述实施例以最佳地解释本发明的原理及其实际应用,由此使本领域技术人员理解用于多种实施例的发明和适于所预期的特定使用的多种修改。本发明的范围意在由以下权利要求及其等价物限定。

Claims (8)

1.一种图像处理装置,包括:
合成图像生成单元,其合成作为附着目标图像的第一图像和将被附着到所述第一图像的第二图像,以生成所述第二图像包括在所述第一图像中的合成图像;
特征量获取单元,其获取所述第一图像的特征量;以及
反映单元,其使用由所述特征量获取单元获取的所述第一图像的所述特征量,将所述第一图像的特征反映到所述第二图像中。
2.根据权利要求1所述的图像处理装置,其中
所述特征量获取单元获取所述第一图像的一部分的特征量,以及
所述反映单元使用所述第一图像的所述一部分的所述特征量,将所述第一图像的所述特征反映到所述第二图像中。
3.根据权利要求2所述的图像处理装置,其中
在获取所述第一图像的所述一部分的所述特征量时,所述特征量获取单元获取所述第一图像的位于所述第二图像被布置的位置周围的部分的特征量。
4.根据权利要求1至3中任一项所述的图像处理装置,其中
所述反映单元将所述第一图像的所述特征反映到所述第二图像的一部分中。
5.根据权利要求1至4中任一项所述的图像处理装置,还包括:
调节值获取单元,其从用户处获取指示所述第一图像的所述特征到所述第二图像的反映度的调节值。
6.一种图像处理方法,包括:
合成作为附着目标图像的第一图像和将被附着到所述第一图像的第二图像,以生成所述第二图像包括在所述第一图像中的合成图像;
获取所述第一图像的特征量;以及
使用由所述特征量获取单元获取的所述第一图像的所述特征量,将所述第一图像的特征反映到所述第二图像中。
7.根据权利要求1所述的图像处理装置,其中
所述特征量是:L*、a*和b*的像素值;或者其他色空间中的点的坐标的像素值;或者直方图信息。
8.根据权利要求6所述的图像处理方法,其中
所述特征量是:L*、a*和b*的像素值;或者其他色空间中的点的坐标的像素值;或者直方图信息。
CN201510006901.6A 2014-05-27 2015-01-07 图像处理装置和图像处理方法 Active CN105306833B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014109576A JP2015225476A (ja) 2014-05-27 2014-05-27 画像処理装置およびプログラム
JP2014-109576 2014-05-27

Publications (2)

Publication Number Publication Date
CN105306833A true CN105306833A (zh) 2016-02-03
CN105306833B CN105306833B (zh) 2019-06-28

Family

ID=54702417

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510006901.6A Active CN105306833B (zh) 2014-05-27 2015-01-07 图像处理装置和图像处理方法

Country Status (4)

Country Link
US (1) US10186063B2 (zh)
JP (1) JP2015225476A (zh)
CN (1) CN105306833B (zh)
AU (2) AU2014280984A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6349962B2 (ja) * 2014-05-27 2018-07-04 富士ゼロックス株式会社 画像処理装置およびプログラム
JP6880799B2 (ja) * 2017-02-10 2021-06-02 富士フイルムビジネスイノベーション株式会社 画像処理装置、画像処理システム及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070223831A1 (en) * 2006-03-22 2007-09-27 Arcsoft, Inc. Image Deblur Based on Two Images
CN101853498A (zh) * 2009-03-31 2010-10-06 华为技术有限公司 图像合成方法及图像处理装置
CN102360490A (zh) * 2011-09-30 2012-02-22 北京航空航天大学 基于颜色转换和编辑传播的图像季节特征增强方法
US20140035950A1 (en) * 2009-02-02 2014-02-06 Adobe Systems Incorporated System and Method for Image Composition Using Non-Destructive Editing Model and Fast Gradient Solver

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075905A (en) 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
JPH10222651A (ja) * 1997-01-31 1998-08-21 Casio Comput Co Ltd 画像処理装置およびそのプログラム記録媒体
JPH11331554A (ja) 1998-05-20 1999-11-30 Konica Corp 画像処理装置及び画像出力装置
JP2004007770A (ja) * 1998-08-31 2004-01-08 Hitachi Software Eng Co Ltd 画像合成方法および装置
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP3062859U (ja) * 1999-03-16 1999-10-15 日立ソフトウエアエンジニアリング株式会社 画像合成装置
US6862364B1 (en) * 1999-10-27 2005-03-01 Canon Kabushiki Kaisha Stereo image processing for radiography
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
US8068693B2 (en) 2007-07-18 2011-11-29 Samsung Electronics Co., Ltd. Method for constructing a composite image
JP5051156B2 (ja) 2009-03-05 2012-10-17 カシオ計算機株式会社 画像処理装置及びプログラム
DE102009053471B4 (de) * 2009-11-16 2018-08-02 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Identifizierung und Zuordnung von Koronarkalk zu einem Herzkranzgefäß sowie Computerprogrammprodukt
US8345998B2 (en) * 2010-08-10 2013-01-01 Xerox Corporation Compression scheme selection based on image data type and user selections
JP5956756B2 (ja) * 2012-01-23 2016-07-27 キヤノン株式会社 映像処理装置及びその制御方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070223831A1 (en) * 2006-03-22 2007-09-27 Arcsoft, Inc. Image Deblur Based on Two Images
US20140035950A1 (en) * 2009-02-02 2014-02-06 Adobe Systems Incorporated System and Method for Image Composition Using Non-Destructive Editing Model and Fast Gradient Solver
CN101853498A (zh) * 2009-03-31 2010-10-06 华为技术有限公司 图像合成方法及图像处理装置
CN102360490A (zh) * 2011-09-30 2012-02-22 北京航空航天大学 基于颜色转换和编辑传播的图像季节特征增强方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴昊: "一种保持颜色的图像合成算法", 《软件学报》 *

Also Published As

Publication number Publication date
US10186063B2 (en) 2019-01-22
AU2017201441A1 (en) 2017-03-23
JP2015225476A (ja) 2015-12-14
AU2014280984A1 (en) 2015-12-17
AU2017201441B2 (en) 2018-06-14
US20150348298A1 (en) 2015-12-03
CN105306833B (zh) 2019-06-28

Similar Documents

Publication Publication Date Title
KR102183370B1 (ko) 케어 정보를 획득하기 위한 방법, 케어 정보를 공유하기 위한 방법, 및 그것들을 위한 전자 장치
US9811933B2 (en) Image editing using selective editing tools
KR20160142742A (ko) 메이크업 거울을 제공하는 디바이스 및 방법
US10354124B2 (en) Electronic apparatus and controlling method for improve the image quality preference of skin area
US10580116B2 (en) Methods and systems for spatially localized image editing
US9202299B2 (en) Hint based spot healing techniques
US20210407054A1 (en) Utilizing context-aware sensors and multi-dimensional gesture inputs to efficiently generate enhanced digital images
US9258458B2 (en) Displaying an image with an available effect applied
CN105323502A (zh) 图像处理设备和图像处理方法
EP3984000A1 (en) Data serialization extrusion for converting two-dimensional images to three-dimensional geometry
WO2023197780A1 (zh) 图像处理方法、装置、电子设备及存储介质
US20220044147A1 (en) Teaching data extending device, teaching data extending method, and program
CN116194958A (zh) 热成像的选择性着色
CN105306833A (zh) 图像处理装置和图像处理方法
JP6711020B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP2013182330A (ja) 画像処理装置および画像処理方法
KR20210044375A (ko) 전자 장치 및 전자 장치의 제어 방법
CN108257202B (zh) 一种基于使用场景的医学图像容积重建优化方法
KR20070063781A (ko) 색역 내에 존재하는 색상을 영상 적응적으로 조절하는 방법및 장치
JP6930091B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP4116325B2 (ja) 画像表示制御装置
US20210144297A1 (en) Methods System and Device for Safe-Selfie
CN113587812B (zh) 显示设备、测量方法及装置
JP2014085716A (ja) 画像編集処理装置およびコンピュータプログラム
US10068361B2 (en) Hybrid level set for interactive editing of matting and selection

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Tokyo

Patentee after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo

Patentee before: Fuji Xerox Co.,Ltd.

CP01 Change in the name or title of a patent holder