CN105323502A - 图像处理设备和图像处理方法 - Google Patents

图像处理设备和图像处理方法 Download PDF

Info

Publication number
CN105323502A
CN105323502A CN201410743569.7A CN201410743569A CN105323502A CN 105323502 A CN105323502 A CN 105323502A CN 201410743569 A CN201410743569 A CN 201410743569A CN 105323502 A CN105323502 A CN 105323502A
Authority
CN
China
Prior art keywords
image
feature
object images
reflection
color space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410743569.7A
Other languages
English (en)
Other versions
CN105323502B (zh
Inventor
山本隆之
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Publication of CN105323502A publication Critical patent/CN105323502A/zh
Application granted granted Critical
Publication of CN105323502B publication Critical patent/CN105323502B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/28Indexing scheme for image data processing or generation, in general involving image processing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20216Image averaging

Abstract

提供了一种图像处理设备,包括:获取部,获取作为编辑对象的对象图像;特征量获取部,获取在编辑对象图像时参考的参考图像的特征量;特征反映图像生成部,通过使用由特征量获取部获取的特征量在对象图像上反映参考图像的特征,并生成作为其上反映了特征的对象图像的特征反映图像;以及反映程度改变部,通过使用由用户输入的调整值来改变特征反映图像中的特征的反映程度。

Description

图像处理设备和图像处理方法
技术领域
本发明涉及图像处理设备和图像处理方法。
背景技术
专利文献1公开了一种处理,其中,通过成像获取的图像数据所表示的图像中的每个像素的RGB颜色被转换为色度值,并且计算色度平均值,该色度平均值为每个像素的色度值的平均值。
专利文献2公开了一种图像校正系统,其包括颜色空间转换单元和图像输出单元。颜色空间转换单元通过使用由颜色空间划分单元所提取的处理对象区域和参考区域来基于参考图像转换处理对象图像的颜色;图像输出单元基于颜色转换单元中的处理结果处理由图像输入单元以预定格式输入的处理对象图像并输出所获得的图像。
非专利文献1和2公开了采用考虑人体视锥响应(humanconeresponse)等而创造的Lαβ颜色空间的方面。
[专利文献]
[专利文献1]JP-A-2000-152270
[专利文献2]JP-A-2007-281666
[非专利文献]
[非专利文献1]ReinhardE.、AshikhminM.、GoochB.和ShirleyP.,2001.Colortransferbetweenimages.IEEEComputerGraphicsandApplications21、34-41。
[非专利文献2]D.L.Ruderman、T.W.Cronin和C.C.Chiao,“StatisticsofConeResponsestoNaturalImages:ImplicationsforVisualCoding”,J.OpticalSoc.ofAmerica,vol.15,no.8,1998,pp.2036-2045。
发明内容
这里,在作为编辑对象的对象图像上反映另一图像的特征的情况下,可以使得对象图像的效果(impression)近似于该另一图像的效果。
然而,当机械且均匀地执行在对象图像上的特征的反映时,可能会获得效果与用户期望的效果不同的图像。
本发明的一个目的在于,与机械且均匀地执行在对象图像上反映另一图像的特征的情况相比,可以使其上反映了另一图像的特征的对象图像接近于用户的偏好。
根据本发明的第一方面,提供了一种图像处理设备,包括:
获取部,获取作为编辑对象的对象图像;
特征量获取部,获取在编辑对象图像时参考的参考图像的特征量;
特征反映图像生成部,通过使用由特征量获取部获取的特征量在对象图像上反映参考图像的特征,并生成作为其上反映了特征的对象图像的特征反映图像;以及
反映程度改变部,通过使用用户输入的调整值来改变特征反映图像中的特征的反映程度。
根据本发明的第二方面,提供了根据第一方面的图像处理设备,还包括:
调整值获取部,获取用户输入的调整值;以及
触摸面板,显示由特征反映图像生成部生成的特征反映图像,
其中,调整值获取部通过检测用户在触摸面板上滑动的手指的移动量来获取调整值。
根据本发明的第三方面,提供了一种图像处理设备,包括:
获取部,获取作为编辑对象的对象图像;
特征量获取部,获取在编辑对象图像时参考的参考图像的特征量;
颜色转换部,根据由获取部获取的对象图像生成不同颜色空间的多个对象图像;
特征反映图像生成部,通过使用由特征量获取部获取的特征量来在不同颜色空间的多个对象图像的每一个上反映参考图像的特征,并生成作为其上反映了特征的多个对象图像的多个特征反映图像;以及
组合图像生成部,以用户指定的组合比率来将由特征反映图像生成部生成的多个特征反映图像相互组合,以生成组合图像。
根据本发明的第四方面,提供了根据第三方面的图像处理设备,还包括:
比率获取部,获取用户指定的组合比率,
其中,当通过比率获取部获取新的组合比率时,组合图像生成部以新的组合比率将多个特征反映图像相互组合,以生成新的组合图像。
根据本发明的第五方面,提供了根据第三方面或第四方面的图像处理设备,还包括:
颜色空间统一部,将由特征反映图像生成部生成的多个特征反映图像的各自的颜色空间统一为预定的颜色空间,
其中,在通过颜色空间统一部将颜色空间统一成一个颜色空间之后,组合图像生成部通过使用多个特征反映图像来生成组合图像。
根据本发明的第六方面,提供了根据第三方面至第五方面中任一方面的图像处理设备,还包括:
参考图像生成部,根据在编辑对象图像时参考的参考图像生成不同颜色空间的多个参考图像,
其中,特征量获取部为针对其颜色空间被转换为不同颜色空间的多个参考图像的每一个参考图像获取特征量,并且
其中,特征反映图像生成部针对不同颜色空间中的每一个颜色空间在多个对象图像的每一个上反映特征,以生成多个特征反映图像。
根据本发明的第七方面,提供了一种图像处理设备,包括:
获取部,获取作为编辑对象的对象图像;
颜色转换部,根据由获取部获取的对象图像生成不同颜色空间的多个对象图像;
特征量获取部,获取在编辑对象图像时参考的参考图像的特征量;
特征反映图像生成部,通过使用由特征量获取部获取的特征量来在不同颜色空间的多个对象图像的每一个上反映参考图像的特征,并生成作为其上反映了特征的多个对象图像的多个特征反映图像;以及
组合图像生成部,以用户指定的组合比率来将由特征反映图像生成部生成的多个特征反映图像与由获取部获取的对象图像组合,以生成组合图像。
根据本发明的第八方面,提供了根据第七方面的图像处理设备,还包括:
比率获取部,获取用户指定的组合比率,
其中,比率获取部获取用于组合由特征反映图像生成部生成的多个特征反映图像的第一比率信息以及指示组合图像中对象图像的比率的第二比率信息。
根据本发明的第九方面,提供了根据第八方面的图像处理设备,还包括:
触摸面板,显示通过组合图像生成部生成的组合图像,
其中,比率获取部根据用户沿着一个方向在触摸面板上滑动的手指的移动量来获得第一比率信息,以及根据用户沿着不同于所述一个方向的方向在触摸面板上滑动的手指的移动量来得到第二比率信息。
根据本发明的第十方面,提供了一种图像处理方法,包括:
获取作为编辑对象的对象图像;
获取在编辑对象图像时参考的参考图像的特征量;
通过使用获取的特征量在所述对象图像上反映参考图像的特征,并生成作为其上反映了特征的对象图像的特征反映图像;以及
通过使用用户输入的调整值来改变特征反映图像中的特征的反映程度。
根据本发明的第十一方面,提供了一种图像处理方法,包括:
获取作为编辑对象的对象图像;
获取在编辑对象图像时参考的参考图像的特征量;
根据获取的对象图像生成不同颜色空间的多个对象图像;
通过使用获取的特征量在多个对象图像的每一个上反映参考图像的特征,并生成作为其上反映了特征的多个对象图像的多个特征反映图像;以及
以用户指定的组合比率来将生成的多个特征反映图像相互组合,以生成组合图像。
根据本发明的第十二方面,提供了一种图像处理方法,包括:
获取作为编辑对象的对象图像;
根据获取的对象图像生成不同颜色空间的多个对象图像;
获取在编辑对象图像时参考的参考图像的特征量;
通过使用获取的特征量在不同颜色空间的多个对象图像的每一个上反映参考图像的特征,并生成作为其上反映了特征的多个对象图像的多个特征反映图像;以及
以用户指定的组合比率来将生成的多个特征反映图像与获取的对象图像组合,以生成组合图像。
根据本发明的第十三方面,提供了根据第一方面的图像处理设备,其通过平板电脑终端或个人计算机构成。
根据本发明的第十四方面,提供了根据第三方面的图像处理设备,其通过平板电脑终端或个人计算机构成。
根据本发明的第十五方面,提供了根据第七方面的图像处理设备,其通过平板电脑终端或个人计算机构成。
根据本发明的第一、第十三、第十四和第十五方面,与机械且均匀地执行在对象图像上反映另一图像的特征的情况相比,可以使其上反映了另一图像的特征的对象图像更接近用户的偏好。
根据本发明的第二方面,与用户通过使用诸如鼠标的信息输入装置输入调整值的情况相比,改进了用户的可操作性。
根据本发明的第三方面,与机械且均匀地执行在对象图像上反映另一图像的特征的情况相比,可以使其上反映了另一图像的特征的对象图像更接近用户的偏好。
根据本发明的第四方面,可以使其上反映了另一图像的特征的对象图像更进一步地接近于用户的偏好。
根据本发明的第五方面,与通过使用其中颜色空间没有统一的状态下的多个特征反映图像来生成组合图像的情况相比,可以适当地生成组合图像。
根据本发明的第六方面,与从单个颜色空间的参考图像得到的特征被反映到颜色空间彼此不同的多个对象图像上以生成特征反映图像的情况相比,可以适当地生成特征反映图像。
根据本发明的第七方面,与机械且均匀地执行在对象图像上反映另一图像的特征的情况相比,可以使其上反映了另一图像的特征的对象图像更接近用户的偏好。
根据本发明的第八方面,用户可以指定多个特征反映图像中的每一个的比率,并且用户可以指定组合图像中对象图像的比率。
根据本发明的第九方面,与用户通过使用诸如鼠标的信息输入装置来输入第一比率信息和第二比率信息的情况相比,提高了用户的可操作性。
根据本发明的第十方面,与机械且均匀地执行在对象图像上反映另一图像的特征的情况相比,可以使其上反映了另一图像的特征的对象图像更接近用户的偏好。
根据本发明的第十一方面,与机械且均匀地执行在对象图像上反映另一图像的特征的情况相比,可以使其上反映了另一图像的特征的对象图像更接近用户的偏好。
根据本发明的第十二方面,与机械且均匀地执行在对象图像上反映另一图像的特征情况相比,可以使其上反映了另一图像的特征的对象图像更接近用户的偏好。
附图说明
将基于以下附图详细描述本发明的示例性实施例,其中:
图1是例示出了图像处理设备的硬件配置的框图;
图2A至图2C是示出了图像处理设备中的处理示例的示图;
图3是示出了当目标图像的特征被反映到原始图像上时在控制器中执行的处理示例的示图;
图4A至图4F是示出了在特征计算单元和效果调整单元中执行的处理的示图;
图5是示出了在控制器中执行的另一处理示例的示图;
图6是示出了在图像处理设备上的用户的操作的示例的示图;
图7是示出了在控制器中执行的又一处理示例的示图;
图8是示出了当用户输入(改变)效果变化程度参数和颜色空间权重参数中的每一个的值时用户的操作示例的示图;
图9A和图9B是示出了在显示屏幕上的显示示例的示图;以及
图10A至图10E是示出了在显示屏幕上的另一显示示例的示图。
具体实施方式
以下,将参照附图描述本发明的示例性实施例。
图1是例示出了根据本发明示例性实施例的图像处理设备1的硬件配置的框图。本示例性实施例的图像处理设备1包括控制器100、存储器200、显示器300、操作单元400和图像获取单元500。
控制器100包括中央处理单元(CPU)、只读存储器(ROM)和随机存取存储器(RAM)(均未示出)。
ROM存储由CPU执行的控制程序。CPU读取存储在ROM中的控制程序,并且通过将RAM用作工作区域来执行控制程序。CPU执行控制程序,并且由此实现每个功能单元(诸如稍后描述的特征计算单元11)。
由CPU执行的程序可以在被存储在计算机可读记录介质上的状态下被提供给图像处理设备1,计算机可读记录介质为例如磁性记录介质(磁带、磁盘等)、光学记录介质(光盘等)、磁-光记录介质和半导体存储器。通过使用诸如因特网的通信线路,可将程序下载到图像处理设备。
存储器200例如通过硬盘构成,并且存储诸如图像数据的各种数据项。
显示器300例如通过液晶触摸面板显示器构成,并且例如在控制器100的控制下基于图像数据来显示图像。
操作单元400是由用户操作的单元,并且获取由用户输入的信息。操作单元400例如由液晶触摸面板显示器构成。这里,在操作单元400和显示器300均由液晶触摸显示器构成的情况下,操作单元400和显示器300通过彼此共有的部件构成。操作单元400可由鼠标、键盘等构成。
图像获取单元500(获取部的示例)获取从用户提供的图像(图像数据)。具体地,获取稍后描述的原始图像或目标图像。图像获取单元500例如由连接至外部设备的连接接口构成。在本示例性实施例中,如果通过图像获取单元500来获取图像,则图像被输出至存储器200并存储在存储器200中。
图2A至图2C是示出了图像处理设备1中的处理示例的示图。图2A至图2C例示了图像处理设备1由所谓的平板电脑终端构成的情况。
在图2A至图2C的图像处理设备1中,如图2A所示,在图中的显示屏幕310的左侧区域中设置了显示原始图像的原始图像显示区域R1,该原始图像为未调整的图像。
在显示屏幕310的右侧设置了显示多个目标图像的目标图像显示区域R2,该目标图像为原始图像的目标。即,在显示屏幕310的右侧显示在调整(编辑)原始图像时参考的、作为参考图像的多个目标图像。更具体地,在本示例性实施例中,作为编辑对象的对象图像的原始图像显示在显示屏幕310的左侧,而作为编辑对象图像时参考的、作为参考图像的目标图像被显示在显示屏幕310的右侧。
在本示例性实施例中,如图2A所示,如果用户触摸显示屏幕310并选择一个目标图像,则如图2B所示,所选目标图像的特征(布景特征)将被反映(传递)到原始图像上。
在本示例性实施例中,如图2C所示,如果用户在原始图像显示区域R1中在水平方向上滑动并移动手指(触摸显示屏幕310的手指)(执行滑动操作),则改变显示在原始图像显示区域R1中的原始图像。
具体地,存在从具有目标图像的特征的高反映程度的原始图像到具有目标图像的特征的低反映程度的原始图像的渐进的变化。此外,存在从具有目标图像的特征的低反映程度的原始图像到具有目标图像的特征的高反映程度的原始图像的渐进的变化。
更具体地,在本示例性实施例中,如果朝图2C中箭头的左侧方向移动手指,则原始图像具有目标图像的特征的低反映程度,并最终具有0%的反映程度。另一方面,如果朝向图2C中的箭头的右侧方向移动手指,则原始图像具有目标图像的特征的高反映程度,并最终具有100%的反映程度。
图3是示出当目标图像的特征被反映到原始图像上时在控制器100中执行的处理示例的示图。
在本示例性实施例中,首先,目标图像(其图像数据)从存储器200(参见图1)输入至用作特征量获取部的特征计算单元11,并且特征计算单元11分析目标图像以计算特征量。随后,特征量被输入至效果调整单元12。此外,原始图像(其图像数据)也从存储器200输入至效果调整单元12。
接下来,用作特征反映图像生成部的效果调整单元12执行在原始图像上反映由特征量指定的特征(目标图像的特征)的处理,以调整(改变)原始图像的效果。从而,生成其上反映了目标图像的特征的原始图像。
更具体地,效果调整单元12执行在原始图像上完全反映目标图像的特征的处理,以生成具有目标图像的特征的100%反映程度的原始图像。在本说明书中,在下文中,在一些情况下其上反映了目标图像特征的原始图像被称为“特征反映图像”。
然后,在本示例性实施例中,特征反映图像被输入至显示处理单元14。显示处理单元14向显示器300输出特征反映图像。因此,在显示器300上显示特征反映图像。
在显示特征反映图像之后,当用户操作显示屏幕310(参照图2C)时,效果变化程度获取单元13获取由用户输入的效果变化程度参数α。效果变化程度参数α被输入至显示处理单元14。也就是说,在本示例性实施例中,用作调整值获取部的效果变化程度获取单元13获取由用户输入的作为调整值的效果变化程度参数α,并且将效果变化程度参数α输出至显示处理单元14。
这里,效果变化程度参数α指示目标图像的特征在原始图像上的反映程度,并且α在0到1的范围内(0≤α≤1)。
具体地,在本示例性实施例中,如上所述,用户执行手指的滑动,并且基于滑动(基于用户手指的移动量)来获取效果变化程度参数α。更具体地,例如,在图2C中用户手指向左滑动的情况下,获取具有较小值的效果变化程度参数α,而在图2C中用户手指向右滑动的情况下,获取具有较大值的效果变化程度参数α。
当效果变化程度获取单元13获取效果变化程度参数α时,用作反映程度改变部的显示处理单元14(参照图3)对特征反映图像执行改变处理。更具体地,基于效果变化程度参数α改变特征反映图像中的特征量的反映程度,并且由此生成新的特征反映图像。
更具体地,在本示例性实施例中,如果获取了效果变化程度参数α,则显示处理单元14将特征反映图像(其上完全反映特征的图像)与原始图像(其特征反映程度为0%的原始图像)组合以生成新的特征反映图像,并且此时通过在该特征反映图像上反映效果变化程度获取单元13所获取的效果变化程度参数α来执行这种组合。
然后,显示处理单元14向显示器300输出通过该组合处理获得的新图像(下文中,在一些情况下称为“组合图像”)。从而,在显示器300上显示新的组合图像。
这里,如果仅在原始图像上机械且均匀地反映目标图像的特征,则可能得到与用户所期望的图像相差很大的图像。在本示例性实施例的处理中,可以获得其上反映了用户期望的图像,因此得到更接近用户所期望图像的图像。
这里,将详细描述在特征计算单元11、效果调整单元12和显示处理单元14中执行的每个处理。
特征计算单元11计算作为特征量的E(L*S)、E(a*S)和E(b*S),如图4B、图4D和图4F(它们是示出在特征计算单元11和效果调整单元12中执行的处理的图)所示,它们是整个目标图像的L*、a*和b*的平均值。此外,还将作为整个目标图像的L*、a*和b*的方差的V(L*S)、V(a*S)和V(b*S)作为特征量进行计算。
效果调整单元12(参照图3)通过使用特征计算单元11计算的平均值和方差、并且还通过使用以下等式(1)至(3)来针对每个像素调整原始图像的Lab值(CIELab值)。也就是说,执行调整处理,使得原始图像的Lab值的平均值和方差接近目标图像的Lab值的平均值和方差。
L ( i , j ) * ′ = [ L ( i , j ) * - E ( L o * ) ] V ( L S * ) V ( L O * ) + E ( L S * ) - - - ( 1 )
a ( i , j ) * ′ = [ a ( i , j ) * - E ( a o * ) ] V ( a S * ) V ( a O * ) + E ( a S * ) - - - ( 3 )
b ( i , j ) * ′ = [ b ( i , j ) * - E ( b o * ) ] V ( b S * ) V ( b O * ) + E ( b S * ) - - - ( 3 )
在等式(1)至(3)中,L*(i,j)、a*(i,j)和b*(i,j)指示位置(i,j)处的未调整过的像素值,而L*(i,j)'、a*(i,j)'和b*(i,j)'指示位置(i,j)处的调整过的像素值。
此外,如图4A、图4C和图4E所示,E(L*0)、E(a*0)和E(b*0)是原始图像的L*、a*和b*的值的平均值,以及如图4A、图4C和图4E所示,V(L*0)、V(a*0)和V(b*0)是原始图像的L*、a*和b*的值的方差。
这里,在本示例性实施例中,通过使用等式(1)至(3)针对每个像素调整原始图像的Lab值来获得特征反映图像,并且如图4A、图4C和图4E所示,特征反映图像具有的频率曲线形状近似于目标图像的频率曲线形状。从而,特征反映图像的效果类似于目标图像的效果。
接下来,将描述显示处理单元14(参见图3)中的处理。显示处理单元14通过使用由效果变化程度获取单元13得到的效果变化程度参数α以及以下等式(4)至(6)来将原始图像与特征反映图像组合,以获得组合图像。
L*"=αL*′+(1-α)L*(4)
a*"=αa*′+(1-α)a*(5)
b*"=αb*′+(1-α)b*(6)
这里,在等式(4)至(6)的每一个中,L*、a*和b*是原始图像的像素值,L*'、a*'和b*'是特征反映图像(其上完全反映目标图像特征的特征反映图像)的像素值,以及L*″、a*″和b*″是组合图像的像素值。如上所述,α是效果变化程度参数。
在上述处理中,原始图像和目标图像是L*a*b*颜色空间的图像的情况被作为示例进行描述,但所描述的相同处理同样可以对诸如RGB、3-刺激值LMS、生理值图像IPT和Lαβ之类的颜色空间的图像执行。
这里,将描述关于图像调整的现有技术。
图像的调整是要调整诸如RGB、CIELab和HSV之类的颜色空间上的色度、亮度、颜色和饱和度的组分值或对比度,并且已提出了诸如针对每个频带进行控制或针对图像的每个区域进行控制的想法。特别是,作为调整图像外观的效果的方法,已经提出了使用色度的平均值的方法等。
然而,在现有技术的这些方法中,特别是,在图像的颜色彼此之间相差较大的情况下,难以使图像之间的效果相互匹配。关于这种问题,提出了一种方法,其中通过将Lαβ颜色空间中的多个图像的统计值相互匹配来使图像之间的效果相互匹配到一定程度。
近年来,随着配备有摄像头并包括触摸面板的设备(诸如智能手机或平板电脑终端)的广泛应用,除了专业人员外,普通人也更加熟悉包括图像质量的调整的图像处理和图像编辑,因此存在对通过比现有技术更简单且更直观的操作来调整图像外观的效果的方法的需求。在这些情况的启示下,可以说需要这样一种技术,其不仅使图像的效果相互匹配,而且能够更加交互式地操作图像效果。
在这种操作图像效果的技术中,要求使用趋于与给人的效果匹配的颜色空间,但是即使使用了趋于与给人的效果匹配的颜色空间,取决于输入图像,也存在效果不相互匹配的情况。
例如,在使用Lαβ颜色空间的方法中,使用考虑了人体视锥响应等而创造的Lαβ颜色空间,但是人感觉到的图像的效果不只通过人体视锥响应来限定,并且取决于输入图像,效果可能不相互匹配。这可以根据以下事实来解释:例如,人记忆的天空颜色(称为记忆颜色)与实际的天空颜色彼此不同。因此,由于关于所有图像,用户期望的图像可能不是必定被输出,因此,存在的问题在于在实际图像编辑中难以使用该方法。
如上所述,已经提出了各种用于改变图像效果的技术,但可以从存在记忆颜色的事实中看出,如果仅物理颜色或亮度相互匹配,那么存在难以获得用户期望的图像的问题。相反,在本示例性实施例中,通过用户的交互操作向用户提供了更接近用户期望图像的图像。
图5是示出了在控制器100中执行的另一处理示例的示图。
在该处理中,首先,存储在存储器200中的原始图像和目标图像被输入至颜色空间转换单元15。作为参考图像生成部的示例的颜色空间转换单元15对目标图像(参考图像的示例)执行颜色转换,以生成不同颜色空间的多个目标图像。
具体地,例如,根据RGB颜色空间的目标图像生成L*a*b*颜色空间的目标图像和Lαβ颜色空间的目标图像。
接下来,特征计算单元11针对颜色空间彼此不同的对应的多个目标图像以上述方法计算特征量。具体地,关于多个目标图像计算针对每个颜色空间轴的平均值和方差。
例如,在多个目标图像之一的颜色空间为L*a*b*颜色空间的情况下,如上所述,针对该目标图像计算E(L*S)、E(a*S)、E(b*S)、V(L*S)、V(a*S)和V(b*S)。
接下来,针对对应的多个目标图像计算的特征量被输入至效果调整单元12。
在本实施例中,颜色空间转换单元15对原始图像执行颜色转换,以生成不同颜色空间的多个原始图像。
具体地,例如,根据RGB颜色空间的原始图像生成L*a*b*颜色空间(CIEL*a*b*颜色空间)的原始图像和Lαβ颜色空间的原始图像。也就是说,在本示例性实施例中,用作颜色转换部的颜色空间转换单元15根据单个原始图像生成不同颜色空间的多个原始图像。
在本示例性实施例中,已经过颜色转换的原始图像(不同颜色空间的多个原始图像)被输出至效果调整单元12。
在效果调整单元12中,如上所述,在原始图像上反映通过特征计算单元11计算的特征量,并生成特征反映图像。也就是说,在本示例性实施例中,效果调整单元12用作特征反映图像生成部,并且在效果调整单元12中,通过特征计算单元11计算的特征量被反映到不同颜色空间的对应的多个原始图像上,并且由此生成作为其上反映了特征量的多个原始图像的多个特征反映图像。
针对每个颜色空间生成特征反映图像,并且效果调整单元12生成不同颜色空间的、其上反映了目标图像的特征的特征反映图像。也就是说,在本示例性实施例中,针对不同颜色空间的每一个,通过特征计算单元11得到的特征被反映到多个原始图像中的每一个上,并且由此生成多个特征反映图像。
更具体地,效果调整单元12通过以下等式(7)针对每个像素值执行调整。这里,I0(i,j)是未调整过的颜色空间的每个轴的位置(i,j)处的像素值,而I0'(i,j)是调整过的颜色空间的每个轴的位置(i,j)处的像素值。
E(I0)是原始图像的颜色空间的每个轴的图像值的平均值,而V(I0)是原始图像的颜色空间的每个轴的图像值的方差。E(It)是目标图像的颜色空间的每个轴的图像值的平均值,而V(It)是目标图像的颜色空间的每个轴的图像值的方差。
例如对于L*a*b*颜色空间,等式(7)与上述等式(1)至(3)相同。
I o ( i , j ) ′ = [ I o ( i , j ) - E ( I o ) ] V ( I t ) V ( I o ) + E ( I t ) - - - ( 7 )
接下来,在本示例性实施例中,如图5所示,不同颜色空间的多个特征反映图像被输入至用作颜色空间统一部的颜色空间统一单元16,使得不同颜色空间的多个特征反映图像被生成为相同颜色空间的特性反映图像。
例如,在包括L*a*b*颜色空间的特征反映图像和Lαβ颜色空间的特征反映图像的两个特征反映图像被输入至颜色空间统一单元16的情况下,一个颜色空间的特征反映图像被转换为另一颜色空间的特征反映图像,因此两个特征反映图像的颜色空间彼此相同。
更具体地,例如,L*a*b*颜色空间的特征反映图像被转换为Lαβ颜色空间的特征反映图像,因此两个特征反映图像的颜色空间被统一为Lαβ颜色空间。
颜色空间的统一目标不限于统一之前的颜色空间中的任一个,并且可以为统一之前不存在的颜色空间。例如,在存在包括L*a*b*颜色空间的特征反映图像和Lαβ颜色空间的特征反映图像的两个特征反映图像的情况下,这两个特征反映图像的颜色空间可以统一为RGB颜色空间。
L*a*b*颜色空间和Lαβ颜色空间具有其中其特性相对接近于人类视觉特性的特征,因此如果颜色空间的统一目标被设置为L*a*b*颜色空间或Lαβ颜色空间,则作用(effect)增加(其中使得特征反映图像接近目标效果)。因此,容易地获得用户期望的图像。
接下来,在本示例性实施例中,统一的颜色空间的多个特征反映图像被输出至显示处理单元14。通过颜色空间权重参数获取单元17获取的颜色空间权重参数β被输出至显示处理单元14。
换句话说,在本示例性实施例中,统一的颜色空间的多个特征反映图像被相互组合(α组合)以生成组合图像,并且通过用作比率获取部的颜色空间权重参数获取单元17获取指示在组合期间的组合比率的颜色空间权重参数β,并且颜色空间权重参数β从颜色空间权重参数获取单元17输出至显示处理单元14。
这里,用作组合图像生成部的显示处理单元14将多个特征反映图像(颜色空间被统一成一个颜色空间之后的特征反映图像)相互组合以形成单个特征反映图像。在组合期间,显示处理单元14通过反映由颜色空间权重参数获取单元17获取的颜色空间权重参数β来执行组合。具体地,通过增加具有大权重的颜色空间的图像的特定权重以及减小具有小权重的颜色空间的图像的特定权重来将图像相互组合。
颜色空间权重参数获取单元17以与上述效果变化程度参数α类似的方式基于用户手指的滑动(基于用户手指的移动量)来获取颜色空间权重参数β。更具体地,例如,如图6(其是示出用户在图像处理设备1上的操作示例的图)所示,在用户在图中的垂直方向上移动手指的情况下,获取具有与手指移动量对应的值的颜色空间权重参数β。
更具体地,例如,在图6中在用户朝上滑动手指的情况下,获取具有较大值的颜色空间权重参数β,而在图6中在用户朝下滑动手指的情况下,获取具有较小值的颜色空间权重参数β。
在本示例性实施例中,基于用户在触摸面板上的操作来得到颜色空间权重参数β,但是颜色空间权重参数β可以基于用户在鼠标或键盘上的操作来得到。这对于效果变化程度参数α而言也是相同的,其可基于用户在鼠标或键盘上的操作而得到。
将进一步描述显示处理单元14。显示处理单元14通过使用颜色空间被颜色空间统一单元16统一为一个颜色空间的多个特征反映图像、通过颜色空间权重参数获取单元17获取的颜色空间权重参数β、以及以下等式(8)来执行调整处理,以获得组合图像。换句话说,在本示例性实施例中,用作组合图像生成部的显示处理单元14以用户指定的组合比率来组合颜色空间被颜色空间统一单元16统一为一个颜色空间的多个特征反映图像,以获得组合图像。
I(i,j)″=βIc1(i,j)+(1-β)Ic2(i,j)(8)
这里,Ic1(i,j)指示从颜色空间统一单元16输出的多个特征反映图像中的单个特征反映图像的每个像素的像素值,而Ic2(i,j)指示从颜色空间统一单元16输出的多个特征反映图像中的另一个特征反映图像的每个像素的像素值。此外,如上所述,β是颜色空间权重参数。此外,β的范围被设置为0到1(0≤β≤1)。
这里,如果生成单个颜色空间的特征反映图像,则根据情况可能会生成其上几乎没有反映特征并且让用户具有不舒服感觉的图像。
另一方面,在本示例性实施例的配置中,多个颜色空间的特征反映图像相互组合,并且颜色空间权重参数β导致组合的程度不同。因此,存在较大的可能性来获得用户几乎不具有不舒服感觉的特征反映图像。
在本示例性实施例的配置中,由于多个不同颜色空间的特征反映图像相互组合,并且通过使用颜色空间权重参数β来以用户期望的比率执行组合,所以降低了图像效果调整期间的颜色空间的失真或者由于人体视觉的非线性而产生的不舒服感觉。
如果在显示处理单元14执行显示处理之后用户再次在触摸面板上执行操作,则颜色空间权重参数获取单元17获取新的颜色空间权重参数β。在这种情况下,通过使用新的颜色空间权重参数β使多个特征反映图像相互重新组合,从而生成新的组合图像。换句话说,通过使用新的颜色空间权重参数β和上述等式(8)来生成新的组合图像。
图7是示出了在控制器100中执行的又一处理实例的示图。
在该处理中,执行与图5所示处理相同的处理,直到通过颜色空间统一单元16执行颜色空间的统一处理。另一方面,在颜色空间统一单元16执行颜色空间的统一处理之后由显示处理单元14执行的处理不同于图5所示的处理。
在图7所示的处理中,统一的颜色空间的多个特征反映图像、由效果变化程度获取单元13获取的效果变化程度参数α、由颜色空间权重参数获取单元17获取的颜色空间权重参数β、以及原始图像被输入至显示处理单元14。
显示处理单元14将多个特征反映图像(颜色空间被统一为一个颜色空间之后的多个特征反映图像)相互组合,以形成单个特征反映图像。
在组合期间,显示处理单元14通过反映由用作比率获取部的颜色空间权重参数获取单元17获取的颜色空间权重参数β来执行组合。也就是说,显示处理单元14获取在多个特征反映图像相互组合时使用的颜色空间权重参数β(第一比率信息的示例),并且执行其上反映颜色空间权重参数β的组合处理。
具体地,通过增加具有大权重(比率)的颜色空间的图像的特定权重以及减小具有小权重的颜色空间的图像的特定权重来相互组合图像。
显示处理单元14组合特征反映图像(通过使用颜色空间权重参数β将多个特征反映图像相互组合而获得的特征反映图像)与原始图像,以生成新的特征反映图像。
在组合期间,显示处理单元14通过反映由效果变化程度获取单元13获取的效果变化程度参数α来执行组合。
换句话说,在本示例性实施例中,与由效果变化程度参数α指定的比率对应的原始图像的组分被包括在通过组合特征反映图像(通过将多个特征反映图像相互组合而得到的特征反映图像)与原始图像而生成的新的特征反映图像中。具体地,在本示例性实施例中,获取在新生成的特征反映图像中的指示原始图像的比率的效果变化程度参数α(第二比率信息的示例),并且基于效果变化程度参数α来组合特征反映图像与原始图像。
更具体地,显示处理单元14通过使用以下等式(9)来将不同颜色空间的多个特征反映图像与原始图像组合,以得到组合图像。
I′s(i,j)=α*[βIc1(i,j)+(1-β)Ic2(i,j)]+(1-α)Is(i,j)(9)
这里,Ic1(i,j)指示从颜色空间统一单元16输出的多个特征反映图像中的单个特征反映图像的每个像素的像素值,而Ic2(i,j)指示从颜色空间统一单元16输出的多个特征反映图像中的另一个特征反映图像的每个像素的像素值。此外,IS(i,j)表示原始图像的每个像素的像素值。此外,如上所述,α是效果变化程度参数,β是颜色空间权重参数。
图8是示出当用户输入(改变)效果变化程度参数α和颜色空间权重参数β的每一个的值时用户的操作示例的示图。
在该操作示例中,当用户输入(改变)效果变化程度参数α的值时,用户相对于显示屏幕在水平方向上移动手指。当用户输入(改变)颜色空间权重参数β的值时,用户相对于显示屏幕在垂直方向上移动手指。
换句话说,在该操作示例中,当输入(改变)效果变化程度参数α的值时,用户在一个方向上移动手指。当输入颜色空间权重参数β的值时,用户在不同于上述一个方向的方向(与上述一个方向相交(垂直)的方向)上移动手指。
当用户实际输入(改变)效果变化程度参数α和颜色空间权重参数β时,期望进行以下操作。
例如,首先,用户在垂直方向上移动手指以设置颜色空间权重参数β,从而确定多个不同特征反映图像的组合比率。
接下来,用户在水平方向上移动手指来确定以确定的组合比率进行组合所获得的特征反映图像与原始图像之间的组合比率。
在图7和图8所示处理中,以与图5所示处理相同的方式,由于多个不同颜色空间的特征反映图像相互组合并且通过使用颜色空间权重参数β来以用户期望的比率来执行组合,所以降低了在调整图像的效果期间颜色空间的失真以及由于人体视觉的非线性所产生的不舒服感觉。由于特征反映图像与原始图像组合,所以生成进一步降低不舒服感觉的图像。
图9A和图9B是示出显示屏幕上的显示示例的示图。
在该显示实例中,如图9A所示,显示屏幕被划分为两个屏幕。在图9A中的上部显示原始图像,而在图9A中的下部显示目标图像。同样在此示例中,如上所述,如果用户在显示原始图像的部分中在水平方向上滑动手指,则改变原始图像上特征量的反映程度(改变效果变化程度参数α),并且例如,当增加特征量的反映程度时,原始图像变得类似于图9B所示的目标图像。
图10A至图10E是示出显示屏幕上的另一显示示例的示图。
这里,图10A示出了原始图像。图10B和图10C示出了目标图像。在该显示示例中,首先,用户选择图10B和图10C所示的两个目标图像中的任一个。
然后,如图10D所示,用户在原始图像上滑动手指。从而,如上所述,改变原始图像上的特征量的反映程度(改变效果变化程度参数α),并且由此如图10E所示,改变图10D所示的显示屏幕。
尽管在图9A、图9B以及图10A至图10E中描述了改变效果变化程度参数α的情况,但在改变颜色空间权重参数β的情况下,如上所述在垂直方向上滑动手指。
其他
在以上描述中,描述了由所谓的平板电脑终端构成图像处理设备1的情况作为示例,但图像处理设备1可以由设置有显示器、键盘、鼠标等的个人计算机(PC)来构成。
在以上描述中,描述了通过所谓的划动操作来改变效果变化程度参数α和颜色空间权重参数β的情况,但还可以存在这样的方面,其中在显示屏幕上显示被滑动的显示按钮并且通过用户移动显示按钮来改变效果变化程度参数α和颜色空间权重参数β。可通过使用数字键盘(可以使用硬键盘或软键盘中的任一种)来直接输入效果变化程度参数α和颜色空间权重参数β的数值。
为了说明和描述的目的提供了上述本发明的示例性实施例的描述。其并非意味着穷举或者将本发明限于所公开的具体形式。显然,本领域技术人员可以进行许多修改和变化。选择和描述实施例是为了更好地解释本发明的原理及其实际应用,从而能够使本领域其他技术人员理解本发明的各个实施例以及适合于实际使用的各个修改例。本发明的范围意在通过所附权利要求及其等同方案来限定。

Claims (15)

1.一种图像处理设备,包括:
获取部,获取作为编辑对象的对象图像;
特征量获取部,获取在编辑所述对象图像时参考的参考图像的特征量;
特征反映图像生成部,通过使用由所述特征量获取部获取的所述特征量在所述对象图像上反映所述参考图像的特征,并生成作为其上反映了所述特征的所述对象图像的特征反映图像;以及
反映程度改变部,通过使用用户输入的调整值来改变所述特征反映图像中的所述特征的反映程度。
2.根据权利要求1所述的图像处理设备,还包括:
调整值获取部,获取所述用户输入的所述调整值;以及
触摸面板,显示由所述特征反映图像生成部生成的所述特征反映图像,
其中,所述调整值获取部通过检测用户在所述触摸面板上滑动的手指的移动量来获取所述调整值。
3.一种图像处理设备,包括:
获取部,获取作为编辑对象的对象图像;
特征量获取部,获取在编辑所述对象图像时参考的参考图像的特征量;
颜色转换部,根据由所述获取部获取的所述对象图像生成不同颜色空间的多个对象图像;
特征反映图像生成部,通过使用由所述特征量获取部获取的所述特征量来在所述不同颜色空间的所述多个对象图像的每一个上反映所述参考图像的特征,并生成作为其上反映了所述特征的所述多个对象图像的多个特征反映图像;以及
组合图像生成部,以用户指定的组合比率来将由所述特征反映图像生成部生成的所述多个特征反映图像相互组合,以生成组合图像。
4.根据权利要求3所述的图像处理设备,还包括:
比率获取部,获取所述用户指定的所述组合比率,
其中,当通过所述比率获取部获取新的组合比率时,所述组合图像生成部以新的组合比率将所述多个特征反映图像相互组合,以生成新的组合图像。
5.根据权利要求3或4所述的图像处理设备,还包括:
颜色空间统一部,将由所述特征反映图像生成部生成的所述多个特征反映图像的各自的颜色空间统一为预定的颜色空间,
其中,在通过所述颜色空间统一部将颜色空间统一成一个颜色空间之后,所述组合图像生成部通过使用所述多个特征反映图像来生成所述组合图像。
6.根据权利要求3至5中任一项所述的图像处理设备,还包括:
参考图像生成部,根据在编辑所述对象图像时参考的所述参考图像生成多个不同颜色空间的多个参考图像,
其中,所述特征量获取部针对颜色空间被转换为不同颜色空间的所述多个参考图像的每一个获取所述特征量,并且
其中,所述特征反映图像生成部针对所述不同颜色空间中的每一个在所述多个对象图像的每一个上反映所述特征,以生成所述多个特征反映图像。
7.一种图像处理设备,包括:
获取部,获取作为编辑对象的对象图像;
颜色转换部,根据由所述获取部获取的所述对象图像生成不同颜色空间的多个对象图像;
特征量获取部,获取在编辑所述对象图像时参考的参考图像的特征量;
特征反映图像生成部,通过使用由所述特征量获取部获取的所述特征量来在不同颜色空间的所述多个对象图像的每一个上反映所述参考图像的特征,并生成作为其上反映了所述特征的所述多个对象图像的多个特征反映图像;以及
组合图像生成部,以用户指定的组合比率来将由所述特征反映图像生成部生成的所述多个特征反映图像与由所述获取部获取的所述对象图像组合,以生成组合图像。
8.根据权利要求7所述的图像处理设备,还包括:
比率获取部,获取所述用户指定的所述组合比率,
其中,所述比率获取部获取用于组合由所述特征反映图像生成部生成的所述多个特征反映图像的第一比率信息以及指示所述组合图像中所述对象图像的比率的第二比率信息。
9.根据权利要求8所述的图像处理设备,还包括:
触摸面板,显示通过所述组合图像生成部生成的所述组合图像,
其中,所述比率获取部根据用户沿着一个方向在所述触摸面板上滑动的手指的移动量来得到所述第一比率信息,以及根据用户沿着不同于所述一个方向的方向在所述触摸面板上滑动的手指的移动量来得到所述第二比率信息。
10.一种图像处理方法,包括:
获取作为编辑对象的对象图像;
获取在编辑所述对象图像时参考的参考图像的特征量;
通过使用获取的所述特征量在所述对象图像上反映所述参考图像的特征,并生成作为其上反映了所述特征的对象图像的特征反映图像;以及
通过使用由用户输入的调整值来改变所述特征反映图像中的所述特征的反映程度。
11.一种图像处理方法,包括:
获取作为编辑对象的对象图像;
获取在编辑所述对象图像时参考的参考图像的特征量;
根据获取的所述对象图像生成不同颜色空间的多个对象图像;
通过使用获取的所述特征量在所述多个对象图像的每一个上反映所述参考图像的特征,并生成作为其上反映了所述特征的所述多个对象图像的多个特征反映图像;以及
以用户指定的组合比率来将生成的所述多个特征反映图像相互组合,以生成组合图像。
12.一种图像处理方法,包括:
获取作为编辑对象的对象图像;
根据获取的所述对象图像生成不同颜色空间的多个对象图像;
获取在编辑所述对象图像时参考的参考图像的特征量;
通过使用获取的所述特征量在不同颜色空间的所述多个对象图像的每一个上反映所述参考图像的特征,并生成作为其上反映了所述特征的所述多个对象图像的多个特征反映图像;以及
以用户指定的组合比率来将生成的所述多个特征反映图像与获取的所述对象图像组合,以生成组合图像。
13.一种根据权利要求1所述的图像处理设备,通过平板电脑终端或个人计算机构成。
14.一种根据权利要求3所述的图像处理设备,通过平板电脑终端或个人计算机构成。
15.一种根据权利要求7所述的图像处理设备,通过平板电脑终端或个人计算机构成。
CN201410743569.7A 2014-05-27 2014-12-08 图像处理设备和图像处理方法 Active CN105323502B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014109567A JP6349962B2 (ja) 2014-05-27 2014-05-27 画像処理装置およびプログラム
JP2014-109567 2014-05-27

Publications (2)

Publication Number Publication Date
CN105323502A true CN105323502A (zh) 2016-02-10
CN105323502B CN105323502B (zh) 2019-01-25

Family

ID=54702396

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410743569.7A Active CN105323502B (zh) 2014-05-27 2014-12-08 图像处理设备和图像处理方法

Country Status (4)

Country Link
US (2) US9424633B2 (zh)
JP (1) JP6349962B2 (zh)
CN (1) CN105323502B (zh)
AU (1) AU2014268148B2 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454097A (zh) * 2016-10-29 2017-02-22 深圳市金立通信设备有限公司 一种拍照方法及拍照设备
CN107295218A (zh) * 2017-05-27 2017-10-24 维沃移动通信有限公司 一种图片处理方法及移动终端
CN110383801A (zh) * 2017-03-03 2019-10-25 杜比实验室特许公司 不均匀颜色空间中的颜色饱和度调整
CN113676594A (zh) * 2021-08-19 2021-11-19 邹段练 一种手机相机app辅助拍照方法

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI775869B (zh) * 2017-06-29 2022-09-01 佳能企業股份有限公司 影像擷取裝置及影像處理方法
CN107241590B (zh) * 2017-06-29 2020-03-27 明基智能科技(上海)有限公司 影像增强方法及影像增强装置
KR102442449B1 (ko) * 2017-09-01 2022-09-14 삼성전자주식회사 영상 처리 장치, 영상 처리 방법 및 컴퓨터 판독가능 기록 매체
CN111179282B (zh) * 2019-12-27 2024-04-23 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、存储介质与电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252392A (ja) * 2004-03-01 2005-09-15 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2009070260A (ja) * 2007-09-14 2009-04-02 Shinko Electric Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013172166A (ja) * 2012-02-17 2013-09-02 Nikon Corp 画像処理装置、撮像装置及びプログラム
CN103777852A (zh) * 2012-10-18 2014-05-07 腾讯科技(深圳)有限公司 一种获取图像的方法、装置
CN103793888A (zh) * 2014-02-18 2014-05-14 厦门美图网科技有限公司 一种基于参照图像的主要颜色的图像增强方法
EP2733925A2 (en) * 2012-11-19 2014-05-21 Samsung Electronics Co., Ltd Photographing apparatus and method for controlling image processing thereof

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6504952B1 (en) 1998-03-17 2003-01-07 Fuji Photo Film Co. Ltd. Image processing method and apparatus
JP3539883B2 (ja) 1998-03-17 2004-07-07 富士写真フイルム株式会社 画像処理方法および装置、記録媒体、撮像装置並びに画像再生装置
KR100527315B1 (ko) * 2001-11-16 2005-11-09 주식회사 메디슨 지식 기반 조정 수단을 이용한 초음파 영상 진단 시스템
JP3927995B2 (ja) * 2001-12-27 2007-06-13 ソニー株式会社 画像表示制御装置と画像表示制御方法及び撮像装置
KR100528343B1 (ko) * 2003-07-14 2005-11-15 삼성전자주식회사 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치
US7646517B2 (en) * 2004-02-27 2010-01-12 Seiko Epson Corporation Image processing system and image processing method
WO2007042074A1 (en) * 2005-10-12 2007-04-19 Active Optics Pty Limited Method of forming an image based on a plurality of image frames, image processing system and digital camera
JP4678857B2 (ja) * 2005-12-28 2011-04-27 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP4568692B2 (ja) 2006-04-04 2010-10-27 日本電信電話株式会社 画像補正システム、画像補正方法およびこの方法のプログラム
US7796812B2 (en) 2006-10-17 2010-09-14 Greenparrotpictures, Limited Method for matching color in images
JP2008227898A (ja) * 2007-03-13 2008-09-25 Seiko Epson Corp 画像処理装置、および画像処理方法
EP2143262B1 (en) * 2007-05-04 2015-07-01 Esko Software Bvba User adjustable gamut mapping and conversion of images from a source color space to a destination color space including primary and redundant colors
JP4924402B2 (ja) * 2007-12-14 2012-04-25 ブラザー工業株式会社 制御装置および制御プログラム
JP4513903B2 (ja) * 2008-06-25 2010-07-28 ソニー株式会社 画像処理装置、及び画像処理方法
US8817136B2 (en) 2010-06-23 2014-08-26 Raytheon Company Image processing utilizing spatially-displaced image data
JP5459251B2 (ja) * 2011-03-31 2014-04-02 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP6003495B2 (ja) * 2012-10-02 2016-10-05 セイコーエプソン株式会社 画像表示装置および画像表示装置の輝度ムラ補正方法
JP2016511979A (ja) * 2013-03-13 2016-04-21 インテル コーポレイション 3次元画像編集のための改善された技術
JP5928386B2 (ja) * 2013-03-22 2016-06-01 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
JP6137965B2 (ja) * 2013-07-01 2017-05-31 オリンパス株式会社 電子機器、電子機器の制御方法、及び電子機器の制御プログラム
JP6098436B2 (ja) * 2013-08-23 2017-03-22 ブラザー工業株式会社 画像処理装置およびコンピュータプログラム
JP2015225476A (ja) * 2014-05-27 2015-12-14 富士ゼロックス株式会社 画像処理装置およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005252392A (ja) * 2004-03-01 2005-09-15 Canon Inc 画像処理装置及び方法、並びにコンピュータプログラム及びコンピュータ可読記憶媒体
JP2009070260A (ja) * 2007-09-14 2009-04-02 Shinko Electric Co Ltd 画像処理装置、画像処理方法及びプログラム
JP2013172166A (ja) * 2012-02-17 2013-09-02 Nikon Corp 画像処理装置、撮像装置及びプログラム
CN103777852A (zh) * 2012-10-18 2014-05-07 腾讯科技(深圳)有限公司 一种获取图像的方法、装置
EP2733925A2 (en) * 2012-11-19 2014-05-21 Samsung Electronics Co., Ltd Photographing apparatus and method for controlling image processing thereof
CN103793888A (zh) * 2014-02-18 2014-05-14 厦门美图网科技有限公司 一种基于参照图像的主要颜色的图像增强方法

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106454097A (zh) * 2016-10-29 2017-02-22 深圳市金立通信设备有限公司 一种拍照方法及拍照设备
CN110383801A (zh) * 2017-03-03 2019-10-25 杜比实验室特许公司 不均匀颜色空间中的颜色饱和度调整
CN110383801B (zh) * 2017-03-03 2021-08-10 杜比实验室特许公司 不均匀颜色空间中的颜色饱和度调整
US11301972B2 (en) 2017-03-03 2022-04-12 Dolby Laboratories Licensing Corporation Color saturation adjustment in non-uniform color space
CN107295218A (zh) * 2017-05-27 2017-10-24 维沃移动通信有限公司 一种图片处理方法及移动终端
CN113676594A (zh) * 2021-08-19 2021-11-19 邹段练 一种手机相机app辅助拍照方法

Also Published As

Publication number Publication date
US9424633B2 (en) 2016-08-23
CN105323502B (zh) 2019-01-25
US20150348249A1 (en) 2015-12-03
JP6349962B2 (ja) 2018-07-04
AU2014268148A1 (en) 2015-12-17
JP2015226164A (ja) 2015-12-14
US9805284B2 (en) 2017-10-31
US20160335516A1 (en) 2016-11-17
AU2014268148B2 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
CN105323502A (zh) 图像处理设备和图像处理方法
JP5512928B2 (ja) 美的に高められた画像変換のための方法および装置
US7242409B2 (en) Interpolated color transform for changing color of an application user interface
JP4758836B2 (ja) 色調整用プログラム、色調整装置、および色調整方法
JP6786850B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP4905552B2 (ja) 画質調整能力測定方法、装置およびプログラム、並びに画質調整方法、装置およびプログラム
US9025224B2 (en) Image-color-correcting method using a multitouch screen
JP2014146300A (ja) 画像処理装置及び画像処理プログラム
US20150249810A1 (en) Image processing apparatus and method, image processing system, and non-transitory computer readable medium
US9489748B2 (en) Image processing apparatus and method, image processing system, and non-transitory computer readable medium
US9111477B2 (en) Language-based color calibration of displays
US9723286B2 (en) Image processing apparatus and control method thereof
US8462171B2 (en) Saturation contrast image enhancement
KR100791374B1 (ko) 색역 내에 존재하는 색상을 영상 적응적으로 조절하는 방법및 장치
JP6711020B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JPS59105439A (ja) 医用画像表示装置
JP7023688B2 (ja) プログラム、情報処理装置、および情報処理方法
CN105306833A (zh) 图像处理装置和图像处理方法
JP6919433B2 (ja) 画像処理装置、画像処理方法、画像処理システムおよびプログラム
JP6681008B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
KR102214439B1 (ko) 저전력 모드를 위한 영상 처리 방법 및 장치
US20130033516A1 (en) Method of generating a final colour version of a source image from a first set of different intermediate colour versions
Hogervorst Colour Interpolation in Gradient Meshes
JP2015035755A (ja) 明度調整装置、明度調整方法、およびプログラム
JP2001258049A (ja) 画像データの変換方法、圧縮方法およびその装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: Tokyo

Patentee after: Fuji film business innovation Co.,Ltd.

Address before: Tokyo

Patentee before: Fuji Xerox Co.,Ltd.

CP01 Change in the name or title of a patent holder