CN101917546A - 图像处理装置及图像处理方法 - Google Patents
图像处理装置及图像处理方法 Download PDFInfo
- Publication number
- CN101917546A CN101917546A CN2010102283401A CN201010228340A CN101917546A CN 101917546 A CN101917546 A CN 101917546A CN 2010102283401 A CN2010102283401 A CN 2010102283401A CN 201010228340 A CN201010228340 A CN 201010228340A CN 101917546 A CN101917546 A CN 101917546A
- Authority
- CN
- China
- Prior art keywords
- image
- subject
- zone
- background
- indication
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/74—Circuits for processing colour signals for obtaining special effects
- H04N9/75—Chroma key
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Studio Circuits (AREA)
Abstract
本发明提供一种图像处理装置及图像处理方法。照相机装置(100)包括:记录介质(9)、操作输入部(12)、和图像合成部(8g)。记录介质(9)将图像与该图像拍摄时的拍摄条件建立关联并存储。操作输入部(12)从该记录介质(9)中读出多个图像并指示合成。图像合成部(8g)从记录介质(9)中读出与由操作输入部(12)指示合成的多个图像分别建立了关联的拍摄条件,按照与一个图像的拍摄条件相接近的方式来合成另一个图像。
Description
技术领域
本发明涉及一种用于合成多幅图像的图像处理装置及图像处理方法。
背景技术
目前,通过将被拍摄对象图像与背景用图像及帧图像合成而生成合成图像的技术已经为人们所知。例如,JP特开2004-159158号公报中公开了这种技术。
然而,在合成被拍摄对象图像与背景用图像的情况下,仅仅简单地将这些图像重叠在一起会带来合成图像不自然的问题。另外,即使采用强调立体感的背景用图像,也存在着仅仅能平面地表现相对于背景用图像完全重叠了被拍摄对象图像的问题。
发明内容
本发明的目的在于能够生成不和谐感低的合成图像。
为了实现上述目的,本发明的图像处理装置,其特征在于,包括:存储单元,其将图像与该图像拍摄时的拍摄条件建立关联并存储多个;指示单元,其指示对该存储单元中所存储的多个图像之间进行合成;图像处理单元,其由所述存储单元读出与由该指示单元指示合成的图像分别建立了关联的拍摄条件,并按照与一张图像的拍摄条件相接近的方式来处理另一张图像;以及合成单元,其对由该图像处理单元处理后的所述另一张图像与所述一张图像进行合成。
另外,本发明的图像处理方法,其特征在于,包括:区域指示步骤,在至少二张图像中指示一张图像内应当合成另一张图像的区域;亮度获取步骤,获取在该区域指示步骤中指示的一张图像的应当合成的区域的亮度;以及合成步骤,按照所述另一张图像的亮度与在所述亮度获取步骤中获取的一张图像的应当合成的区域的亮度相接近的方式,来进行处理,并合成所述两张图像。
另外,本发明的另一种图像处理方法,其特征在于,包括:确定步骤,在至少两张图像中,确定一张图像中的光源的位置;位置指示步骤,在所述一张图像中,指示应当合成另一张图像的位置;以及合成步骤,基于所述一张图像的光源的位置和在所述位置指示步骤中指示的位置,对所述另一张图像进行处理,并合成所述两张图像。
附图说明
图1是表示适用于本发明的一个实施方式的照相机装置的大致结构的方框图。
图2是表示关于用图1的照相机装置从包含被拍摄对象的背景图像中剪切被拍摄对象的处理的操作的一个例子的流程图。
图3是表示关于用图1的照相机装置进行背景用图像拍摄处理的操作的一个例子的流程图。
图4是表示关于用图1的照相机装置进行被拍摄对象合成图像生成处理的操作的一个例子的流程图。
图5是表示关于在图4的被拍摄对象合成图像生成处理中的图像合成处理的一个例子的流程图。
图6是示意性表示用于说明图2的从包含被拍摄对象的背景图像中提取被拍摄对象图像的处理的图像的一个例子的图。
图7是示意性表示用于说明图4的被拍摄对象合成图像生成处理的图像的一个例子的图。
图8是示意性表示用于说明图4的被拍摄对象合成图像生成处理的图像的一个例子的图。
图9是表示关于用图1的照相机装置进行变形例的被拍摄对象合成图像生成处理的操作的一个例子的流程图。
具体实施方式
以下,对于本发明来说,用附图来说明具体的方式。但是发明的范围不限定于图示的例子中。
图1是表示适用于本发明的一个实施方式的照相机装置100的大致结构的方框图。
本实施方式的照相机装置100从背景用图像P1中检测出具有多个特征的区域C。接下来,照相机装置100在具有多个特征的区域C中,确定出与包含非显示区域的被拍摄对象图像P2内的被拍摄对象图像(前景图像)D相比更配置于前景的前景区域C1。在此,在具有多个特征的区域C中,与被拍摄对象图像D相比位于前景的图像为C1,与被拍摄对象图像D相比位于后景的图像为C2。而且,照相机装置100以该前景区域C1作为该被拍摄对象图像D的前景,来对背景用图像P1和被拍摄对象图像D进行合成。
具体地说,如图1所示,照相机装置100包括:透镜部1、电子拍摄部2、拍摄控制部3、图像数据生成部4、图像存储器5、特征量运算部6、块匹配部7、图像处理部8、记录介质9、显示控制部10、显示部11、操作输入部12、以及CPU13。
另外,拍摄控制部3、特征量运算部6、块匹配部7、图像处理部8、以及CPU13例如被设计为定制LSI(custom LSI)。
透镜部1由多个透镜构成,包括变焦透镜和聚焦透镜等。
另外,透镜部1省略了图示,但是优选包括:在对被拍摄对象进行拍摄时使变焦透镜在光轴方向上移动的变焦驱动部、和使聚焦透镜在光轴方向上移动的合焦驱动部。
电子拍摄部2例如由CCD(Charge Coupled Device)和CMOS(Complementary Metal-oxide Semiconductor)等图像传感器构成,将透过透镜部1的各个透镜的光学像变换成二维图像信号。
拍摄控制部3省略了图示,但是它包括定时发生器、驱动器等。而且,拍摄控制部3通过定时发生器、驱动器来扫描驱动电子拍摄部2,并由电子拍摄部2按每个规定周期将光学像变换成二维图像信号,从该电子拍摄部2的拍摄区域中读出每个画面的图像帧,并输出给图像数据生成部4。
另外,拍摄控制部3进行被拍摄对象的拍摄条件的调整控制。具体地说,拍摄控制部3具备进行使透镜部1在光轴方向上移动并调整合焦条件的自动合焦处理的AF部3a。
此外,作为拍摄条件的调整控制,拍摄控制部3进行AE(自动曝光处理)和AWB(自动白平衡)等。
这样来构成的透镜部1、电子拍摄部2、以及拍摄控制部3作为拍摄单元,对与图像合成处理有关的背景用图像P1(参考图7A)和包含被拍摄对象的背景图像E1(参考图6A)进行拍摄。
另外,透镜部1、电子拍摄部2、以及拍摄控制部3在对包含被拍摄对象的背景图像E1进行拍摄之后,在固定了对包含该被拍摄对象的背景图像E1进行拍摄时的拍摄条件的状态下,为了生成包含非显示区域的被拍摄对象图像P2(参考图7C)而拍摄仅有背景的图像E2(参考图6B)。
图像数据生成部4在对从电子拍摄部2所传送的图像帧的模拟值的信号按RGB每种颜色成分进行了适当增益调整之后,由采样保持电路(图示略)进行采样保持,并由A/D变换器(图示略)变换成数字数据,在颜色处理电路(图示略)中进行了包括像素插值处理以及γ补正处理在内的颜色处理之后,生成数字值的亮度信号Y和色差信号Cb、Cr(YUV数据)。
从颜色处理电路所输出的亮度信号Y和色差信号Cb、Cr经由图中未示出的DMA控制器被DMA传送到用作缓冲存储器的图像存储器5中。
图像存储器5例如由DRAM等构成。图像存储器5暂时存储特征量运算部6、块匹配部7、图像处理部8、和CPU13等作为处理对象的数据等。
特征量运算部6以仅有背景的图像E2为基准,进行从该仅有背景的图像E2中提取特征点的特征提取处理。具体地说,特征量运算部6例如基于仅有背景的图像E2的YUV数据,选出规定数(或规定数以上)的特征较高的块区域(或者特征较高的点),以该块的内容作为模版(例如,16×16像素的正方形)进行提取。
在此,所谓的特征提取处理就是从多个候补块中选择在追踪方面情况较好、特征性较高的块的处理。
块匹配部7在生成包含非显示区域的被拍摄对象图像P2时,执行用于对仅有背景的图像E2与包含被拍摄对象的背景图像E1进行位置对照的块匹配处理。具体地说,块匹配部7搜索在特征提取处理中所提取的模版与包含被拍摄对象的背景图像E1内的何处(这个模版对应于何处)相对应,即,搜索在包含被拍摄对象的背景图像E1内模版的像素值(在包含被拍摄对象的背景图像E1中)最佳对应(match)的位置(对应区域)。并且,计算像素值差异度的评价值(例如,差分平方和(SSD)及差分绝对值和(SAD)等)最小的仅有背景的图像E2与包含被拍摄对象的背景图像E1之间的最佳偏移量,作为该模块的运动矢量。
图像处理部8具备被拍摄对象图像生成部8a,其用于生成包含非显示区域的被拍摄对象图像P2的图像数据。具体地说,虽然省略了图示,但是被拍摄对象图像生成部8a包括:图像位置对照部、被拍摄对象区域提取部、位置信息生成部、被拍摄对象图像生成部等。
图像位置对照部基于从仅有背景的图像E2中所提取的特征高的块区域,计算出与仅有背景的图像E2相对的、包含被拍摄对象的背景图像E1的各个像素的坐标变换式(射影变换矩阵),根据该坐标变换式对包含被拍摄对象的背景图像E1进行坐标变换,并进行与仅有背景的图像E2的位置对照。
被拍摄对象区域提取部生成由图像位置对照部进行了位置对照后的、在包含被拍摄对象的背景图像E1与仅有背景的图像E2之间对应的各个像素的差分信息,以该差分信息作为基准,从包含被拍摄对象的背景图像E1中提取出包含被拍摄对象区域的被拍摄对象图像D。
位置信息生成部确定从包含被拍摄对象的背景图像E1中提取的被拍摄对象图像D的位置,然后生成用于在包含被拍摄对象的背景图像E1中指示被拍摄对象图像D的位置的位置信息(例如,α映射)。
在此,所谓的α映射是指,对于包含被拍摄对象的背景图像E1的各个像素来说,将在被拍摄对象图像D的图像相对于规定背景进行α混合时的权重表示为α值(0≤α≤1)。
图像生成部基于所生成的α映射,在包含被拍摄对象的背景图像E1的各个像素中,相对于规定的单色图像(图示略)来说,不显示α值为1的像素,而且,相对于规定的单色图像(图示略)来说,显示α值为0的像素,从而将被拍摄对象D与规定的单色图像进行合成,并生成包含非显示区域的被拍摄对象图像P2的图像数据。
另外,图像处理部8具备用于检测背景用图像P1中具有特征的区域C的特征区域检测部8b。
特征区域检测部8b采用图像数据的颜色信息等,根据对比度变化来在图像中确定并检测出具有球和草木这些特征的区域C(参考图7B)。
此外,具有特征的区域C的检测可以通过利用背景用图像P1的像素值的边缘并提取轮廓线来进行。
另外,图像处理部8具备距离信息获取部8c,其用于获取到由透镜部1、电子拍摄部2、以及拍摄控制部3所拍摄到的图像中的规定区域为止的距离信息。
这个距离信息获取部8c在对背景用图像P1进行拍摄时,获取到具有多个特征的区域C为止的距离信息。具体地说,距离信息获取部8c在对背景用图像P1进行拍摄时,从拍摄控制部3的AF部3a中获取与在自动合焦处理中由合焦驱动部(图示略)所移动的聚焦透镜的光轴方向的位置有关的透镜位置信息,并基于该透镜位置信息获取到具有多个特征的区域C为止的距离。另外,距离信息获取部8c在对包含被拍摄对象的背景图像E1进行拍摄时,从拍摄控制部3的AF部3a中获取与在自动合焦处理中由合焦驱动部(图示略)所移动的聚焦透镜的光轴方向的位置有关的透镜位置信息,并基于该透镜位置信息来获取到被拍摄对象区域为止的距离。
在此,距离信息获取部8c在对背景用图像P1进行拍摄时,获取到具有多个特征的区域C为止的距离信息。另外,距离信息获取部8c在对包含被拍摄对象的背景图像E1进行拍摄时,构成用于获取到被拍摄对象区域为止的距离信息的距离信息获取单元。
此外,获取到被拍摄对象区域为止的距离信息,例如可以基于规定的换算程序的执行来进行,也可以采用规定的换算表来进行。
另外,图像处理部8还具备特征区域确定部8d,其用于在由特征区域检测部8b所检测的具有多个特征的区域C中,确定与包含非显示区域的被拍摄对象图像P2中的被拍摄对象图像(前景图像)D相比配置在前景中的前景区域C1。
具体地,特征区域确定部8d对由距离信息获取部8c获取的到被拍摄对象区域为止的距离信息和到具有多个特征的区域C为止的距离信息进行比较,判断被拍摄对象图像D和具有多个特征的区域C的前后位置。并且,特征区域确定部8d将被判断为与被拍摄对象图像D相比位于前景的具有特征的区域C确定为前景区域C1。
这里,特征区域确定部8d包括有确定单元,其用于在具有多个特征的区域C中,确定与包含非显示区域的被拍摄对象图像P2中的被拍摄对象图像D相比配置在前景中的前景区域C1。
另外,图像处理部8具备特征区域图像复制部8e,其用于复制由特征区域确定部8d所确定的前景区域C1的图像。
具体地说,特征区域图像复制部8e提取由特征区域确定部8d所确定的前景区域C1的图像,然后复制该前景区域C1的图像的图像数据。
在此,特征区域图像复制部8e包括有复制单元,其用于复制由特征区域确定部8d所确定的前景区域C1的图像的图像数据。
另外,图像处理部8具备图像合成部8f作为合成单元,其用于对背景用图像P1与包含非显示区域的被拍摄对象图像P2进行合成。
具体地说,图像合成部8f在背景用图像P1的各个像素中,显示α值为0的像素(相对于包含非显示区域的被拍摄对象图像P2,显示背景用图像P1的各个像素),α值为1的像素以包含非显示区域的被拍摄对象图像P2的对应的像素的像素值来写入覆盖背景用图像P1的像素,进而,背景用图像P1的各个像素中,α值处于0<α<1的像素采用1的补数(1-α)在生成提取了被拍摄对象图像D的图像(背景用图像×(1-α))之后,在α映射中采用1的补数(1-α)在生成包含非显示区域的被拍摄对象图像P2时,计算与单一背景色进行混合后的α值,从包含非显示区域的被拍摄对象图像P2中减去该α值,并对该减去的α值的图像与(从包含非显示区域的被拍摄对象图像P2中)提取了被拍摄对象图像D的图像(背景用图像×(1-α))进行合成。
另外,图像处理部8具备合成控制部8g,其用于在背景用图像P1与被拍摄对象图像D进行图像合成时,在图像合成部8f中使由特征区域确定部8d所确定的前景区域C1成为被拍摄对象图像D的前景,从而进行合成。
合成控制部8g,具体地说,在图像合成部8f中合成背景用图像P1与被拍摄对象图像D之后,使前景区域C1与包含非显示区域的被拍摄对象图像P2中的被拍摄对象图像D相比作为前景,以此方式来合成由特征区域图像复制部8e所复制的前景区域C1的图像。这时,在前景区域C1的图像的图像数据中,基于作为Exif信息而附加的该前景区域C1的特征区域位置信息(稍后描述),按照使前景区域C1回到背景用图像P1中原来位置的方式来对照位置并进行合成。
由此,例如,在图7B中,对于像球这样的前景区域C1的位置与被拍摄对象图像D重叠的情况来说,以作为被拍摄对象图像D的前景的方式被合成。另一方面,例如,在图7B中,对于像左侧的草这样的前景区域C1的位置不与被拍摄对象图像D重合的情况来说,不进行前景区域C1的合成,只保持背景用图像P1不变。
在此,合成控制部8g包括有合成控制单元,其用于在进行背景用图像P1与被拍摄对象图像D的图像合成之时,在图像合成部8f中将由特征区域确定部8d所确定的前景区域C1作为被拍摄对象图像D的前景来进行合成。
记录介质9例如可由非易失性存储器(闪存)等构成。记录介质9存储由图像处理部8的JPEG压缩部(图示略)进行编码后的包含非显示区域的被拍摄对象图像P2、背景用图像P1、以及前景区域C1的图像的图像数据。
另外,将包含非显示区域的被拍摄对象图像P2的图像数据与由被拍摄对象图像生成部8a的位置信息生成部所生成的α映射建立对应,并将包含该非显示区域的被拍摄对象图像P2的图像数据的扩展名保存为“.jpe”。另外,包含非显示区域的被拍摄对象图像P2的图像数据由附加了由距离信息获取部8c所获取的到被拍摄对象区域为止的距离信息来作为Exif信息的Exif形式的图像文件构成。
另外,在背景用图像P1的图像数据由Exif形式的图像文件构成,Exif形式的图像文件中存在具有特征的区域C的图像的图像数据的情况下,将该具有特征的区域C的图像的确定用信息、以及由距离信息获取部8c所获取的到具有特征的区域C为止的距离信息作为Exif信息来附加。
另外,具有特征的区域C的图像的图像数据将背景用图像P1中与该具有特征的区域C的位置有关的特征区域位置信息等各种信息作为Exif信息来附加。
另外,前景区域C1的图像的图像数据由将在背景用图像P1中与该前景区域C1的位置有关的特征区域位置信息等各种信息作为Exif信息来附加的Exif形式的图像文件构成。
显示控制部10读出图像存储器5中暂存的显示用图像数据,并对在显示部11中的显示进行控制。
具体地说,显示控制部10具备VRAM、VRAM控制器、数字视频编码器等。并且,数字视频编码器在CPU13的控制下从图像存储器5中读取的存储在VRAM(图示略)中的亮度信号Y及色差信号Cb、Cr,经由VRAM控制器从VRAM中定期地读取,然后以这些数据为基础产生视频信号并输出到显示部11中。
显示部11例如是液晶显示装置。显示部11基于来自显示控制部10的视频信号,将电子拍摄部2所拍摄的图像等显示成显示画面。具体地说,在拍摄模式下,显示部11基于通过由透镜部1、电子拍摄部2、以及拍摄控制部3对被拍摄对象进行拍摄所生成的多个图像帧,来显示实时取景图像,或显示作为主要拍摄图像而拍摄的记录浏览(rec view)图像。
操作输入部12用于进行该照相机装置100的规定操作。具体地说,操作输入部12具备:与被拍摄对象的拍摄指示有关的快门按键12a、与拍摄模式和功能等的选择指示有关的选择决定按键12b、与变焦量的调整指示有关的变焦按键(图示略)等,响应于这些按键的操作而向CPU13输出规定的操作信号。
CPU13用于控制照相机装置100的各个部件。具体地说,CPU13根据照相机装置100用的各种处理程序(图示略)进行各种控制操作。另外,CPU13基于由用户对选择决定按键12b的规定操作而检测背景用图像P1与被拍摄对象图像D的合成指示。
接着,参考图2对由照相机装置100从包含被拍摄对象的背景图像中提取仅有被拍摄对象图像的图像的处理进行说明。
图2是表示关于从包含被拍摄对象的背景图像中提取仅有被拍摄对象图像的图像的处理的操作的一个例子的流程图。
从包含被拍摄对象的背景图像中提取仅有被拍摄对象图像的图像的处理是基于由用户对操作输入部12的选择决定按键12b的规定操作,在从菜单画面中所显示的多个拍摄模式中选择指示被拍摄对象生成模式的情况下所执行的处理。
如图2所示,首先,CPU13基于通过由透镜部1、电子拍摄部2、以及拍摄控制3对被拍摄对象进行拍摄所生成的多个图像帧,在显示控制部10中将实时取景图像显示于显示部11的显示画面中,同时按照在该实时取景图像上进行重叠的方式在显示部11的显示画面中显示包含被拍摄对象的背景图像E1的拍摄指示消息(步骤S1)。
然后,CPU13在拍摄控制部3中调整聚焦透镜的合焦位置,在用户对操作输入部12的快门按键12a进行拍摄指示操作的时刻,在规定的拍摄条件下由电子拍摄部2对包含被拍摄对象的背景图像E1的光学像进行拍摄(步骤S2)。然后,CPU13在图像处理部8的距离信息获取部8c中获取从这时的聚焦透镜的光轴方向的位置到被拍摄对象区域为止的距离信息(步骤S3)。此外,由图像数据生成部4所生成的包含被拍摄对象的背景图像E1的YUV数据被暂存于图像存储器5中。
另外,CPU13控制拍摄控制部3,保持在固定了对包含该被拍摄对象的背景图像E1进行拍摄时的合焦位置、曝光条件、白平衡等条件的状态。
此后,CPU13基于通过由透镜部1、电子拍摄部2、以及拍摄控制部3对被拍摄对象进行拍摄而生成的多个图像帧,在显示控制部10中将实时取景图像显示于显示部11的显示画面中,同时在该实时取景图像上进行重叠,在显示部11的显示画面中显示包含被拍摄对象的背景图像E1的半透明显示状态的图像和仅有背景的图像E2的拍摄指示消息(步骤S4)。此后,用户使被拍摄对象移动到画角外,或者等待被拍摄对象移动之后,再进行仅有背景的图像E2的拍摄。
然后,由用户按照将仅有背景的图像E2与包含被拍摄对象的背景图像E1的半透明图像重合的方式调整照相机位置,在用户对操作输入部12的快门按键12a进行拍摄指示操作的时刻,CPU13在拍摄控制部3中,由电子拍摄部2在对包含被拍摄对象的背景图像E1进行拍摄后,在固定拍摄条件下,对仅有背景的图像E2的光学像进行拍摄(步骤S5)。此外,由图像数据生成部4生成的仅有背景的图像E2的YUV数据被暂存于图像存储器5中。
接着,CPU13以图像存储器5中暂存的仅有背景的图像E2的YUV数据为基准,在特征量运算部6、块匹配部7、和图像处理部8中以规定的图像变换模型(例如,相似变换模型、或者合同变换模型)计算出用于对包含被拍摄对象的背景图像E1的YUV数据进行射影变换的射影变换矩阵。
具体地说,特征量运算部6基于仅有背景的图像E2的YUV数据,选择规定数(或规定数以上)的(对比度值等的)特征较高的块区域(或者特征高的点),将该块区域的内容提取为模板。然后,块匹配部7在包含被拍摄对象的背景图像E1中搜索在特征提取处理中所提取的模板的像素值最佳匹配的位置,计算像素值差异度的评价值最小的仅有背景的图像E2与包含被拍摄对象的背景图像E1之间的最佳偏移量,来作为该模板的运动矢量。并且,被拍摄对象图像生成部8a的图像位置对照部基于由块匹配部7所计算出的多个模板的运动矢量来统计计算出全部的运动矢量,采用与该运动矢量相关的特征点对应来计算出包含被拍摄对象的背景图像E1的射影变换矩阵。之后,图像位置对照部基于所计算出的射影变换矩阵来对包含被拍摄对象的背景图像E1进行射影变换,并对射影变换后的包含被拍摄对象的背景图像E1的YUV数据与仅有背景的图像E2的YUV数据之间进行位置对照(步骤S6)。
并且,被拍摄对象图像生成部8a的被拍摄对象区域提取部从包含被拍摄对象的背景图像E1中提取被拍摄对象图像D(步骤S7)。
具体地说,被拍摄对象区域提取部分别针对包含被拍摄对象的背景图像E1的YUV数据和仅有背景的图像E2的YUV数据,启动低通滤波器来除去各个图像的高频成分。之后,被拍摄对象区域提取部针对在低通滤波后的包含被拍摄对象的背景图像E1与仅有背景的图像E2之间相对应的各个像素,计算出差异度,生成差异度映射。接着,被拍摄对象区域提取部以规定的阈值对与各个像素相关的差异度映射进行2值化,之后,进行压缩处理,用于从差异度映射中去除由于细微的噪声和手抖而产生差别的区域。之后,被拍摄对象区域提取部进行标识(labeling)处理,除去规定值以下的区域和最大区域以外的区域之后,把最大条纹的图案确定为被拍摄对象图像D,进行用于修正缩小程度的放大处理。
然后,被拍摄对象图像生成部8a的位置信息生成部生成用于表示所提取的被拍摄对象图像D的被拍摄对象被包含在背景图像E1内的位置的α映射(步骤S8)。
之后,被拍摄对象图像生成部8a的生成部生成将被拍摄对象图像与规定的单色图像合成之后的包含非显示区域的被拍摄对象图像P2的图像数据(步骤S9)。
具体地说,生成部读出包含被拍摄对象的背景图像E1、单色图像、以及α映射,并在图像存储器5中展开后,对于包含被拍摄对象的背景图像E1的全部像素,使α值为0的像素(α=0)透过,对α值为0<α<1的像素(0<α<1)与规定的单色进行混合,对α值为1的像素不进行任何操作,使其相对于规定单色无法透过。
之后,CPU13基于由生成部所生成的包含非显示区域的被拍摄对象P2的图像数据,在显示控制部10中将以规定单色重叠被拍摄对象之后的包含非显示区域的被拍摄对象P2显示于显示部11的显示画面中(步骤S10)。
接下来,CPU13在记录介质9的规定存储区域中,将由位置信息生成部所生成的α映射、由距离信息获取部8c所获取的到被拍摄对象区域为止的距离信息、和包含非显示区域的被拍摄对象P2的图像数据建立对应,并以“.jpe”作为包含该非显示区域的被拍摄对象P2的图像数据的扩展名来保存文件(步骤S11)。
由此,结束被拍摄对象剪切处理。
接下来,参考图3对由照相机装置100进行背景用图像拍摄处理进行说明。
图3是显示有关背景用图像拍摄处理的操作的一个例子的流程图。
如图3所示,首先,CPU13在拍摄控制部3中调整聚焦透镜的合焦位置和曝光条件(快门速度、光圈、放大率等)和白平衡等拍摄条件,在用户对操作输入部12的快门按键12a进行拍摄指示操作的时刻,在规定的拍摄条件下,由电子拍摄部2对背景用图像P1(参考图7A)的光学像进行拍摄(步骤S21)。
接下来,CPU13在特征区域检测部8b中采用在步骤S21中所拍摄的背景用图像P1的图像数据的颜色信息等,根据对比度变化来确定并检测出图像中具有球和草木这些特征的区域C(参考图7B)(步骤S22)。
接下来,特征区域检测部8b判断是否检测出背景用图像P1中的具有特征的区域C(步骤S23)。
在此,当判断检测到了具有特征的区域C时(步骤S23:是),CPU13在距离信息获取部8c中,在背景用图像P1拍摄时,从拍摄控制部3的AF部3a中获取在自动合焦处理中由合焦驱动部(图示略)移动的聚焦透镜的光轴方向的位置相关的透镜位置信息,并基于该透镜位置信息来获取到具有特征的区域C为止的距离信息(步骤S24)。
并且,特征区域图像复制部8c复制背景用图像P1中具有特征的区域C的图像的图像数据(步骤S25)。接下来,CPU13在记录介质9的规定存储区域中,记录以下图像数据:附加有该具有特征的区域C的图像的确定用信息和由距离信息获取部8c所获取的到具有特征的区域C为止的距离信息来作为Exif信息的、在步骤S21中所拍摄的背景用图像P1的图像数据;以及附加有背景用图像P1中与该具有特征的区域C的位置有关的特征区域位置信息等的各种信息来作为Exif信息的具有特征的区域C的图像数据(步骤S26)。
另一方面,当在步骤S23中判断为没有检测到具有特征的区域C(步骤S23:否)时,CPU13在记录介质9的规定存储区域中记录在步骤S21中所拍摄的背景用图像P1的图像数据(步骤S27)。
由此,结束背景用图像拍摄处理。
接下来,参考图4和图5来说明用照相机装置100进行被拍摄对象合成图像生成处理。
图4是表示关于被拍摄对象合成图像生成处理有关的操作的一个例子的流程图。
被拍摄对象合成图像生成处理采用图像处理部8的合成部8f和合成控制部8g,对背景用图像P1与包含非显示区域的被拍摄对象P2中的被拍摄对象图像D进行合成,并生成被拍摄对象合成图像。
如图4所示,首先,基于用户对操作输入部12的指示操作,当选择并指定在记录介质9中所记录的多个图像中包含期望的非显示区域的被拍摄对象P2时(步骤S31),图像处理部8读取所指定的包含非显示区域的被拍摄对象P2的图像数据,并在图像存储器5中展开,同时特征区域确定部8d读出并获取与该图像数据建立了对应后进行存储的到被拍摄对象区域为止的距离信息(步骤S32)。
接下来,基于用户对操作输入部12的规定操作,当选择并指定在记录介质9中所记录的多个图像中的期望背景用图像P1时,合成部8f读取所指定的背景用图像P1的图像数据,并在图像存储器5中展开(步骤S33)。
接下来,图像合成部8f采用在图像存储器5中所展开的该背景用图像P1和包含该非显示区域的被拍摄对象P2中的被拍摄对象图像D,进行图像合成处理(步骤S34)。
在此,参考图5对图像合成处理进行详细地说明。
图5是表示关于图像合成处理的操作的一个例子的流程图。
如图5所示,合成部8f读取以“.jpe”保存的α映射,并在图像存储器5中展开(步骤S341)。
接下来,图像合成部8f指定背景用图像P1中任一个像素(例如,左上角的像素)(步骤S342),对于该像素,基于α映射的α值进行分支处理(步骤S343)。具体地说,合成部8f对于背景用图像P1的任何一个像素中α值为1的像素(步骤S343;α=1),以包含非显示区域的被拍摄对象图像P2的对应像素的像素值来写入覆盖(步骤S344),对于α值为0<α<1的像素(步骤S343,0<α<1),采用1的补数在生成剪切了被拍摄对象图像D的图像(背景用图像×(1-α))之后,在α映射中采用1的补数(1-α)在生成包含非显示区域的被拍摄对象图像P2时,计算单色背景色与混合后的(α)值,从包含非显示区域的被拍摄对象图像P2中减去该(α)值,将由包含非显示区域的被拍摄对象图像P2减去的α值与剪切了被拍摄对象图像D后的图像(背景用图像×(1-α))(的α值)进行合成(步骤S345),对于α值为0的像素(步骤S343:α=0),不进行操作,而是显示背景用图像P1(对于包含非显示区域的被拍摄对象图像P2)。
接着,图像合成部8f判断是否要对背景用图像P1的所有像素进行(图像合成)处理(步骤S346)。
在此,在判断为不对(背景用图像P1的)全部像素进行(图像合成)处理时(步骤S346:否),合成部8f将处理对象移动到下一个像素(步骤S347),并将(图像合成)处理转移到步骤S343中。
重复执行上述的(图像合成)处理,直到在步骤S346中判断为已经对(背景用图像P1的)全部像素进行了处理为止(步骤S346:是),从而图像合成部8f生成已经对被拍摄对象图像D与背景用图像P1进行了合成后的被拍摄对象合成图像P4(参考图8B)的图像数据。
由此,结束图像合成处理。
如图4所示,之后,CPU13基于在读出的背景用图像P1的图像数据中被存储为Exif信息的具有特征的区域C的图像的确定用信息,判断是否存在从该背景用图像P1中提取的具有特征的区域C的图像的图像数据(步骤S35)。
在此,当判断为存在具有特征的区域C的图像的图像数据时(步骤S35:是),合成部8f基于该背景用图像P1的图像数据中被存储为Exif信息的具有特征的区域C的图像的确定用信息,读出具有特征的区域C的图像的图像数据,同时特征区域确定部8d读出并获取与背景用图像P1的图像数据建立了对应后存储的到具有特征的区域C为止的距离信息(步骤S36)。
接下来,特征区域确定部8d,对基于在步骤S36中读出的到具有特征的区域C为止的距离信息的距离的值,判断其是否小于基于在步骤S32中读出的到被拍摄对象区域为止的距离信息的距离的值(步骤S37)。
在此,在判断为基于到该具有特征的区域C为止的距离信息的距离的值比基于到该被拍摄对象区域为止的距离信息的距离的值小时(步骤S37:是),图像合成控制部8g在图像合成部8f中使前景区域C1与被拍摄对象图像D的前景重合,从而在背景用图像P1中将重叠了被拍摄对象图像D的被拍摄对象合成图像P4与前景区域C1的图像进行合成,并生成被拍摄对象合成图像P3的图像数据(步骤S38)。接着,CPU13在显示控制部10中基于由图像合成部8f所生成的被拍摄对象合成图像P3的图像数据,按照前景区域C1重叠于被拍摄对象图像D的前景中的方式,将合成的被拍摄对象合成图像P3显示于显示部11的显示画面中(步骤S39;参考图8A)。
另一方面,在步骤S37中,在判断为基于到该具有特征的区域C为止的距离信息的距离的值不小于基于到该被拍摄对象区域为止的距离信息的距离的值时(步骤S37:否),CPU13转移到步骤S39中进行处理,在显示部11的显示画面中显示在背景用图像P1中重叠了被拍摄对象图像D的被拍摄对象合成图像P4(步骤S39;参考图8B)。
另外,在步骤S35中,当判断为不存在具有特征的区域C的图像的图像数据时(步骤S35:否),CPU13转移到步骤S39进行处理,在显示部11的显示画面中显示在背景用图像P1中重叠了被拍摄对象图像D的被拍摄对象合成图像P4(步骤S39;参考图8B)。
由此,结束被拍摄对象合成图像生成处理。
如上所述,采用本实施方式的照相机装置100,从背景用图像P1中所检测出的具有特征的区域C中,确定与被拍摄对象图像D相比被配置于前景的前景区域C1,将该前景区域C1重叠于被拍摄对象图像D的前景,从而合成背景用图像P1与被拍摄对象图像D,这样就可以在背景用图像P1中使被拍摄对象是否存在于背景之内地进行显示,能够生成不和谐感低的合成图像。
另外,在对背景用图像P1进行拍摄时,获取到具有特征的区域C为止的距离信息,基于这个到具有特征的区域C为止的距离信息来确定前景区域C1。具体地说,在对包含被拍摄对象的背景图像E1进行拍摄时,获取到被拍摄对象区域为止的距离信息,将这个到被拍摄对象区域为止的距离信息与背景用图像P1中到具有特征的区域C为止的距离信息相比较,判断被拍摄对象图像D与具有特征的区域C的前后位置,由于能够将被判断为与被拍摄对象D相比位于前景中的具有特征的区域C确定为前景区域C1,所以可基于到该被拍摄对象区域为止的距离信息以及到具有特征的区域C为止的距离信息,来进行客观判断,以确定前景区域C1,并更适当地生成不和谐感低的合成图像。
此外,虽然在上述实施方式中由特征区域确定部8d自动地确定前景区域C1,但是特征区域的确定方法不限于此,例如,可以将基于用户对选择决定按键12b的规定操作所指定的规定区域确定为前景区域C1。
以下,说明在本发明的上述实施方式中照相机装置100的变形示例。
<变形示例>
变形示例的照相机装置100具备自动确定模式和手动确定模式,在该自动确定模式中,在由特征区域检测部8b所检测的具有特征的区域C中,在确定与被拍摄对象图像D相比配置于前景的前景区域C1时,由特征区域确定部8d自动地确定前景区域C1;在该手动确定模式中,在对背景用图像P1进行拍摄并在显示部11的显示画面中显示(该背景用图像P1)时,将用户指定的规定区域确定为前景区域C1。
并且,在对背景用图像P1进行拍摄时,通过用户对选择决定按键12b的操作,来选择决定自动确定模式和手动确定模式中的任一个。
另外,操作输入部12的选择决定按键12b在手动确定模式中,基于用户的规定操作来输入在背景用图像P1中规定的区域的指定指示。并且,响应于该选择决定按键12b的操作,向CPU13输出规定区域的指定信号。
CPU13根据所输入的区域指定信号,在特征区域检测部8b中将该规定区域检测为具有特征的区域C,在特征区域确定部8d中将由特征区域检测部8b所检测出的具有特征的区域C的图像确定为前景区域C1。
在此,选择决定按键12b及CPU13构成用于指定所显示的背景用图像P1中的规定区域的指定单元。
接下来,参考图9对于采用变形示例中的照相机装置100进行被拍摄对象合成图像生成处理进行说明。
图9是表示在对背景用图像P1进行拍摄时,通过用户对选择决定按键12b的操作选择决定了手动确定模式的情况下关于被拍摄对象合成图像生成处理的操作的一个例子的流程图。
如图9所示,首先,在基于用户对操作输入部12的规定操作来选择并指定在记录介质9中所记录的多个图像中包含期望的非显示区域的被拍摄对象P2时,图像处理部8(从记录介质9中)读出所指定的包含非显示区域的被拍摄对象P2的图像数据,并在图像存储器5中展开(步骤S41)。
接下来,在基于用户对操作输入部12的规定操作来选择并指定在记录介质9中所记录的多个图像中期望的背景用图像P1时,图像合成部8f(从记录介质9中)读出所指定的背景用图像P1的图像数据,并在图像存储器5中展开(步骤S42)。
接下来,对于显示控制部10,CPU13基于图像存储器5中所展开的背景用图像P1的图像数据,将背景用图像P1显示于显示部11的显示画面(步骤S43)。
接下来,CPU13基于用户对选择决定按键12b的规定操作,根据是否已向CPU13输出了规定区域的指定信号,来判断是否指定了在显示部11的显示画面中所显示的背景用图像P1中的规定区域(步骤S44)。
在此,当(由CPU13)判断为已经指定了规定区域时(步骤S44:是),CPU13在特征区域检测部8b中将该规定区域检测为具有特征的区域C,在特征区域确定部8d中将由特征区域检测部8b所检测的具有特征的区域C的图像确定为前景区域C1,在特征区域图像复制部8e中复制该前景区域C1(步骤S45)。
接下来,图像合成部8f采用在图像存储器5中所展开的该背景用图像P1和包含该非显示区域的被拍摄对象图像P2中的被拍摄对象图像D,进行图像合成处理(步骤S46)。此外,由于图像合成处理与上述实施方式中相同,因此省略了对其的详细说明。
接下来,图像合成控制部8g在图像合成部8f中以规定区域图像作为被拍摄对象图像D的前景,从而将在背景用图像P1中重叠了被拍摄对象图像D的被拍摄对象合成图像P4与规定区域图像进行合成(步骤S48)。接着,CPU13在图像显示控制部10中基于由图像合成部8f所生成的被拍摄对象合成图像的图像数据,在显示部11的显示画面中显示以规定区域图像作为被拍摄对象图像D的前景来合成的被拍摄对象合成图像(步骤S49)。
另一方面,当(由CPU13)判断为没有指定规定区域时(步骤S44:否),合成部8f采用在图像存储器5中所展开的该背景用图像P1与包含该非显示区域的被拍摄对象图像P2中的被拍摄对象图像D,进行图像合成处理(步骤S47)。此外,由于图像合成处理与上述实施方式中相同,因此省略了对其的详细说明。
之后,CPU13转移到步骤S49中进行被拍摄对象合成图像处理,在显示部11的显示画面中显示在背景用图像P1中重叠了被拍摄对象图像D的被拍摄对象合成图像P4(步骤S49)。
由此,结束被拍摄对象合成图像生成处理。
如上所述,采用变形示例的照相机装置100,可根据用户对选择决定按键12b的规定操作,指定在显示部11中所显示的背景用图像P1中的规定区域,将所指定的规定区域确定为前景区域C1。
因此,能够将用户期望的规定区域确定为前景区域C1,使合成图像的生成更富有趣味。
此外,本发明不限于上述实施方式,在不脱离本发明主旨的范围内可以进行各种改进和设计变更。
例如,在上述实施方式中,虽然采用了前景区域C1重叠于被拍摄对象图像D的前景中的方式来合成背景用图像P1与被拍摄对象图像D,但是也可以生成从背景用图像P1中提取前景区域C1后的图像,将(从背景用图像P1中)取出该前景区域C1后的图像与被拍摄对象图像D进行合成之后,再将前景区域C1重叠于被拍摄对象图像D的前景中,从而将这个合成后的图像与前景区域C1进行合成。
另外,在变形示例中,根据用户对选择决定按键12b的规定操作,指定在显示部11中所显示的背景用图像P1中的规定区域,将所指定的规定区域确定为前景区域C1,但是,该变形示例不限于此,也可以按照能够识别由图像处理部8的特征区域检测部8b所检测出的具有特征的区域C的方式,在显示部11中显示背景用图像P1,从在显示部11中所显示的该具有特征的区域C之中,用户指定具有所期望的特征的区域C,并确定为前景区域C1。
另外,在变形示例中,虽然是根据用户对选择决定按键12b的规定操作来指定规定区域,但是,该变形示例不限于此,显示部11也可以具备触摸屏,根据用户对触摸屏的规定操作来指定规定区域。
此外,特征区域确定部8d也可以在由特征区域检测部8b所检测的具有特征的区域C中确定与被拍摄对象图像D相比配置于后侧的后景区域(后景图像)C2。并且,在具有特征的区域C中确定与被拍摄对象图像D相比配置于后侧的后景区域,将所确定的前景区域C1重叠于被拍摄对象图像D的前景,并且将所确定的后景区域与被拍摄对象图像D相比配置于后侧,从而对背景用图像P1与被拍摄对象图像D进行合成。
另外,在上述实施方式中例示了照相机装置100的结构的一个例子,其结构不限于此。即虽然例示了作为图像合成装置的照相机装置,但是图像合成装置不限于此,至少可适当任意地变更包括合成单元、指示检测单元、确定单元、合成控制单元的结构。例如,背景用图像P1和包含非显示区域的被拍摄对象图像P2的生成可以采用不同于该照相机装置100的拍摄装置来进行,可以是能够记录从该拍摄装置所传送的图像数据、被拍摄对象区域、到具有特征的区域C为止的距离信息,并仅执行包含非显示区域的被拍摄对象图像生成处理的图像合成装置。
进而,虽然在上述实施方式中被构造成在CPU13的控制下通过图像处理部8的驱动来实现确定单元、合成控制单元的功能,但是其不限于此,也可以构造成由CPU13执行规定程序等来实现。
即,在存储程序的程序存储器(图示略)中,存储了包括确定处理例程、图像合成控制例程在内的程序。并且,通过确定处理例程可使CPU13实现确定单元的功能,即从背景用图像P1中确定与被拍摄对象图像D相比应当存在于前景的前景区域。另外,通过合成控制例程可使CPU13实现合成控制单元的功能,即以由确定处理例程所确定的前景区域C1作为被拍摄对象图像D的前景,从而合成背景用图像P1与被拍摄对象图像D。
Claims (14)
1.一种图像处理装置,包括:
存储单元,其将图像与该图像拍摄时的拍摄条件建立关联并存储多个;
指示单元,其指示对该存储单元中所存储的多个图像之间进行合成;
图像处理单元,其由所述存储单元读出与由该指示单元指示合成的图像分别建立了关联的拍摄条件,并按照与一张图像的拍摄条件相接近的方式来处理另一张图像;以及
合成单元,其对由该图像处理单元处理后的所述另一张图像与所述一张图像进行合成。
2.根据权利要求1所述的图像处理装置,其特征在于,
该图像处理装置进一步包括:
判断单元,其判断与由所述指示单元指示合成的图像分别建立了关联的拍摄条件是否大致一致,
所述图像处理单元在由该判断单元判断为拍摄条件不是大致一致的情况下,按照与一张图像的拍摄条件相接近的方式来处理另一张图像。
3.根据权利要求1所述的图像处理装置,其特征在于,
所述拍摄条件包括所述图像拍摄时的对比度以及色调中的至少一个。
4.根据权利要求1所述的图像处理装置,其特征在于,
所述拍摄条件包括所述图像拍摄时相对于该图像的水平面的倾斜度,
所述图像处理单元由所述存储单元中读出用于表示该水平面的倾斜度的信息,按照与一张图像的倾斜度相接近的方式来使另一张图像的倾斜度发生变化。
5.根据权利要求1所述的图像处理装置,其特征在于,
该图像处理装置还包括:
拍摄单元;
拍摄条件获取单元,其获取该拍摄单元拍摄时的拍摄条件;
存储控制单元,其进行控制,以便将由所述拍摄单元拍摄的图像与由所述拍摄条件获取单元获取的拍摄条件建立关联,并存储于所述存储单元。
6.根据权利要求1所述的图像处理装置,其特征在于,
所述另一张图像是从存在背景与被拍摄对象的图像中剪切出包含有被拍摄对象的区域的被拍摄对象图像。
7.一种图像处理装置,包括:
区域指示单元,其在至少两张图像中指示一张图像内应当合成另一张图像的区域;
亮度获取单元,其获取由该区域指示单元指示的一张图像的应当合成的区域的亮度;以及
合成单元,其按照所述另一张图像的亮度与由所述亮度获取单元获取的一张图像的应当合成的区域的亮度相接近的方式,来进行处理,并合成所述两张图像。
8.根据权利要求7所述的图像处理装置,其特征在于,
所述另一张图像是从存在背景与被拍摄对象的图像中剪切出包含被拍摄对象的区域的被拍摄对象图像。
9.一种图像处理装置,包括:
确定单元,其在至少两张图像中,确定一张图像中的光源的位置;
位置指示单元,其在所述一张图像中,指示应当合成另一张图像的位置;以及
合成单元,其基于所述一张图像的光源的位置和由所述位置指示单元指示的位置,对所述另一张图像进行处理,并合成所述两张图像。
10.根据权利要求9所述的图像处理装置,其特征在于,
所述处理包括对所述另一张图像的亮度进行调整的处理、以及在所述另一张图像中添加阴影的处理中的至少一个。
11.根据权利要求10所述的图像处理装置,其特征在于,
所述另一张图像是从存在背景与被拍摄对象的图像中剪切出包含被拍摄对象的区域的被拍摄对象图像。
12.一种图像处理方法,包括:
存储步骤,将图像与该图像拍摄时的拍摄条件建立关联并对其存储多个;
指示步骤,指示对在该存储步骤中所存储的多个图像之间进行合成;
图像处理步骤,在所述存储步骤中读出与在该指示步骤中指示合成的图像分别建立了关联的拍摄条件,并按照与一张图像的拍摄条件相接近的方式来处理另一张图像;以及
合成步骤,对在该图像处理步骤中处理后的所述另一张图像与所述一张图像进行合成。
13.一种图像处理方法,包括:
区域指示步骤,在至少两张图像中指示一张图像内应当合成另一张图像的区域;
亮度获取步骤,获取在该区域指示步骤中指示的一张图像的应当合成的区域的亮度;以及
合成步骤,按照所述另一张图像的亮度与在所述亮度获取步骤中获取的一张图像的应当合成的区域的亮度相接近的方式,来进行处理,并合成所述两张图像。
14.一种图像处理方法,包括:
确定步骤,在至少两张图像中,确定一张图像中的光源的位置;
位置指示步骤,在所述一张图像中,指示应当合成另一张图像的位置;以及
合成步骤,基于所述一张图像的光源的位置和在所述位置指示步骤中指示的位置,对所述另一张图像进行处理,并合成所述两张图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310053505.XA CN103139485B (zh) | 2009-03-19 | 2010-03-18 | 图像合成装置及图像合成方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009068030A JP5105550B2 (ja) | 2009-03-19 | 2009-03-19 | 画像合成装置及びプログラム |
JP2009-068030 | 2009-03-19 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310053505.XA Division CN103139485B (zh) | 2009-03-19 | 2010-03-18 | 图像合成装置及图像合成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101917546A true CN101917546A (zh) | 2010-12-15 |
Family
ID=42737233
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010102283401A Pending CN101917546A (zh) | 2009-03-19 | 2010-03-18 | 图像处理装置及图像处理方法 |
CN201310053505.XA Expired - Fee Related CN103139485B (zh) | 2009-03-19 | 2010-03-18 | 图像合成装置及图像合成方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310053505.XA Expired - Fee Related CN103139485B (zh) | 2009-03-19 | 2010-03-18 | 图像合成装置及图像合成方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20100238325A1 (zh) |
JP (1) | JP5105550B2 (zh) |
CN (2) | CN101917546A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102685365A (zh) * | 2011-03-11 | 2012-09-19 | 索尼公司 | 图像合成装置、图像合成方法和图像合成程序 |
CN102999928A (zh) * | 2011-03-31 | 2013-03-27 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN103309557A (zh) * | 2012-03-06 | 2013-09-18 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN103312974A (zh) * | 2012-03-14 | 2013-09-18 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN103903213A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种拍摄方法和电子设备 |
CN104243798A (zh) * | 2013-06-14 | 2014-12-24 | 索尼公司 | 图像处理装置、服务器和存储介质 |
CN107710731A (zh) * | 2015-06-26 | 2018-02-16 | 麦克赛尔株式会社 | 摄像装置以及图像处理方法 |
CN109948525A (zh) * | 2019-03-18 | 2019-06-28 | Oppo广东移动通信有限公司 | 拍照处理方法、装置、移动终端以及存储介质 |
CN111475664A (zh) * | 2019-01-24 | 2020-07-31 | 阿里巴巴集团控股有限公司 | 对象展示方法、装置及电子设备 |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8331723B2 (en) * | 2004-03-25 | 2012-12-11 | Ozluturk Fatih M | Method and apparatus to correct digital image blur due to motion of subject or imaging device |
KR20120035042A (ko) * | 2010-10-04 | 2012-04-13 | 삼성전자주식회사 | 디지털 영상 촬영 장치 및 이의 제어 방법 |
EP2667586A1 (en) * | 2012-05-22 | 2013-11-27 | BlackBerry Limited | Method and device for composite image creation |
US8830356B2 (en) | 2012-05-22 | 2014-09-09 | Blackberry Limited | Method and device for composite image creation |
US8891870B2 (en) * | 2012-11-09 | 2014-11-18 | Ge Aviation Systems Llc | Substance subtraction in a scene based on hyperspectral characteristics |
CN104579908B (zh) | 2013-10-21 | 2019-08-02 | 腾讯科技(深圳)有限公司 | 图像显示的方法及装置 |
JP2016142658A (ja) * | 2015-02-03 | 2016-08-08 | オリンパス株式会社 | 状況把握装置、状況把握方法、及び状況把握のためのプログラム |
CN105872408A (zh) * | 2015-12-04 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 图像处理方法及设备 |
JP7191514B2 (ja) * | 2018-01-09 | 2022-12-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
CN115052551A (zh) * | 2020-03-11 | 2022-09-13 | 索尼奥林巴斯医疗解决方案公司 | 医疗图像处理装置和医疗观察系统 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3193930B2 (ja) * | 1992-07-08 | 2001-07-30 | 松下電器産業株式会社 | 画像入力合成装置 |
JPH08153213A (ja) * | 1994-09-29 | 1996-06-11 | Hitachi Ltd | 画像合成表示方法 |
JP3375852B2 (ja) * | 1997-06-13 | 2003-02-10 | 三洋電機株式会社 | ディジタルカメラ |
JP4108171B2 (ja) * | 1998-03-03 | 2008-06-25 | 三菱電機株式会社 | 画像合成装置 |
JP2000209425A (ja) * | 1998-11-09 | 2000-07-28 | Canon Inc | 画像処理装置及び方法並びに記憶媒体 |
JP4136420B2 (ja) * | 2002-03-29 | 2008-08-20 | キヤノン株式会社 | 情報処理方法および装置 |
KR100752870B1 (ko) * | 2002-05-28 | 2007-08-29 | 가시오게산키 가부시키가이샤 | 합성화상출력장치, 합성화상출력방법 및 기록매체 |
JP2004015286A (ja) * | 2002-06-05 | 2004-01-15 | Seiko Epson Corp | ディジタルカメラ |
CN100477745C (zh) * | 2002-08-09 | 2009-04-08 | 夏普株式会社 | 图像合成装置和图象合成方法 |
US6888569B2 (en) * | 2002-10-02 | 2005-05-03 | C3 Development, Llc | Method and apparatus for transmitting a digital picture with textual material |
FI114601B (fi) * | 2003-06-11 | 2004-11-15 | Nokia Corp | Menetelmä ja järjestelmä kuvan käsittelemiseksi, laite sekä kuvatallenne |
JP4468658B2 (ja) * | 2003-06-16 | 2010-05-26 | 三菱プレシジョン株式会社 | 演算処理方法及びその装置並びに画像合成方法及びその装置 |
JP2005094741A (ja) * | 2003-08-14 | 2005-04-07 | Fuji Photo Film Co Ltd | 撮像装置及び画像合成方法 |
JP2006309626A (ja) * | 2005-04-28 | 2006-11-09 | Ntt Docomo Inc | 任意視点画像生成装置 |
JP2007241687A (ja) * | 2006-03-09 | 2007-09-20 | Casio Comput Co Ltd | 撮像装置及び画像編集装置 |
US20080088718A1 (en) * | 2006-10-17 | 2008-04-17 | Cazier Robert P | Template Creator For Digital Cameras |
JP4996221B2 (ja) * | 2006-12-06 | 2012-08-08 | 株式会社シグマ | 被写界深度調整方法及びそのユーザインターフェイスを有する撮影装置 |
JP4571617B2 (ja) * | 2006-12-28 | 2010-10-27 | 三星デジタルイメージング株式会社 | 撮像装置及び撮像方法 |
-
2009
- 2009-03-19 JP JP2009068030A patent/JP5105550B2/ja active Active
-
2010
- 2010-03-18 CN CN2010102283401A patent/CN101917546A/zh active Pending
- 2010-03-18 CN CN201310053505.XA patent/CN103139485B/zh not_active Expired - Fee Related
- 2010-03-19 US US12/727,816 patent/US20100238325A1/en not_active Abandoned
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102685365A (zh) * | 2011-03-11 | 2012-09-19 | 索尼公司 | 图像合成装置、图像合成方法和图像合成程序 |
CN102999928A (zh) * | 2011-03-31 | 2013-03-27 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN103309557A (zh) * | 2012-03-06 | 2013-09-18 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN103312974A (zh) * | 2012-03-14 | 2013-09-18 | 卡西欧计算机株式会社 | 图像处理装置以及图像处理方法 |
CN103903213A (zh) * | 2012-12-24 | 2014-07-02 | 联想(北京)有限公司 | 一种拍摄方法和电子设备 |
CN104243798A (zh) * | 2013-06-14 | 2014-12-24 | 索尼公司 | 图像处理装置、服务器和存储介质 |
CN104243798B (zh) * | 2013-06-14 | 2018-12-04 | 索尼公司 | 图像处理装置、服务器和存储介质 |
CN107710731A (zh) * | 2015-06-26 | 2018-02-16 | 麦克赛尔株式会社 | 摄像装置以及图像处理方法 |
CN107710731B (zh) * | 2015-06-26 | 2021-05-04 | 麦克赛尔株式会社 | 摄像装置以及图像处理方法 |
CN111475664A (zh) * | 2019-01-24 | 2020-07-31 | 阿里巴巴集团控股有限公司 | 对象展示方法、装置及电子设备 |
CN111475664B (zh) * | 2019-01-24 | 2023-06-09 | 阿里巴巴集团控股有限公司 | 对象展示方法、装置及电子设备 |
CN109948525A (zh) * | 2019-03-18 | 2019-06-28 | Oppo广东移动通信有限公司 | 拍照处理方法、装置、移动终端以及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20100238325A1 (en) | 2010-09-23 |
JP5105550B2 (ja) | 2012-12-26 |
JP2010224607A (ja) | 2010-10-07 |
CN103139485A (zh) | 2013-06-05 |
CN103139485B (zh) | 2016-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101917546A (zh) | 图像处理装置及图像处理方法 | |
CN101827214B (zh) | 图像处理装置及图像处理方法 | |
CN104519278B (zh) | 图像处理装置、图像处理方法以及记录介质 | |
US7649564B2 (en) | Image pickup apparatus with brightness distribution chart display capability | |
CN102348056B (zh) | 图像合成装置和图像合成方法 | |
CN101136066B (zh) | 拍摄装置、方法 | |
CN101790035B (zh) | 照相机 | |
CN108537155A (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
CN101764934A (zh) | 摄像装置及图像处理方法 | |
CN102209197A (zh) | 摄像装置及摄像方法 | |
CN101909152B (zh) | 摄像装置 | |
CN105144684B (zh) | 摄像装置和图像处理方法 | |
CN102158644A (zh) | 图像合成装置和图像合成方法 | |
US9092659B2 (en) | Subject determination apparatus that determines whether or not subject is specific subject | |
CN102567729B (zh) | 区域特定方法、区域特定装置、服务器及系统 | |
CN103428464B (zh) | 被摄体识别设备和被摄体识别方法 | |
CN101854475B (zh) | 摄像装置、图像处理方法及记录介质 | |
CN1312908C (zh) | 数码相机 | |
CN107205112A (zh) | 摄像装置、摄像方法以及记录介质 | |
CN102542251B (zh) | 被摄体检测装置以及被摄体检测方法 | |
CN103685928A (zh) | 图像处理装置以及图像处理方法 | |
CN106550186B (zh) | 姿态估计装置、姿态估计方法以及记录介质 | |
JP5083080B2 (ja) | 画像マッチング装置、およびカメラ | |
JP2006074483A (ja) | 撮像装置 | |
CN114339029B (zh) | 拍摄方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20101215 |