CN101931747A - 图像处理装置及电子设备 - Google Patents
图像处理装置及电子设备 Download PDFInfo
- Publication number
- CN101931747A CN101931747A CN2009101731963A CN200910173196A CN101931747A CN 101931747 A CN101931747 A CN 101931747A CN 2009101731963 A CN2009101731963 A CN 2009101731963A CN 200910173196 A CN200910173196 A CN 200910173196A CN 101931747 A CN101931747 A CN 101931747A
- Authority
- CN
- China
- Prior art keywords
- main objects
- cuts
- zone
- cut
- test section
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
本发明提供一种图像处理装置及电子设备。切取处理部具备:从输入图像中检测主要被摄物的主要被摄物检测部、确定包括所检测的主要被摄物在内的切取区域的切取区域确定部、和从输入图像中切取切取区域的一部分而生成切取图像的切取部。切取区域确定部以所检测的主要被摄物的位置成为切取区域中的规定位置的方式来确定切取区域。
Description
本发明基于2008年9月25日申请的日本特愿2008-245849号和2009年7月24日申请的日本特愿2009-172838号。
本发明涉及一种切取输入图像的一部分而得到希望的切取图像的图像处理装置或具备该图像处理装置的电子设备。
背景技术
近年来,利用CCD(Charge Coupled Device)或CMOS(ComplimentaryMetal Oxide Semiconductor)传感器等的图像传感器进行拍摄的数码相机或数码摄像机等的拍摄装置或者显示图像的液晶显示器等的显示装置正被广泛普及。另外,作为这种拍摄装置或显示装置,从成为处理对象的图像(以下,作为输入图像)切取规定区域,并且对切取的区域的图像(以下,作为切取图像)进行记录或者进行显示。
通过进行这种切取处理而能够谋求拍摄的简易化。具体地说,例如使用户拍摄成为广角的输入图像,并且对得到的输入图像进行切取处理,进行包含用户特别想要拍摄的被摄物(以下,作为主要被摄物)在内的区域的切取。若进行这种处理,则因为得到包含主要被摄物的取景图像,故无需用户集中追踪被摄物。特别是,仅将拍摄装置简单地朝向主要被摄物就足够了。
可是,根据输入图像的切取方法而产生不能得到适当的切取图像的问 题。例如,有时主要被摄物的大部分在切取区域外,而选择了主要被摄物缺失较大的切取区域。又例如,有时虽然主要被摄物包括在切取区域内,但是因为在切取区域内几乎不包括主要被摄物的周围状况而使周围状况变得不清楚。
另外,在拍摄时或再生时,若用户逐一(例如,以规定的时间间隔)指定切取区域,则可选择希望的切取区域。但是,在拍摄中或再生中多次指定切取区域,则又变得困难且复杂。
发明内容
本发明中的图像处理装置,具备以下的部件:主要被摄物检测部,其检测输入图像中的主要被摄物的位置;切取区域确定部,其确定包括由所述主要被摄物检测部检测的所述主要被摄物的位置的切取区域;和切取部,其从所述输入图像中切取所述切取区域,以生成切取图像,其中,所述切取区域确定部以使由所述主要被摄物检测部检测的所述主要被摄物的位置成为所述切取区域中的规定位置的方式,确定所述切取区域。
本发明中的电子设备,具备上述的图像处理装置,其中,对从所述图像处理装置输出的所述切取图像进行记录或进行再生。
附图说明
图1是表示本发明实施方式中的拍摄装置的构成的框图。图2是表示在本发明实施方式中的拍摄装置所具备的切取处理部的基本构成的框图。图3是表示在本发明实施方式中的拍摄装置所具备的切取处理部的 基本动作的流程图。图4是对第一实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。图5是对第二实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。图6A是对第三实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。图6B是对第三实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。图7是对第五实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。图8A是对第一实施例的切取区域确定部的切取方法的一例进行说明的示意图。图8B是对第一实施例的切取区域确定部的切取方法的一例进行说明的示意图。图9A是对第二实施例的切取区域确定部的切取方法的一例进行说明的示意图。 图9B是对第二实施例的切取区域确定部的切取方法的一例进行说明的示意图。图9C是对第二实施例的切取区域确定部的切取方法的一例进行说明的示意图。图10A是对第三实施例的切取区域确定部的切取方法的一例进行说明的示意图。图10B是对第三实施例的切取区域确定部的切取方法的一例进行说明的示意图。图11是对第三实施例的切取区域确定部的切取方法的另一例进行说明的示意图。图12是表示在主要被摄物具备多个构成被摄物的情况下也能生成切取图像的切取处理部的构成的一例的框图。图13是表示基于多个主要被摄物而确定的切取区域的一例的示意 图。图14是表示基于多个主要被摄物而确定的切取区域的一例的示意图。图15是表示基于多个主要被摄物而确定的切取区域的一例的示意图。图16是对本发明的另一实施方式中的拍摄装置的基本构成进行表示的框图。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。首先,对作为本发明中的电子设备的一例的拍摄装置进行说明。且有,以下说明的拍摄装置可记录数码相机等的声音、运动图像及静止图像。
<<拍摄装置>>首先,参照图1对拍摄装置的构成进行说明。图1是表示本发明的实施方式中的拍摄装置的构成的框图。
如图1所示,拍摄装置1具备:由将所入射的光学像变换为电信号的CCD或CMOS传感器等的固体拍摄元件构成的图像传感器2、和使被摄物的光学像在图像传感器2中成像并且进行光量等调整的透镜部3。由透镜部3和图像传感器2构成拍摄部,并通过该拍摄部生成图像信号。且有,透镜部3具备变焦透镜或聚焦透镜等各种透镜(未图示),或调整输入到图像传感器2中的光量的光圈(未图示)等。
拍摄装置1还具备:AFE(Analog Front End)4,其将作为从图像传感器2中输出的模拟信号的图像信号变换为数字信号并且进行增益调整;集音部5,其将所输入的声音变换为电信号;图像处理部6,其将成为从AFE4输出的R(红)、G(绿)、B(蓝)的数字信号的图像信号变换为利用了Y(亮度信号)U、V(色差信号)的信号并且对图像信号实施各种 图像处理;声音处理部7,其将作为从集音部5输出的模拟信号的声音信号变换为数字信号;压缩处理部8,其对从图像处理部6输出的图像信号实施JPEG(Joint Photographic Experts Group)压缩方式等的静止图像用的压缩编码处理,或者对从图像处理部6输出的图像信号和来自声音处理部7的声音信号实施MPEG(Moving Picture Experts Group)压缩方式等运动图像用的压缩编码处理;外部存储器10,其记录由压缩处理部8所压缩编码后的压缩编码信号;驱动部9,其在外部存储器10中记录压缩编码信号或者从外部存储器10中读取压缩编码信号;扩展处理部11,其将驱动部9中从外部存储器10读取出的压缩编码信号进行扩展并解码。另外,图像处理部6具备切取处理部60,该切取处理部60从所输入的图像信号中切取一部分而得到新的图像信号。
另外,拍摄装置1具备:图像输出电路部12,其将在扩展处理部11中解码后的图像信号变换为在显示器等显示装置(未图示)中可显示的形式的信号;和声音输出电路部13,其将在扩展处理部11中解码后的声音信号变换为在扬声器等再生装置(未显示)中可再生的形式的信号。
另外,拍摄装置1具备:CPU(Central Processing Unit)14,其控制拍摄装置1内整体的动作;存储器15,其存储用于进行各处理的各程序并且进行程序执行时的数据的暂时保管;操作部16,其输入开始拍摄的按钮或进行各种设定的确定等的按钮等来自用户的指示;定时信号发生器(TG)部17,其输出用于使各部的动作定时一致的定时控制信号;总线18,其用于在CPU16与各部之间进行数据交换;总线19,其用于在存储器15与各部之间进行数据交换。
另外,只要外部存储器10能够记录图像信号或声音信号,无论由什么构成都可以。例如,能够将SD(Secure Digital)卡等的半导体存储器、DVD等的光盘、硬盘等的磁盘等作为该外部存储器10来使用。另外,也可从拍摄装置1中自由装卸外部存储器10。
接着,利用图1对拍摄装置1的基本动作进行说明。首先,拍摄装置1通过在图像传感器2中对由透镜部3入射的光进行光电变换,从而取得作为电信号的图像信号。并且,图像传感器2与从TG部17输入的定时控制信号同步地以规定的帧周期(例如,1/30秒)依次向AFE4输出图像信号。并且,由AFE4从模拟信号变换为数字信号的图像信号被输入到图像处理部6。在图像处理部6中,将图像信号变换为利用了YUV的信号并且实施灰度修正或轮廓强调等各种图像处理。另外,存储器15作为帧存储器而动作,在图像处理部6进行处理时暂时保持图像信号。
另外,此时基于被输入到图像处理部6的图像信号,在透镜部3中,调整各种透镜的位置,以进行焦距的调整;或者调整光圈的开度,以进行曝光的调整。该焦距或曝光的调整,或者基于规定的程序自动进行,或者基于用户的指示手动地进行,以便分别达到最佳状态。另外,图像处理部6所具备的切取处理部60进行切取所输入的图像信号的一部分而生成新的图像信号的处理。
在记录运动图像的情况下,不仅记录图像信号也可以记录声音信号。在集音部5中被变换为电信号并输出的声音信号被输入到声音处理部7而进行数字化并且被实施去除噪声等处理。并且,从图像处理部6输出的图像信号和从声音处理部7输出的声音信号都被输入到压缩处理部8中,并在压缩处理部8中利用规定的压缩方式进行压缩。此时,图像信号与声音信号在时间上建立关联,再生时构成为图像和声音没有偏差。并且,被压缩的图像信号及声音信号经由驱动部9被记录在外部存储器10中。
另一方面,如果在仅记录静止图像或声音的情况下,则图像信号或声音信号在压缩处理部8中利用规定的压缩方法进行压缩,并被存储在外部存储器10中。且有,在记录运动图像的情况和记录静止图像的情况下,也可以构成为在图像处理部6中进行的处理不同。
被记录在外部存储器10中的压缩后的图像信号及声音信号基于用户 指示被读取到扩展处理部11。在扩展处理部11中,对压缩过的图像信号及声音信号进行扩展,并将图像信号输出到图像输出电路部12,将声音信号输出到声音输出电路部13。并且,在图像输出电路部12或声音输出电路部13中,被变换为在显示装置或扬声器中可显示或可再生的形式的信号后输出。
且有,显示装置或扬声器也可与拍摄装置1成为一体,即使不成为一体也可以利用电缆等与拍摄装置1所具备的端子连接。
另外,在不进行图像信号的记录而是用户确认显示装置等中被显示的图像、即所谓的预览模式的情况下,也可以不压缩从图像处理部6输出的图像信号就输出到图像输出电路部12。另外,在记录运动图像的图像信号时,也可以与在压缩处理部8中进行压缩并在外部存储器10中记录的动作并行地经由图像输出电路部12向显示装置等输出图像信号。
且有,图像处理部6所具备的切取处理部60根据需要可以从拍摄装置1的各部(例如,声音处理部7或压缩处理部8等)取得各种信息(例如,声音信号或压缩处理时的编码信息)。其中,在图1中省略了表示这些信息被输入到切取处理部60的箭头的图示。
<<切取处理部>>接着,参照附图对图1示出的切取处理部60的基本构成进行说明。图2是表示本发明实施方式中的摄像装置所具备的切取处理部的基本构成的框图。且有,以下为使说明具体化,将输入到切取处理部60而进行切取处理的图像信号作为图像进行表现并且称为“输入图像”。另外,将从切取处理部60输出的图像信号称为“切取图像”。
切取处理部60具备:主要被摄物检测部61,其基于主要被摄物检测用信息,检测主要被摄物的输入图像中的位置并输出主要被摄物位置信息;切取区域确定部62,其基于主要被摄物位置信息来确定切取图像的 取景,并且确定切取区域而输出切取区域信息;和切取部63,其基于切取区域信息对输入图像进行切取而生成切取图像。
作为主要被摄物检测用信息,例如能够利用输入图像或与输入图像对应的声音信号、压缩处理部8压缩处理时的编码信息等。且有,以下对利用了这些主要被摄物检测用信息的主要被摄物的检测方法进行详细地说明。
另外,向切取区域确定部62中输入取景信息。所谓取景信息是指示将包括所检测出的主要被摄物的位置在内的哪个区域应该被确定为切取区域的信息。该取景信息例如在初始设定时由用户输入。且有,以下对由切取区域确定部62进行的切取区域的确定方法进行详细地说明。
参照附图对切取处理部60的基本动作进行说明。图3是表示本发明实施方式中的拍摄装置所具备的切取处理部的基本动作的流程图。如图3所示,切取处理部60取得成为最初进行切取的对象的输入图像(STEP1)。
另外,主要被摄物检测部61进行所取得的输入图像包含的主要被摄物的检测(STEP2)。特别是,主要被摄物检测部61利用作为与在STEP1中取得的输入图像对应的信息的主要被摄物检测用信息,进行主要被摄物的检测。并且,输出主要被摄物位置信息。
接着,切取区域确定部62基于主要被摄物位置信息,确定切取区域并输出切取区域信息(STEP3)。并且,切取部63从输入图像中切取切取区域信息表示的区域而生成切取图像(STEP4)。
在此,确认是否输入了结束切取处理的指示(STEP5)。在未输入结束切取处理的指示的情况下(STEP5,“否”),返回到STEP1并进行下一帧的输入图像的取得。并且,进行上述的STEP2~4的动作,进行下一帧的切取图像的生成。另一方面,在输入了结束切取处理的指示的情况下 (STEP5,“是”),则结束。
通过采取这种构成,能够从输入图像中切取成为包括所检测出的主要被摄物在内的希望的取景的图像而生成切取图像。特别是,用户不必对输入图像逐一地确定切取区域就能够确定主要被摄物的位置相应的切取区域。因此,能够容易及正确地生成包括了主要被摄物的切取图像。
<<主要被摄物检测部>>接着,对主要被摄物检测部61的检测方法详细地举出了各实施例并且参照附图进行说明。
【第一实施例:主要被摄物检测部】在第一实施例的主要被摄物检测部61中,基于图像信息检测主要被摄物。特别是,作为图2示出的主要被摄物检测用信息而利用输入图像,并且基于该输入图像进行主要被摄物的检测。更具体地说,对输入图像实施面部检测处理而检测面部区域,并将该面部区域的位置作为主要被摄物的位置。
参照附图对面部检测处理方法的一例进行说明。图4是对第一实施方式的主要被摄物检测部的检测方法的一例进行说明的示意图。特别是,对面部检测处理方法的一例进行表示。且有,图4中示出的方法只是一例,作为面部检测处理方法也可以构成为利用现有的任意一种方法。
在本例中,通过比较输入图像和权重表来检测面部。作为权重表是根据大量的教师采样(面部及非面部的采样图像)而求出的。这种权重表例如能够利用被称为Adaboost的公知的学习方法来制作(Yoav Freund,Robert E.Schapire,″A decision-theoretic generalization of on-line leamingand an application to boosting″,European Conference on ComputationalLearning Theory,September 20,1995.)。该Adaboost是自适应提升学习方法之一,是以大量的教师采样为基础从多个弱识别器候补中选择有效识 别的多个弱识别器并通过对他们加权后统合来实现高精度的识别器的学习方法。在此,所谓弱识别器是指识别能力比所有的偶然高但是却不是越满足足够精度越是高精度的识别器。在选择弱识别器时,在存在已选择的弱识别器的情况下,通过对由选择完成的弱识别器进行误识别的教师采样进行重点化学习,进而从残留的弱识别器候补中选择效果最高的弱识别器。
如图4所示,首先根据输入图像30,例如以缩小率0.8进行等级化而生成缩小图像31~35。另外,在各图像30~35中进行判断的判断区域60的大小,在图像30~35的任一个中都相等。并且,如图中的箭头所示,在各图像上,使判断区域40自左至右移动而进行水平方向的扫描。另外,通过自上至下进行该水平扫描而能够扫描图像整体。此时,进行与判断区域40匹配的面部图像的检测。在此,通过生成输入图像30以外的多个缩小图像31~35,从而可利用一种权重表来检测大小不同的面部。另外,扫描顺序并不限定于此,什么样的顺序都可以。
匹配是由从粗略判断依次移行到精细判断的多个判断步骤构成。并且,在某个判断步骤中未检测出面部的情况下,不移行到下一个判断步骤而判断为:该判断区域40中不存在面部。只有在全部的判断步骤中都检测出面部的情况下,判断为在该判断区域40中存在面部,扫描判断区域并移行到下一个判断区域40中的判断。且有,上述的例子虽然检测正脸,但是也可以通过利用侧脸采样等检测主要被摄物的面部的朝向等。
通过利用上述方法等进行面部检测处理而能够从输入图像中检测包含主要被摄物的面部在内的面部区域。并且,本实施例的主要被摄物检测部61例如将所检测出的面部区域的输入图像中的位置信息作为主要被摄物位置信息进行输出。
通过采取本实施例的构成,从而能够容易且正确地得到以主要被摄物的面部的表情为中心的取景的切取图像。
且有,也可以通过面部检测来检测主要被摄物的面部的朝向,并包括在主要被摄物位置信息中。另外,为了检测主要被摄物的面部的朝向,例如可以在上述的检测方法的例子中利用侧脸采样。且有,也可以进行将特定人物的面部作为采样进行记录并检测特定面部的面部识别处理。另外,也可以将检测出的多个面部区域作为主要被摄物位置信息进行输出。
【第二实施例:主要被摄物检测部】在第二实施例的主要被摄物检测部61中,利用跟踪处理来检测主要被摄物的位置。另外,在本实施例中,作为图2中示出的主要被摄物检测用信息也利用输入图像。
参照附图对跟踪处理方法的一例进行说明。图5是对第二实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。特别是对跟踪处理方法的一例进行说明。且有,图5中示出的方法只是一例,作为跟踪处理方法,也可以利用现有的任意一种方法。
在图5所示的跟踪处理方法中,利用在第一实施方式中说明的面部检测处理的结果。如图5所示,在本例的跟踪处理方法中,最初通过面部检测处理从输入图像50中检测主要被摄物的面部区域51。并且,在面部区域51的下方(从眉间到口的方向)、即与面部区域51邻近的位置设定包含主要被摄物的躯体在内的躯体区域52。
并且,对依次输入进来的输入图像50,通过依次检测躯体区域52而进行主要被摄物的跟踪处理。此时,基于躯体区域52的颜色(例如,色差信号UV或RGB信号、H(Hue)S(Saturation)B(Brightness)的H信号等表示颜色的信号值)进行跟踪处理。具体地说,例如在设定躯体区域52时识别躯体区域52的颜色并且进行存储,其后通过从所输入进来的图像中检测具有与识别的颜色类似的颜色的区域而进行跟踪处理。
通过利用上述方法等进行跟踪处理而能够从输入图像中检测主要被摄物的躯体区域52。并且,本实施例的主要被摄物检测部61例如将所检测出的躯体区域52的输入图像中的位置信息作为主要被摄物位置信息进行输出。
通过采取本实施例的构成,从而能够持续正确地检测主要被摄物。特别是能够抑制在拍摄过程中取错主要被摄物。
【第三实施例:主要被摄物检测部】在第三实施例的主要被摄物检测部61中,利用压缩处理部8的压缩处理时的编码信息来检测主要被摄物的位置。在本实施例中,作为图2中示出的主要被摄物检测用信息而利用编码信息。
参照附图对编码信息的一例进行说明。图6A及图6B是对第三实施例的主要被摄物检测部的检测方法的一例进行说明的示意图,特别是对编码信息进行说明。且有,图6A表示输入图像的一例。另外,图6B是对图6A的输入图像进行了编码的情况下得到的编码信息的一例,是表示代码量(位速率)的分配的示意图。
在压缩处理部8中,例如利用了一种利用时刻不同的多个输入图像来生成某个时刻的预测图像并对输入图像与预测图像之间的差分进行编码的压缩处理方法。在利用这种压缩处理方法的情况下,有动作的物体与其他物体相比,被分配的代码量多。在本实施例中,根据在压缩处理输入图像时分配的代码量的多少来检测主要被摄物。
在图6A所示的输入图像70中,移动物体只是婴儿71,其他物体72、73不移动。此时,如图6B所示,利用图6A中示出的输入图像70得到的编码信息74仅婴儿71的区域内分配的代码量增多。且有,由于拍摄装置1的抖动等影响,在其他物体72、73的部分也产生少许代码量多的部分。
通过利用随着压缩处理变化的编码信息74,从而能够从输入图像70中检测代码量多的区域(包括主要被摄物的区域)71。并且,本实施例的主要被摄物检测部61例如将所检测出的代码量多的区域71在输入图像70中的位置信息作为主要被摄物位置信息进行输出。
且有,如图6B所示,也可以以由多个像素(例如,8×8等)构成的区域为单位计算代码量,也可以以像素为单位计算代码量。另外,作为在压缩处理部8中利用的压缩处理方法也可以利用MPEG或H.264等方法。
通过采取本实施例的构成,从而仅检测代码量多的区域就可以进行主要被摄物的检测。由此,能够容易地检测主要被摄物。还能够将移动的各种物体作为主要被摄物进行检测。
【第四实施例:主要被摄物检测部】在第四实施例的主要被摄物检测部61中,利用成为进行AF(AutoFocus)、AE(Auto Exposure)、AWB(Auto White Balance)时的指标的各评价值来检测主要被摄物的位置。在本实施例中,作为图2中示出的主要被摄物检测用信息,利用AF评价值、AE评价值及AWB评价值中的至少一个。且有,这些评价值是基于输入图像而计算的。
AF评价值例如通过按照每个由多个像素构成的区域进行运算而能够计算输入图像的各像素的亮度值的高频成分。并且,在该AF评价值大的区域中,对焦了。由此,能够将AF评价值大的区域推断为包含用户想要拍摄的主要被摄物在内的区域。
AE评价值例如通过按照每个由多个像素构成的区域进行运算而能够计算输入图像的各像素的亮度值。并且,在将该AE评价值接近某个最优值的区域中曝光最优。由此,能够将AE评价值接近最优值的区域推断为包含用户想要拍摄的主要被摄物在内的区域。
AWB评价值例如通过按照每个由多个像素构成的区域进行运算,从而能够计算输入图像的各像素的各成分值(例如,RGB的各值或色差信号UV的各值)。又例如,通过根据各自区域内的成分值的比例计算色温也能够表现AWB评价值。并且,在该AWB评价值接近某个最优值的区域中白平衡(White Balance)最优。由此,能够将AWB接近最优值的区域推断为包含用户想要拍摄的主要被摄物在内的区域。
通过利用上述的至少一个评价值,能够从输入图像中检测包含主要被摄物的区域。并且,本实施例的主要被摄物检测部61例如将所检测出的区域的输入图像中的位置信息作为主要被摄物位置信息进行输出。
通过采取本实施例的构成,利用进行输入图像的调整所需的各评价值而能够进行主要被摄物的检测。由此,能够容易地检测主要被摄物。另外,能够将各种物体作为主要被摄物进行检测。
且有,也可以按照由多个像素构成的区域为单位计算上述的各评价值,也可以以像素为单位来计算。
【第五实施例:主要被摄物检测部】在第五实施例的主要被摄物检测部61中,利用声音信号来检测主要被摄物的位置。在本实施例中,作为图2中示出的主要被摄物检测用信息利用与输入图像对应的声音信号。所谓与输入图像对应的声音信号例如表示在拍摄输入图像时集音而生成的声音信号,是在后级的压缩处理部8中在时间上与输入图像建立关联的声音信号。
参照附图对本实施例的主要被摄物检测方法的一例进行说明。图7是对第五实施例的主要被摄物检测部的检测方法的一例进行说明的示意图。特别是,表示对从主要被摄物来到的声音进行集音的情况的一例。且有,在以下实施例的说明中,图1中示出的集音部5是至少具备2个麦克风的 麦克风阵列。
如图7所示,主要被摄物发出而来到麦克风5a、5b的声音通过各自的麦克风5a、5b集音后而被变换为声音信号。此时,根据由连接主要被摄物和麦克风5a、5b的直线与连接麦克风5a、5b的直线构成的到来角度θ的不同,在来到麦克风5a、5b的声音中产生时间差。且有,麦克风5a、5b的间隔D与麦克风5a、5b和主要被摄物之间的距离相比,非常小,且连接主要被摄物和麦克风5a、5b的每条直线大致平行。另外,本例中的到来角度θ是连接麦克风5a、5b的直线与连接主要被摄物和麦克风5a、5b的直线形成的角度。
此时,例如通过计算从主要被摄物到达麦克风5a、5b的声音的时间差(延迟时间),从而能够计算出到来角度θ。特别是,由于将延迟距离dl=D×cos(θ)用音速c(≒344m/sec)相除后的值作为延迟时间dt,因此基于延迟时间dt能够计算出到来角度θ。且有,延迟时间dt例如通过在时间轴上比较从麦克风5a、5b得到的各自的声音信号(例如,进行模型匹配)而能够计算出。
另外,在频率轴上比较从麦克风5a、5b得到的各自的声音信号,基于得到的相位差也能够计算出到来方向。例如,如下式(1)所示,通过进行从麦克风5a、5b得到的声音信号的运算来计算相位差φ。在下式(1)中,spec_r(i)是用麦克风5a集音后得到的声音信号的频带i的成分。另外,spec_l(i)是麦克风5b集音后得到的声音信号的频带i的成分。且有,为了计算每个声音信号的频带i的成分也可以对每个声音信号实施FFT(Fast Fourier Transform)处理。
通过利用从多个麦克风5a、5b中得到的声音信号而能够检测存在主要被摄物的方向。并且,本实施例的主要被摄物检测部61例如基于所检测出的存在主要被摄物的方向而求出的、输入图像中的主要被摄物的位置的信息作为主要被摄物位置信息进行输出。
通过采取本实施例的构成,从而基于声音信号能够进行主要被摄物的检测。由此,能够将发声的各种物体作为主要被摄物进行检测。
且有,作为一例对利用从集音部5中具备的2个麦克风5a、5b中得到2个声音信号的情况进行说明,但是利用的声音信号并不限定为2个。也可以利用从3个以上麦克风中得到的3个以上的声音信号。若增加利用的声音信号,则由于能够更正确地特定存在主要被摄物的方向,因而是优选的。
【变形例:主要被摄物检测部】且有,主要被摄物位置信息,也可以表示输入图像的某个区域(例如,面部区域),也可以表示某个点(例如,面部区域的中心坐标)。
另外,上述的各实施例的主要被摄物检测部不仅可以单独利用也可以组合后利用。例如,也可以对由上述的各种方法得到的多个检测结果进行加权并合成,且作为主要被摄物位置信息进行输出。若这样构成,则由于能够利用各种方法进行主要被摄物的检测,所以能够更正确地检测主要被摄物。
另外,在各种检测方法中设置优先度,并在以优先度高的检测方法不能检测的情况下,也可以利用优先度低的检测方法进行主要被摄物的检测,并将得到的检测结果作为主要被摄物位置信息进行输出。
<切取区域确定部>接着,对切取区域确定部62的切取方法举出各实施例并参照附图进行详细说明。且有,在以下为了具体化说明,对基于由第一实施例的主要被摄物检测部61输出的主要被摄物位置信息(面部区域)来设定切取区域信息并输出的情况进行说明。
【第一实施例:切取区域确定部】第一实施例的切取区域确定部62基于由用户的操作所输入的取景信息来确定切取区域。该取景信息例如被输入到图像记录开始前的预览图像的显示中等。
参照附图对本实施例的切取区域确定部62的切取区域的确定方法的一例进行说明。图8A及图8B是对第一实施例的切取区域确定部的切取方法的一例进行说明的示意图。在图8A及图8B中,将输入图像的坐标设为左上(0,0)、右上(25,0)、左下(0,11)、右下(25,11)。
在图8所示的例子中,面部区域的坐标为左上(14,7)、右上(18,7)、左下(14,10)、右下(18,10)。另外,切取区域的坐标为左上(9,4)、右上(21,4)、左下(9,11)、右下(21,11)。此时,切取区域与面部区域的位置关系例如(切取区域的坐标)-(面部区域的坐标)为左上(-5,-3)、右上(3,-3)、左下(-5,1)、右下(3,1)。
另外,在图8B所示的例子中,面部区域的坐标为左上(7,5)、右上(11,5)、左下(7,8)、右下(11,8)。另外,切取区域的坐标为左上(2,2)、右上(14,2)、左下(2,9)、右下(14,9)。此时,切取区域与面部区域的位置关系例如(切取区域的坐标)-(面部区域的坐标)与图8A同样为左上(-5,-3)、右上(3,-3)、左下(-5,1)、右下(3,1)。
如图8A及图8B示出的例子,在本实施方式中,主要被摄物位置信 息(例如,面部区域)表示的位置和切取区域的位置的关系与主要被摄物的位置无关且维持设定过的位置关系(取景信息)。并且,在切取部63中,从输入图像中仅切取切取区域而得到切取图像。
通过以上所述地构成,能够容易得到维持用户希望的取景的切取图像。
且有,在用户确定取景时也可以利用拍摄装置1所具备的操作部16。另外,可以将操作部16作为触摸屏(touch panel),也可以作为方向键等按钮。
【第二实施例:切取区域确定部】第二实施例的切取区域确定部62也与第一实施例相同,基于由用户的操作所输入的取景信息来确定切取区域。其中,在本实施方式中,可在拍摄中变更取景信息。
参照附图对本实施例的切取区域确定部62的切取区域的确定方法的一例进行说明。如9A~图9C是对第二实施例的切取区域确定部的切取方法的一例进行说明的示意图,相当于对第一实施李进行说明的图8A及图8B。另外,对于图9A~图9C,也将输入图像的坐标设为左上(0,0)、右上(25,0)、左下(0,11)、右下(25,11)。
图9A表示与图8A相同的状态。即,面部区域的坐标为左上(14,7)、右上(18,7)、左下(14,10)、右下(18,10),切取区域的坐标为左上(9,4)、右上(21,4)、左下(9,11)、右下(21,11)。另外,切取区域与面部区域的位置关系例如(切取区域的坐标)-(面部区域的坐标)为左上(-5,-3)、右上(3,-3)、左下(-5,1)、右下(3,1)。另外,在图9A中,主要被摄物的行进方向为向左。
图9B是主要被摄物行进方向为向右的情况。且有,面部区域的位置 设为与图9A相同的位置。由此,切取区域的坐标是与图9A中示出的情况相同。在图9A所示的情况下,用户考虑主要被摄物向左方行进的情况来确定取景。由此,如图9B所示,在主要被摄物改变行进方向的情况下,存在用户想要变更取景的情况。
因此,在本实施方式中,可以构成为在拍摄中可变更取景(主要被摄物的位置与切取区域的位置关系)。变更取景例如在成为图9B所示的状态的情况下进行而得到的。在进行取景变更的情况下,解除目前所设定的取景。此时,例如表示解除取景的取景信息被输入到切取区域确定部62,或者与直到变更前所输入的取景信息不同的取景信息被输入到切取区域确定部62。
其后,若由用户确定新的取景,则表示新取景的取景信息被输入到切取区域确定部62。并且,切取区域确定部62如图9C所示确定成为新取景的切取区域。在图9C所示的例子中,面部区域的坐标为左上(14,7)、右上(18,7)、左下(14,10)、右下(18,10)。另外,切取区域的坐标为左上(11,4)、右上(23,4)、左下(11,11)、右下(23,11)。此时,切取区域与面部区域的位置关系例如(切取区域的坐标)-(面部区域的坐标)与图9A不同,为左上(-3,-3)、右上(5,-3)、左下(-3,1)、右下(5,1)。
若以上所述地构成,则根据主要被摄物的状态能够自由确定用户期望的取景。由此,能够抑制持续生成成为不自然取景的切取图像。
且有,也可以将解除取景信息后直到设定新取景信息为止的期间内所使用的取景信息设为与解除前相同的取景信息,也可以设为预先设定的解除中用的取景信息。另外,也可以在用户确定取景时利用拍摄装置1所具备的操作部16。且有,可以将操作部16设为触摸屏,也可以设为方向键等按钮。
【第三实施例:切取区域确定部】第三实施例的切取区域确定部62基于所输入的主要被摄物位置信息自动确定最优的取景。由此,与按照用户指示确定取景或者变更取景的第一及第二实施方式在该点上不同。
参照附图对本实施例的切取区域确定部62的切取区域的确定方法的一例进行说明。图10A及图10B是对第三实施例的切取区域确定部的切取方法的一例进行说明的示意图,相当于对第一实施例进行说明的图8A及图8B。另外,在图10A及图10B中也将输入图像的坐标设为左上(0,0)、右上(25,0)、左下(0,11)、右下(25,11)。
如图10A及10B所示,在本实施例中,在主要被摄物位置信息中不仅包括主要被摄物的位置还包括表示主要被摄物的状态的信息(例如,面部的朝向)。且有,在图10A及图10B中,用黑色箭头表现主要被摄物的面部的朝向。
图10A表示与图8A同样的状态。即,面部区域的坐标为左上(14,7)、右上(18,7)、左下(14,10)、右下(18,10),切取区域的坐标为左上(9,4)、右上(21,4)、左下(9,11)、右下(21,11)。另外,切取区域与面部区域的位置关系例如(切取区域的坐标)-(面部区域的坐标)为左上(-5,-3)、右上(3,-3)、左下(-5,1)、右下(3,1)。其中,在图10A中,被检测为主要被摄物的面部的朝向为向左。
另一方面,图10B中示出的例子对主要被摄物的面部的朝向从向左向向右变化的情况进行表示。在图10B中示出的情况中,面部区域的坐标也为左上(14,7)、右上(18,7)、左下(14,10)、右下(18,10),即位于与图10A中示出的位置相同的位置。
并且,在图10B的情况中,由切取区域确定部62确定的切取区域的坐标设为左上(11,4)、右上(23,4)、左下(11,11)、右下(23,11)。 另外,切取区域与面部区域之间的位置关系例如(切取区域的坐标)-(面部区域的坐标)与图10A不同,为左上(-3,-3)、右上(5,-3)、左下(-3,1)、右下(5,1)。
图10A及图10B均对以切取区域中的面部区域的位置靠近与面部的朝向相反方向的方式来设定切取区域的情况进行表示。且有,这种设定可以由用户进行,也可以预先记录在拍摄装置中。
若如上所述地构成,则在主要被摄物的状态变化了的情况下,能够容易地进行取景的变更。特别是,能够省略如第二实施例用户手动重新设定取景的时间。且有,由于取景的变更不需要花费时间,因而能够抑制随着变更而产生的不自然的取景的切取图像。
若以切取区域中的主要被摄物的位置靠近与面部的朝向相反方向的方式来确定切取区域,则能在切取图像中包括主要被摄物要关注的区域。
且有,在上述的例子中,虽然对作为表示主要被摄物状态的信息而利用面部的朝向的情况进行了说明,但是作为表示主要被摄物状态的信息而能适用的信息并不限定于此。例如,可以是主要被摄物的视线方向,也可以是主要被摄物的移动向量。且有,在利用主要被摄物的视线方向的情况下,也可以进行与利用面部朝向情况同样的动作。另外,以下参照附图对利用主要被摄物的移动向量的情况进行说明。
图11是对实施例3的切取区域确定部的切取方法的另一例进行说明的示意图,相当于针对本实施例的一例示出的图10A及图10B。另外,在图11中也将输入图像的坐标设为左上(0,0)、右上(25,0)、左下(0,11)、右下(25,11),面部区域的坐标为左上(14,7)、右上(18,7)、左下(14,10)、右下(18,10)。
图11中的附加了阴影的部分是表示在当前的输入图像之前所处理的 输入图像的主要被摄物。并且,通过比较当前的输入图像和以前的输入图像能够计算出图示的移动向量。作为该移动向量的计算方法也可以利用现有的任何方法。
例如,也可以通过利用块匹配法或代表点匹配法等各种匹配方法来计算移动向量。且有,也可以利用主要被摄物和其邻近像素的像素值的变动来计算移动向量。另外,也可按照每个区域来计算移动向量。另外,也可以构成为:主要被摄物检测用信息是多个输入图像,主要被摄物检测部61计算移动向量并使主要被摄物位置信息中包括移动向量(参照图2)。
如图11所示,在本例中,以切取区域中的主要被摄物的位置(面部区域)靠近与移动向量示出的方向侧相反方向的方式来确定切取区域。例如,切取区域的坐标为左上(11,4)、右上(23,4)、左下(11,11)、右下(23,11),切取区域与面部区域的位置关系例如(切取区域的坐标)一(面部区域的坐标)为左上(-5,-3)、右上(3,-3)、左下(-5,1)、右下(3,1)。
即使这样构成,根据主要被摄物的状态变化也能容易且自动地进行取景的变更。另外,通过以主要被摄物的位置靠近与移动向量示出的方向侧相反方向的方式来确定切取区域,能够明确主要被摄物向哪个方向如何移动。
另外,也可以使取景变更具有滞后特性,在某个一定时间内不变更取景。若这样进行构成,则通过根据主要被摄物的状态频繁地变更取景而能够抑制生成不自然的切取图像。
【变形例:切取区域确定部】且有,对于上述的各实施例,可以将坐标作为像素单位,也可以作为区域单位。另外,可以将取景信息作为切取区域的位置与主要被摄物位置信息表示的位置的坐标差,也可以将主要被摄物位置信息表示的区域作为 向上下左右方向放大的各自的比例。
另外,也可以在主要被摄物移动到输入图像的端边且按照取景信息所确定的切取区域的位置在输入图像的外侧的情况下,变更取景信息而使切取区域进入到输入图像内。另外,也可以进行如下的控制:进行缩小拍摄装置1的焦距倍率的控制等来扩大输入图像的拍摄角度,使主要被摄物的位置远离输入图像的端边。
且有,也可以在主要被摄物位置信息表示的主要被摄物的区域大小可变时,根据该主要被摄物的区域的大小来增减所确定的切取区域的大小。并且,也可以进行如下控制:切取部63进行切取图像的放大处理(例如,像素的插补处理)或缩小处理(例如,像素的间隔剔除处理或加法运算平均化处理),成为规定大小的图像。另外,也可以将此时的取景信息作为在上下左右方向上放大主要被摄物位置信息表示的区域的各自的比例。
另外,上述的各实施例的切取区域确定部62不仅可以单独进行利用也可以加以组合进行利用。例如,也可以在第二实施例的切取区域确定部62中,在直到用户进行取景解除而设定新取景为止的期间,采用由第三实施例的切取区域确定部62所确定的取景。
<<适用主要被摄物由多个物体构成的情况>>在上述的各实施例中,虽然以主要被摄物由一个物体构成的情况为中心进行了叙述,但是即使由多个物体(以下,作为构成被摄物)构成的情况也同样能够生成切取图像。以下,对在主要被摄物由多个构成被摄物构成的情况下也能生成切取图像的切取处理部的构成及动作进行具体说明。
最初,参照附图对该切取处理部的构成例进行说明。图12是表示在主要被摄物具备多个构成被摄物的情况下也能生成切取图像的切取处理部的构成的一例的框图,相当于对基本构成示出的图2。且有,对与图2同样的构成部分附加同样的符号,并对其详细说明进行省略。
如图13所示,本例的切取处理部60b具备:主要被摄物检测部61b、切取区域确定部62和切取部63。其中,主要被摄物检测部61b具备:第1~第n构成被摄物检测部611~61n,其基于主要被摄物检测用信息分别检测一个构成被摄物的输入图像中的位置而分别输出第1~第n构成被摄物位置信息;和统计处理部61x,其对第1~第n构成被摄物位置信息进行统计处理而输出主要被摄物位置信息。其中,n为2以上的整数。
第1~第n构成被摄物检测部611~61n进行与上述的图2的主要被摄物检测部61同样的检测动作,检测各自不同的构成被摄物的位置。并且,将检测结果作为第1~第n构成被摄物位置信息进行输出。且有,如上所述,第1~第n构成被摄物检测部611~61n的每一个也能检测构成被摄物的面部或视线方向、移动向量等方向相关的信息。另外,为了在图12中概念性表示,虽然对第1~第n构成被摄物检测部611~61n进行分离表示,也可以作为可同时检测多个构成被摄物的一个模块(程序)。
统计处理部61x通过对从第1~第n构成被摄物检测部611~61n的每一个中输出的第1~第n构成被摄物位置信息进行统计处理,来计算表示从输入图像中所检测的多个构成被摄物整体(即,主要被摄物)在输入图像中的位置的主要被摄物位置信息,并输出。且有,如上所述,在第1~第n构成被摄物位置信息中包括构成被摄物的面部或视线方向、移动向量等方向相关的信息的情况下,也可以对这些信息进行统计处理,使主要被摄物位置信息中包括所得到的主要被摄物的方向相关的信息。
因此,主要被摄物位置信息中能够包括输入图像中的主要被摄物的位置(例如,包含所检测的全部构成被摄物的矩形区域的位置或构成被摄物的平均位置等)信息。另外,也能够包括主要被摄物的面部或视线方向(例如,构成被摄物的面部或视线的平均方向)的信息、主要被摄物的移动向量的方向或大小(例如,构成被摄物的移动向量的平均方向或平均的大小)等。
切取区域确定部62与上述的图2的切取区域确定部62同样,基于主要被摄物位置信息确定切取区域并输出切取区域信息。并且,切取部63从输入图像中切取切取区域信息表示的切取区域而生成切取图像。
接着,参照附图对切取区域确定部62切取区域的确定方法的具体例进行说明。图13~图15是表示基于多个主要被摄物所确定的切取区域的一例的示意图。
(具体例1)图13是对多个构成被摄物的面部或视线的朝向成为大致相等方向的情况(例如,合唱时)进行表示。另外,在图中表示输入图像100、由主要被摄物位置信息所表示的主要被摄物位置110和切取区域120。
第1~第n构成被摄物检测部611~61n通过对作为主要被摄物检测用信息的输入图像进行面部检测而进行构成被摄物的检测。另外,统计处理部61x基于作为该检测结果的第1~第n构成被摄物位置信息来计算主要被摄物位置110。并且,切取区域确定部62基于主要被摄物位置110和主要被摄物的面部朝向来确定切取区域120。
在本具体例中,作为特定方向(图中的涂黑的箭头、左方向)计算出主要被摄物的面部或视线的朝向。其中,切取区域确定部62以主要被摄物位置110靠近与主要被摄物的面部或视线的朝向(图中左方向)相反方向(图中右方向)的位置的方式来确定切取区域120。此时,也可以以包括全部构成被摄物的方式来确定切取区域120。
若通过这样构成,则能够容易且自动地确定成为与主要被摄物(多个构成被摄物)的状态相应的取景的切取区域120。特别是,能够确定明确化了构成被摄物是要关注的区域后的切取区域120。
且有,在本具体例中,第1~第n构成被摄物检测部611~61n也可以利用与上述第一实施例的主要被摄物检测部61同样的检测方法来进行各自的主要被摄物的检测。另外,切取区域确定部62也可以利用与上述第三实施例的切取区域确定部62同样的确定方法来确定切取区域(参照图10A及图10B)。
(具体例2)在具体例1中,对在每一个构成被摄物的面部或视线的朝向上存在偏差(相关为规定大小以下)且难以将主要被摄物的面部或视线的朝向作为特定方向来计算(计算出的方向的可靠性低)的情况下的切取区域的确定方法的一例,在本具体例中进行说明。图14对在构成被摄物的面部或视线的朝向上存在偏差的情况(例如,投球比赛时)进行表示。另外,在图中表示输入图像101、由主要被摄物位置信息表示的主要被摄物位置111和切取区域121。
在本具体例中,难以将主要被摄物的面部或视线的方向作为规定方向进行计算。其中,切取区域确定部62以包括每一个构成被摄物的方式来确定切取区域121。此时,也可以以主要被摄物位置111位于大致中心位置的方式来确定切取出区域121。
若这样构成,则与具体例1同样,能够容易且自动地确定成为与主要被摄物(多个构成被摄物)的状态相应的取景的切取区域121。特别是能够确定可容易掌握面部或视线等的方向偏离的每个构成被摄物的切取区域121。
(具体例3)图15是对多个构成被摄物向同一方向移动的情况(例如,徒步赛跑时)进行表示。另外,图中表示输入图像102、由主要被摄物位置信息表示的主要被摄物位置112和切取区域122。
第1~第n构成被摄物检测部611~61n通过对作为主要被摄物检测用信息的输入图像进行面部检测来进行主要被摄物的检测并且对每个构成被摄物进行移动向量的计算。另外,统计处理部61x基于作为该检测结果的第1~第n构成被摄物位置信息来计算主要被摄物位置112并且计算主要被摄物的移动向量。并且,切取区域确定部62基于主要被摄物位置112和主要被摄物的移动向量来确定切取区域122。
在本具体例中,作为特定方向(图中涂黑的箭头、左方向)计算出主要被摄物的移动向量。因此,切取区域确定部62以主要被摄物位置112成为靠近与主要被摄物的移动向量的方向(图中左方向)相反的方向(右方向)的位置的方式来确定切取区域122。此时,也可以以包括全部构成被摄物的方式来确定切取区域122。
若这样构成,则与具体例1及2同样,能够容易且自动地确定成为与主要被摄物(多个构成被摄物)的状态相应的取景的切取区域122。特别是,能够明确构成被摄物向哪个方向如何移动。
且有,在本具体例中,第1~第n构成被摄物检测部611~61n也可以利用与上述第一实施例的主要被摄物检测部61同样的检测方法来检测各构成被摄物,也可以利用现有的各种方法(例如,块匹配法或代表点匹配法等)计算移动向量。另外,切取区域确定部62也可以利用与上述第三实施例的切取区域确定部62同样的确定方法来确定切取区域(参照图11)。
另外,如与具体例1相对的具体例2所述,在各构成被摄物的移动向量存在偏差(相关成为规定大小以下)的情况下,切取区域确定部62也可以以包括各构成被摄物的方式来确定切取区域。
且有,在具体例1~3中,虽然对基于所检测的主要被摄物的位置和方向来确定切取区域的情况(参照上述切取区域的第三实施例)进行了叙 述,但是也可以基于由用户操作所输入的取景信息和主要被摄物的位置来确定切取区域(参照上述切取区域的第一及第二实施例)。
另外,也可以将包括在输入图像内的多个被摄物全部作为构成被摄物,也可以将用户选择的被摄物作为构成被摄物。且有,也可以将利用被摄物的图像特征或动作等相关性等而自动选择的被摄物作为构成被摄物。
<<适用其他的电子设备>>上述的例子是对拍摄装置1的拍摄部所得到的输入图像进行切取处理并记录切取图像的情况(即,在拍摄时进行切取处理的情况)。但是,本发明也能适用于在读取被记录在外部存储器10等中的输入图像时进行切取处理的情况(即,再生时进行切取处理的情况)。
在图16中表示再生时可进行切取处理的拍摄装置1a。图16是对本发明的其他实施方式中的拍摄装置的基本构成进行表示的框图,相当于图1。且有,对与图1同样的部分附上相同符号并对其详细的说明进行省略。
图16所示的拍摄装置1a,除了代替图像处理部6而具备图像处理部6a的方面和还具备对从扩展处理部11输入的图像信号进行处理并输出到图像输出电路部12的图像处理部6b的方面以外,为与图1的拍摄装置1同样构成的构成。
图像处理部6a除了采取不具备切取处理部60的构成这一点之外,与图1中示出的图像处理部6同样地构成。另一方面,图像处理部6b中具备切取处理部60a。且有,切取处理部60a能够采取与图2或图12中示出的切取处理部60、60b同样的构成。另外,作为切取处理部60a所具备的主要被摄物检测部61,例如能够利用上述第一~第五实施例的主要被摄物检测部61。另外,作为切取区域确定部62例如能够利用上述第一~第三实施例的切取区域确定部62。
另外,图像处理部6b所具备的切取处理部60a根据需要能够从拍摄装置1a的各部(例如,扩展处理部11等)中取得各种信息(例如,声音信号或压缩处理时的编码信息)。其中,在图16中,省略表示这些信息输入到切取处理部60中的箭头图示。
图16中示出的拍摄装置1a将记录在外部存储器10中的压缩编码信号读取到扩展处理部11中并且在扩展处理部11中解码后输出图像信号。该图像信号通过输入到图像处理部6b和切取处理部60a而能够进行各种图像处理或切取处理。且有,对于切取处理部60a的构成及动作而言,与图2中示出的切取处理部60同样。并且,被实施了图像处理或切取处理的图像信号被输入到图像输出电路部12并且在显示装置或扬声器中被变换为可再生的形式后被输出。
如本例所述,在再生时进行切取处理的情况下,由于事先记录有输入图像,故可以使输入图像的取得停止。由此,能够对静止的输入图像确定切取区域。因此,在切取区域确定部62的第一及第二实施例等中,在用户进行切取区域的确定的情况下,能够正确地选择并确定希望的切取区域。
且有,拍摄装置1a也可以构成为不具备图像传感器2、透镜部3、AFE部4、集音部5、图像处理部6、声音处理部7及压缩处理部8。即,也可以作为只具备再生功能的再生专用装置。另外,也可以构成为可将从图像处理部6b输出的图像信号再度记录在外部存储部10。即,可以在编辑时进行切取处理。
另外,上述的切取处理例如可在运动图像的拍摄时或再生时、静止图像的拍摄时利用。所谓在静止图像的拍摄时利用的情况是基于多个图像生成一个静止图像的图像的情况。
<<其他变形例>> 另外,对于本发明实施方式中的拍摄装置1、1a而言,也可以是微型计算机等控制装置进行图像处理部6、6a、6b或切取处理部60、60a、60b等各自的动作。且有,也可以将由这种控制装置实现的功能的全部或一部分作为程序进行记述,并通过在程序执行装置(例如,计算机)上执行该程序而实现其功能的全部或一部分。
另外,并不限定于上述的情况,图1的拍摄装置1、图2的切取处理部60、图12的切取处理部60b及图16的拍摄装置1a、切取处理部60a可通过硬件或硬件和软件的组合来实现。且有,在利用软件构成拍摄装置1、1a或切取处理部60、60a、60b的情况下,由软件实现的部位所对应的框图表示其部位的功能框图。
以上,虽然对本发明的实施方式分别进行了说明,但是本发明的范围并不限定于此,可以在不脱离发明宗旨的范围内进行各种变更来执行。
本发明涉及一种切取输入图像而得到希望的切取图像的图像处理装置。另外,涉及一种以数码相机为代表的拍摄装置等的电子设备。
Claims (9)
1.一种图像处理装置,具备以下部件:
主要被摄物检测部,其检测输入图像中的主要被摄物的位置;
切取区域确定部,其确定包括由所述主要被摄物检测部检测出的所述主要被摄物的位置的切取区域;和
切取部,其从所述输入图像中切取所述切取区域,以生成切取图像,
其中,所述切取区域确定部以由所述主要被摄物检测部检测出的所述主要被摄物的位置成为所述切取区域中的规定位置的方式来确定所述切取区域。
2.根据权利要求1所述的图像处理装置,其中,
指定由所述主要被摄物检测部检测的所述主要被摄物的位置与所述切取区域的位置的关系的取景信息被输入到所述切取区域确定部,
并且所述切取区域确定部按照所述取景信息来确定所述切取区域。
3.根据权利要求1所述的图像处理装置,其中,
所述主要被摄物检测部检测所述主要被摄物的方向,
并且所述切取区域确定部基于由所述主要被摄物检测部检测出的所述主要被摄物的方向来确定所述切取区域。
4.根据权利要求1所述的图像处理装置,其中,
所述主要被摄物检测部通过从所述输入图像中检测所述主要被摄物的面部来检测所述主要被摄物的位置。
5.根据权利要求1所述的图像处理装置,其中,
所述主要被摄物检测部从根据与所述输入图像对应的声音信号来检测所述主要被摄物的位置。
6.根据权利要求1所述的图像处理装置,其中,
在所述主要被摄物由多个构成被摄物构成时,
所述主要被摄物检测部检测所述输入图像中的每个所述构成被摄物的位置,并基于每个所述构成被摄物的位置来检测所述主要被摄物的位置。
7.根据权利要求6所述的图像处理装置,其中,
所述主要被摄物检测部检测每个所述构成被摄物的方向,并且基于每个所述构成被摄物的方向来检测所述主要被摄物的方向,
所述切取区域确定部基于由所述主要被摄物检测部检测出的所述主要被摄物的方向来确定所述切取区域。
8.根据权利6所述的图像处理装置,其中,
所述主要被摄物检测部检测每个所述构成被摄物的方向,并且基于每个所述构成被摄物的方向来检测所述主要被摄物的方向,
在每个所述构成被摄物的方向的相关值为规定大小以下时,
所述切取区域确定部确定包含所述多个构成被摄物的每一个在内的所述切取区域。
9.一种电子设备,其具备权利要求1所述的图像处理装置,
其中,该电子设备对从所述图像处理装置输出的所述切取图像进行记录或者进行再生。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008-245849 | 2008-09-25 | ||
JP2008245849 | 2008-09-25 | ||
JP2009-172838 | 2009-07-24 | ||
JP2009172838A JP2010103972A (ja) | 2008-09-25 | 2009-07-24 | 画像処理装置及び電子機器 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN101931747A true CN101931747A (zh) | 2010-12-29 |
Family
ID=42294153
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009101731963A Pending CN101931747A (zh) | 2008-09-25 | 2009-09-14 | 图像处理装置及电子设备 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2010103972A (zh) |
CN (1) | CN101931747A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103975575A (zh) * | 2011-12-06 | 2014-08-06 | 索尼公司 | 图像处理设备、图像处理方法和程序 |
CN104378545A (zh) * | 2013-08-16 | 2015-02-25 | 中兴通讯股份有限公司 | 一种拍照处理方法和系统 |
CN106464793A (zh) * | 2013-11-18 | 2017-02-22 | 奥林巴斯株式会社 | 摄像装置、摄像辅助方法和记录了摄像辅助程序的记录介质 |
CN106464784A (zh) * | 2014-06-30 | 2017-02-22 | 奥林巴斯株式会社 | 摄影装置和摄影方法 |
CN107431762A (zh) * | 2015-04-14 | 2017-12-01 | 索尼公司 | 图像处理设备、图像处理方法以及图像处理系统 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5389083B2 (ja) * | 2011-03-25 | 2014-01-15 | 株式会社東芝 | 画像処理装置、画像符号化システム及び画像復号システム |
JP5929922B2 (ja) | 2012-01-26 | 2016-06-08 | ソニー株式会社 | 画像処理装置および画像処理方法 |
JP2014209707A (ja) * | 2013-03-25 | 2014-11-06 | パナソニック株式会社 | 映像再生装置および映像再生方法 |
WO2014155963A1 (ja) | 2013-03-26 | 2014-10-02 | パナソニック株式会社 | 画像生成装置、撮影装置、画像生成方法及びプログラム |
JP6737247B2 (ja) * | 2017-07-20 | 2020-08-05 | 京セラドキュメントソリューションズ株式会社 | 画像処理装置、画像処理方法及び画像処理プログラム |
JP7236869B2 (ja) * | 2019-01-31 | 2023-03-10 | オリンパス株式会社 | 撮像装置、撮像方法及び撮像プログラム |
JP7304955B2 (ja) * | 2019-08-28 | 2023-07-07 | 株式会社ソニー・インタラクティブエンタテインメント | 画像処理装置、システム、画像処理方法および画像処理プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006279568A (ja) * | 2005-03-29 | 2006-10-12 | Fujitsu Ltd | 撮影装置 |
CN101051385A (zh) * | 2006-04-07 | 2007-10-10 | 欧姆龙株式会社 | 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 |
CN101123692A (zh) * | 2002-10-25 | 2008-02-13 | 索尼计算机娱乐公司 | 使用沿时间轴改变的图像数据产生新图像的方法和装置 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001094919A (ja) * | 1999-09-20 | 2001-04-06 | Canon Inc | 画像記録装置、方法、及びコンピュータ読み取り可能な記憶媒体 |
JP4212274B2 (ja) * | 2001-12-20 | 2009-01-21 | シャープ株式会社 | 発言者識別装置及び該発言者識別装置を備えたテレビ会議システム |
JP2007006165A (ja) * | 2005-06-24 | 2007-01-11 | Fujifilm Holdings Corp | 撮像装置、撮像方法、及び撮像プログラム |
JP4493631B2 (ja) * | 2006-08-10 | 2010-06-30 | 富士フイルム株式会社 | トリミング装置および方法並びにプログラム |
JP4807284B2 (ja) * | 2007-03-07 | 2011-11-02 | カシオ計算機株式会社 | カメラ装置、カメラ装置制御プログラム及びカメラ装置制御方法 |
-
2009
- 2009-07-24 JP JP2009172838A patent/JP2010103972A/ja active Pending
- 2009-09-14 CN CN2009101731963A patent/CN101931747A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101123692A (zh) * | 2002-10-25 | 2008-02-13 | 索尼计算机娱乐公司 | 使用沿时间轴改变的图像数据产生新图像的方法和装置 |
JP2006279568A (ja) * | 2005-03-29 | 2006-10-12 | Fujitsu Ltd | 撮影装置 |
CN101051385A (zh) * | 2006-04-07 | 2007-10-10 | 欧姆龙株式会社 | 特定被摄体跟踪方法和装置以及特征部跟踪方法和装置 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103975575A (zh) * | 2011-12-06 | 2014-08-06 | 索尼公司 | 图像处理设备、图像处理方法和程序 |
CN103975575B (zh) * | 2011-12-06 | 2018-05-04 | 索尼公司 | 图像处理设备、图像处理方法和程序 |
CN104378545A (zh) * | 2013-08-16 | 2015-02-25 | 中兴通讯股份有限公司 | 一种拍照处理方法和系统 |
CN106464793A (zh) * | 2013-11-18 | 2017-02-22 | 奥林巴斯株式会社 | 摄像装置、摄像辅助方法和记录了摄像辅助程序的记录介质 |
CN106464793B (zh) * | 2013-11-18 | 2019-08-02 | 奥林巴斯株式会社 | 摄像装置和摄像辅助方法 |
CN106464784A (zh) * | 2014-06-30 | 2017-02-22 | 奥林巴斯株式会社 | 摄影装置和摄影方法 |
CN107431762A (zh) * | 2015-04-14 | 2017-12-01 | 索尼公司 | 图像处理设备、图像处理方法以及图像处理系统 |
CN107431762B (zh) * | 2015-04-14 | 2020-12-01 | 索尼公司 | 图像处理设备、图像处理方法以及图像处理系统 |
Also Published As
Publication number | Publication date |
---|---|
JP2010103972A (ja) | 2010-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101931747A (zh) | 图像处理装置及电子设备 | |
CN101600051B (zh) | 图像拍摄设备和图像拍摄方法 | |
US8421887B2 (en) | Image sensing apparatus | |
CN101742106B (zh) | 具有图像抖动检测功能的摄像装置 | |
CN101246541B (zh) | 图像处理设备和方法、图像拾取设备 | |
US8350892B2 (en) | Image pickup apparatus, image pickup method, playback control apparatus, playback control method, and program | |
US8014566B2 (en) | Image processing apparatus | |
US8126207B2 (en) | Subject tracking method, subject tracking device, and computer program product | |
JP4618166B2 (ja) | 画像処理装置、画像処理方法、およびプログラム | |
US7855731B2 (en) | Image vibration-compensating apparatus and method thereof | |
US20110193986A1 (en) | Image sensing device | |
JP5084696B2 (ja) | 画像処理装置、画像処理方法及び電子機器 | |
CN102209142A (zh) | 成像装置、图像处理装置、图像处理方法以及程序 | |
CN102209195A (zh) | 成像装置、图像处理装置、图像处理方法以及程序 | |
CN102685379A (zh) | 具有设定画质的功能的图像处理装置以及方法 | |
CN102006403A (zh) | 摄像装置及再生装置 | |
US8767096B2 (en) | Image processing method and apparatus | |
JP4474885B2 (ja) | 画像分類装置及び画像分類プログラム | |
US20110128415A1 (en) | Image processing device and image-shooting device | |
JP2014090420A (ja) | 撮像装置、撮像方法及びプログラム | |
CN101783885A (zh) | 摄像装置及摄像方法 | |
CN104052908A (zh) | 显示装置、以及显示方法 | |
US20110052070A1 (en) | Image processing apparatus, image processing method and computer readable-medium | |
CN103475809A (zh) | 摄像装置、合成图像生成方法 | |
CN101753816A (zh) | 拍摄装置及拍摄方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20101229 |