CN101753813B - 成像设备、成像方法以及程序 - Google Patents

成像设备、成像方法以及程序 Download PDF

Info

Publication number
CN101753813B
CN101753813B CN2009102265970A CN200910226597A CN101753813B CN 101753813 B CN101753813 B CN 101753813B CN 2009102265970 A CN2009102265970 A CN 2009102265970A CN 200910226597 A CN200910226597 A CN 200910226597A CN 101753813 B CN101753813 B CN 101753813B
Authority
CN
China
Prior art keywords
image
relative position
relation
imaging device
position relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN2009102265970A
Other languages
English (en)
Other versions
CN101753813A (zh
Inventor
山下纪之
国兼宪太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101753813A publication Critical patent/CN101753813A/zh
Application granted granted Critical
Publication of CN101753813B publication Critical patent/CN101753813B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

一种成像设备包括:成像装置,该成像装置通过光学系统对被摄体图像进行成像;图像信号处理部分,具有使用给定的初始值将多个成像图像合成为一个合成图像的功能,所述成像图像是在移动成像设备的同时获得的;姿势传感器,能够获得成像设备的姿势信息;控制器,该控制器处理姿势传感器的信息,以基于处理结果和图像信号处理部分的处理结果来执行协同控制,其中图像信号处理部分通过图像识别来获得图像的相对位置关系;并且控制器基于姿势传感器的检测信息来获得图像的位置关系,基于所获得的位置关系和由图像信号处理部分获得的相对位置关系指定各个图像的绝对位置关系,并且将该绝对位置关系作为初始值提供给图像信号处理部分。

Description

成像设备、成像方法以及程序
技术领域
本发明涉及一种具有将多个图像合成在一起的功能的成像设备,并且涉及一种成像方法及其程序。
背景技术
在使用摄像放像机(camcorder)(内置于VTR中的照相机)、数字照相机等的全景摄影中,当在每一个阶段中停止照相机的扫动运动或者具有连续的扫动运动的同时拍摄全景图像时,为了防止所得图像模糊,需要以低速扫动(sweep)该照相机。
在后一种情况下,拍摄可能需要高速快门。
对于这一点,日本专利No.3928222提出了这样一种拍摄方法,该拍摄方法能够在保持图像分辨率的同时快速扫动照相机。
在这种拍摄方法中使用的技术是这样一种技术,该技术能够通过检测照相机的扫动方向和扫动的角速度并在扫动的反方向上以相同的角速度改变光轴从而抵消所得图像中的变化,使照相机好像它聚焦在一个点上的一样拍摄图像。
尽管为了实施该控制方法需要使用加速度传感器或者角速度传感器,但是日本专利No.3925299提出了这样一种方法,即使在没有设置传感器和用于控制这些传感器的反馈电路时,该方法也能够适当地控制光轴。
在这种情况下,该方法被用作监视系统,其中,施加到用于控制拍摄方向的步进电机的脉冲的数目被计数,并根据该计数值执行光轴控制。
发明内容
然而,根据预期的全景摄影,图像的精确度高于诸如加速度传感器或角速度传感器的姿势传感器的精确度。
因此,当只有姿势传感器的信息被用作姿势信息时,该信息变得太不精确以至于不能在产生全景图像中使用。
因此,希望提供这样一种成像设备,以及成像方法及其程序,即使在执行全景摄影时,该成像设备也能够抑制图像畸变的出现并且获得高精确度图像。
根据本发明的第一实施例,提供一种成像设备,该成像设备包括:成像装置,其通过光学系统对被摄体图像进行成像;图像信号处理部分,其具有使用给定的初始值将多个成像图像合成为一个合成图像的功能,所述成像图像是在移动成像设备的同时获得的;姿势传感器,其能够获得成像设备的姿势信息;控制器,其处理姿势传感器的信息,以便基于该处理结果和图像信号处理部分的处理结果执行协同控制(collaborative control),其中:图像信号处理部分通过图像识别获得图像的相对位置关系;并且,控制器基于姿势传感器的检测信息获得图像的位置关系,基于获得的位置关系和由图像信号处理部分获得的相对位置关系指定各个图像的绝对位置关系,并且将绝对位置关系作为初始值提供给图像信号处理部分。
优选地,控制器通过获得的位置关系和由图像信号处理部分获得的相对位置关系的选择性协同(selective collaboration)来获得相对位置关系,并且然后指定与各个图像的中心方位相关的各个图像的绝对位置关系。
优选地,姿势传感器包括角速度传感器;并且,控制器使用角速度传感器的检测信息来对移动量(shift amount)进行积分以便计算相对位置关系,对由图像信号处理部分获得的相对位置关系执行选择性协同校正以便对相对位置信息进行积分,从而指定绝对位置关系。
优选地,姿势传感器包括角速度传感器和加速度传感器;并且,控制器使用角速度传感器的检测信息来对移动量进行积分以便计算相对位置关系,对由图像信号处理部分获得的相对位置关系执行选择性协同校正以便对相对位置信息进行积分,从而获得指定绝对位置关系的相对位置关系,并且控制器根据加速度传感器的检测信息来校正绝对位置。
优选地,图像信号处理部分使用图像的重叠区域来执行图像识别。
优选地,图像信号处理部分通过在多个被选图像的边界处执行块匹配处理来提取特定参数,以便对这些边界执行合成处理,从而使得被选图像的边界以重叠关系设置;基于该参数对所有要合成的边界执行块匹配处理;以同时并行的方式对所有边界评估块匹配处理的结果;并且,执行合成处理,以便通过更新光轴方向来减少误差,从而减少在所有边界中的误差。
根据本发明的第二实施例,提供一种成像方法,该成像方法包括下述步骤:使用成像装置通过光学系统对被摄体图像进行成像,该光学系统具有能够在移动成像设备的同时改变其光轴的光轴改变元件;通过对成像图像执行图像识别来获得这些图像的相对位置关系;基于姿势传感器的检测信息,获得这些图像的位置关系;基于获得的位置关系和通过图像识别获得的相对位置关系指定各个图像的绝对位置关系;并且,使用绝对位置关系作为初始值,将多个成像图像合成为一个合成图像;成像图像是在移动成像设备的同时获得的。
根据本发明的第三实施例,提供一种用于执行成像处理的程序,该程序使计算机执行下述处理:使用成像装置通过光学系统对被摄体图像进行成像,该光学系统具有能够在移动成像设备的同时改变其光轴的光轴改变元件;通过对成像图像执行图像识别来获得这些图像的相对位置关系;基于姿势传感器的检测信息,获得这些图像的位置关系;基于获得的位置关系和通过图像识别获得的相对位置关系指定各个图像的绝对位置关系;并且,使用绝对位置关系作为初始值,将多个成像图像合成为一个合成图像;成像图像是在移动成像设备的同时获得的。
根据本发明的实施例,在移动成像设备的同时获得的多个成像图像被输入到图像信号处理部分。
此外,由姿势传感器检测到的成像设备的姿势信息被输入到控制器。
图像信号处理部分通过图像识别获得这些图像的相对位置关系并将获得的相对位置关系提供给控制器。
控制器基于姿势传感器的检测信息获得这些图像的位置关系。此外,控制器基于获得的位置关系和由图像信号处理部分获得的相对位置关系指定各个图像的绝对位置关系,并将该绝对位置关系作为初始值提供给图像信号处理部分。
图像信号处理部分使用绝对位置关系作为初始值来将多个成像图像合成为一个合成图像。
因此,根据本发明的实施例,即使在执行全景摄影时,也可以抑制图像畸变的出现并获得高精确度图像。
附图说明
图1是示出采用根据本发明实施例的图像处理设备的照相机设备的配置的例子的框图;
图2是概念性地示出通过根据该实施例的照相机设备执行广角成像的情况的视图;
图3是精确合成处理单元的框图;
图4是以曲线图的形式示出姿势传感器的输出(扫动角速度)的视图;
图5A和图5B是用于解释根据本实施例的第一配置的成像模式的视图;
图6是示出CMOS图像传感器的曝光时间、存储电荷的读出时间,以及光轴控制时间之间的关系的视图;
图7A和图7B是示出使用互功率谱(cross power spectrum)(CPS)在平移中的拼接(stitching)图像的视图;
图8是用于解释通过块匹配(BM)提取参数的处理的视图,具体示出选择四个条件良好的图像的处理;
图9是用于解释通过BM提取参数的处理的视图,具体示出在边界上的三个位置处执行BM的例子;
图10是用于解释通过BM提取参数的处理的视图,具体示出由于存在透镜畸变而导致BM的弓形结果;
图11是用于解释通过BM提取参数的处理的视图,具体示出由于不合适的倾斜角而导致左右方向上的误差的情况;
图12是用于解释通过BM提取参数的处理的视图,具体示出这样一种情况,其中,由于在左右边界中存在垂直扩展和收缩而产生横向偏差;
图13是用于解释通过块匹配(BM)处理提取参数的处理的视图,具体示出在旋转图像时产生的误差的例子;
图14A和图14B是用于解释下述处理的视图:在执行通过BM提取参数的处理后,通过将BM扩展到大量的图像并且执行平移,可以使误差最小化;
图15是示出基于连续成像的图像和传感器信息的空间布置的方法的功能框图;
图16是示出通过将连续成像的图像和传感器信息相关联来实现高精确度的方法的功能框图,具体示出静态传感器值的零校正;
图17是示出通过将连续成像的图像和传感器信息相关联来实现高精确度的方法的功能框图,具体示出用于通过对移动信息(shiftinformation)的协同来实现高精确度的方法;
图18是角速度传感器的零点校正处理的流程图;
图19是角速度传感器的移动量校正处理的流程图;
图20是移动量获取方法的流程图;
图21是从成像图像分配空间坐标的方法的流程图;以及
图22A到图22D是用于解释用于计算扫动速度的处理的例子的视图。
具体实施方式
将参考附图对本发明的实施例进行描述。
图1是示出作为根据本发明实施例的图像处理设备的照相机设备的配置的例子的框图。
如图2所示,本实施例的照相机设备10被配置为通过从一个点处在不同方向上自动地或手动地多次成像,从而获得大量图像(在图2中为16×8=128个)。
照相机设备10被配置为在没有褶皱(wrinkle)的情况下精确地合成大量的(例如几千个)图像,从而构成所谓的全景图像。
也就是说,照相机设备10具有从由数字照相机成像的图像产生全景图像的功能,在该数字照相机上安装有例如CMOS图像传感器(CIS)的固态成像装置,并且该数字照相机以高速垂直或水平地扫动。
根据本实施例的照相机设备10具有下述的第一到第五特征配置和功能。
将描述第一配置。
当通过在移动照相机设备10的同时拍摄多个图像并然后将成像图像合成在一起而生成全景图像时,使图像聚焦的透镜(移位透镜(shift lens))的光轴被控制为抵消照相机的移动方向及其角速度。
以这种方式,被移动的照相机可以如同其聚焦在一个点上的一样拍摄图像。
在本配置中,CIS(CMOS图像传感器)被用作固态成像装置,并且图像是通过对CIS的中心方向上的部分线执行上述操作来被成像的。
也就是说,在与部分线的曝光时间和读出时间之和相对应的时间期间执行光轴控制,并且,在除了该对应的时间以外的其它时间期间,光轴被控制为返回到中心附近。此时照相机的拍摄方向垂直于CIS的线。
照相机设备10将CIS的一部分分割成条状(strip shape),并且对条状部分执行光轴控制,从而即使当照相机以高速移动时,也在不降低分辨率的情况下以高帧率生成全景图像。
将描述第二配置。
照相机设备10采用这样一种技术,该技术使用通过图像识别技术获得的帧移动信息和从姿势传感器获得的移动信息来空间布置连续成像的图像。
其信息不能通过该图像识别获取的部分由姿势传感器信息代替,并且姿势传感器信息用作用于在图像识别中确认成功或者在图像识别失败时被使用的辅助坐标。被空间布置的图像被合成为一个全景图像。
在这种情况下,照相机设备10被配置为这样的照相机,该照相机通过从大约一个点处在不同方向成像多次,在主要被手持的状态下使多个图像成像。
照相机设备10包含姿势传感器,该姿势传感器为三轴(或两轴)加速度传感器和三轴(或两轴)角速度传感器的其中之一或两者。
照相机设备10具有记录关于拍摄方向的姿势信息和就地将多个成像图像合成为一个图像的功能,在该拍摄方向上各个图像在成像中同时地被成像。
照相机设备10借助于诸如块匹配的图像识别功能使用图像的重叠区域来计算图像的相对位置关系,并且基于各种姿势传感器数据计算图像的位置关系。
然后,照相机设备10通过对计算得到的图像的相对位置关系和位置关系的选择性协同来计算图像的更精确的相对位置关系。
其后,照相机设备10指定与各个图像的中心方位例如光轴周围的摇头角(经度)、倾斜角(纬度)、以及滚动角(rolling angle)(倾斜度)相关的各个图像的绝对位置关系,并且将它们作为初始值来执行精确的自动合成。
将描述第三配置。
照相机设备10采用这样一种技术,该技术通过用图像识别技术获得的帧移动信息和从姿势传感器获得的移动信息相互关联来记录连续成像的图像。
照相机设备10计算由通过用图像识别技术获得的帧移动信息和从姿势传感器获得的移动信息中的一种不能确定的如下信息,例如,图像的像素视角、姿势传感器的静态值,以及姿势传感器值的对应像素视角。照相机设备10具有例如偏移量(offset)和增益的参数,因此能够通过改变参数使得信息基本上与实际方向相同。
照相机设备10通过三轴(或两轴)加速度传感器相对于重力方向的角度来静态地检测静态位置数据,并且将该位置数据用作姿势信息的初始值。
照相机设备10主要通过例如三轴角速度传感器的时间积分值来计算在照相机的垂直和水平方向上的旋转运动量,并且在使各个图像成像时将该旋转运动量用作方向数据。
借助于诸如块匹配的图像识别功能,照相机设备10使用图像的重叠区域来计算图像的相对位置关系。照相机设备10同时确定计算结果是否正确,并计算图像的位置关系。
当计算结果正确时,照相机设备10基于该位置关系的信息校正参数。
当计算结果不正确时,照相机设备10使用基于已经校正的参数获得的姿势传感器值来布置图像。
将描述第四配置。
照相机设备10具有一旦检测到运动被摄体的影响即输出敦促用户重新拍摄的警告信号的功能。
对于运动被摄体的方向,照相机设备10具有这样的功能:确保被摄体的任意部分将出现在具有重叠比为50%或更大的至少两个图像中,以便借助于相邻图像之间的运动矢量的相似性匹配来检测视差或被摄体的影响。
也就是说,一旦检测到运动被摄体或视差的影响,照相机设备10输出敦促用户重新拍摄的警告信号。
在通过单个扫动使宽范围被摄体的多个条状图像成像并且将其合成为一个图像的照相机设备10中,检测在近距离的被摄体受到了多少视差的影响,并且敦促用户基于检测结果重新拍摄在照相机视点附近的被摄体。
将描述第五配置。
照相机设备10通过下述方式敦促用户重新拍摄:向用户告知扫动角速度(用户扫动照相机的速度)的适当值,并且,如果扫动太快的话,则输出警告信号。
照相机设备10以曲线图的形式将时间和姿势传感器(陀螺传感器)的输出(扫动角速度)分别显示在例如LCD的显示单元18的屏幕的横轴和纵轴上。由于在设置水平视角、水平像素数和快门速度时确定最大扫动角速度,因此最大扫动角速度的60%到80%作为适当范围显示在曲线图上。
具有上述特征的照相机设备10的更详细的配置和功能将在下文描述。
照相机设备10被配置为包括:光学系统11、成像装置12、模拟前端(AFE)电路13、姿势传感器单元14、驱动器15、系统控制器16、存储器17、显示单元18、操作单元19,以及扬声器单元20。
光学系统11将被摄体图像聚焦到成像装置12的成像平面上。
光学系统11被配置为包括:普通透镜111、作为光轴改变元件的移位透镜112,以及机械快门113。
除了使图像聚焦的功能外,移位透镜112还具有通过驱动器15的驱动来改变光轴方向的功能。
成像装置12由例如CMOS(互补型金属氧化物半导体)装置或CCD(电荷耦合器件)构成。
在本实施例中,将CMOS图像传感器作为例子进行描述。在上述的第一配置中,CMOS图像传感器用作固态成像装置。
成像装置12借助于按矩阵布置在半导体基底上的光学传感器检测由光学系统11获得的被摄体图像从而生成信号电荷,通过垂直信号线和水平信号线读取该信号电荷,然后输出被摄体的图像信号。
当成像装置12由CMOS图像传感器构成时,由作为电子快门的卷帘快门(rolling shutter)和整体快门(global shutter)来执行曝光控制。曝光控制由系统控制器16执行。
AFE电路13从成像装置12去除例如包含在图像信号中的固定模式噪声,通过自动增益控制的操作稳定信号电平,并将所得图像信号输出到系统控制器16。
姿势传感器14检测照相机设备10的位置以将检测结果提供给系统控制器16。
例如,姿势传感器14由三轴加速度传感器141和三轴角速度传感器142构成。
加速度传感器141能够静态地获知其相对于重力方向的角度,因此检测倾斜角和滚动角。然而,加速度传感器141不能检测摇头角。
因此,角速度传感器142用于获得偏移角(shift angle)。角速度传感器142也称为陀螺传感器,并且能够在旋转期间将角速度作为电压信号检测,并且通过对该电压信号积分来计算角度。此外,由于角速度传感器142被配置为三轴传感器,因此其可以检测摇头角、倾斜角,以及滚动角。
驱动器15在系统控制器16的控制下改变光学系统11的移位透镜112的光轴。
系统控制器16是用于对来自AFE电路13的输出信号执行颜色校正处理、多个图像的合成处理、自动曝光控制和自动白平衡控制等的电路。
系统控制器16被配置为包括图像信号处理部分161和作为控制器的微型计算机(μ-CON)162。
图像信号处理部分161具有精确合成处理单元,该精确合成处理单元被配置为能够在没有褶皱的情况下精确合成从一个点处在不同方向上多次拍摄的大量图像。
如图3所示,精确合成处理单元1611包括:第一颜色校正功能部分16111、合成功能单元16112,以及第二颜色校正功能单元16113。
图像信号处理部分161将多个成像图像合成在一起,从而生成全景图像,这些图像是在移动照相机设备10的同时获得的。
微型计算机162根据姿势传感器14的检测结果控制使图像聚焦的透镜(移位透镜)的光轴,从而抵消照相机的移动方向和角速度。
当CMOS图像传感器被用作固态成像装置时,微型计算机162控制驱动器15,以在与CMOS图像传感器的部分线的曝光时间和读出时间之和相对应的时间期间执行上述光轴控制,并在除了该对应的时间以外的其它时间期间将光轴返回到中心附近。此时照相机的拍摄方向垂直于CMOS图像传感器的线。
微型计算机162将CMOS图像传感器的一部分分割成条状,并且对条状部分执行光轴控制,从而即使当照相机以高速移动时,也可以在不降低分辨率的情况下以高帧率生成全景图像。
微型计算机162对角速度传感器142的检测信号进行积分从而计算照相机设备10的旋转角,并根据计算得到的旋转角控制移位透镜112的光轴的变化量。
或者,图像信号处理部分161可以检测相邻成像图像的运动分量,并且微型计算机162可以根据检测到的运动分量控制光轴的变化量。
或者,微型计算机162可以基于计算得到的旋转角和运动分量控制光轴的变化量。
微型计算机162将关于使各个成像图像成像的拍摄方向的姿势信息记录在存储器17中。
图像信号处理部分161和微型计算机162借助于诸如块匹配的图像识别功能使用图像的重叠区域来计算各个图像的相对位置关系,并且基于各种姿势传感器数据计算图像的位置关系。
然后,微型计算机162通过对计算得到的图像的相对位置关系和位置关系的选择性协同来计算图像的更精确的相对位置关系。
其后,微型计算机162指定与各个图像的中心方位例如光轴周围的摇头角(经度)、倾斜角(纬度)、以及滚动角(倾斜度)相关的各个图像的绝对位置关系。
图像信号处理部分161将它们作为初始值来执行精确的自动合成。
微型计算机162计算由通过用图像识别技术获得的帧移动信息和从姿势传感器获得的移动信息中的一种不能确定的如下信息,例如:图像的像素视角、姿势传感器的静态值,以及姿势传感器值的对应像素视角。微型计算机162具有例如偏移量和增益的参数,因此能够通过改变参数来使得该信息基本上与实际方向相同。
微型计算机162通过三轴(或两轴)加速度传感器相对于重力方向的角度来静态地检测静态位置数据,并且将该位置数据用作姿势信息的初始值。
微型计算机162主要通过例如三轴角速度传感器142的时间积分值来计算在照相机的垂直和水平方向上的旋转运动量,并且在使各个图像成像时将该旋转运动量用作方向数据。
微型计算机162借助于诸如块匹配的图像识别功能使用图像的重叠区域来计算图像的相对位置关系,而且还在计算图像的位置关系时同时确定计算结果是否正确。
当计算结果正确时,微型计算机162基于该位置关系的信息校正参数。
当计算结果不正确时,微型计算机162使用基于已经校正的参数获得的姿势传感器值来布置图像。
微型计算机162借助于显示单元18和/或扬声器单元20通过显示提示和/或输出警告声音来输出警告信号,从而在一旦检测到移动被摄体的影响时敦促用户重新拍摄。
关于对运动被摄体的检测,微型计算机162确保被摄体的任意部分将出现在具有重叠比为50%或更大的至少两个图像中,以便借助于相邻图像间的运动矢量的相似性匹配来检测视差或被摄体的影响。
也就是说,一旦检测到被摄体或视差的影响,微型计算机162输出敦促用户重新拍摄的警告信号。
微型计算机162基于检测结果检测在近距离的被摄体受到了多少视差的影响,从而敦促用户重新拍摄在照相机视点附近的被摄体
微型计算机162通过下述方式来敦促用户重新拍摄:向用户告知扫动角速度(用户扫动照相机的速度)的适当值,并且,如果扫动太快,则借助于显示单元18和/或扬声器单元20通过显示提示和/或输出警告声音来输出警告声音。
微型计算机162以曲线图的形式将时间和姿势传感器(陀螺传感器)的输出(扫动角速度)分别显示在例如LCD的显示单元18的屏幕的横轴和纵轴上。由于在设置水平视角、水平像素数和快门速度时确定最大扫动角速度,因此如图4所示,最大扫动角速度的60%到80%作为适当范围RNG显示在曲线图上。
对操作流程的概述如下。
【1】在操作单元19的开始按钮(start button)被按下的情况下扫动照相机,然后开始按钮被释放。
【2】如图4所示,在开始按钮处于按下状态的期间的扫动角速度显示在显示单元18的屏幕上。
【3】当扫动角速度低于适当范围RNG时不输出警告信号,但是当扫动角速度高于该适当范围时将输出警告信号。
在下文中,将详细描述上述的第一配置到第五配置。
第一配置到第五配置中的控制主要由系统控制器16执行。
【第一配置】
在第一配置中,由于CMOS图像传感器被用作固态成像装置,因此没有诸如帧/场的这些概念,并且采用渐进方法(progressivemethod),在该渐进方法中所有线被顺序读出。
图5A和图5B是用于解释根据本实施例的第一配置的成像模式的视图。
作为移动照相机设备10的方法,假定照相机基本上在如图5A所示的垂直方向上或者在如图5B所示的水平方向上扫动。也就是说,照相机在与CMOS图像传感器的读出线垂直的方向上移动。
如图5A和图5B中的暗条状部分30所示出的,在本实施例中,微型计算机162对从CMOS图像传感器的成像范围的中心部分分割的条状部分执行光轴控制。
这样的条带成像(strip imaging)有以下优点。
(a)更窄的条带对视差具有更有利的影响。
(b)更窄的条带对CMOS图像传感器的异步读出具有更有利的影响。
(a)更窄的条带对环境光减少具有更有利的影响。
(a)更窄的条带对透镜畸变具有更有利的影响。
微型计算机162根据姿势传感器14的检测结果控制使图像聚焦的透镜(移位透镜)的光轴,从而抵消照相机的移动方向和角速度。
当CMOS图像传感器被用作固态成像装置时,微型计算机162控制驱动器15,以在与CMOS图像传感器的部分线的曝光时间和读出时间之和相对应的时间期间执行上述光轴控制,并在除了上述对应的时间以外的其它时间期间将光轴返回到中心附近。
也就是说,光轴控制需要在如图5A和图5B所示的条状部分30被曝光时的时间期间执行。
图6是示出CMOS图像传感器的曝光时间、存储电荷的读出时间,以及光轴控制时间之间的关系的视图。
电荷从CMOS图像传感器的各个线顺序读出以便曝光,并且在某一条线的电荷读出完成后,对于随后的线,执行电荷读出和曝光。在当该操作被重复执行从而对所有的条状部分都执行电荷读出处理时的时间期间执行光轴控制。
例如,当使用每一条线的读出时间都是7.8微秒/线的CMOS图像传感器,快门速度是1/1000秒(即,曝光时间为1毫秒),并且条带宽为200条线时,在图6中,总读出时间变为1.56毫秒,并且光轴控制时间变为2.56毫秒。这对应于图22A至图22D中的条件【3】,其中,当给出各种参数时,计算模糊像素计数或帧率。另外,当成像的帧率是60fps(每一个图像大约16.66毫秒)时,通过在专利文献1的图3中采用对应数值,Son变为2.56毫秒,并且Soff变为14.1毫秒(=16.66-2.56)。
尽管在专利文献1中公开的技术中,光轴控制的可允许的极限角(limit angle)在±1.2度的范围内,但是可允许的极限角可以在±0.5度的范围内变化,并且使用在0到0.3度范围内的值。这对应于最大可变范围的大约60%。
通过这种方式成像而获得的条状图像由图3中的精确合成处理单元1611合成在一起,由此生成全景图像。在下文中,将描述精确合成处理单元1611的图像合成处理。
因此,根据本实施例的系统控制器16具有这样的功能(例如,软件),用该功能可以通过校正颜色的非均匀性将从一个点处在不同方向多次拍摄的图像精确地合成为一个图像中。
本实施例的精确合成的特征功能将在下面详细描述。
第一颜色校正功能单元16111在提取诸如透镜畸变校正系数的参数时为每一个边界执行至少三次块匹配(BM)处理,并且对至少四个边界执行合成,从而确定透镜畸变校正系数从而允许精确合成。
换句话说,第一颜色校正功能单元16111从原始图像中提取诸如透镜畸变校正系数的参数。
随后,第一颜色校正功能单元16111对于所有的局部图像一样执行环境光减少校正、对比度增强、饱和度增强和伽马校正。
在第一颜色校正功能单元16111确定诸如透镜畸变校正系数的参数并且执行环境光减少校正、对比度增强、饱和度增强和伽马校正后,合成功能单元16112对所有边界中的每一个执行至少一次(例如,3次)BM。
然后,合成功能单元16112通过对所有边界同时评估BM结果并更新光轴方向以便减少在所有边界中的误差,来执行对多个图像的精确合成。
第二颜色校正功能单元16113执行颜色(颜色非均匀性)校正,为了减少由合成功能单元16112精确合成的多个图像中的相邻图像间的颜色差,为每个局部图像独立地执行该颜色校正。
第二颜色校正功能单元16113还执行颜色校正,以便将相邻图像间的颜色不连续性(dicontinuity)减小到检测极限值(detection limit)以下。
对精确合成处理单元1611中的精确合成处理的理论概念将在下面描述。
本实施例基本上采用了基于傅立叶分析的相位相关技术。
也就是说,所采用的技术是基于傅立叶变换定理,即空间函数的变换(shift)只在谱区域的相位上改变。
具体地说,两个函数f1和f2应当满足下列关系。
【等式1】
f2(x,y)=f1(x+xt,y+yt)
还有下面的谱特征。
【等式2】
F2(u,v)=F1(u,v)exp(-2πi(uxt+vyt))
上述等式可以通过使用互功率谱(CPS)如下等价地写出。
【等式3】
Figure G2009102265970D00161
在该等式中,F2 是复函数F2的共轭函数。
实际上,如图7A和图7B所示,图像是诸如两个图像的互功率谱的比特噪声(bit noise)。
因此希望寻找CPS的峰值并且从该峰值得到平移参数(xt,yt)。
图7A和图7B是示出使用互功率谱(CPS)在平移中的拼接图像的视图。
图7A示出拼接两个图像的结果。如图7B所示,可以通过检测CPS的峰值获得二维平移。这里,如果CPS是可读取的,那么这些图像是完全匹配的。
由于难以在具有很多噪声的图像中检测到最大的峰值,因此可以选择一些峰值。
下面,将参考图8到图14描述使用块匹配(BM)处理提取参数的原理。
BM包括推导出上述互功率谱(CPS)的峰值的功能。
现在参考图8,选择四个条件良好的图像IM0、IM1、IM2和IM3。
例如,假定布置在左下角的图像是第零图像IM0,其右手边图像是第一图像IM1,左上角图像是第二图像IM2,并且其右手边图像是第三图像IM3。图像IM0到图像IM3的这些图像被布置为在相邻图像间的边界中包含重叠部分。
在图8中,布置在边界区域中的矩形是块BLK。
因此,在上面提到的布置条件下执行BM。
于是,透镜畸变、视角和倾斜角的信息分别从在下边、左边、右边和上边的区域中的四个边界BDR01、BDR02、BDR13和BDR23获得。
将进一步描述BM(块匹配)。
如图9所示,对边界中的三个位置执行BM。
如图10所示,透镜畸变的存在导致BM的弧形结果。
如图11所示,任何不合适的倾斜角都将导致BM结果中的横向倾斜误差。
如图12所示,当透镜畸变的中心垂直地偏离时,在上下边界中发生横向扩展和收缩。在左右边界中的垂直扩展和收缩是由于透镜畸变中心的横向偏离而导致的。
当图像随着其向上而被旋转时,如图13所示,产生垂直的倾斜误差。也就是说,图13示出当照相机没有被定向为相对于机械倾斜轴的前方时的结果。
各种参数被确定为使这些误差最小化。
即使将任何四个图像连接在一起,这也能减小误差。
例如,应用快速相位相关匹配来在图像中执行对应的BM。可以通过获得矢量位移(xij,yij)来量化各个参数,然后分析这三个块的位移的行为。
在对上述四个执行BM后,如图14A和图14B所示,BM被扩展到大量的图像,并且同时,对所有边界评估BM的结果。通过更新光轴方向来执行对多个图像的精确合成,从而减少在所有边界上的误差。
在这种情况下,确定一个参考图像,并且将其它图像进行平行平移,从而会聚在这些位置以便最小化误差。
基本上根据下面的处理执行精确合成处理,下面对其进行详细说明。
通过平移为移动找到最佳的位置。
在这种情况下,旋转环(loop)。
指示总移动量的参数fxy设置为0.0。
对上下左右(垂直的和横向的)图像中的全部进行处理。
参考图像保持不动。
从BM结果找到与相邻图像的位置关系。基于此,计算移动量。
其方法如下。将直接在上面的图像和其右边相邻的图像相加,并且减去直接在下面的图像和其左边相邻的图像以获得平均值,该平均值表达为f[y][x].x、f[y][x].y。
其80%被添加到当前图像的中心位置,并且被当作新图像的中心位置。
所有图像的移动量的绝对值之和被输入到fxy中。
进行计算以便确定上述移动如何改进垂直的和横向的位置关系。
fxy具有通过重复上述移动而变小的特性(性质)。
换句话说,fxy被会聚到再也没有不能执行移动的状态。
当fxy足够小时,终止处理。
将对即使当连接数千个图像时也没有褶皱的图像合成的特定处理的示例性实施例进行描述。
现在考虑四个图像的情况。
如图8所示,假定在左下角的图像是第零图像IM0,其右边相邻的图像是第一图像IM1,左上角的图像是第二图像IM2,并且其右边相邻的图像是第三图像IM3。
第零图像IM0保持不动。也就是说,第零图像IM0被用作参考图像。
BM结果的横向分量表达为bx1[0]、bx1[1]、bx2[0]和bx2[1]。
垂直分量也被单独地处理;但是,出于描述的目的,下面只描述横向分量的处理。
bx1表示右边和左边,bx2表示上边和下边。“[]”中的数字0是指下边或左边。
当相对于参考图像IM0的右边或上边的图像被置于右边或上边时,BM结果是正值。
作为极端的例子,假定只有一个异常值,并且bx1[0]=10、bx1[1]=0、bx2[0]=0并且bx2[1]=0。
考虑到,在第一行具有横向的10个像素的偏差,并且其它三个边界没有偏差。
如果第一图像IM1的位置由第零图像IM0和第一图像IM1的BM结果确定,那么第三图像IM3的位置由第一图像IM1和第三图像IM3的BM结果确定。此外,第二图像IM2的位置由第二图像IM2和第三图像IM3的BM结果确定,在第零图像IM0和第二图像IM2之间的位置关系中,可能作为褶皱发生10个像素的大值。
本实施例的系统指示异常值“10”的影响被2.5分散。根据程序执行该处理,将在稍后描述该程序的一部分。
通过xypos2()从与相邻图像的位置关系中找到要被平行平移的量。
第一次,计算得出第一图像IM1应当被移动-5个像素。
第一图像被平行平移move()。
实际移动量是上述量的80%,即4个像素。
除了第零图像IM0以外的图像IM1、图像IM2和图像IM3的移动量分别是pox[1]=4、pox[2]=0和pox[3]=0。
由此,BM结果bx1[0]从10变为6。
从而,bx2[1]从0变为4。
第二次,计算得出第一图像IM1应当被移动-1个像素。
计算得出第三图像IM3应当被移动-2个像素。
当其80%,即0.8被增加时,pox[1]=4.8。
随后,从第三次到第32次继续相似的计算。第32次,总移动量fxy低于0.001个像素,终止处理。
此时,要被平行平移的像素数为7.5、2.5和5.0。各个图像的位置关系改变如下。即,bx1[0]=10变为bx1[0]=2.5,bx1[1]=0变为bx1[1]=-2.5,bx2[0]=0变为bx2[0]=-2.5,以及bx2[1]=0变为bx2[1]=2.5。可以看出误差被分散了。
下面的列表是当ii=32、fxy=0.00083(即fxy不大于0.001)时的次数和值。
n    ix      fx[n]        fy[n]
0    0       0.000000     0.000000
1    2       -0.000244    0.000000
2    2       -0.000244    0.000000
3    2       -0.000344    0.000000
n    pox[n]  poy[n]       fz[n]         要被平行平移的像素数
0    0.00    0.00
1    7.50    0.00
2    2.50    0.00
3    5.00    0.00
下面是该程序的例子的一部分。
----the part of the program(from here)-----------------
clrpos();//Enter 0 in an amount to be parallel-translated[pixel]
pox[],fzx[],and rolla[].
    for(ii=0;ii<1000;ii++){
    xypos2();//Find an amount to be parallel-translated from the
positional relationship with an adjacent image.
    if(fxy<0.001){break;}
    move();//Parallel-translation.
    }
    fprintf(inf,”ii=1230484,fxy=0.00000 the number of times and
the value thereof when fxy is not more than 0.001\n”,
    ii,fxy);
    xypos();//Find a parallel-translation amount from the
positional relationship with an adjacent image.
    move();//Parallel-translation.
    dsppos();//Display a correction amount.
    angle();//Convert the correction amount to an angle,and
update qq[n],pp[n].
    dsppos();//Display the correction amount.
    dsperr();//Display those having a value exceeding 1 in the error
between a pair of small images.
    step();//Create a step angle from qq[n],pp[n]
    --the part of the program(till here)------------------
下面是主要的子程序。
    --Main subroutine----------------------------
    void xypos2(){//Find parallel-translation amounts fx[n],fy[n]
from the positional relationship with the adjacent image,
    //Find a flag fz[n]that cannot be parallel-translated.
    (Delete fprin tf)
    int m,n,m2,n2,h,v,ix;
    double cx,cy;
    //fprintf(inf,”n ix fx[n]fy[n]\n”);
    fxy=0;
    for(v=0;v<ny;v++){//about all images
    for(h=0;h<nx;h++){
    m=(nx-1)*v+h;//right and left boundaries
    n=nx*v+h;//upper and lower boundaries
    ix=0;
    if((0<skip[h][v])||((v==(ny-1)/2)&&(h==(nx-1)/2))){//
    The central image and determined flag image remain unmoved.
    fx[n]=0;fy[n]=0;fz[n]=4;//fz[n]is a flag that cannot be
parallel-translated
    if(skip[h][v]==2){fz[n]=2;}//Determined flag image is 2.
    }else{
    cx=0;cy=0;
    if(v!=0){//when not the lowermost row
    n2=n-nx;//directly below
    if(0<fok2[n2]){
     ix++;
     cx-=bx2[n2];//subtract that directly below
     cy-=by2[n2];
     }
    }
    if(v!=ny-1){//when notthe top row
    if(0<fok2[n]){
    ix++;
    cx+=bx2[n];//add its own
    cy+=by2[n2];
     }
}
if(h!=0){//when not the leftmost end
m2=m-1;//left neighbor
if(0<fok1[m2]){
ix++;
cx-=bx1[m2];//Subtract left neighbor
cy-=by1[m2];
}
}
if(h!=nx-1){//when not the rightmost end
if(0<fok1[m]){
ix++;
cx+=bx1[m];//add its own
cy+=by1[m];
}
}
if(ix==0){
fx[n]=0;fy[n]=0;fz[n]=1;
}else{
fx[n]=cx/ix;
fy[n]=cy/ix;
fz[n]=0;
}
fxy+=fabs(fx[n])+fabs(fy[n]);
}
}
  }
}
//**************************************
void move(){//Parallel-translation.
int m,n,h,v;
for(v=0;v<ny;v++){//central position of image(pixel)
for(h=0;h<nx;h++){
n=nx*v+h;
if(fz[n]==0){//when not isolated from surroundings
pox[n]+=-fx[n]*0.8;
poy[n]+=-fy[n]*0.8;
}
 }
}
for(v=0;v<ny;v++){//Lateral positional relationship
for(h=0;h<nx-1;h++){
m=nx*v+h;
n=(nx-1)*v+h;
bx1[n]+=-(fx[m]-fx[m+1])*0.8;
by1[n]+=-(fy[m]-fy[m+1])*0.8;
}
}
for(v=0;v<ny-1;v++){//Vertical positional relationship
for(h=0;h<nx;h++){
n=nx*v+h;
bx2[n]+=-(fx[n]-fx[n+nx])*0.8;
by2[n]+=-(fy[n]-fy[n+nx])*0.8;
}
 }
}
//***********************************************
如上所述,根据本实施例的第一配置,即使当使用其上安装有CMOS图像传感器的数字照相机时,也可以在不降低分辨率的情况下以高帧率对图像进行成像,从而减少视差、环境光减弱以及透镜畸变的影响此外,可以产生高质量的全景图像。
不管要合成的图像的数目是多少,这都能够实现精确合成并且抑制颜色非均匀的发生。
透镜畸变校正系数可以从实际成像的图像中提取。这消除了对复杂的校准操作的需要,从而显著地提高了精确度。
由于即使当连接数千个图像时该方法也不会导致褶皱,因此,在不注意拍摄的次数的情况下,可以以所需的分辨率来拍摄所需的范围。
下面,将描述第二配置。
【第二配置】
将描述连续成像的图像的空间位置的记录。
<概述>
基于连续成像的图像的全景摄影是分割空间以便将多个图像合成一个图像的操作。当从多个图像产生全景图像时,通过使用在成像时的空间信息执行逆计算,可以获得高精确度的全景图像。
在本实施例中,关于在其中执行成像的成像空间的信息是从传感器和在对图像进行成像时的图像计算得到的,并且该信息被分配给每一个图像,从而使该信息可以用于生成全景图像。
<分配关于成像空间的信息>
例如,当执行全景摄影时,以视点固定在一个点的方式由电机驱动透镜,并且改变拍摄方向。
在这种条件下成像的图像中,照相机设备10的位置,即焦点位置是固定的,并且只有拍摄方向不同。因此,在本例中,描述被局限于对图像进行成像的情况,这些图像是通过从某个点以固定的视角对被摄体的周围进行成像而获得的。
在这样的成像方法中,将存在如下的两种关于成像空间的信息。
即,一种是关于作为成像目标的点的信息(视点矢量),另一个是关于视点矢量周围的旋转角(滚动角)的信息。
<投影球和空间的定义>
空间的图像被投影到一个平面上。
为了处理在对空间的全景图像进行成像时的所有方位,从容易图像处理的角度看,假定摄影者周围有一个球并且全景图像被投影到该球上是有帮助的。当使用该球定义视点矢量时,也确定了坐标空间。
具有半径1的投影球被定义为以原点(0,0,0)作为焦点位置,照相机设备10位于该焦点位置。
假定在水平状态上向前的方向定义为位于Z轴上距离为1的坐标f(0,0,1),视点矢量可以表达为从原点(0,0,0)向点(0,0,1)定向的矢量。
视点矢量变为具有长度为1的单位矢量,并且在任何方位上长度都将是1。
由于帧的滚动信息不能仅仅使用视点矢量v1记录,因此还必须记录另一个滚动矢量v2。这是表示图像向上方向的信息,并且这些矢量的相减,v2-v1,变为表示图像向上方向的矢量。
这使得能够使用两个矢量(在投影球上的两个点)表示图像的拍摄方向,并且在不产生任何密度差的情况下在所有方位上定位任意点。
<相对移动和绝对坐标>
关于成像空间的信息包括两种信息,即相对信息和绝对信息。
从产生全景图像的角度出发,尽管具有关于对图像进行成像的方向的绝对位置关系是有利的,但是由于难以获得精确的绝对信息,因此从相对信息积分或者使用粗略的绝对信息校正来得到姿势信息。
在透镜驱动全景照相机中,尽管移动透镜的情景(scenario)是绝对信息,但是由于诸如在成像时的抖动、在驱动透镜时并入误差、姿势传感器的精确度的不同的相对信息被增加到其中,因此通过计算获得精确的绝对值。
<相对移动的空间扩展>
现在,假定精确的相对信息是在图像识别和姿势传感器的帮助下获得的。
在当前图像帧f1从前一个图像帧f2在位置上移动(dx,dy)并且该帧滚动rz的量时,从视角来看,在x轴和y轴周围的旋转量可以被计算为rx和ry。此时,帧f1的视点矢量v1变为将帧f2的视点矢量v2旋转(rx,ry,rz)的量而得到的结果。
尽管投影球上的绝对位置可以基于该信息进行计算,但是通过从矢量v2的位置旋转(rx,ry,rz)的量来计算绝对位置的计算有点复杂。
因此,最新的图像f1固定在前平面矢量v1(0,0,1)处,并且,被布置在投影球上、且包括前一个图像f2并在前一个图像f2之后的图像对于每个球旋转(-rx,-ry,-rz)的量。也就是说,相对于最新图像f1移动其它图像。
通过重复这一操作,最新图像的位置将位于坐标(0,0,1),并且将获得所有其余的图像的绝对坐标。
用视点矢量和旋转矢量的两个矢量表示旋转信息的原因在于:易于执行相对旋转(旋转球本身)。
<相对移动积分值和绝对信息之间的偏差>
尽管只有相对信息被用于图像的空间布置,但是实际上可以从姿势传感器14等获得诸如滚动信息或垂直倾度的绝对信息。然而,与生成全景图像所需的精确度相比,可以从姿势传感器14获得的绝对信息比较粗略,因此难以原样使用这些值。
另一方面,尽管由于相对信息是通过图像识别获得的,所以其具有高的精确度,但是其中并入了误差。当对相对信息进行积分时,可能会出现小误差,并且由于积分误差而导致大误差。
因此,从姿势传感器14获得的绝对信息用于确定是否发生积分误差。
在相对移动的空间扩展处理期间的某个间隔,相对信息与姿势传感器的绝对值进行比较。如果相对移动与姿势传感器的绝对值差得太远,那么使用姿势传感器的绝对值校正相对移动。此外,移动量是从该位置相对积分得到的。
图15是示出基于连续成像的图像和传感器信息的空间布置的方法的功能框图。
在图15中,功能块41相对于角速度传感器142的检测信号设置零参考值,并且移动量积分部分42对移动量进行积分。
此外,检测部分43将通过成像装置12成像的帧间图像互相比较并且检测移动量。
协同校正逻辑电路44基于移动量积分部分42和检测部分43的输出执行协同校正,并且相对位置积分部分45对相对位置进行积分以获得焦点位置信息。
此外,基于加速度传感器141的检测结果,绝对位置校正部分46校正绝对位置信息,并且布置部分47确定帧的空间位置并布置这些帧。
<空间坐标信息和全景图像>
上述计算是在成像期间执行的,并且空间坐标信息,即拍摄方向被同时记录为元数据。
尽管可以只使用元数据来生成全景图像,但是当在后续处理中执行精确调整和授权(authoring)时,可以将空间坐标信息用作基本数据。
由于还没有表示空间中的拍摄方向的元数据,因此不可能获得更精确的全景图像。然而,在本实施例中,为了解决这一问题,在成像时分配坐标信息。
如上所述,在第二配置中,使用通过图像识别技术获得的帧移动信息和从姿势传感器获得的移动信息,将连续成像的图像进行空间布置。其信息不能通过这一图像识别获得的部分由姿势传感器信息代替,并且姿势传感器信息用作用于在图像识别中确认成功的辅助坐标,或者在图像识别失败时被使用。被空间布置的图像被合成为一个全景图像。
本方法不仅能够正确地表示在前方附近处的图像,而且能够正确地表示直接在上面和直接在下面的图像,并能够与所有方位或天球上的成像相对应。
可以在没有误差的情况下再现前方附近的更宽的场景。
不必说,可以与手持成像相对应并获得高精确度的图像。
下面,将描述第三配置。
【第三配置】
将描述基于连续成像的图像的位置识别的校正。
<概述>
为了给连续成像的图像赋予拍摄姿势信息,本配置使用所谓的动态校准,即合并姿势传感器和图像识别的方法。
<连续成像和拍摄姿势信息>
当全景图像是使用连续成像的图像合成时,存在高频分量不包含在图像中并且不能从该图像指定连续性的情况。
在这种情形下,不能获得关于有多少连续帧被移动的信息,从而使得不能生成完整的全景图像。
为了能够从这样的情形下获得姿势信息,在借助姿势传感器14进行成像时,移动信息和姿势信息与图像一起被记录。
<姿势传感器的使用>
姿势传感器14以同时并行的方式使用三轴加速度传感器141和三轴角速度传感器142。
角速度传感器142检测照相机的旋转速度,并且加速度传感器141检测水平加速度。
尽管尽可能从成像图像获得移动信息,但是在由于图像的条件而不能执行图像识别的情形中,从姿势传感器14获得来自前一个帧的移动量。
通过比较姿势传感器14的检测结果中的总变化量与通过图像识别获得的移动量,可以获得更精确的姿势信息。
<使用姿势传感器的问题>
然而,根据期望的全景摄影,图像的精确度高于姿势传感器14的精确度。因此,当只有姿势传感器14的信息被用作姿势信息时,该信息变得太不精确以至于不能用于产生全景图像。
因此,当实际上难以获得姿势信息而不期待高精确度时,姿势传感器信息被用作辅助信息。
与普通物理传感器一样,在没有保持稳定输出的情况下,姿势传感器的输出会发生波动。
此外,根据情况改变静态的零位置,并且需要通过在成像之前建立静态条件来测量零位置处的值。在测量该值后,通过与零点值的偏差测量移动量。
<图像识别及其校正>
在本配置中,在连续使全景图像成像的同时,姿势传感器信息被被记录为元数据。
在本方法中,由于姿势传感器14的输出波动太大,因此在合成为全景图像时有难以使用元数据信息的问题。
因此,通过图像识别获得的元数据在成像时被校正并记录。
当元数据被记录时,关于相机方位的空间信息被保持在其中并被更新;但是,由于各种原因,元数据值的精确度劣化。
因此,在本实施例中,基于来自图像识别和姿势传感器的信息,在其中保持的空间信息被实时地校正和更新;本处理是动态校准。
当使连续的全景图像成像时,可以考虑下述两种情况:一种情况是已经存在通过电机的驱动来移动照相机的移动情形,另一种情况是由于用手扫动照相机而所以没有移动情形。
在存在通过电机的驱动而导致的移动情景的情况下,尽管可以事先检测到粗略的拍摄位置,但是也难以考虑成像期间的抖动或移动。姿势传感器14用于在成像期间检测这样的变化。
当由姿势传感器14检测拍摄期间的变化时,对通过图像识别得到的与实际移动情形的检测结果的偏差进行精密检查。当姿势传感器14的移动量被用作精密检查的基础时,可以使图像识别变得简单。
当可以从预期的移动情形计算偏差时,偏差被添加到移动情形的值,并且关于实际拍摄位置的信息作为成像图像的元数据被记录。
由于当用手扫动照相机时移动情形不可用,因此不管在什么时候使帧成像,都通过比较当前帧和前一个帧的图像识别来计算移动量。
在这种情况下,由于难以知晓移动量,因此从姿势传感器14的信息获得粗略的移动量,并且基于该移动量执行图像识别,由此可以计算具有高精确度的移动量。
如果难以执行图像识别,那么从姿势传感器获得的移动量被记录,并且随后使用前面和后面的帧的位置关系被校对(collate),由此确定坐标。
图16是示出通过将连续成像的图像和传感器信息相关来实现高精确度的方法的功能框图,具体示出静态传感器值的零校正。
在图16中,检测部分51将通过成像装置12成像的帧间图像相互比较并且检测移动量。
静态检测部分52基于角速度传感器142的检测信号、加速度传感器141的检测信号以及检测部分51的检测信号执行静态检测,由此获得静态的角速度传感器的参考值。
然后,记录部分53确定该参考值并将该参考值记录在存储器17中。
图17是示出通过将连续成像的图像和传感器信息相关来实现高精确度的方法的功能框图,具体示出用于通过对移动信息的协同来实现高精确度的方法。
在图17中,功能块54针对角速度传感器142的检测信号设置零参考值,并且移动量积分部分55对移动量进行积分。
此外,检测部分51将通过成像装置12成像的帧间图像相互比较并且检测移动量。
协同校正逻辑56基于移动量积分部分55和检测部分51的输出执行协同校正,从而获得高精确度的相对移动信息。
如上所述,在第三配置中,当记录连续成像的图像时,通过图像识别技术获得的帧移动信息与从姿势传感器获得的移动信息相关联。此外,计算由通过用图像识别技术获得的帧移动信息和从姿势传感器获得的移动信息中的一种不能确定的如下信息,例如:图像的像素视角、姿势传感器的静态值,以及姿势传感器值的对应像素视角。
因此,通过对通过图像识别获得移动信息的方法和从姿势传感器检测移动信息的方法(该方法独自不能提供期望的精确度)进行协同的技术,可以显著地提高精确度和稳定性。
将关于图18到图21进一步描述上述的第二配置和第三配置。
<成像的图像和摄影者的旋转运动>
当在使全景图像成像时改变拍摄位置时,由于视差可能会出现不连续性。
在成像后不能通过图像处理校正由于视差而导致的不连续性。
因此,当使全景图像成像时,摄影者和照相机被固定在某个位置,并且摄影者在该位置旋转时拍摄图像,从而使照相机聚焦到一个点。
在这种情况下,从两个不同的成像图像所看的视点的移动距离与拍摄时的旋转量成比例。如果图像是数字图像并且其尺寸可以由像素计数表示,那么两个图像之间移动的像素可以从在拍摄时的旋转移动的距离被逆计算得到;在这种情况下,视角可以用作逆计算所必需的参数。
视角是用在拍摄空间中的角度范围表示在图像中成像的场景的水平或垂直宽度的数值。
视角是在拍摄前通过测量给出并且在拍摄期间不会改变的参数。
当水平视角是30度并且成像的数字图像的水平像素计数是1000时,每一个像素的拍摄空间角将是0.03度。也就是说,当识别出两个图像之间的像素移动量是800个像素时,可以计算出照相机的实际旋转(扫动)角是24度。
每一个像素的视角被用作最重要的初始值。
每一个像素的视角=(帧视角)/(帧像素计数)
每两次图像拍摄的旋转量=(两个图像间的像素移动量)*(每一个像素的视角)
每一个像素的实际视角事先通过测量作为初始值被保持。
<角速度传感器和旋转量>
角速度传感器输出当前角速度。
由于输出值随时间改变,因此可以检测到角速度的改变;然而,该值不直接表示旋转量。为了从角速度传感器获得旋转角,需要定义积分值的单位。
使用角速度传感器以预定的时间间隔执行测量,并且测量间隔被固定作为重要的参数。
测量的角速度对时间积分,同时,需要通过测量从外部获得实际旋转量。积分的角速度除以实际旋转量,以便计算每一度的角速度积分值。
其后,通过将角速度积分值除以每一度的角速度积分值,可以按比例计算旋转移动量。
每一度的实际角速度积分值事先通过测量作为初始值被保持。
<动态校准>
尽管角速度传感器的输出是相对角速度,但是除非角速度传感器是极好的以外,否则该输出可以根据环境而变化。由于该变化对实际测量有影响,因此输出的每一次测量都需要被校正。
专用于全景摄影以便根据来自成像的全景图像的反馈信息自动校正输出的处理将被称为动态校准。
角速度传感器具有根据环境而改变的两个输出值;一个是静态零点位置,另一个是每一度的角速度积分值。另一个项是用相对移动而累积的积分误差;因此,这三个项被校正。
<角速度传感器和零点校正>
图18是角速度传感器的零点校正处理的流程图。
在角速度传感器142的零点校正处理中,执行图18中步骤ST1到步骤ST16的操作。
如果不知道角速度传感器142的准确的静态输出值,则不可能检测到角速度。此外,该静态的零点将根据诸如温度的环境而改变。
基于图像匹配的结果校正该零点漂移,从而在拍摄时计算精确的零点。事先设定的初始值被用作在开始时角速度传感器142的零点输出值。
两个帧之间的图像匹配被执行(ST1到ST3)。如果匹配结果是包含高频分量并且示出在X轴、Y轴和Z轴方向上没有移动的可靠的结果,那么角速度传感器的X轴、Y轴和Z轴分量的输出值被作为零点值被采样。
此时,使用作为零点值被采样的值执行校正(ST4到ST15)。
当在任何轴方向上检测到移动时,由于这不是零点,所以既不执行采样也不执行零点校正。
当执行采样时,在增加采样计数时校正零点值。
通过计算计算结果的平均值来执行校正,该计算结果的平均值是将当前零点值和采样值之间的差除以采样计数所得到的。
校正零点值=(零点值)+(采样值)·(零点值)·(采样计数)
<角速度传感器的移动量校正>
图19是角速度传感器的移动量校正处理的流程图。
在角速度传感器的移动量校正处理中,执行图19中的步骤ST21到步骤ST26的操作。
每一度的角速度积分值是用于从角速度传感器的角速度积分值计算旋转角的参数,并且该参数将根据诸如温度的环境而改变。
基于匹配结果执行图像匹配(ST21到ST23)以便校正并更新每一度的角速度积分值,由此计算在拍摄期间的精确值(ST24到ST26)。
如果两个帧之间的图像匹配的结果是包括高频分量的可靠的结果,那么从通过图像匹配获得的在X轴、Y轴和Z轴方向上的移动量和在此时的角速度积分值计算每一度的角速度积分值。
每一度的角速度积分值=(角速度积分值)/(每一个像素的视角)*(X轴周围的像素移动量)
每一度的校正角速度积分值=(每一度的角速度积分值)+(采样值)·(每一度的角速度积分值)/(采样计数)
<由加速度传感器辅助的角速度传感器>
角速度传感器输出相对角移动量。
通过对迄今为止获得的的相对值进行积分来计算关于当前位置的绝对位置信息。
当相对值包括小偏差或噪声时,随着积分时间增加,可能出现大的偏差。
尽管角速度传感器能够通过检测重力加速度获得Y轴旋转(倾斜)和Z轴旋转(滚动)的绝对值,角速度传感器只能在对全景图像进行成像的情况下检测其集总值(lumped value),并且因此在可用性方面劣于加速度传感器。
然而,由于角速度传感器具有能够输出绝对值的优点,因此可以通过周期性地将积分值和绝对值与相对移动距离的积分值进行比较来校正积分值和绝对值。
当照相机被移动的绝对量使其能够足以被加速度传感器检测到时,如果需要,通过将该绝对量与此时基于相对移动距离的积分值而计算得到的绝对位置相比来校正绝对量。
<从图像和传感器获得的的移动信息>
图20是移动量获取方法的流程图。
在移动量获取方法中,执行图20中的步骤ST31到步骤ST35的操作。
当角速度传感器142的分辨率与通过图像匹配获得的移动量的分辨率进行比较时,图像匹配提供高得多的精确度值。因此,从图像匹配计算得到的移动量尽可能地被用作相对移动距离(ST33和ST34)。
由于匹配不是在诸如不包含高频分量的相同颜色的天空的图像的图像间实现的,因此,在这种情况下,通过使用角速度传感器142的输出值来计算相对移动量(ST33和ST35)。
<分配来自成像图像的空间坐标的方法>
图21是从成像图像分配空间坐标的方法的流程图。
在从成像图像分配空间坐标的方法中,执行图21中的步骤ST41到步骤ST47的操作。
对于所有的以上述方式成像的全景图像,可以计算来自前一个帧的通过图像匹配和角速度传感器获得的相对旋转移动量(ST41到ST43)。
为了产生全景图像,必需为这些相对旋转移动量分配绝对空间坐标。
由于成像图像具有相同的视角,所以可以按焦点位于成像图像的中心点上的方式分配坐标,即照相机的方位矢量。
来自前一帧的相对旋转移动量可以用照相机相对于前一个帧的视点矢量的方位方向的角度(即拍摄视点矢量)来表示。
当只通过视点矢量来简化布置时,难以表示帧的Z轴方向周围的旋转,即滚动。
因此,帧的滚动用另一个矢量来表示,该矢量正好在该帧之上的Y轴上移位。
这两个矢量表示照相机的拍摄方向和在Z轴周围的滚动,并且即使在坐标被旋转后,帧的信息仍然被连续地保持。
当图像被布置在空间中时,新的帧将总是被定位于空间前方位置a(0,0,1.0)。
当相对旋转移动量可用时,所有的以前的帧沿着反方向旋转该量,然后,布置空间前方位置a(0,0,1.0)(ST44到ST46)。
以这样的方式处理相对旋转移动量,该量不是通过前一帧和当前帧的差被计算的,而是通过当前帧和过去的帧的差被计算的。
当前成像帧将被表示为A,前一个成像帧将被表示为B。
通过帧A和帧B的差计算相对旋转移动量(ST43)。
当计算结果示出,在从当前帧A的照相机位置到前一帧B的照相机位置计算时,照相机围绕X轴、Y轴和Z轴旋转地移动rx、ry和rz时,rx、ry和rz的旋转被施加到除了帧A以外的所有的过去成像帧的拍摄方向矢量和滚动指数矢量(rolling index vector)上。
旋转矩阵可能是典型的三维空间。
在Z轴方向上的旋转
x2=x*cos(rx)-y*sin(rx)
y2=y*sin(rx)+z*cos(rx)
z2=z
在Y轴方向上的旋转
x2=x*cos(ry)-z*sin(ry)
y2=y
z2=x*sin(ry)+z*cos(ry)
在X轴方向上的旋转
x2=x
y2=y*cos(rz)-z*sin(rz)
z2=y*sin(rz)+z*cos(rz)
当以这种方式旋转所有帧从而使新帧被布置在固定位置(即前方位置)时,相对旋转移动量可以被转移为绝对空间坐标。
当所有的帧都被处理时,所有的帧将具有适当的绝对坐标。
然而,由于最后一帧被用作参考点,所以可能会有任意帧必须被相对地移动到参考点的情况。
下面,将描述第四配置。
【第四配置】
在第四配置中,当检测到视差的影响或移动被摄体时,通过显示单元18或扬声器单元20输出警告信号,以便敦促用户重新拍摄。
对于运动被摄体的方向,在第四配置中,可以确保被摄体的任意部分将出现在具有重叠比为50%或更大的至少两个图像中,以便借助于相邻图像间的运动矢量的相似性匹配来检测视差的影响或被摄体。
在通过单个扫动使宽范围图像的多个条状图像成像并且将其合成为一个图像的照相机设备10中,检测近距离的被摄体受到多少视差的影响,并且敦促用户基于检测结果重新拍摄在照相机视点附近的被摄体。
由于典型的广角照相机正好在其透镜后具有视点,因此用户手持该照相机围绕用户的手腕旋转该照相机是理想的。
当在照相机的视点周围对图像进行成像时,即使当近距离的被摄体包含在图像中时,这些图像也可以被合成为一个图像。
由于根据本实施例的照相机设备10使多个条状图像成像,所以照相机设备10具有这样一个优点,即,即使当在稍微偏移照相机视点的位置处对图像进行成像时,其影响也不太可能出现。
然而,当使用手持的且围绕肩膀旋转的照相机对图像进行成像时,将围绕在后方远离照相机视点的位置处旋转照相机,因此,所得到的图像将受到视差的强烈影响。
尽管当场景具有位于远距离的所有被摄体时基本上没问题,但是如果在场景中包含近距离的被摄体,那么与远距离的被摄体不同,与相邻图像的位置关系不能被正确地合成。
因此,在第四配置中,当检测到由于视差的影响而不能正确地合成图像时,通过指示将照相机围绕照相机的视点旋转来敦促用户重新拍摄。
【视差检测方法】
将描述视差检测方法。
在时间上相邻的两个图像的重叠范围内多次执行块匹配,以计算所得到的移动矢量。
通常,如果照相机被适当地扫动,则BM结果将产生大致相同的矢量。
当照相机围绕肩膀旋转并且近距离的被摄体被包含在远距离的场景中时,所得到的矢量将具有不同的值。
由于图像中的变化在近距离被摄体和远距离被摄体的边界处剧烈,因此难以获得正确的BM结果。通过本方法检测视差。
下面将描述视差检测的具体处理例。
下面的处理是通过微型计算机162和系统控制器16的图像信号处理部分161以协同的方式执行的。
<视差检测方法>
【粗略合成】
照相机设备10从左向右旋转,并且对应于大约120度的范围的几十个图像被成像。
这确保了存在足够的其中同一被摄体出现在相邻图像中的区域(重叠区域)。
在拍摄期间的照相机设备10的运动由姿势传感器14检测,并且以非常小的时间间隔被记录。
由于传感器数据与成像图像同步记录,因此可以知道各个图像的拍摄方向;然而,数据的精确度不高。
基于这一信息,各个图像被布置在经纬度平面上。
在这种状态下,相邻图像的每一个重叠区域都包括大约100个像素,并且被布置在大致正确的位置。
从这一点来看,执行了精确自动合成程序的处理。
【精确自动合成】
在重叠范围内的多个区域中执行运动检测(ME:运动搜索或运动评价)。
在运动检测ME中,使用基于FFT的只相位校正方法(FET basedphase-only correction method)。或者,可以使用特征点提取方法或其它方法。
在只有平移的情况下,只有一个ME区域就够了。
两个ME区域可以给出相互倾斜信息。
三个ME区域可以给出透镜畸变系数。
如果在重叠区域内没有运动被摄体并且在背景中没有被检测到手抖的影响,那么ME的数目可以小。
然而,如果ME的数目太小,那么将难以处理被摄体被包含在重叠区域中或者视差的影响在近距离中被检测到的情况。
因此,在重叠区域中的尽量多的区域中执行ME。
当作为ME的结果而获得的很多的运动矢量基本上具有相同的值时,可以通过将与其它图像相关的一个图像进行平移来合成这些图像。
尽管运动矢量不具有基本相同的值,但是如果这些值从上部到下部一样改变,那么可以通过将与其它图像相关的一个图像倾斜来合成这些图像。
然而,当从重叠区域获得不同的ME结果时,实际上不可能将图像合成在一起。
这是由于存在运动被摄体,或者由于在近距离和远距离同时存在被摄体从而导致了以移动的视点对图像进行成像。
【ME的方法】
首先,通过减少经受ME的图像来粗略地执行ME。
减少率逐渐地降低,最终,使用实际尺寸的图像执行ME。
ME的块尺寸被改变,或者,块的中心到中心的距离被减小,从而可以获取更详细的运动矢量。
【ME结果的评估】
基于很多ME的结果确定能否正确地执行拼接,并且,如果确定为不可能,那么这样的确定结果被显示以敦促用户重新拍摄。
如果确定为可能,那么执行拼接,并且,合成的结果被显示且被记录到记录介质(存储器)中。
【运动被摄体的行为】
下面,将描述运动被摄体的行为。
在时间上相邻的两个图像的重叠范围内多次执行块匹配(BM),以便计算所得到的移动矢量。
这一矢量对应于运动被摄体,因此可以从静止部分分离。
由于在运动被摄体和静止被摄体的边界处图像变化剧烈,因此难以获得正确的BM结果。当在水平方向上扫动照相机时,难以区分由于在近距离存在静止被摄体而出现视差的情况和存在在水平方向上移动的被摄体的情况。
因此,在这种情况下,在不区分视差和运动被摄体的情况下输出警告信号。
当在图像中检测到视差或运动被摄体时,对于现有技术,实际上不可能在不对用户产生任何不便的情况下拼接这些图像。
因此,在本实施例中,输出警告信号以敦促用户“重新拍摄(reshoot)”或“以改变拍摄的方法重新拍摄(reshoot with changedshooting method)”。
例如,输出诸如“在图像中出现了视差或运动被摄体的影响。请以减小的旋转半径重新拍摄(The influence of parallax or movingobjects appeared in the image.Please reshoot with a reduced radiusof rotation.)”的警告信号。”
如上所述,在第四配置中,由于能够在拍摄后立即检测到运动被摄体的存在,因此可以重新拍摄。
结果,由于能够在拍摄后立即检测到视差的影响,因此可以重新拍摄。
下面,将描述第五配置。
【第五配置】
在第五配置中,扫动角速度(用户扫动照相机的速度)的适当的值被告知用户,并且如果扫动太快则输出警告信号,由此敦促用户重新拍摄。
如上所述,微型计算机162以曲线图的形式将时间和姿势传感器(陀螺传感器)的输出(扫动角速度)分别显示在例如LCD的显示单元18的屏幕的横轴和纵轴上。
由于最大扫动角速度是在水平视角、水平像素数和快门速度被设置时确定的,因此如图4所示,最大扫动角速度的60%到80%作为适当范围RNG显示在曲线图上。
对操作流程的概述如下。
【1】在操作单元19的开始按钮被按下的情况中扫动照相机,然后开始按钮被释放。
【2】如图4所示,在开始按钮处于按下状态的期间扫动角速度显示在显示单元18的屏幕上。
【3】当扫动角速度低于适当范围RNG时不输出警告信号,但是当扫动角速度高于适当范围时将输出。
如上所述,在第五配置中,由于将适当的速度告知了用户,因此消除由于扫动太快造成没有重叠区域以及由于扫动太慢造成成像场景窄的不便。
将参考图22A到图22D描述用于计算扫动速度的处理的例子。
<扫动速度的计算>
将描述一种方法,其用于在确定曝光时间、像素计数、每一条线的读出时间、视角、重叠比和帧率时计算用于消除模糊角度、模糊像素计数中的任何问题的这样的扫动速度。
能够从三个公式中获得的最低的扫动速度值是在这种情况下的最大的角速度。
在图22A到图22D中示出的表格示出当给出诸如视角和扫动速度的各种参数时的模糊像素计数和帧率的计算结果。
计算结果是在不同的条件【1】到条件【6】下获得的。
将在下面描述在图22A到图22D中的条件【1】下的计算结果。
使用扫动速度vp、视角th、水平像素计数H和重叠比k,通过图22A到图22D的表格的右边的计算公式对模糊角ab2、模糊像素计数nb2和帧率f计算如下。
ab2=vp·(ts+n·rs)·1000
nb2=vp·(ts+n·rs)·H/th
f=100/(100-k)·H·vp/n/th
通过这些等式,得到扫动速度vp如下。
vp=1000·ab2/(ts+n·rs)[度]…(1)
vp=nb2·th/H/(ts+n·rs)[度/秒]…(2)
vp=(100-k)/100·n·th·f/H…(3)
这里,当模糊角ab2为0.28度,曝光时间为1msec,短边的像素计数n为400个像素,并且每一条线的读出时间rs是7.8微秒时,扫动速度vp变为68度/秒。
此外,当模糊角ab2为19.9度,长边的视角th为50度,并且水平像素计数H是3560个像素时,扫动速度vp变为68度/秒。
此外,当重叠比k为20%并且帧率f为15.13时,扫动速度vp变为68度/秒。
因此,当公式(1)、(2)和(3)的右边的参数改变时,扫动速度将受到公式的限制。
在以比通过公式(1)获得的扫动速度vp快的速度扫动照相机时,可能会超出光学图像稳定化元件的工作限制。
在以比由公式(2)获得的扫动速度vp快的速度扫动照相机时,模糊量可能会超出可允许的限制。
在以比由公式(3)获得的扫动速度vp快的速度扫动照相机时,重叠范围减少,并且甚至在某些情况中消失。
在上文中详细地描述的第一配置至第五配置可以单独地或全部地用于照相机设备10,并且可以适当地组合在一起以便用于其中。
在上文中详细地描述的方法可以被实施为与要由诸如CPU的计算机执行的上述过程相对应的程序。
这样的程序可以通过诸如半导体存储器、磁盘、光盘或软盘(注册商标)的记录介质或者通过设置有这样的记录介质的计算机进行访问,从而执行该程序。
本申请包括与2008年12月17日在日本专利局提交的日本在先专利申请JP 2008-320663中公开的主题相关的主题,该专利申请的全部内容以引用的方式并入本文。
本领域的技术人员应该理解,根据设计要求和其它因素,可以进行各种修改、组合、子组合和替换,只要它们在所附的权利要求或其等同形式的范围内即可。

Claims (10)

1.一种成像设备,包括:
光学系统,具有使光轴改变的光轴改变元件;
成像装置,该成像装置通过光学系统对被摄体图像进行成像;
图像信号处理部分,具有使用给定的与各个图像的绝对位置关系有关的初始值将多个成像图像合成为一个合成图像的功能,所述成像图像是在移动成像设备的同时获得的;
姿势传感器,能够获得成像设备的姿势信息;
控制器,该控制器针对所述成像装置的中心方向上的部分线控制所述光轴改变元件的所述光轴,使得在与所述部分线的曝光时间和读出时间之和相对应的时间期间,使所述光轴向抵消所述成像装置的移动的方向改变,而在除上述时间期间以外的其它的时间期间,使所述光轴返回所述成像装置的移动的中心附近,并且,该控制器处理姿势传感器的信息,以基于处理结果和图像信号处理部分的处理结果来执行协同控制,其中
图像信号处理部分通过图像识别来获得图像的相对位置关系;并且
控制器基于姿势传感器的检测信息来获得图像的位置关系,基于所获得的位置关系和由图像信号处理部分获得的相对位置关系指定各个图像的绝对位置关系,并且将该绝对位置关系作为初始值提供给图像信号处理部分。
2.根据权利要求1所述的成像设备,
其中,控制器通过对获得的位置关系和由图像信号处理部分获得的相对位置关系的选择性协同来获得相对位置关系,并且然后指定与各个图像的中心的取向相关的所述各个图像的绝对位置关系。
3.根据权利要求2所述的成像设备,其中
姿势传感器包括角速度传感器;并且
控制器使用角速度传感器的检测信息对移动量进行积分以便计算相对位置关系,执行由图像信号处理部分获得的相对位置关系的选择性协同校正以便对相对位置信息进行积分,从而指定绝对位置关系。
4.根据权利要求2所述的成像设备,其中
姿势传感器包括角速度传感器和加速度传感器;并且
控制器使用角速度传感器的检测信息对移动量进行积分以便计算相对位置关系,执行由图像信号处理部分获得的相对位置关系的选择性协同校正以便对相对位置信息进行积分,从而获得指定绝对位置关系的相对位置关系,并且,控制器根据加速度传感器的检测信息校正绝对位置。
5.根据权利要求1至4中的任一项所述的成像设备,
其中,图像信号处理部分使用图像的重叠区域来执行图像识别。
6.根据权利要求1至4中的任一项所述的成像设备,
其中,图像信号处理部分在多个被选图像的边界执行块匹配处理以便针对所述边界执行合成处理,从而使得被选图像的边界处于重叠关系,由此提取特定参数;基于该参数对要合成的所有边界执行块匹配处理;以同步和并行方式对所有边界评估块匹配处理的结果;并且,执行合成处理,以便通过更新光轴方向来减少误差,从而减少在所有边界中的误差。
7.一种成像方法,包括下述步骤:
通过具有光轴改变元件的光学系统,使用成像装置来对被摄体图像进行成像,该光轴改变元件能够在移动成像设备的同时改变其光轴;
针对所述成像装置的中心方向上的部分线控制所述光轴改变元件的所述光轴,使得在与所述部分线的曝光时间和读出时间之和相对应的时间期间,使所述光轴向抵消所述成像装置的移动的方向改变,而在除上述时间期间以外的其它的时间期间,使所述光轴返回所述成像装置的移动的中心附近;
通过对成像图像执行图像识别来获得图像的相对位置关系;
基于姿势传感器的检测信息获得所述图像的位置关系;
基于所获得的位置关系和通过图像识别获得的相对位置关系,指定各个图像的绝对位置关系;以及
使用被指定的绝对位置关系作为初始值来将多个成像图像合成为一个合成图像,所述成像图像是在移动成像设备的同时获得的。
8.根据权利要求7所述的成像方法,其中,经由对所获得的位置关系和通过图像识别获得的相对位置关系的选择性协同来获得相对位置关系,并且然后指定与各个图像的中心的取向相关的所述各个图像的绝对位置关系。
9.根据权利要求8所述的成像方法,其中,使用作为姿势传感器的角速度传感器的检测信息对移动量进行积分以便计算相对位置关系,对由图像信号处理部分获得的相对位置关系执行选择性协同校正以便对相对位置信息进行积分,从而指定绝对位置关系。
10.根据权利要求8所述的成像方法,其中,使用作为姿势传感器的角速度传感器的检测信息对移动量进行积分以便计算相对位置关系,对由图像信号处理部分获得的相对位置关系执行选择性协同校正以便对相对位置信息进行积分,从而获得指定绝对位置关系的相对位置关系,由此根据作为姿势传感器的角速度传感器的检测信息来校正绝对位置。
CN2009102265970A 2008-12-17 2009-11-25 成像设备、成像方法以及程序 Expired - Fee Related CN101753813B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-320663 2008-12-17
JP2008320663A JP4770924B2 (ja) 2008-12-17 2008-12-17 撮像装置、撮像方法、およびプログラム

Publications (2)

Publication Number Publication Date
CN101753813A CN101753813A (zh) 2010-06-23
CN101753813B true CN101753813B (zh) 2012-06-06

Family

ID=42240048

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009102265970A Expired - Fee Related CN101753813B (zh) 2008-12-17 2009-11-25 成像设备、成像方法以及程序

Country Status (3)

Country Link
US (1) US20100149368A1 (zh)
JP (1) JP4770924B2 (zh)
CN (1) CN101753813B (zh)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5163409B2 (ja) * 2008-10-03 2013-03-13 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JP2010136302A (ja) * 2008-12-08 2010-06-17 Sony Corp 撮像装置、撮像方法、およびプログラム
JP4618370B2 (ja) * 2008-12-08 2011-01-26 ソニー株式会社 撮像装置、撮像方法、およびプログラム
JP5267396B2 (ja) * 2009-09-16 2013-08-21 ソニー株式会社 画像処理装置および方法、並びにプログラム
JP5517843B2 (ja) * 2010-08-31 2014-06-11 キヤノン株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
JP5531865B2 (ja) * 2010-09-03 2014-06-25 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP5751986B2 (ja) * 2010-12-08 2015-07-22 キヤノン株式会社 画像生成装置
JP5843454B2 (ja) * 2011-03-15 2016-01-13 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US9160914B2 (en) * 2011-06-28 2015-10-13 Inview Technology Corporation User control of the visual performance of a compressive imaging system
CN103167227B (zh) * 2011-12-14 2018-04-24 深圳富泰宏精密工业有限公司 全景拍照系统及方法
JP2013196454A (ja) * 2012-03-21 2013-09-30 Honda Elesys Co Ltd 画像処理装置、画像処理方法および画像処理プログラム
CN103679668B (zh) * 2012-09-18 2016-11-23 成都方程式电子有限公司 图像拼接反馈系统
KR101402082B1 (ko) 2013-01-10 2014-06-19 주식회사 이미지넥스트 자세 센서를 이용한 공차 보정 시스템 및 방법
KR102100667B1 (ko) * 2013-04-30 2020-04-14 삼성전자주식회사 휴대 단말기에서 이미지 데이터를 생성하는 장치 및 방법
CN103327263A (zh) * 2013-07-16 2013-09-25 无锡方圆环球显示技术股份有限公司 多媒体摄录时加入重力加速数据的方法
JP6296801B2 (ja) * 2013-07-24 2018-03-20 キヤノン株式会社 撮像装置、撮像装置の制御方法、および撮像装置の制御プログラム
JP2015033108A (ja) * 2013-08-07 2015-02-16 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
EP3703001A1 (en) 2013-08-31 2020-09-02 ML Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
EP3089102B1 (en) 2013-12-03 2019-02-20 ML Netherlands C.V. User feedback for real-time checking and improving quality of scanned image
US10708491B2 (en) * 2014-01-07 2020-07-07 Ml Netherlands C.V. Adaptive camera control for reducing motion blur during real-time image capture
EP3092603B1 (en) 2014-01-07 2022-05-11 ML Netherlands C.V. Dynamic updating of composite images
CN103763483A (zh) * 2014-01-23 2014-04-30 贝壳网际(北京)安全技术有限公司 一种移动终端拍照防抖方法、装置以及移动终端
WO2015173173A1 (en) 2014-05-12 2015-11-19 Dacuda Ag Method and apparatus for scanning and printing a 3d object
US10033924B2 (en) * 2014-10-10 2018-07-24 Iec Infrared Systems, Llc Panoramic view imaging system
CN105791669B (zh) * 2014-12-26 2019-12-24 联想(北京)有限公司 电子设备及其控制方法
US9992412B1 (en) * 2015-04-15 2018-06-05 Amazon Technologies, Inc. Camera device with verged cameras
JP6659130B2 (ja) * 2015-12-04 2020-03-04 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
CN109564376B (zh) * 2016-03-10 2021-10-22 维斯比特股份有限公司 时间复用可编程视场成像
CN106657923B (zh) * 2017-01-10 2020-02-18 哈尔滨市一舍科技有限公司 基于位置的场景切换式共享观景系统
CN106657792B (zh) * 2017-01-10 2020-02-18 哈尔滨市一舍科技有限公司 共享式观景装置
CN106657922B (zh) * 2017-01-10 2020-02-18 哈尔滨市一舍科技有限公司 基于位置的场景切换式共享图像处理系统
CN106550182B (zh) * 2017-01-10 2022-07-05 青岛一舍科技有限公司 共享式无人机观景系统
WO2018163356A1 (ja) * 2017-03-09 2018-09-13 株式会社 資生堂 情報処理装置、プログラム
US10609288B1 (en) * 2019-03-04 2020-03-31 Qualcomm Incorporated Roll compensation and blur reduction in tightly synchronized optical image stabilization (OIS)
WO2021079455A1 (ja) * 2019-10-24 2021-04-29 三菱電機株式会社 画像生成システム及び画像処理装置、並びにプログラム及び記録媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
JP2000101895A (ja) * 1998-09-25 2000-04-07 Sony Corp 画像信号撮像装置および方法
JP2000134537A (ja) * 1998-10-28 2000-05-12 Ricoh Co Ltd 画像入力装置及びその方法
JP2000184265A (ja) * 1998-12-16 2000-06-30 Sony Corp 画像信号撮像装置および方法
JP3925299B2 (ja) * 2002-05-15 2007-06-06 ソニー株式会社 モニタリングシステムおよび方法
KR100758632B1 (ko) * 2006-03-29 2007-09-14 삼성전자주식회사 파노라마 사진촬영 장치 및 방법
JP4899803B2 (ja) * 2006-11-06 2012-03-21 ソニー株式会社 画像処理装置、カメラ装置、画像処理方法、およびプログラム

Also Published As

Publication number Publication date
JP4770924B2 (ja) 2011-09-14
CN101753813A (zh) 2010-06-23
US20100149368A1 (en) 2010-06-17
JP2010147635A (ja) 2010-07-01

Similar Documents

Publication Publication Date Title
CN101753813B (zh) 成像设备、成像方法以及程序
CN101902567B (zh) 成像设备和成像方法
CN101753818B (zh) 成像设备和成像方法
CN101715055B (zh) 成像设备和成像方法
CN101715053B (zh) 成像设备、成像方法
USRE45785E1 (en) Virtual reality camera
CN102282857B (zh) 拍摄装置以及方法
KR101218220B1 (ko) 항공촬영 이미지와 수치정보를 합성 처리하는 영상도화 시스템
CN103907341A (zh) 图像生成装置和图像生成方法
CN103907340A (zh) 图像生成装置和图像生成方法
US6809771B1 (en) Data input apparatus having multiple lens unit
JP3957888B2 (ja) 撮像装置及び撮像画像合成方法
Liu et al. Deepois: Gyroscope-guided deep optical image stabilizer compensation
JP2005038021A (ja) 画像処理装置、画像入力装置、画像処理方法、および画像処理方法をコンピュータで実行するプログラム
JP3191659B2 (ja) 画像入力装置
JP2014241621A (ja) 撮像装置、及びプログラム
JP2013106182A (ja) 撮像装置
WO1993014598A1 (en) A line monitoring system
AU3339293A (en) A line monitoring system

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20120606

Termination date: 20151125