CN115812307A - 图像处理装置、图像显示系统、方法以及程序 - Google Patents

图像处理装置、图像显示系统、方法以及程序 Download PDF

Info

Publication number
CN115812307A
CN115812307A CN202180048227.1A CN202180048227A CN115812307A CN 115812307 A CN115812307 A CN 115812307A CN 202180048227 A CN202180048227 A CN 202180048227A CN 115812307 A CN115812307 A CN 115812307A
Authority
CN
China
Prior art keywords
image
timing
region
imaging
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180048227.1A
Other languages
English (en)
Inventor
加地英隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN115812307A publication Critical patent/CN115812307A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/684Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time
    • H04N23/6845Vibration or motion blur correction performed by controlling the image sensor readout, e.g. by controlling the integration time by combination of a plurality of images sequentially taken
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6812Motion detection based on additional sensors, e.g. acceleration sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/44Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array
    • H04N25/443Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by partially reading an SSIS array by reading pixels from selected 2D regions of the array, e.g. for windowing or digital zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/587Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields
    • H04N25/589Control of the dynamic range involving two or more exposures acquired sequentially, e.g. using the combination of odd and even image fields with different integration times, e.g. short and long exposures
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0147Head-up displays characterised by optical features comprising a device modifying the resolution of the displayed image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Studio Devices (AREA)

Abstract

根据实施方式,图像处理装置包括:控制单元,该控制单元生成合成图像并且将合成图像输出显示装置,合成图像通过组合从第一图像和第二图像合成,第一图像从图像传感器输入,在第一曝光时间上被捕获并且具有第一分辨率;第二图像与第一图像的部分区域相对应,在比第一曝光时间短的第二曝光时间上被捕获并且具有比第一分辨率高的第二分辨率。

Description

图像处理装置、图像显示系统、方法以及程序
技术领域
本公开内容涉及图像处理装置、图像显示系统、方法以及程序。
背景技术
通常,在主要用于视频透视(VST)系统的假设下,提出了一种技术,在该技术中,根据通过眼睛追踪系统估计的视线位置来计算感兴趣区域,并且在拍摄之后执行使仅非感兴趣区域的图像稀疏化的处理(分辨率转换处理),以这种方式能够减少图像处理的处理负荷。
在专利文献1中描述的技术中,在感兴趣区域和非感兴趣区域中以不同的分辨率执行成像,并且降低除感兴趣区域之外的区域的分辨率,从而减少处理负荷。
在专利文献2中描述的技术中,通过优化相机成像定时和显示定时来实现视频透视的低延迟。
引文列表
专利文献
专利文献1:JP 2019-029952 A
专利文献2:JP 2016-192137 A
发明内容
技术问题
另外,在VST系统中,为了实现与现实相当的显示,高清摄像机是必不可少。然而,为了实现高清晰度,随着像素变得较细小,曝光时间变得较长以保持曝光条件,由于曝光期间的运动而导致出现模糊(所谓的成像模糊),以及感觉到与现实的差异或者增加VR疾病或疲劳。
此外,处理延迟以及从作为输入的相机至作为输出的显示器的数据传输延迟导致现实和显示之间的位置偏差。该位置偏差也导致VR疾病和疲劳的增加。因此,使用运动预测来避免位置偏差。然而,系统中的延迟越大,预测失败概率越高。因此,设计具有低延迟的系统路径非常重要。
此外,为了在显示器上将视频透视视频显示成如同人使用他/她的眼睛直接观看视频透视视频一样,需要同时实现高图像质量和低延迟。
本技术是针对这样的情况而制定,并且本技术的目的是提供能够实现模糊的减少和具有低延迟的高清晰度同时减少图像处理的处理负荷的图像处理装置、图像显示系统、方法以及程序。
问题的解决方案
本实施方式的图像处理装置包括:当生成通过组合第一图像和第二图像而获得的合成图像时,第一图像和第二图像从图像传感器输入,其中第一图像以第一曝光时间捕获,第二图像是与第一图像的部分区域相对应并且以比第一曝光时间短的第二曝光时间捕获的图像,控制单元,该控制单元将第二图像的成像定时设置成比第一图像的成像定时更接近将合成图像输出至显示装置的定时的定时。
附图说明
图1是根据实施方式的VR头戴式显示系统的示意配置框图;
图2是示出相机的布置状态的VR头戴式显示系统的说明图;
图3是根据实施方式的VST相机的功能框图。
图4是像素合并处理的说明图;
图5是被错误估计的运动矢量的去除的说明图;
图6是图像合成单元的功能框图;
图7是常规成像定时的示例的说明图;
图8是根据实施方式的成像定时的说明图;
图9是实施方式的更具体的成像定时的说明图;
图10是根据实施方式的成像定时的另一说明图;
图11是相机的成像定时控制的处理流程图。
图12是获取模糊减少图像时的处理的说明图。
具体实施方式
在下文中,将参照附图详细描述实施方式。
图1是根据实施方式的VR头戴式显示系统的示意配置框图。
图1示出了信息处理装置连接型VR头戴式显示系统。
VR头戴式显示系统10大致包括头戴式显示器(在下文中,被称为HMD单元)11和信息处理装置(在下文中,被称为PC单元)12。
此处,PC单元12用作控制HMD单元11的控制单元。此外,通过使用每个单元的通信功能在HMD单元11和PC单元12之间传输数据,但这与本技术的描述无关,并且因此被省略。
HMD单元11包括惯性测量单元(IMU)21、同时定位和映射(SLAM)相机22、视频透视(VST)相机23、眼睛追踪相机24以及显示器25。
IMU 21是所谓的运动传感器,感测用户的状态等,并且将感测结果输出至PC单元12。
IMU 21包括例如三轴陀螺仪传感器和三轴加速度传感器,并且将与检测到的三维角速度、加速度等相对应的用户运动信息(传感器信息)输出至PC单元12。
图2是示出相机的布置状态的VR头戴式显示系统的说明图。
SLAM相机22是同时执行被称为SLAM的自身位置估计和环境地图创建的相机,并且获得图像以用于从不存在诸如地图信息的先验信息的状态获取自身位置的技术。SLAM相机例如被布置在HMD单元11的前表面的中间部分处,并且基于HMD单元11的前面的图像中的变化来收集用于同时执行自身位置估计和环境地图创建的信息。稍后将详细描述SLAM。
VST相机23获取VST图像,该VST图像是外部图像,并且将VST图像输出至PC单元12。
VST相机23包括在用于VST的HMD单元11外部安装的镜头和图像传感器23A(见图3)。如图2中所示,提供一对VST相机23以与用户的双眼的位置对应。
在这种情况下,VST相机23的成像条件(分辨率、成像区域、成像定时等)以及图像传感器由PC单元12控制。
根据本实施方式的VST相机23中包括的图像传感器23A(见图3)具有以下模式作为操作模式:具有高分辨率但高处理负荷的全分辨率模式;以及具有低分辨率但低处理负荷的像素加法模式。
然后,图像传感器23A可以在PC单元12的控制下以帧为单位在全分辨率模式和像素加法模式之间切换。
在这种情况下,像素加法模式是图像传感器23A的驱动模式中的一种,并且以与全分辨率模式相比获得具有更少噪声的图像的方式通过平均来随机减少每个像素的随机噪声。
具体地,在作为像素加法模式的示例的2×2加法模式中,对垂直方向和水平方向上的2×2个像素(总共四个像素)进行平均并且输出为一个像素,以这种方式输出具有1/4的分辨率和约1/2的噪声量的图像。类似地,在4×4加法模式中,对垂直方向和水平方向上的4×4像素(总共16个像素)进行平均并且输出为一个像素,以这种方式输出具有1/16的分辨率和约1/4的噪声量的图像。
眼睛追踪相机24是用于追踪用户视线(所谓的眼睛追踪)的相机。眼睛追踪相机24被配置为外部可见光相机等。
眼睛追踪相机24用于通过诸如可变注视点渲染的方法检测用户所需的感兴趣区域。根据最近的眼睛追踪相机24,可以以约±0.5°的精度获取视线方向。
显示器25是显示由PC单元12处理的图像的显示装置。
PC单元12包括自身位置估计单元31、感兴趣区域确定单元32、图像信号处理器(ISP)33、运动补偿单元34、帧存储器35以及图像合成单元36。
自身位置估计单元31基于由IMU 21输出的传感器信息和由SLAM相机22获取的SLAM图像来估计包括用户的姿势等的自身位置。
在本实施方式中,使用如下方法作为自身位置估计单元31的自身位置估计的方法:使用由IMU 21输出的传感器信息和由SLAM相机22获取的SLAM图像二者来估计HMD单元11的三维位置。然而,可以考虑诸如仅使用相机图像的视觉里程计(VO)以及同时使用相机图像和IMU21的输出的视觉惯性里程计(VIO)的一些方法。
感兴趣区域确定单元32基于作为眼睛追踪相机24的输出的双眼的眼睛追踪结果图像来确定用户的感兴趣区域,并且将感兴趣区域输出至ISP33。
ISP 33仅对VST相机23的成像区域中的感兴趣区域执行图像处理,或者基于由感兴趣区域确定单元32确定的用户的感兴趣区域对整个区域执行图像处理。
此外,ISP 33处理从VST相机23输出的图像信号并且输出经处理的图像信号。具体地,执行“去噪”、“去马赛克”、“白平衡”、“曝光调整”、“对比度增强”、“伽马校正”等作为图像信号的处理。由于处理负荷大,因此在许多移动装置中基本上准备了专用硬件。
运动补偿单元34基于由自身位置估计单元31估计的HMD单元11的位置对经处理的图像信号执行运动补偿,并且输出经处理的图像信号。
帧存储器35以帧为单位存储经运动补偿后的经处理的图像信号。
首先,在实施方式的详细操作描述之前,将描述实施方式的原理。
在高分辨率广角相机被用作VST相机23的情况下,由于镜头畸变的影响导致中心和周边之间的分辨率不同。
此外,在图像被聚焦成使得模糊显现的情况下,已知识别极限为围绕视轴对于字符约20°以及对于符号约60°。也就是,已知的是,模糊的影响具有以作为用户的观看图像的人的视线为中心的空间依赖性。
因此,使用VST相机23的分辨率的感知或以人的视线为中心的空间依赖性,将在前一种情况下使用屏幕的中心作为中心以及在后一种情况下将视轴作为中心的靠近中心的区域设置为感兴趣区域。
然后,对于感兴趣区域,获取以几乎不发生模糊的预定曝光时间捕获的一个第二图像。
另一方面,对于除了感兴趣区域之外的区域,获取一个或更多个第一图像,其中,分辨率被降低(通过像素合并降低)并且以通过捕获整个成像区域使图像质量变得合适的方式来调整曝光。
通过像素合并获得的第一图像具有比未像素合并的图像少的噪声。此外,在像素合并成像(第一图像)中,以不需要使用数字增益的方式执行曝光控制,使得曝光时间比仅对感兴趣区域的成像中的曝光时间长。因此,还存在容易获得具有高动态范围和良好S/N比但低分辨率的图像的优点。
然后,在感兴趣区域中,将具有良好S/N比和高动态范围的第一图像与具有高分辨率且不太可能模糊的第二图像组合以生成具有改善的图像质量的图像。
因此,根据本实施方式,针对感兴趣区域,在显示器上显示高分辨率的抑制模糊发生的图像作为VST图像,并且针对感兴趣区域之外的区域,显示具有良好S/N比和高动态范围但低分辨率的图像作为VST图像。
此外,在本实施方式中,以如下方式执行控制:通过调整定时以将感兴趣区域的拍摄(第二图像的拍摄)与显示器上的显示定时匹配或者通过切换成像顺序,使显示器上的感兴趣区域的显示定时以前的延迟最小化。
因此,可以在视频透视中以低延迟显示感兴趣区域,并且可以显示具有较高沉浸感的图像。
接下来,将描述实施方式的功能框图。
图3是根据实施方式的表示从VST相机至图像合成的VST处理的功能框图。
VST处理大致包括图像传感器40和图像处理系统50。
图像传感器40只需要能够在感兴趣区域的像素合并(binning)成像和切出(cutout)成像之间切换而没有帧无效时段。
图像传感器40大致包括成像元件单元41、信号处理单元42、数据传输单元43、定时控制单元44、曝光设置单元45以及控制设置通信单元46。
成像元件单元41在指定范围中在成像区域的整个或特定区域中将光转换成电荷,并且输出电荷作为成像信号。
信号处理单元42对从成像元件单元输入的成像信号执行像素合并处理、增益处理或A/D转换处理,并且输出成像信号作为成像数据。
数据传输单元43将由信号处理单元输出的成像数据输出至图像处理系统。
定时控制单元44生成并且输出成像元件单元中的成像定时或信号处理单元中的各种类型的信号处理的定时。
曝光设置单元45设置成像元件单元或信号处理单元的适当的曝光。
控制设置通信单元46主要通过I2C执行通信,并且将从图像处理系统输入的控制设置输出至定时控制单元或曝光设置单元。
此处,将描述由信号处理单元42执行的像素合并处理。
在像素合并处理中,相同颜色由相对于与构成成像元件单元的每个像素相对应的成像元件的模拟信号或数字数据平均。
图4是像素合并处理的说明图。
通常,在滤色器以称为拜耳阵列的线布置的情况下,相同颜色被平均。
图4是对4×4像素图像和2×2像素图像执行像素合并处理的情况。
在这种情况下,如图4中所示,可以根据像素的位置进行加法加权。
具体地,使用像素合并处理之前的4个像素R1至R4的值通过例如下式表示像素合并处理之后的像素R'的值。
R'=(3×R1+R2+1.5×R3+0.5×R4)/6
可替选地,可以平均地执行加法。具体地,表示为下式:
R'=(R1+R2+R3+R4)/4
然后,通过对所有像素执行平均处理而获得的图像被称为像素合并图像。
在本实施方式中,将与第一图像相对应的像素合并图像用作感兴趣区域外的图像。
此外,在本实施方式中,在像素合并图像中,与感兴趣区域相对应的图像部分用于执行与以感兴趣区域内部几乎不发生模糊的曝光时间捕获的图像(与第二图像相对应并且在下文中被称为模糊减少图像)的图像合成。稍后将描述图像合成的细节。
接下来,将描述图像处理系统50。
图像处理系统50大致包括曝光控制单元51、感兴趣区域检测单元52、图像传感器控制设置创建单元53、控制设置通信单元54、数据接收单元55、图像信号处理单元56,图像运动补偿单元57、图像合成单元58以及像素合并图像存储单元59。
曝光控制单元51执行图像传感器的曝光控制。
感兴趣区域检测单元52基于视线信息等检测在捕获的图像中用户的感兴趣区域。
图像传感器控制设置创建单元53基于从曝光控制单元获取的曝光控制信息和感兴趣区域检测单元的检测结果来计算要在图像传感器中设置的控制条件。
控制设置通信单元54主要通过I2C执行通信,并且将设置的控制设置发送至图像传感器侧。
数据接收单元55接收由图像传感器的数据传输单元传送的成像数据。
图像信号处理单元56将接收的成像数据显像,并且将显像的成像数据输出至图像运动补偿单元57和像素合并图像存储单元59。
因此,像素合并图像存储单元59存储用于图像合成和运动补偿的像素合并图像,并且根据需要将像素合并图像输出至图像运动补偿单元57或图像合成单元58。像素合并图像存储单元59对应于图1的帧存储器35。
图像运动补偿单元57用作运动补偿单元34,并且基于从成像至显示的处理延迟和从多个捕获的图形估计的成像对象的运动信息通过将捕获的图像移动至用于显示的位置来执行执行运动补偿的图像运动补偿。
此处,将描述由图像运动补偿单元57执行的运动补偿的方法。
作为运动补偿方法,使用基于通过光流算法(诸如Lucas Kanade方法)或在运动图像压缩中使用的像素值差异最小搜索算法获得的成像对象的图像差异的运动矢量。然后,基于运动矢量,估计成像对象从显示时间该时间将移动到的位置。
然后,这通过将显示器上显示的相机图像转移至与成像对象的估计显示位置相对应的位置来实现。
在这种情况下,从陀螺仪传感器输出的角速度获得的用户的运动信息可以被用作运动补偿的辅助。在光流算法和像素值差异最小搜索算法中,存在得出在间歇方式中被错误估计的运动矢量的情况。因此,这对于去除运动矢量是有效的。
更具体地,在通过陀螺仪传感器检测运动矢量的情况下,根据基于由上述算法计算的周围运动矢量检测目标(=一个像素或多个像素)的图像差异的运动矢量和根据从陀螺仪传感器输出的角加速度计算的运动矢量之间的角度来计算相似度。也就是,两个向量的取向越接近,相似度越高;以及两个向量的取向越不相同,相似度越低。
然后,当计算的相似度超过预定阈值时,通过使用根据陀螺仪传感器计算的运动矢量替换基于图像差异的运动矢量,可以去除被错误估计的运动矢量,上述图像差异在间歇方式中不同。
图5是被错误估计的运动矢量的去除的说明图。
如图5中所示,运动矢量检测目标TG1至TG15包括一个像素或多个像素。
针对运动矢量检测目标TG1至TG15中的每一个,基于图像差异通过光流算法、像素值差异最小搜索算法等计算运动矢量。
类似地,针对运动矢量检测目标TG1至TG15中的每一个,计算根据从陀螺仪传感器输出的角加速度计算的运动矢量。
然后,例如,对于运动矢量检测目标TG0至TG4、TG6至TG9、TG12、以及TG13,由于基于图像差异的运动矢量和根据每个加速度计算的运动矢量之间的取向方面的差异(角度差异)小,因此确定相似度高。
另一方面,由于运动矢量检测目标TG5、TG10、TG11、TG14、以及TG15具有在基于图像差异的运动矢量和根据每个加速度计算的运动矢量之间的取向方面的差异(角度差异)大,因此,确定不存在相似度。
在这种情况下,当关注运动矢量检测目标TG5时,确定在八个周围运动矢量检测目标TG0至TG4、TG6、以及TG8至TG10之中除了运动矢量检测目标TG10之外的七个运动矢量检测目标TG0至TG4、TG6、TG8以及TG9具有相似度。
因此,运动矢量检测目标TG5确定计算了在间歇方式中不正确的运动矢量。
因此,运动矢量检测目标TG5的运动矢量被设置为根据从陀螺仪传感器输出的角加速度计算的运动矢量。
另一方面,运动矢量检测目标TG10、TG11、TG14以及TG15包括在周围运动矢量检测目标之中不具有相似度的三个或更多个运动矢量,并且因此,能够确定示出了与本运动不同的移动对象。
如上所述,如果存在根据从陀螺仪传感器输出的角加速度计算的运动矢量,则可以去除错误计算的运动矢量并且获得更正确的运动矢量。
图像合成单元58将像素合并图像和从感兴趣区域切出的图像进行组合,以保持来自图像的感兴趣区域的轮廓经受图像信号处理和图像运动补偿以及曝光条件,以及针对感兴趣区域外的区域原样输出经过图像信号处理和运动补偿的像素合并图像。
此处,将描述图像合成。
在图像合成中,在感兴趣区域中组合模糊减少图像和像素合并图像,在像素合并图像中,以像素合并处理和图像质量适当的方式调整曝光。
在这种情况下,由于有效提高S/N比并且在像素合并处理中停止了数字增益的使用,因此组合的图像的有效动态范围比执行全像素读取的图像的有效动态范围宽。
此外,通过在执行上述运动补偿之后叠加在不同时间捕获的图像,可以预期作为运动自适应噪声去除滤波器降低图像传感器的随机噪声的效果。
图6是图像合成单元的功能框图。
图像合成单元58大致包括高通滤波处理单元61、图像放大处理单元62、处理切换单元63、图像加法单元64、感兴趣区域选择单元65、图像切换单元66以及轮廓校正单元67。
然后,如图6中所示,在图像合成单元58中,高通滤波处理单元61提取用于对运动补偿的模糊减少的图像的感兴趣区域的图像执行边缘增强的高频成分。
另一方面,图像放大处理单元62将运动补偿像素合并图像放大至具有与像素合并处理之前相同的分辨率。
然后,在放大的像素合并图像之中,在感兴趣区域选择单元65的控制下,通过处理切换单元63将与感兴趣区域相对应的图像输出至图像加法单元64。
然后,从高通滤波处理单元61输出的模糊减少图像通过图像加法单元64被添加并且输出至图像切换单元66。
因此,可以保持感兴趣区域的分辨率高并且确保大的动态范围。
另一方面,在放大的像素合并图像之中,与除了感兴趣区域之外的区域相对应的图像在感兴趣区域选择单元65的控制下由处理切换单元63原样输出至图像切换单元66。
在感兴趣区域选择单元65的控制下,图像切换单元66基于显示目标是感兴趣区域还是除了感兴趣区域之外的区域,将任何图像数据输出至轮廓校正单元67。
因此,通过放大像素合并图像而获得的图像用于与除了感兴趣区域之外的区域相对应的图像。
然后,轮廓校正单元67锐化并输出输入图像的轮廓。
顺便说一下,为了执行图像合成以提高图像质量,需要在图像合成时执行HDR处理和分辨率增强处理。
作为HDR处理的基本构思,以在屏幕中的低亮度区域中长曝光图像(本实施方式中的像素合并图像BG1、BG2)的混合比高的方式组合图像,以及以在高亮度区域中短曝光图像(本实施方式中的模糊减少图像BL)的混合比高的方式组合图像。
因此,可以生成如同由具有宽动态范围的相机拍摄的图像,并且可以抑制妨碍沉浸感的要素(诸如高光溢出和阴影破碎)。
在下文中,将更详细地描述HDR处理。
首先,对放大的像素合并图像和通过将像素合并图像放大以具有与模糊减少图像的分辨率相同的分辨率而获得的模糊减少图像执行范围匹配和比特扩展。这是因为使亮度范围彼此一致,并且随着动态范围的扩展而确保了频带。
随后,针对放大的像素合并图像和模糊减少图像中的每一个生成表示在像素的单元中的亮度分布的α地图。
然后,基于与生成的α地图相对应的亮度分布,执行用于组合放大的像素合并图像和模糊减少图像的α混合。
更具体地,在低亮度区域中,基于生成的α地图,以长曝光图像的放大的像素合并图像的混合比比短曝光图像的模糊减少图像的混合比高的方式以像素的单元组合图像。
类似地,在高亮度区域中,基于生成的α地图,以短曝光图像的模糊减少图像的混合比比长曝光图像的放大的像素合并图像混合比高的方式以像素的单元组合图像。
随后,由于在组合的图像中存在灰度变化迅速的部分,所以以灰度变化变得自然(也就是,灰度变化变得平缓)的方式执行灰度校正。
因此,可以获得自然、宽动态范围以及高清晰度的图像。
此处,将描述本实施方式中的成像定时的设置。
首先,将描述现有技术中的成像定时。
图7是常规成像定时的示例的说明图。
图7示出了专利文献2中描述的技术,在图7中,横轴表示时间,纵轴表示线。
然后,相机曝光定时DS51和DS52的水平宽度表示曝光时间。
此外,显示定时DP51和DP52的水平宽度表示显示器更新时间。
如图7中所示,使由相机捕获一条线和在显示器上显示一条线所需的时间基本相同。
此外,执行定时调整以使在显示定时DP51和DP52处显示在相机曝光定时DS51和DS52处获取的相机图像之前执行的图像处理和图像数据传输的时间最小化。
因此,使显示器25上显示的由VST相机23捕获的图像中包括的成像对象与实际成像对象之间的位置上的差异最小化。
然而,在使用通过一次相机成像获取的图像来实现显示的情况下,存在发生模糊的高可能性。
具体地,例如,在约100至200勒克斯的室内亮度环境中适合高分辨率相机的曝光时间通常是模糊发生的曝光时间。
图8是根据实施方式的成像定时的说明图。
因此,在本实施方式中,如在图8中所示,尽管通过像素合并降低了分辨率,但交替地执行通过将整个成像区域成像的一次或更多次成像(在图8中,两次)获取一个或更多个(在图8中为两个)像素合并图像BG1和BG2以及通过成像区域被限制成仅感兴趣区域的一次成像获取一个模糊减少图像BL。
在图8中,与图7类似,横轴表示时间,纵轴表示线。
在图8中,在一帧的处理时段期间,存在像素合并图像的两个或一个成像定时,该像素合并图像可以被用作除了感兴趣区域之外的区域的图像并且具有低分辨率但可以被成像成具有高SN比和高动态。
更具体地,图8示出了能够成像两次的帧的处理时段,也就是,相机曝光定时DS1和相机曝光定时DS2。
在这种情况下,在能够成像两次的帧的处理时段中,在显示除了感兴趣区域之外的区域的图像的情况下,将时间上更接近显示定时的成像数据用于实际显示。
此外,在一帧的处理时段期间,存在模糊减小图像BL的一个成像定时,该模糊减小图像B可以以将其用作感兴趣区域的图像的方式在几乎不发生模糊的曝光时间下捕获L。
更具体地,在图8中,例如,模糊减小图像BL的一个成像定时是相机曝光定时DS3。
图9是实施方式的更具体的成像定时的说明图。
在图9中,类似于图7,横轴表示时间,纵轴表示线。
如图9中所示,在显示定时DP11处,当在相机曝光定时DS12处获取的成像数据没有及时用于在显示定时DP11处显示时,在相机曝光定时DS11处获取的成像数据组DG11执行显示。
在显示定时DP11处,在相机曝光定时DS12处获取的成像数据及时用于在显示定时DP11处显示之后,在相机曝光定时DS12处获取的成像数据组DG12执行显示。
然后,在显示定时DP11处,当达到显示的感兴趣区域的显示定时时,在与感兴趣区域相对应的相机曝光定时DS13处获取的与成像数据组DG15相对应的三个图像的成像数据组,在相机曝光定时DS11处获取的成像数据组DG13,以及与相机曝光定时DS14相对应的获取的成像数据组DG14被组合并被显示。
在这种情况下,以感兴趣区域的捕获图像的图像质量和感兴趣区域外面的捕获图像的图像质量不具有协调的感觉的方式执行图像校正,并且然后执行组合。
此外,在显示定时DP21处,由在相机曝光定时DS21处获取的成像数据组DG21执行显示。
当成像数据组DG21的显示在显示定时DP21处结束并且达到显示的感兴趣区域的显示定时时,与在相机曝光定时DS21处获取的成像数据组DG22和在相机曝光定时DS22处获取的成像数据组DG24相对应的两个图像被组合并被显示。
此外,以感兴趣区域的捕获图像的图像质量和感兴趣区域外面的捕获的图像的图像质量不具有协调的感觉的方式执行图像校正,并且然后执行组合。
然后,当与感兴趣区域相对应的合成图像的显示结束时,通过在相机曝光定时DS21处获取的成像数据组DG23执行显示。
如上所述,由于第二图像的模糊减少图像的成像定时是比第一图像的像素合并图像的成像定时接近将合成图像输出至显示装置的定时的定时,因此可以使用较高的实时属性显示感兴趣区域,并且可以通过抑制合成图像中真实成像对象的位置和成像对象的位置之间的偏差来显示具有高沉浸的感觉的图像。
在这些情况下,由于感兴趣区域根据需要而改变,因此提供了与在一帧的处理期间的感兴趣区域的变化(感兴趣区域的移动)相对应的调整余量时段。
具体地,调整余量时段INT11和INT12设置在相机曝光定时DS11和相机曝光定时DS21之间,相机曝光定时DS11和相机曝光定时DS21与模糊减少图像的一帧相对应并且是模糊减少图像前后的相机曝光定时DS12和相机曝光定时DS21。
图10是根据实施方式的成像定时的另一说明图。
图10示出了与图8的情况相比感兴趣区域被改变至成像区域的上侧的情况。
在图10中,与图8类似,横轴表示时间,纵轴表示线。
图10在如下方面是相同的:在一帧的处理时段期间,存在可以被用作除了感兴趣区域之外的区域的图像的像素合并图像的两个成像定时,并且该像素合并图像具有低分辨率但可以使用高S/N比和高动态对该像素合并图像进行成像;但不同之处在于感兴趣区域在成像区域的上侧。
如图10中所示,在显示定时DP31处,由于显示的感兴趣区域的显示定时紧接在显示的开始之后,因此在相机曝光定时DS31处获取的成像数据组、在相机曝光定时DS32处获取的成像数据组以及在相机曝光定时DS33处获取的成像数据组DG33被组合并被显示。
在感兴趣区域在显示定时DP31处的显示结束之后,通过在相机曝光定时DS32处获取的成像数据组DG32执行显示。
然后,在显示定时DP41处,当达到显示的感兴趣区域的显示定时时,与感兴趣区域相对应的相机曝光定时DS43处获取的成像数据组DG43、在相机曝光定时DS41处获取的成像数据组DG42以及与相机曝光定时DS42相对应的获取的成像数据组DG42相对应的三个图像的成像数据组被组合并被显示。
此外在这种情况下,以感兴趣区域的捕获图像的图像质量和感兴趣区域外面的捕获图像的图像质量不具有协调的感觉的方式执行图像校正,并且然后执行组合。
如上所述,即使在感兴趣区域被改变的情况下,也仅改变处理开始定时,而且处理内容一直相同,以这种方式能够可靠地执行图像显示。
接下来,将参照流程图描述当感兴趣区域被改变时的定时控制方法。
图11是相机的成像定时控制的处理流程图。
首先,当设置变化定时到来时,确定先前(一帧之前)的感兴趣区域是否不同于当前成像的感兴趣区域(步骤S11)。
在这种情况下,先前的感兴趣区域与当前成像的感兴趣区域不同的事实并不意味着排除物理上完全一致的情况,而是意味着先前的感兴趣区域在如下程序下不同的情况:可以识别出用户的视线已改变。
在步骤S11中的确定中,在先前的感兴趣区域与当前成像的感兴趣区域相同的情况下(步骤S11;否),处理进行至步骤S20。
在步骤S11中的确定中,在感兴趣区域与当前的拍摄区域不同的情况下(步骤S11;是),确定接下来的成像模式是否不同于当前的成像模式(步骤S12)。
此处,模式是通过像素合并处理执行成像的模式或仅在感兴趣区域中执行成像的模式。
在步骤S12中的确定中,在接下来的成像模式与当前成像模式不同的情况下(步骤S12:是),确定感兴趣区域是否向上移动(步骤S13)。
在步骤S13中的确定中,在感兴趣区域向上移动的情况下(步骤S13:是),在定时设置中将定时在推进相机的成像定时的方向上改变(步骤S14)。
然后,确定改变的设置是否超过由调整余量时段(在本实施方式中的调整余量时段INT11、INT12)确定的将定时在推进的方向上的改变上限(步骤S15)。也就是,确定改变上限是否落入调整余量时段内。
在步骤S15中的确定中,在改变的设置超过由调整余量确定的改变上限的情况下(步骤S15:是),设置推进改变设置的方向上的的改变上限,并且处理结束(步骤S16)。
在步骤S15中的确定中,在改变的设置未超过由调整余量确定的推进设置的方向上的改变上限的情况下(步骤S15:否),改变的设置有效,并且处理结束。
在步骤S13中的确定中,在感兴趣区域没有向上移动的情况下(步骤S13:是),在定时设置中在延后定时的方向上设置定时(步骤S17)。
然后,确定改变的设置是否超过由调整余量确定的延后设置的改变上限(步骤S18)。
在步骤S18中的确定中,在改变的设置超过由调整余量确定的在延后的方向上的改变上限的情况下(步骤S18:是),设置在延后改变的设置的方向上的改变上限,并且处理结束(步骤S19)。
在步骤S18中的确定中,在改变的设置未超过使由调整余量确定的延后设置的方向上的改变上限的情况下(步骤S19:否),改变的设置有效,并且处理结束。
如上所述,根据本实施方式,可以减少关于图像处理的处理负荷的同时实现模糊的减少以及具有低延迟的高清晰度。
图12是获取模糊减少图像时的处理的说明图。
在上面的描述中,没有详细描述获取模糊减少图像时的处理,但是在获取感兴趣区域的模糊减少图像的情况下,执行以下步骤。
图像处理系统50将水平成像开始像素GHS、平面成像结束像素GHE、垂直成像开始线GVS以及垂直成像结束线GVE设置至时序控制单元44。然后,在成像操作期间,跳过感兴趣区域外的成像定时生成。
因此,根据本实施方式,由于不针对跳过的量执行图像输出,因此可以仅获取必要的感兴趣区域的图像,并且通过在垂直方向上的跳过量较早地结束图像数据的传送。
[6]实施方式的修改
注意,本技术的实施方式不限于上述实施方式,并且可以在不背离本技术的主旨的情况下进行各种修改。
在上面描述中,捕获了一个模糊减少图像并且将其与一个或两个像素合并图像组合。然而,可以通过相对于多个模糊减少图像捕获一个或多个像素合并图像并且对图像进行组合来获得类似的效果。
此外,本技术可以具有以下配置。
(1)
一种图像处理装置包括:
在生成通过组合第一图像和第二图像而获得的合成图像时,第一图像和第二图像从图像传感器输入,其中,第一图像以第一曝光时间捕获,第二图像是与第一图像的部分区域相对应并且以比第一曝光时间短的第二曝光时间捕获的图像,
控制单元,该控制单元将第二图像的成像定时设置成比第一图像的成像定时更接近将合成图像输出至显示装置的定时的定时。
(2)
根据(1)的图像处理装置,其中
第一图像的分辨率是第一分辨率,以及
第二图像的分辨率是比第一分辨率高的第二分辨率。
(3)
根据(1)或(2)的图像处理装置,其中
通过合成图像显示预定的感兴趣区域,以及
基于第一图像显示除了感兴趣区域之外的区域。
(4)
根据(3)的图像处理装置,其中
获取并保持具有不同相机曝光定时的多个第一图像,以及
当基于第一图像显示除了感兴趣区域之外的区域时,使用多个第一图像中的从相机曝光定时至输出至显示装置的定时的时间相对短的第一图像中的任何一个执行显示。
(5)
根据(3)或(4)的图像处理装置,其中
控制单元设置定时调整余量以用于吸收在第二图像的成像定时前后伴随在感兴趣区域中的改变而产生的成像定时上的波动,
将第一图像的成像定时设置在除定时调整余量和第二图像的成像定时之外的定时处。
(6)
根据(1)至(5)中任一项的图像处理装置,其中
第一图像是像素合并图像,以及
第二图像是出于模糊减少的目的而设置第二曝光时间的模糊减少图像。
(7)
根据(1)至(6)中任一项的图像处理装置,其中
控制单元生成合成图像并且将合成图像实时地输出至显示装置。
(8)
一种图像显示系统包括:
成像装置,该成像装置包括图像传感器并且输出在第一曝光时间捕获且具有第一分辨率的第一图像和第二图像,第二图像是与第一图像的部分区域相对应并且在比第一曝光时间短的第二曝光时间被捕获以及具有比第一分辨率高的第二分辨率的图像;
包括控制单元的图像处理装置,该图像处理装置生成并且输出通过组合第一图像和第二图像而获得的合成图像;以及
显示输入的合成图像的显示装置。
(9)
根据(8)的图像显示系统,其中
成像装置由用户佩戴,
图像显示系统包括检测用户的视线方向的视线方向检测装置,以及
感兴趣区域基于视线方向设置。
(10)
一种由控制图像传感器的图像处理装置执行的方法,该方法包括以下过程:
从图像传感器输入第一图像和第二图像,所述第一图像以第一曝光时间捕获,第二图像与第一图像的部分区域相对应并且以比第一曝光时间短的第二曝光时间捕获;
生成通过组合第一图像和第二图像而获得的合成图像;以及
将第二图像的成像定时设置成比第一图像的成像定时更接近将合成图像输出至显示装置的定时的定时。
(11)
一种用于通过计算机控制控制图像处理装置的程序,图像处理装置控制图像传感器,该程序用于使计算机用作以下装置:
用于从图像传感器输入第一图像和第二图像的装置,所述第一图像以第一曝光时间捕获,第二图像与第一图像的部分区域相对应并且以比第一曝光时间短的第二曝光时间捕获;
用于生成通过组合第一图像和第二图像而获得的合成图像的装置;以及
用于将第二图像的成像定时设置为比第一图像的成像计时更接近将合成图像输出至显示装置的定时的定时的装置。
参考标记列表
10VR头戴式显示系统(图像显示系统)
11头戴式显示器(HMD单元)
12信息处理装置(PC单元)
21惯性测量单元
22SLAM相机
23VST相机
23A图像传感器
24眼睛追踪相机
25显示器
31自身位置估计单元
32感兴趣区域确定单元
33图像信号处理器
34补偿单元
35帧存储器
36图像合成单元

Claims (11)

1.一种图像处理装置,包括:
当生成通过组合第一图像和第二图像而获得的合成图像时,所述第一图像和所述第二图像从图像传感器输入,其中所述第一图像以第一曝光时间捕获,所述第二图像是与所述第一图像的部分区域相对应并且以比所述第一曝光时间短的第二曝光时间捕获的图像,
控制单元,所述控制单元将所述第二图像的成像定时设置成比所述第一图像的成像定时更接近将所述合成图像输出至显示装置的定时的定时。
2.根据权利要求1所述的图像处理装置,其中
所述第一图像的分辨率是第一分辨率,以及
所述第二图像的分辨率是比所述第一分辨率高的第二分辨率。
3.根据权利要求1所述的图像处理装置,其中
通过所述合成图像显示预定的感兴趣区域,以及
基于所述第一图像显示除了所述感兴趣区域之外的区域。
4.根据权利要求3所述的图像处理装置,其中
获取并保持具有不同相机曝光定时的多个所述第一图像,以及
当基于所述第一图像显示除所述感兴趣区域之外的区域时,使用所述多个第一图像中的从所述相机曝光定时至输出至所述显示装置的定时的时间相对短的所述第一图像中的任何一个来执行显示。
5.根据权利要求3所述的图像处理装置,其中
所述控制单元设置定时调整余量以用于吸收在所述第二图像的成像定时前后伴随在感兴趣区域中的改变而产生的成像定时上的波动,以及
将所述第一图像的成像定时设置在除所述定时调整余量和所述第二图像的成像定时之外的定时处。
6.根据权利要求1所述的图像处理装置,其中
所述第一图像是像素合并图像,以及
所述第二图像是出于模糊减少的目的而设置所述第二曝光时间的模糊减少图像。
7.根据权利要求1所述的图像处理装置,其中
所述控制单元生成所述合成图像并且将所述合成图像实时地输出至所述显示装置。
8.一种图像显示系统,所述图像显示系统包括:
成像装置,所述成像装置包括图像传感器并且输出第一图像和第二图像,所述第一图像以第一曝光时间捕获且具有第一分辨率,所述第二图像是与所述第一图像的部分区域相对应并且以比所述第一曝光时间短的第二曝光时间捕获以及具有比所述第一分辨率高的第二分辨率的图像;
包括控制单元的图像处理装置,所述图像处理装置生成并输出通过组合所述第一图像和所述第二图像而获得的合成图像;以及
显示输入的合成图像的显示装置。
9.根据权利要求8所述的图像显示系统,其中
所述成像装置由用户穿戴,
所述图像显示系统包括检测所述用户的视线方向的视线方向检测装置,以及
所述感兴趣区域基于所述视线方向设置。
10.一种由控制图像传感器的图像处理装置执行的方法,所述方法包括以下过程:
从所述图像传感器输入第一图像和第二图像,所述第一图像以第一曝光时间捕获,所述第二图像是与所述第一图像的部分区域相对应的并且以比所述第一曝光时间短的第二曝光时间捕获的图像;
生成通过组合所述第一图像和所述第二图像而获得的合成图像;以及
将所述第二图像的成像定时设置成比所述第一图像的成像定时更接近将所述合成图像输出至显示装置的定时的定时。
11.一种用于通过计算机控制图像处理装置的程序,所述图像处理装置控制图像传感器,所述程序使所述计算机用作以下装置:
用于从所述图像传感器输入第一图像和第二图像的装置,所述第一图像以第一曝光时间捕获,所述第二图像是与所述第一图像的部分区域相对应并且以比所述第一曝光时间短的第二曝光时间捕获的图像。
用于生成通过组合所述第一图像和所述第二图像而获得的合成图像的装置;以及
用于将所述第二图像的成像定时设置成比所述第一图像的成像定时更接近将所述合成图像输出至显示装置的定时的定时的装置。
CN202180048227.1A 2020-07-13 2021-06-22 图像处理装置、图像显示系统、方法以及程序 Pending CN115812307A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-120063 2020-07-13
JP2020120063 2020-07-13
PCT/JP2021/023548 WO2022014271A1 (ja) 2020-07-13 2021-06-22 画像処理装置、画像表示システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
CN115812307A true CN115812307A (zh) 2023-03-17

Family

ID=79555253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180048227.1A Pending CN115812307A (zh) 2020-07-13 2021-06-22 图像处理装置、图像显示系统、方法以及程序

Country Status (4)

Country Link
US (1) US20230319407A1 (zh)
JP (1) JPWO2022014271A1 (zh)
CN (1) CN115812307A (zh)
WO (1) WO2022014271A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11756177B2 (en) * 2021-11-11 2023-09-12 Microsoft Technology Licensing, Llc Temporal filtering weight computation
CN118743246A (zh) * 2022-03-14 2024-10-01 索尼半导体解决方案公司 固态成像装置和输出成像数据的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3949903B2 (ja) * 2001-04-09 2007-07-25 東芝エルエスアイシステムサポート株式会社 撮像装置及び撮像信号処理方法
CN109040553B (zh) * 2013-06-13 2021-04-13 核心光电有限公司 双孔径变焦数字摄影机
CN109076163B (zh) * 2016-04-27 2021-08-31 索尼公司 成像控制装置、成像控制方法以及成像装置

Also Published As

Publication number Publication date
US20230319407A1 (en) 2023-10-05
WO2022014271A1 (ja) 2022-01-20
JPWO2022014271A1 (zh) 2022-01-20

Similar Documents

Publication Publication Date Title
JP4377932B2 (ja) パノラマ画像生成装置およびプログラム
WO2019171522A1 (ja) 電子機器、ヘッドマウントディスプレイ、注視点検出器、および画素データ読み出し方法
CN110536057A (zh) 图像处理方法和装置、电子设备、计算机可读存储介质
WO2021261248A1 (ja) 画像処理装置、画像表示システム、方法及びプログラム
US8965105B2 (en) Image processing device and method
US20230319407A1 (en) Image processing device, image display system, method, and program
US11640058B2 (en) Image processing method, image processing apparatus, and head-mounted display
CN115701125A (zh) 图像防抖方法与电子设备
JPWO2018189880A1 (ja) 情報処理装置、情報処理システム、および画像処理方法
US9571720B2 (en) Image processing device, display device, imaging apparatus, image processing method, and program
KR20100046544A (ko) 영상 왜곡 보정 방법 및 장치
KR20210115185A (ko) 이미지 처리 방법 및 장치
JP6645949B2 (ja) 情報処理装置、情報処理システム、および情報処理方法
JP6257289B2 (ja) 画像処理装置およびそれを備えた撮像装置、画像処理方法
JP5541956B2 (ja) 画像合成方法、画像合成プログラムおよび画像合成装置
JP2005295302A (ja) カメラ画像処理装置
CN116934654B (zh) 图像模糊度的确定方法及其相关设备
US20240031545A1 (en) Information processing apparatus, information processing method, and storage medium
US12096128B2 (en) Image processing apparatus, information processing system, and image acquisition method
US20240370978A1 (en) Image processing apparatus that combines captured image and cg image, image processing method, and storage medium
JP6930011B2 (ja) 情報処理装置、情報処理システム、および画像処理方法
US20220408022A1 (en) Image processing apparatus, image processing method, and storage medium
CN118192914A (zh) 图像处理装置、图像处理方法和计算机可读介质
JP2023125905A (ja) 画像処理装置、画像処理方法およびプログラム
CN117135456A (zh) 图像防抖方法与电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination