CN113826376A - 用户设备和斜视校正方法 - Google Patents
用户设备和斜视校正方法 Download PDFInfo
- Publication number
- CN113826376A CN113826376A CN201980096453.XA CN201980096453A CN113826376A CN 113826376 A CN113826376 A CN 113826376A CN 201980096453 A CN201980096453 A CN 201980096453A CN 113826376 A CN113826376 A CN 113826376A
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- data
- module
- focused
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/67—Focus control based on electronic image sensor signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6812—Motion detection based on additional sensors, e.g. acceleration sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/685—Vibration or motion blur correction performed by mechanical compensation
- H04N23/687—Vibration or motion blur correction performed by mechanical compensation by shifting the lens or sensor position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
提供了一种用户设备(UE)和斜视校正方法。所述斜视校正方法通过图像感测模块获取彩色图像、红外线图像及深度图像,从所述深度图像估计平面参数,从所述深度图像计算焦距数据,通过所述图像感测模块从所述焦距数据中获取在这些焦距的多个聚焦图像,从所述多个聚焦图像中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种用户设备(user equipment,UE)和斜视校正方法。
背景技术
请参照图1;在现有技术中,如果用户使用手机等用户设备1拍摄轮廓清晰的倾斜定向平面,用户设备1会将倾斜定向平面的图像修正为不失真的形状。但是,如果倾斜定向平面的轮廓不清晰,或者只有一部分在拍摄区域2内,或者倾斜定向平面的水平宽度大于拍摄区域2的宽度,则用户无法在没有透视失真的情况下获得整个目标的单个聚焦图像。
美国专利第6,449,004B1号公开了一种具有斜视校正的电子照相机。它公开了一种具有图像拾取装置的电子相机,用于光电拾取物体的光图像以产生图像数据。斜角信息提供器被配置为提供关于图像拾取装置的感测表面与物体表面之间的斜角的信息。距离检测器被配置为检测到物体的距离。校正器被配置为根据提供的斜角信息信息和检测到的距离进行进行校正以产生图像数据,从而产生伪物体图像,其表面位于与图像拾取装置的感测表面平行的平面上。
美国专利第7,365,301B2号公开了一种三维形状检测装置、图像获取装置和三维形状检测程序。它公开了一种三维形状检测装置,包括投射图案光的投影装置、获取图案光投射在其上的对象的图案光投影图像的图像获取装置、以及基于从图案光投影图像中提取的图案光的轨迹来计算物体的三维形状的三维形状计算装置。
美国专利第7,711,259B2号公开了一种用于增加成像器的景深的方法和装置。它公开了成像器在各自不同的焦点位置处获取多幅图像,并将这些图像组合成一幅图像并对该幅图像进行锐化。在替代示例性实施例中,在图像获取期间焦点位置改变的同时获取单个图像,并且使所得图像锐化。
欧洲专利申请第0,908,847A2号公开了一种图像合成装置和图像合成方法。它公开了一种图像合成装置,利用存储的图像信息生成用于设置所选图像的位置关系的坐标变换参数,通过用作任意图像的参考位置来更改生成的坐标变换参数,提供所得坐标变换参数作为图像合成信息,并根据图像合成信息合成图像。
不存在通过具有比对象更窄的视场的相机获得没有透视失真的单个图像的技术。
仍然需要提供一种用户设备,以及一种能够使用户获得没有透视失真的单个图像的斜视校正方法。
发明内容
本申请的一个目的是提出一种用户设备(UE)和一种能够使用户获得没有透视失真的单个图像的斜视校正方法。
在本申请的第一方面中,一种用户设备(UE),包括:图像感测模块和与所述图像感测模块耦合的处理器。所述处理器被配置为:控制所述图像感测模块获取彩色图像、红外线(IR)图像及深度图像;从所述深度图像估计平面参数;从所述深度图像计算焦距数据;控制所述图像感测模块从所述焦距数据中获取在这些焦距的多个聚焦图像;以及从所述多个聚焦图像中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像。
在本申请的实施例中,所述处理器被配置为将所述全聚焦图像调整为非透视图像。
在本申请的实施例中,将所述全聚焦图像调整为所述非透视图像包括:在从所述深度图像计算的透视坐标轴上估计所述全聚焦图像的四个角的坐标数据,以及拖动所述全聚焦图像以在真实世界坐标轴上形成非透视图像。
在本申请的实施例中,所述处理器被配置为合成多个所述非透视图像以形成单个图像。
在本申请的实施例中,所述UE还包括显示模块,所述处理器被配置为在所述显示模块上显示的所述单个图像上设置裁剪候选框。
在本申请的实施例中,从所述深度图像估计所述平面参数包括:从所述深度图像估计平面的法向量。
在本申请的实施例中,所述UE还包括惯性测量单元(inertial measurementunit,IMU),以及从所述深度图像估计所述平面参数还包括:根据所述IMU的数据估计透视垂直坐标轴和透视水平坐标轴。
在本申请的实施例中,从所述深度图像计算所述焦距数据包括:确定多个焦距,使得在所述多个焦距处的多个景深区域重叠以覆盖整个所述彩色图像。
在本申请的实施例中,从所述深度图像计算所述焦距数据还包括:确定每一所述景深区域是否具有纹理。
在本申请的实施例中,所述图像感测模块包括用于感测彩色图像的相机模块和用于感测深度图像的深度感测模块。
在本申请的实施例中,所述图像感测模块还包括用于控制所述相机模块和所述深度感测模块的图像处理器。
在本申请的实施例中,所述相机模块包括镜头模块、图像传感器、图像传感器驱动器、焦点和光学图像稳定(OIS)驱动器、焦点和OIS致动器和陀螺仪传感器,所述图像传感器驱动器被配置为控制所述图像传感器获取图像,所述焦点和OIS驱动器被配置为控制所述焦点和OIS致动器对所述镜头模块进行对焦,并移动所述镜头模块以补偿人手的震动;以及所述陀螺仪传感器被配置为所述焦点和OIS驱动器提供运动数据。
在本申请的实施例中,所述深度感测模块包括投影仪、透镜、距离传感器和距离传感器驱动器,所述距离传感器驱动器用于控制所述投影仪投射点阵脉冲光,并控制所述距离传感器获取由所述透镜聚焦的反射点阵图像。
在本申请的实施例中,所述UE还包括被配置为记录程序、图像数据、平面参数和平移矩阵的存储器。
在本申请的实施例中,所述深度图像包括点云数据。
在本申请的实施例中,所述UE还包括被配置为接收人工指令的输入模块、被配置为压缩和解压缩多媒体数据的编码解码器、连接到所述编码解码器的扬声器和麦克风、被配置为发送和接收信息的无线通信模块,以及被配置为提供定位信息的全球导航卫星系统(global navigation satellite system,GNSS)模块。
在本申请的第二方面中,一种斜视校正方法,包括:通过图像感测模块获取彩色图像、红外线(IR)图像及深度图像;从所述深度图像估计平面参数;从所述深度图像计算焦距数据;通过所述图像感测模块从所述焦距数据中获取在这些焦距的多个聚焦图像;以及从所述多个聚焦图像中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像。
在本申请的实施例中,所述斜视校正方法还包括将所述全聚焦图像调整为非透视图像。
在本申请的实施例中,所述将所述全聚焦图像调整为非透视图像还包括:在从所述深度图像计算的透视坐标轴上估计所述全聚焦图像的四个角的坐标数据,以及拖动所述全聚焦图像以在真实世界坐标轴上形成非透视图像。
在本申请的实施例中,所述斜视校正方法还包括合成多个所述非透视图像以形成单个图像。
在本申请的实施例中,所述斜视校正方法还包括在显示模块上显示的所述单个图像上设置裁剪候选框。
在本申请的实施例中,所述从所述深度图像估计所述平面参数包括:从所述深度图像估计平面的法向量。
在本申请的实施例中,所述从所述深度图像估计所述平面参数还包括:根据IMU的数据估计透视垂直坐标轴和透视水平坐标轴。
在本申请的实施例中,所述从所述深度图像计算所述焦距数据包括:确定多个焦距,使得在所述多个焦距处的多个景深区域重叠以覆盖整个所述彩色图像。
在本申请的实施例中,所述从所述深度图像计算所述焦距数据还包括:确定每一所述景深区域是否具有纹理。
在本申请的实施例中,所述图像感测模块包括用于感测彩色图像的相机模块和用于感测深度图像的深度感测模块。
在本申请的实施例中,所述图像感测模块还包括用于控制所述相机模块和所述深度感测模块的图像处理器。
在本申请的实施例中,所述相机模块包括镜头模块、图像传感器、图像传感器驱动器、焦点和光学图像稳定(OIS)驱动器、焦点和OIS致动器和陀螺仪传感器,所述图像传感器驱动器被配置为控制所述图像传感器获取图像,所述焦点和OIS驱动器被配置为控制所述焦点和OIS致动器对所述镜头模块进行对焦,并移动所述镜头模块以补偿人手的震动,以及所述陀螺仪传感器被配置为所述焦点和OIS驱动器提供运动数据。
在本申请的实施例中,所述深度感测模块包括投影仪、透镜、距离传感器和距离传感器驱动器,所述距离传感器驱动器用于控制所述投影仪投射点阵脉冲光,并控制所述距离传感器获取由所述透镜聚焦的反射点阵图像。
在本申请的实施例中,所述斜视校正方法还包括提供被配置为记录程序、图像数据、所述平面参数和平移矩阵的存储器。
在本申请的实施例中,所述深度图像包括点云数据。
在本申请的实施例中,所述斜视校正方法还包括提供被配置为接收人工指令的输入模块、被配置为压缩和解压缩多媒体数据的编码解码器、连接到所述编码解码器的扬声器和麦克风、被配置为发送和接收信息的无线通信模块,以及被配置为提供定位信息的全球导航卫星系统(GNSS)模块。
因此,本申请的实施例提供了一种用户设备(UE)和一种用于用户的斜视校正方法,能够获得没有透视失真的单个图像。
附图说明
为了更清楚地说明本申请或相关技术的实施例,以下对实施例中的附图进行简要介绍。显然,附图只是本申请的一些实施例,本领域普通技术人员可以在不付出前提的情况下,根据这些附图获得其他附图。
图1为现有技术的用户设备的应用示意图。
图2是根据本申请的实施例的用户设备(UE)的示意图。
图3是根据本申请的实施例的斜视校正方法的流程图。
图4是根据本申请的实施例的从深度图像估计平面参数的步骤的流程图。
图5是根据本申请的实施例的从深度图像计算焦距数据的步骤的流程图。
图6是根据本申请的实施例的将全聚焦图像调整为非透视图像的步骤的流程图。
图7是根据本申请的实施例的获取彩色图像、红外线(IR)图像及深度图像的步骤的示意图。
图8是根据本申请的实施例的从深度图像估计平面参数的步骤的示意图。
图9是根据本申请的实施例的从深度图像计算焦距数据的步骤的示意图。
图10是根据本申请的实施例的焦点位置、焦距、景深(DOF)和DOF区域之间的关系的示意图。
图11是根据本申请的实施例的从焦距数据中获取在焦距的多个聚焦图像的步骤的示意图。
图12是根据本申请的实施例的从多个聚焦图像中剪下聚焦图像数据并合成这些聚焦图像数据以形成全聚焦图像的步骤的示意图。
图13是根据本申请的实施例的将全聚焦图像调整为非透视图像的步骤的示意图。
图14是根据本申请的实施例的将多个所述非透视图像合成为单个图像的步骤的示意图。
图15是根据本申请的实施例的在显示模块显示的单个图像上设置裁剪候选框的步骤的示意图。
具体实施方式
下面结合附图,对本申请的实施例的技术事项、结构特征、实现的目的和效果进行详细说明。具体地,本申请的实施例中的术语仅用于说明某个实施例的目的,并不用于限制本发明。
请参阅图2和3;在一些实施例中,用户设备(UE)100包括图像感测模块10和耦合到所述图像感测模块10的处理器20。所述处理器20被配置为控制所述图像感测模块10获取彩色图像C_I、红外线(IR)图像IR_I和深度图像D_I,从所述深度图像D_I估计平面参数,从所述深度图像D_I计算焦距数据,控制所述图像感测模块10从所述焦距数据中获取在这些焦距的多个聚焦图像,以及从所述多个聚焦图像PF_I中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像WF_I。
详细请参考图7。例如,所述UE 100的所述处理器20被配置为控制所述图像感测模块10获取目标的左侧的彩色图像C_I、红外线(IR)图像IR_I和深度图像D_I,并获取目标的右侧的彩色图像C_I’、红外线(IR)图像IR_I’和深度图像D_I’。
在一些实施例中,请参考图4和图8;从所述深度图像D_I估计平面参数的方法包括从所述深度图像D_I估计平面的法向量N_V的步骤。
详细请参考图8;所述UE 100从所述深度图像D_I估计平面的法向量N_V,以及从所述深度图像D_I’估计平面的法向量N_V’。
在一些实施例中,请参考图2、图4和图8;所述UE还包括惯性测量单元(inertialmeasurement unit,IMU)40。根据所述深度图像D_I估计平面参数的方法还包括根据IMU40的数据估计透视垂直坐标轴PV_CA和透视水平坐标轴PH_CA的步骤。
详细请参考图8;所述UE 100根据IMU 40的数据估计深度图像D_I的透视垂直坐标轴PV_CA和透视水平坐标轴PH_CA,并根据IMU 40的数据估计深度图像D_I’的透视垂直坐标轴PV_CA’和透视水平坐标轴PH_CA’。
在一些实施例中,请参考图5和图9;从所述深度图像D_I计算焦距数据的方法包括确定若干个焦距FD_1至FD_4的步骤,使得与这些焦距FD_1至FD_4对应的景深区域DF_A1至DF_A4重叠以覆盖整个DF_A1至DF_A4彩色图像C_I。
详细请参考图9和图10;UE 100的焦点位置F_1具有焦距FD_1和景深DF_1。目标上的景深DF_1的相交区域为景深区域DF_A1。可以从所述深度图像D_I数据中计算出所述景深区域DF_A1。同时,UE 100的焦点位置F_2具有焦距FD_2和景深DF_2。所述目标上的景深DF_2的相交区域为景深区域DF_A2。UE 100的焦点位置F_3具有焦距FD_3和景深DF_3。所述目标上的景深DF_3的相交区域为景深区域DF_A3。UE 100的焦点位置F_4具有焦距FD_4和景深DF_4。所述目标上的景深DF_4的相交区域为景深区域DF_A4。
详细请参考图5、图9和图10;所述UE 100确定若干个焦点位置F_1至F_4,使得对应于这些焦点位置F_1至F_4的景深区域DF_A1至DF_A4重叠以覆盖整个所述彩色图像C_I。所述UE 100确定若干个焦点位置F_1’至F_4’,使得对应于这些焦点位置F_1’至F_4’的景深区域DF_A1’至DF_A4’重叠以覆盖整个所述彩色图像C_I’。
在一些实施例中,请参考图5;根据所述深度图像D_I计算焦距数据的方法还包括判断每一景深区域DF_A1至DF_A4是否具有纹理的步骤。
详细请参考图3、图11和图12;所述处理器20控制所述图像感测模块10从所述焦距数据中获取在焦距FD_2的多个聚焦图像PF_I2,从所述焦距数据中获取在焦距FD_3的多个聚焦图像PF_I3,从所述多个聚焦图像PF_I2剪下聚焦图像数据,从所述多个聚焦图像PF_I3剪下聚焦图像数据,以及合成这些聚焦图像数据以形成全聚焦图像WF_I。所述处理器20控制图像感测模块10获取多个聚焦图像PF_I2’、获取多个聚焦图像PF_I3’、从所述多个聚焦图像PF_I2’剪下聚焦图像数据、以及从所述多个聚焦图像PF_I3’剪下聚焦图像数据,以及合成这些聚焦图像数据以形成全聚焦图像WF_I’。
在一些实施例中,请参考图3;所述处理器20被配置为将所述全聚焦图像WF_I调整为非透视图像NP_I。在一些实施例中,请参考图3、图6和图13;将所述全聚焦图像WF_I调整为非透视图像NP_I的方法包括在从所述深度图像D_I计算的透视坐标轴P_CA上估计所述全聚焦图像WF_I的四个角C1至C4的坐标数据,以及拖动所述全聚焦图像WF_I以在真实世界坐标轴R_CA上形成非透视图像NP_I。
详细地,所述UE 100在从所述深度图像D_I计算的透视坐标轴P_CA上估计所述全聚焦图像WF_I的四个角C1至C4的坐标数据,接着拖动所述全聚焦图像WF_I以在真实世界坐标轴R_CA上形成非透视图像NP_I。详细地,所述UE 100提供从所述透视坐标轴P_CA到真实世界坐标轴R_CA的平移矩阵。通过将所述全聚焦图像WF_I的数据与所述平移矩阵相乘,所述全聚焦图像WF_I被变换为所述非透视图像NP_I。同时,所述UE 100在从所述深度图像D_I计算的透视坐标轴P_CA上估计所述全聚焦图像WF_I的四个角C1至C4的坐标数据,接着拖动所述全聚焦图像WF_I以在真实世界坐标轴R_CA上形成非透视图像NP_I。
在一些实施例中,请参考图14;所述处理器20被配置为将多个所述非透视图像NP_I合成为单个图像S_I。
详细地,所述处理器20被配置为合成非透视图像NP_I和NP_I’以形成单个图像S_I。
在一些实施例中,请参考图15;所述UE 100还包括显示模块30,以及所述处理器20被配置为在所述显示模块30上显示的所述单个图像S_I上设置裁剪候选框TC_F。在一些实施例中,请参考图2;所述图像感测模块10包括用于感测彩色图像C_I的相机模块11和用于感测深度图像D_I的深度感测模块12。在一些实施例中,请参考图2;所述图像感测模块10还包括图像处理器13,被配置为控制相机模块11和深度感测模块12。在一些实施例中,请参考图2;所述相机模块11包括镜头模块111、图像传感器112、图像传感器驱动器113、焦点和光学图像稳定(focus and an optical image stabilization,OIS)驱动器114、焦点和OIS致动器115以及陀螺仪传感器116。所述图像传感器驱动器113被配置为控制所述图像传感器112进行图像获取。所述焦点和OIS驱动器114被配置为控制所述焦点和OIS致动器115以对所述镜头模块111进行对焦,并移动所述镜头模块111以补偿人手的震动。所述陀螺仪传感器116被配置为向所述焦点和OIS驱动器114提供运动数据。
在一些实施例中,请参考图2;所述深度感测模块12包括投影仪124、透镜121、距离传感器122和距离传感器驱动器123。所述距离传感器驱动器123被配置为控制所述投影仪124投射点阵脉冲光,并控制控制所述距离传感器122获取由所述透镜121聚焦的反射点阵图像。在一些实施例中,请参考图2;所述UE 100还包括被配置为记录程序、图像数据、平面参数和平移矩阵的存储器50。在一些实施例中,所述深度图像D_I包括点云数据。在一些实施例中,请参考图2;所述UE 100还包括被配置为接收人工指令的输入模块60、被配置为压缩和解压缩多媒体数据的编码解码器70、连接到所述编码解码器70的扬声器80和麦克风90、被配置为发送和接收信息的无线通信模块91,以及被配置为提供定位信息的全球导航卫星系统(global navigation satellite system,GNSS)模块92。
再者,请参考图3;在一些实施例中,斜视校正方法包括:在块S100,通过图像感测模块10获取彩色图像C_I、红外线(IR)图像IR_I及深度图像D_I。在块S200,从所述深度图像D_I估计平面参数。在块S300,从所述深度图像D_I计算焦距数据。在块S400,通过所述图像感测模块10从所述焦距数据中获取在这些焦距FD_1至FD_4的多个聚焦图像PF_I。在块S500,从所述多个聚焦图像PF_I中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像WF_I。
详细请参考图2和图7;所述UE 100的所述处理器20被配置为控制所述图像感测模块10获取目标的左侧的彩色图像C_I、红外线(IR)图像IR_I和深度图像D_I,并获取目标的右侧的彩色图像C_I’、红外线(IR)图像IR_I’和深度图像D_I’。
在一些实施例中,请参考图4和图8;在块S200,从所述深度图像估计平面参数的步骤包括步骤:在块S210,从所述深度图像D_I估计平面的法向量N_V。
详细请参考图8;所述UE 100从所述深度图像D_I估计平面的法向量N_V,以及从所述深度图像D_I'估计平面的法向量N_V'。
在一些实施例中,请参考图2、图4和图8;在块S200,从所述深度图像估计平面参数的步骤包括步骤:在块S220,根据IMU 40的数据估计透视垂直坐标轴PV_CA和透视水平坐标轴PH_CA。
详细请参考图8;所述UE 100根据IMU 40的数据估计深度图像D_I的透视垂直坐标轴PV_CA和透视水平坐标轴PH_CA,并根据IMU 40的数据估计深度图像D_I'的透视垂直坐标轴PV_CA'和透视水平坐标轴PH_CA’。
在一些实施例中,请参考图5和图9;在块S300,从所述深度图像D_I计算焦距数据的步骤包括步骤:在块S310,确定若干个焦距FD_1至FD_4,使这些焦距FD_1至FD_4对应的景深区域DF_A1至DF_A4重叠以覆盖整个彩色图像C_I。
详细请参考图9和图10;UE 100的焦点位置F_1具有焦距FD_1和景深DF_1。目标上的景深DF_1的相交区域为景深区域DF_A1。可以从所述深度图像D_I数据中计算出所述景深区域DF_A1。同时,UE 100的焦点位置F_2具有焦距FD_2和景深DF_2。所述目标上的景深DF_2的相交区域为景深区域DF_A2。UE 100的焦点位置F_3具有焦距FD_3和景深DF_3。所述目标上的景深DF_3的相交区域为景深区域DF_A3。UE 100的焦点位置F_4具有焦距FD_4和景深DF_4。所述目标上的景深DF_4的相交区域为景深区域DF_A4。
详细请参考图5、图9和图10;所述UE 100确定若干个焦点位置F_1至F_4,使得对应于这些焦点位置F_1至F_4的景深区域DF_A1至DF_A4重叠以覆盖整个所述彩色图像C_I。所述UE 100确定若干个焦点位置F_1’至F_4’,使得对应于这些焦点位置F_1’至F_4’的景深区域DF_A1’至DF_A4’重叠以覆盖整个所述彩色图像C_I’。
在一些实施例中,请参考图5;在块S300,从所述深度图像D_I计算焦距数据的步骤还包括步骤:在块S320,判断每一景深区域DF_A1至DF_A4是否具有纹理。
详细请参考图3、图11和图12;所述处理器20控制所述图像感测模块10从所述焦距数据中获取在焦距FD_2的多个聚焦图像PF_I2,从所述焦距数据中获取在焦距FD_3的多个聚焦图像PF_I3,从所述多个聚焦图像PF_I2剪下聚焦图像数据,从所述多个聚焦图像PF_I3剪下聚焦图像数据,以及合成这些聚焦图像数据以形成全聚焦图像WF_I。所述处理器20控制图像感测模块10获取多个聚焦图像PF_I2’、获取多个聚焦图像PF_I3’、从所述多个聚焦图像PF_I2’剪下聚焦图像数据、以及从所述多个聚焦图像PF_I3’剪下聚焦图像数据,以及合成这些聚焦图像数据以形成全聚焦图像WF_I’。
在一些实施例中,请参考图3;所述斜视校正方法进一步包括步骤:在块S600,将所述全聚焦图像WF_I调整为非透视图像NP_I。在一些实施例中,请参考图3、图6和图13;在块S600,将所述全聚焦图像WF_I调整为非透视图像NP_I的步骤还包括步骤:在块S610,在从所述深度图像D_I计算的透视坐标轴P_CA上估计所述全聚焦图像WF_I的四个角C1至C4的坐标数据,以及在块S620,拖动所述全聚焦图像WF_I以在真实世界坐标轴R_CA上形成非透视图像NP_I。
详细地,所述UE 100在从所述深度图像D_I计算的透视坐标轴P_CA上估计所述全聚焦图像WF_I的四个角C1至C4的坐标数据,接着拖动所述全聚焦图像WF_I以在真实世界坐标轴R_CA上形成非透视图像NP_I。详细地,所述UE 100提供从所述透视坐标轴P_CA到真实世界坐标轴R_CA的平移矩阵。通过将所述全聚焦图像WF_I的数据与所述平移矩阵相乘,所述全聚焦图像WF_I被变换为所述非透视图像NP_I。同时,所述UE 100在从所述深度图像D_I计算的透视坐标轴P_CA上估计所述全聚焦图像WF_I的四个角C1至C4的坐标数据,接着拖动所述全聚焦图像WF_I以在真实世界坐标轴R_CA上形成非透视图像NP_I。在一些实施例中,请参考图14;所述斜视校正方法还包括步骤:在块S700,将多个所述非透视图像NP_I合成为单个图像S_I。
详细地,所述处理器20被配置为合成非透视图像NP_I和NP_I’以形成单个图像S_I。
在一些实施例中,请参考图15;所述斜视校正方法还包括步骤:在块S800,在显示模块30上显示的所述单个图像S_I上设置裁剪候选框TC_F。在一些实施例中,请参考图2;所述图像感测模块10包括用于感测彩色图像C_I的相机模块11和用于感测深度图像D_I的深度感测模块12。在一些实施例中,请参考图2;所述图像感测模块10还包括图像处理器13,被配置为控制相机模块11和深度感测模块12。
在一些实施例中,请参考图2;所述相机模块11包括镜头模块111、图像传感器112、图像传感器驱动器113、焦点和光学图像稳定(focus and an optical imagestabilization,OIS)驱动器114、焦点和OIS致动器115以及陀螺仪传感器116。所述图像传感器驱动器113被配置为控制所述图像传感器112进行图像获取。所述焦点和OIS驱动器114被配置为控制所述焦点和OIS致动器115以对所述镜头模块111进行对焦,并移动所述镜头模块111以补偿人手的震动。所述陀螺仪传感器116被配置为向所述焦点和OIS驱动器114提供运动数据。在一些实施例中,请参考图2;所述深度感测模块12包括投影仪124、透镜121、距离传感器122和距离传感器驱动器123。所述距离传感器驱动器123被配置为控制所述投影仪124投射点阵脉冲光,并控制控制所述距离传感器122获取由所述透镜121聚焦的反射点阵图像。
在一些实施例中,请参考图2;所述斜视校正方法还包括提供存储器50的步骤,所述存储器50被配置为记录程序、图像数据、平面参数和平移矩阵。在一些实施例中,所述深度图像D_I包括点云数据。在一些实施例中,请参考图2;所述斜视校正方法还包括提供输入模块60、编码解码器70、扬声器80、麦克风90、无线通信模块91和全球导航卫星系统(globalnavigation satellite system,GNSS)模块92的步骤。输入模块60被配置为接收人工指令。编码解码器70被配置为压缩和解压缩多媒体数据。扬声器80和麦克风90连接到所述编码解码器70。无线通信模块91被配置为发送和接收信息。全球导航卫星系统模块92被配置为提供定位信息。
斜视校正方法的优点包括:1、提供单一的、没有透视失真的全聚焦图像。2、提供水平宽度大于相机的拍摄区域宽度的目标物体的单张图片。
在本申请的实施例中,提供了UE和斜视校正方法。所述UE的图像传感器通信的方法包括所述图像传感模块获取彩色图像、红外线图像和深度图像,从所述深度图像估计平面参数,从所述深度图像计算焦距数据,通过所述图像感测模块从所述焦距数据中获取在这些焦距的多个聚焦图像,从所述多个聚焦图像中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像,从而提供一个没有透视失真的单一聚焦图像。
本领域普通技术人员可以理解,本发明的实施例中描述和公开的各个单元、算法和步骤均采用电子硬件或者计算机软件与电子硬件的组合实现。这些功能是以硬件还是软件方式运行,取决于应用条件和技术方案的设计要求。本领域普通技术人员可以针对每个具体的应用使用不同的方式来实现该功能,但是这样的实现不应超出本公开的范围。本领域普通技术人员可以理解,由于上述系统、装置和单元的工作过程基本相同,因此可以参考上述实施例中的系统、装置和单元的工作过程。为便于描述和简化,这些工作过程不再详述。可以理解的是,本发明实施例所公开的系统、装置和方法可以通过其他方式实现。上述实施例仅是示例性的。单元的划分只是基于逻辑功能,而在实现中存在其他划分。多个单元或组件可以组合或集成在另一个系统中。也有可能省略或跳过某些特征。另一方面,显示或讨论的相互耦合、直接耦合或通信耦合通过一些端口、装置或单元以电气、机械或其他形式的方式间接或通信地进行操作。作为用于说明的分离部件的单元是物理性分离的或不物理性分离的。显示单元是或不是物理单元,即位于一处或分布在多个网络单元上。根据实施例的目的使用一些或所有单元。并且,各实施例中的各功能单元可以集成在一个处理单元中,物理上独立,或者与两个或两个以上单元集成在一个处理单元中。如果将软件功能单元作为产品来实现、使用和销售,则可以将其存储在计算机中的可读存储介质中。基于此理解,本发明所提出的技术方案可以实质上或部分以软件产品的形式实现。或者,可以将有利于现有技术的技术方案的一部分以软件产品的形式实现。计算机中的软件产品存储在存储介质中,包括用于计算设备(如个人计算机、服务器或网络设备)运行本发明实施例公开的全部或部分步骤的多个命令。存储介质包括U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM)、软盘或其他能够存储程序代码的介质。
虽然已经结合被认为是最实用和优选的实施例描述了本公开,但是应当理解,本公开不限于所公开的实施例,而是旨在覆盖在不脱离所附权利要求的最广泛解释的范围的情况下做出的各种布置。
Claims (32)
1.一种用户设备(UE),其特征在于,所述UE包括:
图像感测模块;以及
处理器,与所述图像感测模块耦合,
其中所述处理器被配置为:
控制所述图像感测模块获取彩色图像、红外线(IR)图像及深度图像;
从所述深度图像估计平面参数;
从所述深度图像计算焦距数据;
控制所述图像感测模块从所述焦距数据中获取在这些焦距的多个聚焦图像;以及
从所述多个聚焦图像中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像。
2.如权利要求1所述的UE,其特征在于,所述处理器被配置为将所述全聚焦图像调整为非透视图像。
3.如权利要求2所述的UE,其特征在于,将所述全聚焦图像调整为所述非透视图像包括:在从所述深度图像计算的透视坐标轴上估计所述全聚焦图像的四个角的坐标数据,以及拖动所述全聚焦图像以在真实世界坐标轴上形成非透视图像。
4.如权利要求2所述的UE,其特征在于,所述处理器被配置为合成多个所述非透视图像以形成单个图像。
5.如权利要求4所述的UE,其特征在于,所述UE还包括显示模块,所述处理器被配置为在所述显示模块上显示的所述单个图像上设置裁剪候选框。
6.如权利要求1所述的UE,其特征在于,从所述深度图像估计所述平面参数包括:从所述深度图像估计平面的法向量。
7.如权利要求6所述的UE,其特征在于,所述UE还包括惯性测量单元(IMU),以及从所述深度图像估计所述平面参数还包括:根据所述IMU的数据估计透视垂直坐标轴和透视水平坐标轴。
8.如权利要求1所述的UE,其特征在于,从所述深度图像计算所述焦距数据包括:确定多个焦距,使得在所述多个焦距处的多个景深区域重叠以覆盖整个所述彩色图像。
9.如权利要求8所述的UE,其特征在于,从所述深度图像计算所述焦距数据还包括:确定每一所述景深区域是否具有纹理。
10.如权利要求1至9中任一项所述的UE,其特征在于,所述图像感测模块包括用于感测彩色图像的相机模块和用于感测深度图像的深度感测模块。
11.如权利要求10所述的UE,其特征在于,所述图像感测模块还包括用于控制所述相机模块和所述深度感测模块的图像处理器。
12.如权利要求10所述的UE,其特征在于,所述相机模块包括镜头模块、图像传感器、图像传感器驱动器、焦点和光学图像稳定(OIS)驱动器、焦点和OIS致动器和陀螺仪传感器,所述图像传感器驱动器被配置为控制所述图像传感器获取图像,所述焦点和OIS驱动器被配置为控制所述焦点和OIS致动器对所述镜头模块进行对焦,并移动所述镜头模块以补偿人手的震动;以及所述陀螺仪传感器被配置为所述焦点和OIS驱动器提供运动数据。
13.如权利要求10所述的UE,其特征在于,所述深度感测模块包括投影仪、透镜、距离传感器和距离传感器驱动器,所述距离传感器驱动器用于控制所述投影仪投射点阵脉冲光,并控制所述距离传感器获取由所述透镜聚焦的反射点阵图像。
14.如权利要求1至13中任一项所述的UE,其特征在于,所述UE还包括被配置为记录程序、图像数据、平面参数和平移矩阵的存储器。
15.如权利要求10所述的UE,其特征在于,所述深度图像包括点云数据。
16.如权利要求1至15中任一项所述的UE,其特征在于,所述UE还包括被配置为接收人工指令的输入模块、被配置为压缩和解压缩多媒体数据的编码解码器、连接到所述编码解码器的扬声器和麦克风、被配置为发送和接收信息的无线通信模块,以及被配置为提供定位信息的全球导航卫星系统(GNSS)模块。
17.一种斜视校正方法,其特征在于,所述斜视校正方法包括:
通过图像感测模块获取彩色图像、红外线(IR)图像及深度图像;
从所述深度图像估计平面参数;
从所述深度图像计算焦距数据;
通过所述图像感测模块从所述焦距数据中获取在这些焦距的多个聚焦图像;以及
从所述多个聚焦图像中剪下聚焦图像数据,以及合成所述聚焦图像数据以形成全聚焦图像。
18.如权利要求17所述的斜视校正方法,其特征在于,所述斜视校正方法还包括将所述全聚焦图像调整为非透视图像。
19.如权利要求18所述的斜视校正方法,其特征在于,所述将所述全聚焦图像调整为非透视图像还包括:在从所述深度图像计算的透视坐标轴上估计所述全聚焦图像的四个角的坐标数据,以及拖动所述全聚焦图像以在真实世界坐标轴上形成非透视图像。
20.如权利要求18所述的斜视校正方法,其特征在于,所述斜视校正方法还包括合成多个所述非透视图像以形成单个图像。
21.如权利要求18所述的斜视校正方法,其特征在于,所述斜视校正方法还包括在显示模块上显示的所述单个图像上设置裁剪候选框。
22.如权利要求17所述的斜视校正方法,其特征在于,所述从所述深度图像估计所述平面参数包括:从所述深度图像估计平面的法向量。
23.如权利要求17所述的斜视校正方法,其特征在于,所述从所述深度图像估计所述平面参数还包括:根据IMU的数据估计透视垂直坐标轴和透视水平坐标轴。
24.如权利要求17所述的斜视校正方法,其特征在于,所述从所述深度图像计算所述焦距数据包括:确定多个焦距,使得在所述多个焦距处的多个景深区域重叠以覆盖整个所述彩色图像。
25.如权利要求24所述的斜视校正方法,其特征在于,所述从所述深度图像计算所述焦距数据还包括:确定每一所述景深区域是否具有纹理。
26.如权利要求17至25中任一项所述的斜视校正方法,其特征在于,所述图像感测模块包括用于感测彩色图像的相机模块和用于感测深度图像的深度感测模块。
27.如权利要求26所述的斜视校正方法,其特征在于,所述图像感测模块还包括用于控制所述相机模块和所述深度感测模块的图像处理器。
28.如权利要求26所述的斜视校正方法,其特征在于,所述相机模块包括镜头模块、图像传感器、图像传感器驱动器、焦点和光学图像稳定(OIS)驱动器、焦点和OIS致动器和陀螺仪传感器,所述图像传感器驱动器被配置为控制所述图像传感器获取图像,所述焦点和OIS驱动器被配置为控制所述焦点和OIS致动器对所述镜头模块进行对焦,并移动所述镜头模块以补偿人手的震动,以及所述陀螺仪传感器被配置为所述焦点和OIS驱动器提供运动数据。
29.如权利要求26所述的斜视校正方法,其特征在于,所述深度感测模块包括投影仪、透镜、距离传感器和距离传感器驱动器,所述距离传感器驱动器用于控制所述投影仪投射点阵脉冲光,并控制所述距离传感器获取由所述透镜聚焦的反射点阵图像。
30.如权利要求17至29中任一项所述的斜视校正方法,其特征在于,所述斜视校正方法还包括提供被配置为记录程序、图像数据、所述平面参数和平移矩阵的存储器。
31.如权利要求17至30中任一项所述的斜视校正方法,所述深度图像包括点云数据。
32.如权利要求17至31中任一项所述的斜视校正方法,所述斜视校正方法还包括提供被配置为接收人工指令的输入模块、被配置为压缩和解压缩多媒体数据的编码解码器、连接到所述编码解码器的扬声器和麦克风、被配置为发送和接收信息的无线通信模块,以及被配置为提供定位信息的全球导航卫星系统(GNSS)模块。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2019/088417 WO2020237441A1 (en) | 2019-05-24 | 2019-05-24 | User equipment and method of oblique view correction |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113826376A true CN113826376A (zh) | 2021-12-21 |
CN113826376B CN113826376B (zh) | 2023-08-15 |
Family
ID=73553409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980096453.XA Active CN113826376B (zh) | 2019-05-24 | 2019-05-24 | 用户设备和斜视校正方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP7346594B2 (zh) |
CN (1) | CN113826376B (zh) |
WO (1) | WO2020237441A1 (zh) |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000236434A (ja) * | 1999-02-12 | 2000-08-29 | Fuji Xerox Co Ltd | 画像形成装置 |
CN102216941A (zh) * | 2008-08-19 | 2011-10-12 | 数字标记公司 | 用于内容处理的方法和系统 |
CN102681661A (zh) * | 2011-01-31 | 2012-09-19 | 微软公司 | 在玩游戏中使用三维环境模型 |
CN103262524A (zh) * | 2011-06-09 | 2013-08-21 | 郑苍隆 | 自动聚焦图像系统 |
CN103824303A (zh) * | 2014-03-14 | 2014-05-28 | 格科微电子(上海)有限公司 | 基于被摄物的位置、方向调整图像透视畸变的方法和装置 |
CN104203081A (zh) * | 2011-12-09 | 2014-12-10 | 史提芬·维杜纳 | 将复数的眼睛影像结合成为多聚焦全光影像的方法 |
CN104867113A (zh) * | 2015-03-31 | 2015-08-26 | 酷派软件技术(深圳)有限公司 | 图像透视畸变校正的方法及系统 |
US9241111B1 (en) * | 2013-05-30 | 2016-01-19 | Amazon Technologies, Inc. | Array of cameras with various focal distances |
CN106033614A (zh) * | 2015-03-20 | 2016-10-19 | 南京理工大学 | 一种强视差下的移动相机运动目标检测方法 |
CN106254754A (zh) * | 2015-06-08 | 2016-12-21 | 奥林巴斯株式会社 | 拍摄装置、图像处理装置、拍摄装置的控制方法 |
CN106412426A (zh) * | 2016-09-24 | 2017-02-15 | 上海大学 | 全聚焦摄影装置及方法 |
US20170272651A1 (en) * | 2016-03-16 | 2017-09-21 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
CN107301665A (zh) * | 2017-05-03 | 2017-10-27 | 中国科学院计算技术研究所 | 具有可变焦光学摄像头的深度摄像头及其控制方法 |
CN109448045A (zh) * | 2018-10-23 | 2019-03-08 | 南京华捷艾米软件科技有限公司 | 基于slam的平面多边形物体测量方法及机器可读存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3043034B2 (ja) * | 1990-07-26 | 2000-05-22 | オリンパス光学工業株式会社 | 画像入出力装置 |
JP3601272B2 (ja) * | 1997-11-10 | 2004-12-15 | 富士ゼロックス株式会社 | 画像撮像装置 |
JP4524717B2 (ja) * | 2008-06-13 | 2010-08-18 | 富士フイルム株式会社 | 画像処理装置、撮像装置、画像処理方法及びプログラム |
JP4986189B2 (ja) * | 2010-03-31 | 2012-07-25 | カシオ計算機株式会社 | 撮像装置、及びプログラム |
US9661298B2 (en) * | 2015-08-06 | 2017-05-23 | Intel Corporation | Depth image enhancement for hardware generated depth images |
CN108833887B (zh) * | 2018-04-28 | 2021-05-18 | Oppo广东移动通信有限公司 | 数据处理方法、装置、电子设备及计算机可读存储介质 |
-
2019
- 2019-05-24 WO PCT/CN2019/088417 patent/WO2020237441A1/en active Application Filing
- 2019-05-24 JP JP2021568633A patent/JP7346594B2/ja active Active
- 2019-05-24 CN CN201980096453.XA patent/CN113826376B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000236434A (ja) * | 1999-02-12 | 2000-08-29 | Fuji Xerox Co Ltd | 画像形成装置 |
CN102216941A (zh) * | 2008-08-19 | 2011-10-12 | 数字标记公司 | 用于内容处理的方法和系统 |
CN102681661A (zh) * | 2011-01-31 | 2012-09-19 | 微软公司 | 在玩游戏中使用三维环境模型 |
CN103262524A (zh) * | 2011-06-09 | 2013-08-21 | 郑苍隆 | 自动聚焦图像系统 |
CN104203081A (zh) * | 2011-12-09 | 2014-12-10 | 史提芬·维杜纳 | 将复数的眼睛影像结合成为多聚焦全光影像的方法 |
US9241111B1 (en) * | 2013-05-30 | 2016-01-19 | Amazon Technologies, Inc. | Array of cameras with various focal distances |
CN103824303A (zh) * | 2014-03-14 | 2014-05-28 | 格科微电子(上海)有限公司 | 基于被摄物的位置、方向调整图像透视畸变的方法和装置 |
CN106033614A (zh) * | 2015-03-20 | 2016-10-19 | 南京理工大学 | 一种强视差下的移动相机运动目标检测方法 |
CN104867113A (zh) * | 2015-03-31 | 2015-08-26 | 酷派软件技术(深圳)有限公司 | 图像透视畸变校正的方法及系统 |
CN106254754A (zh) * | 2015-06-08 | 2016-12-21 | 奥林巴斯株式会社 | 拍摄装置、图像处理装置、拍摄装置的控制方法 |
US20170272651A1 (en) * | 2016-03-16 | 2017-09-21 | Analog Devices, Inc. | Reducing power consumption for time-of-flight depth imaging |
CN106412426A (zh) * | 2016-09-24 | 2017-02-15 | 上海大学 | 全聚焦摄影装置及方法 |
CN107301665A (zh) * | 2017-05-03 | 2017-10-27 | 中国科学院计算技术研究所 | 具有可变焦光学摄像头的深度摄像头及其控制方法 |
CN109448045A (zh) * | 2018-10-23 | 2019-03-08 | 南京华捷艾米软件科技有限公司 | 基于slam的平面多边形物体测量方法及机器可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113826376B (zh) | 2023-08-15 |
JP7346594B2 (ja) | 2023-09-19 |
JP2022533975A (ja) | 2022-07-27 |
WO2020237441A1 (en) | 2020-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2615580B1 (en) | Automatic scene calibration | |
EP2959315B1 (en) | Generation of 3d models of an environment | |
JP4889351B2 (ja) | 画像処理装置及びその処理方法 | |
JP6100380B2 (ja) | 特に装置に係る視覚ベースの位置決めに使用される画像処理方法 | |
JP5740884B2 (ja) | 繰り返し撮影用arナビゲーション及び差異抽出のシステム、方法及びプログラム | |
JP2019536170A (ja) | 仮想的に拡張された視覚的同時位置特定及びマッピングのシステム及び方法 | |
CN110799921A (zh) | 拍摄方法、装置和无人机 | |
KR20170067373A (ko) | 드론 촬영 이미지를 기반으로 3d 오브젝트를 자동으로 추출하는 시스템 및 방법 | |
US11057566B2 (en) | Image synthesis system | |
KR101252680B1 (ko) | 디지털 항공이미지를 이용한 영상도화시스템 | |
KR101694651B1 (ko) | 3차원 위치 추정을 이용한 광각 렌즈 영상의 왜곡 보정 장치 및 그 방법 | |
KR20150125862A (ko) | 3차원 정합을 이용한 증강현실 장치 및 그 방법 | |
US10154241B2 (en) | Depth map based perspective correction in digital photos | |
JP2014215755A (ja) | 画像処理システム、画像処理装置及び画像処理方法 | |
US11176353B2 (en) | Three-dimensional dataset and two-dimensional image localization | |
JP2005063041A (ja) | 3次元モデリング装置、方法、及びプログラム | |
CN113826376B (zh) | 用户设备和斜视校正方法 | |
JP2005141655A (ja) | 3次元モデリング装置及び3次元モデリング方法 | |
WO2021115192A1 (zh) | 图像处理装置、图像处理方法、程序及记录介质 | |
JP6641525B2 (ja) | 光学機器制御装置、光学機器制御方法、及び光学機器制御プログラム | |
KR20160073488A (ko) | 3d 스캐너 | |
KR102358950B1 (ko) | 모바일 스캔 객체 모델 스케일링을 통한 증강현실 구현 장치 및 방법 | |
KR102439142B1 (ko) | 기간 시설의 이미지를 획득하는 방법 및 장치 | |
JP7448029B2 (ja) | 処理装置、処理システム、処理方法及びプログラム | |
KR20180054219A (ko) | 전방위 영상의 좌표 맵핑 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |