CN115280767A - 信息处理装置和信息处理方法 - Google Patents

信息处理装置和信息处理方法 Download PDF

Info

Publication number
CN115280767A
CN115280767A CN202180021368.4A CN202180021368A CN115280767A CN 115280767 A CN115280767 A CN 115280767A CN 202180021368 A CN202180021368 A CN 202180021368A CN 115280767 A CN115280767 A CN 115280767A
Authority
CN
China
Prior art keywords
information
unit
dimensional
image
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180021368.4A
Other languages
English (en)
Inventor
清水宽太
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2020050539A external-priority patent/JP2021150880A/ja
Priority claimed from JP2020050608A external-priority patent/JP2021150882A/ja
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Publication of CN115280767A publication Critical patent/CN115280767A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/293Generating mixed stereoscopic images; Generating mixed monoscopic and stereoscopic images, e.g. a stereoscopic image overlay window on a monoscopic image background
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/158Switching image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

信息处理装置(1)输出基于接收光来确定的三维信息,包括:摄像单元(11),被配置为拍摄二维图像信息,以及输出单元(170、180),被配置为输出用于显示的所述二维图像信息和与所述二维图像信息的坐标相关联的所述三维信息。

Description

信息处理装置和信息处理方法
技术领域
本公开涉及信息处理装置和信息处理方法。
背景技术
JP-2018-077071-A公开了一种能够稳定且正确地测量到物体的范围或距离的测距设备。
JP-2011-077606-A公开了一种摄像装置,当拍摄的图像中包括由手指等时,该摄像装置执行图像处理以减小包括在拍摄的图像中的手指等的影响。
引文列表
专利文献
[专利文献1]JP-2018-077071-A
[专利文献2]JP-2011-077606-A
发明内容
技术问题
本发明公开了鉴于上述问题而设计的实施方式,以提供可以容易地确认在没有不期望的物体的情况下获取所希望的三维信息的信息处理装置和信息处理方法。
解决问题的方案
在本发明的一个方面中,一种信息处理装置输出基于接收光来确定的三维信息,包括:摄像单元,被配置为拍摄二维图像信息,以及输出单元,被配置为输出用于显示的所述二维图像信息和与所述二维图像信息的坐标相关联的所述三维信息。
本发明的效果
根据本公开的一个或多个实施方式,能够提供可以容易地确认在没有不期望的物体的情况下获取所希望的三维信息的信息处理装置和信息处理方法。
附图说明
附图旨在说明本发明的示例性实施例,而不应被解释为限制其范围。除非明确指出,否则附图不应被视为按比例绘制。另外,在所有附图中,相同或相似的附图标记表示相同或相似的部件。
图1所示是本发明的实施方式所涉及的摄像装置的外观的示例。
图2所示是本发明的实施方式所涉及的摄像装置的构成的剖视图。
图3A所示是本发明的实施方式所涉及的摄像装置的使用状况的示例。
图3B所示是本发明的实施方式所涉及的摄像装置的使用状况的示例。
图3C所示是本发明的实施方式所涉及的摄像装置的使用状况的示例。
图3D所示是本发明的实施方式所涉及的摄像装置的使用状况的示例。
图4所示是本发明的实施方式所涉及的处理电路的功能框图的示例。
图5所示是本发明的实施方式所涉及的摄像装置的处理电路的操作流程图的示例。
图6A所示是本发明的实施方式所涉及的全景球面图像的图像数据生成的流程图的示例。
图6B所示是本发明的实施方式所涉及的生成全景球面图像的图像数据生成的流程图的示例。
图7所示是本发明的实施方式所涉及的判定附近物体的流程图的示例。
图8所示是本发明的实施方式所涉及的使用显示单元的视图显示内容的示例。
图9所示是本发明的实施方式所涉及的第一变形例的摄像装置的外观的示例。
图10所示是本发明的实施方式所涉及的第一变形例的处理电路的功能框图的示例。
图11所示是本发明的实施方式所涉及的第二变形例的摄像装置的外观的示例。
图12所示是本发明的实施方式所涉及的第二变形例的处理电路的功能框图的示例。
图13所示是本发明的实施方式所涉及的第二变形例的判定附近物体的流程图的示例。
图14所示是本发明的实施方式所涉及的第三变形例的摄像装置的构成的剖视图。
具体实施方式
本文使用的词仅用于说明特定实施例的目的,并不意图限制本发明。如本文所使用的,单数形式"一"、"一个"和"该"旨在也包括复数形式,除非上下文另有明确说明。在说明附图所示的实施方式时,为了清楚起见采用了特定词。然而,本说明书的公开内容并不旨在限于所选择的特定词,并且应当理解为,每个特定要素包括具有类似功能、以类似方式操作并且实现类似结果的所有技术等同物。以下,参照附图对实施本发明的构成进行说明。
以下,参照附图来详细说明摄像装置、摄像/处理方法、信息处理装置和信息处理方法的一个或多个实施方式。
图1所示是本发明的实施方式所涉及的摄像装置1的外观的示例。图2所示是摄像装置1的构成的剖面图的一例。图2所示是图1的摄像装置1的内部构成。
摄像装置1是输出基于接收到的光来确定的三维信息的信息处理装置的示例。
如图1所示,摄像装置1包括例如摄像单元11(即,相机)、投影单元12、距离信息获取单元13,它们被一体式地收容在壳体10(或盒体10)中。
投影单元12相当于距离传感器的发光单元,其投影可见光以外的光。
距离信息获取单元13对应于距离传感器的受光单元,其基于由投影单元12投影并从物体反射的光来获取距离信息。这些单元都被配置为经由同步信号线L(见图2)与设置在壳体10中的处理电路14(见图2)电连接,并被配置为彼此同步地动作。
如图1所示,摄像装置1还包括摄像开关15,其由用户用于将摄像指示信号输入到处理电路14。
如图1所示,摄像装置1还可以包括显示单元20,其显示与从处理电路14接收的输出信号相对应的内容。显示单元20例如采用液晶画面等。显示单元20可以采用例如触摸面板来接收由用户输入的操作。
处理电路14控制上述各个单元以获取诸如红/绿/蓝(RGB)图像数据和距离信息数据的信息,并且基于所获取的RGB图像数据和距离信息数据将所获取的距离信息数据重构为高密度的三维点组数据。可以在不处理距离信息数据的情况下使用距离信息数据来构建三维点组数据,但是在这种情况下,三维点组数据的精度限于距离信息获取单元13的像素数(即,分辨率)。
在本发明的实施方式中,说明将距离信息数据重构为高密度的三维点组数据的处理。重构数据经由便携式记录介质或通信网络被输出到诸如个人计算机(PC)等的外部装置或设备,然后被用于显示三维恢复模型。
从包括在壳体10中的电池向上述各个单元和处理电路14中的每一个提供电力。可替换地,电力可以经由连接线或无线来从壳体10的外部供应。
拍摄二维图像信息的摄像单元11包括例如摄像元件11a、11A以及鱼眼透镜11b、11B。鱼眼透镜是广角透镜的示例。
投影单元12例如具有光源单元12a、12A和广角透镜12b、12B。
距离信息获取单元13包括例如飞行时间(TOF)传感器13a、13A以及广角透镜13b、13B。
虽然未示出,但是可以被配置为使用包括棱镜和透镜组的光学系统。例如,可以使用用于将由鱼眼透镜11b、11B收集的光聚焦到摄像元件11a、11A上的光学系统来配置摄像单元11。此外,投影单元12可以被配置为使用光学系统将来自光源单元12a、12A的光引导到广角透镜12b、12B。此外,距离信息获取单元13可以被配置为使用光学系统将由广角透镜13b、13B收集的光聚焦到TOF传感器13a、13A上。各光学系统可以根据摄像元件11a、11A、光源部12a、12A以及TOF传感器13a、13A的构成和配置来适当设计。在该说明中,省略了包括棱镜和透镜组的光学系统。
摄像元件11a、11A、光源单元12a、12A以及TOF传感器13a、13A被一体地收纳在壳体10内。鱼眼透镜11b、广角透镜12b、广角透镜13b和显示单元20设置在壳体10的第一面(即,前侧)上。关于第一面,鱼眼透镜11b、广角透镜12b和广角透镜13b中的每一个具有内部开放空间。
此外,在壳体10的第二面(即,后侧)上设置有鱼眼透镜11B、广角透镜12B、广角透镜13B和摄像开关15。关于第二面,鱼眼透镜11B、广角透镜12B和广角透镜13B中的每一个具有内部开放空间。
摄像元件11a、11A是具有规定的二维分辨率的图像传感器(或面传感器)。每个摄像元件11a、11A都具有摄像区域,其中与各个像素对应的大量受光元件(例如,光电二极管)沿二维方向配置。在摄像区域搭载由例如使用拜耳(Bayer)排列来接收可见光的红(R)、绿(G)、蓝(B)的滤色器,通过滤色器的光作为电而蓄积在光电二极管中。在本说明书中,图像传感器具有大量像素,从而能够高分辨率地获取广角区域(例如,以图2所示的摄像方向作为前侧的具有180度圆周的半球范围)的二维图像。
每个摄像元件11a、11A使用各像素的像素电路将聚焦于摄像区域的光转换为电信号,并输出高分辨率的RGB图像数据。
每个鱼眼透镜11b、11B收集来自广角区域(例如,以图2所示的摄像方向作为前侧的具有180度圆周的半球范围)的光,并将光聚焦于各摄像元件11a、11A的摄像区域。
每个光源单元12a、12A例如是半导体激光器,其发射可见光区域以外的波长带(例如,红外光)的激光束光,来用于测量范围或距离。每个光源单元12a、12A可以采用单个的半导体激光器或多个的半导体激光器的组合。此外,半导体激光器可以采用面发射型半导体激光器,例如垂直腔表面发射激光器(VCSEL)。
此外,可以设置光学透镜来使半导体激光器的光形成为纵长的光,然后可以使用诸如微机电系统(MEMS)反射镜的光学偏转元件在测量范围的一维方向上扫描纵长的光。
在本说明书中,光源单元12a、12A不使用例如MEMS反射镜等的光学偏转元件,而是通过广角透镜12b、12B将半导体激光器LA的光发射到广角区域。
光源单元12a、12A的广角透镜广角透镜具有将从光源单元12a、12A发射的光扩展到广角区域(例如,以图2所示的摄像方向作为前侧的具有180度圆周的半球范围)的功能。
距离信息获取单元13的各广角透镜13b、13B从作为测量范围的广角区域(例如,以图2所示的摄像方向作为前侧的具有180度圆周的半球范围)的各方向分别接收与由投影单元12投影的光对应的光源单元12a、12A的反射光,并使其分别聚光于TOF传感器13a、13A的受光区域。
测量范围表示包括要被光投影的一个或多个物体(例如,诸如建筑物的目标物)的空间。从目标物反射的光(反射光)进入各广角透镜13b、13B。例如,可以通过在各个广角透镜13b、13b的整个面上设置用于截止具有比红外波长范围短的波长范围的光的滤光器来接收反射光。此外,构成不限于此。例如,由于只要红外区域的光进入受光区域就足够,所以可以在从广角透镜13b、13b到受光区域的光路中设置诸如滤光器的用于使红外区域的光通过的单元。
各个TOF传感器13a、13A是具有二维分辨率的光学传感器。各个TOF传感器13a、13A具有在二维方向上排列了大量受光元件(例如光电二极管)的受光区域。在本说明中,有时将各TOF传感器13a、13A称为"第二摄像受光单元"。各个TOF传感器13a、13A使用对应于各区域的受光元件来接收测量范围(各区域也被称为位置)中每个区域的反射光,然后基于各受光元件检测到的光来测量或计算到各区域的距离或范围。
在本实施方式中,使用相位差检测方法来测量距离。在相位差检测方法中,将以基本频率调制了振幅的激光束光朝向测量范围照射来接收反射光,然后测量照射光与反射光的相位差来获取或获得照射光的发光开始时间与反射光的接收时间之间的时间期间,并通过在该时间期间里乘以光速来算出距离。相位差检测可以确保一定程度的分辨率。
各TOF传感器13a、13A与投影单元12的照射光的投影同步地被驱动,从各受光元件(对应于各像素)处的反射光的相位差来计算对应于各像素的距离,并输出与像素信息相关联的表示到测量范围内各区域的距离的信息的包括距离信息的图像数据(以下,称为"距离图像"或"TOF图像")。
此外,各TOF传感器13a、13A可以被配置为输出相位信息与像素信息相关联的相位信息图像数据,并且通过执行后处理来基于相位信息图像数据获取包括距离信息的图像数据。
此外,可以鉴于受光区域的分辨率来确定测量范围中分割的区域数量。因此,当使用低分辨率来减小装置的尺寸时,距离图像数据的像素信息的数量减少,三维点组的数量也因而减少。
此外,代替相位差检测方法的是,可以使用脉冲方法来测量距离。在脉冲方法中,例如,各光源单元12a、12A发射具有几纳秒(ns)的上升时间和较强的强度峰值功率的超短脉冲的照射脉冲P1,并与照射脉冲P1的发射同步地,各TOF传感器13a、13A测量接收反射脉冲P2所需的时间(t),该反射脉冲P2是与从光源单元12a、12A发射的照射脉冲P1相对应的反射光。当采用脉冲方法时,例如,各TOF传感器13a、13A包括用于在受光元件的输出侧测量时间的一个或多个电路。各电路将从各光源单元12a、12A发射照射脉冲P1后接收反射脉冲P2所需的时间期间转换为各受光元件的距离信息,来获取或获得到各区域的距离。
脉冲方法适合于为摄像装置1设置广角区域,因为脉冲方法可以使用峰值光来输出强度更强的光。此外,当使用MEMS反射镜等来振荡或扫描光时,在减小光的扩散角的同时,能够将强度更强的光照射到远处,由此可以增大测量距离。在这种情况下,光源单元12a、12A、广角透镜12b、12B以及MEMS反射镜以规定的构成来配置,以使得从各光源单元12a、12A发射的激光束光通过MEMS反射镜朝向广角透镜12b、12B扫描或偏转。
此外,摄像单元11的有效视角和距离信息获取单元13的有效视角优选为彼此匹配,例如,180度或更大,但是摄像单元11的有效视角和距离信息获取单元13的有效视角不必一定要彼此匹配。可以根据需要来分别减小摄像单元11的有效视角和距离信息获取单元13的有效视角。
在本实施方式中,摄像单元11和距离信息获取单元13例如在100度到180度的范围内减少有效像素的数量,以使得摄像装置1的主体和距离信息获取单元13不包括在视角中。
此外,可以将TOF传感器13a、13A的分辨率设置为低于摄像元件11a、11A的分辨率,以优先于摄像装置1的尺寸减小或小型化。通过将TOF传感器13a、13A的分辨率设置为低于摄像元件11a、11A的分辨率,因为可以减小受光区域的尺寸,所以可以减小摄像装置1的尺寸。因此,各TOF传感器13a、13A可以设置成低分辨率,并且由各TOF传感器13a、13A获取或获得的三维点组具有低的密度,但是因为设置了用作"获取单元"的处理电路14,三维点组可以被转换为高密度的三维点组。稍后将说明使用处理电路14来转换为高密度的三维点组的处理。
在本实施方式中,作为一个例子,摄像元件11a、光源单元12a以及TOF传感器13a沿着壳体10的长边方向排列在一条直线上。类似地,摄像元件11A、光源单元12A以及TOF传感器13A沿着壳体10的长边方向排列在一条直线上。以下,对摄像元件11a、光源部12a以及TOF传感器13a的一例进行说明。
如图2所示,摄像元件11a的摄像区域(摄像面)和TOF传感器13a的受光区域(受光面)既可以沿着与长边方向正交的方向配置,也可以通过设置将光的方向(光路)的路径改变90度的棱镜等而沿着长边方向来配置。此外,摄像元件11a、光源单元12a和TOF传感器13a可以根据各种构成来配置在任何朝向里。也就是说,摄像元件11a、光源单元12a和TOF传感器13a沿着任何方向配置,以使得可以设置相同的测量范围来测量到目标物的距离。摄像单元11、投影单元12和距离信息获取单元13被配置在壳体10的一侧来面向测量范围。在该构成中,摄像元件11a和TOF传感器13a可以沿着相同的基线配置以成为平行立体构成。通过使用平行立体构成来配置摄像元件11a和TOF传感器13a,即使摄像元件11a的数量是一个,也可以使用TOF传感器13a的输出来获取或获得视差数据。光源单元12a被配置为对TOF传感器13a的测量范围照射光。
(处理电路)
以下,对处理电路14的处理进行说明。由TOF传感器13a、13A获取或获得的TOF图像具有较低的分辨率。因此,在本实施方式中,通过处理电路14来提高分辨率,然后重构高密度的三维点组数据。此外,由诸如处理电路14的"信息处理单元"执行的以下处理的一部分或全部可以由外部设备或装置来执行。
如上所述,由摄像装置1重构的三维点组数据经由便携式记录介质或通信网络被输出到外部设备(例如,PC),并且被用于显示三维恢复模型。
根据这种构成,与摄像装置1在摄像装置1上显示三维恢复模型的情况相比,可以提供具有用于处理数据的更高速度、更小尺寸和更轻重量的摄像装置1。
然而,在离开用户获取三维信息的地点并通过外部设备恢复三维信息之后,用户可以识别出在拍摄的图像中包括有用户自己或三脚架,并且还没有获取到具有所期望的布局的三维信息。在这种情况下,用户需要额外的时间和精力来重新访问获取三维信息的地点。
该问题可以通过将三维恢复设备带到该地点来解决,但是如果用户带着三维恢复设备,就不能设计可以以高处理速度来处理数据并具有小尺寸和轻重量的摄像装置1。
此外,可以通过经由通信线路将获取的三维信息发送到外部设备并且从外部设备接收恢复的三维信息来解决该问题。然而,该方法不具有高处理速度的优点,此外,由于三维信息具有大量的信息,因此用户难以在视觉上确认用户自身、三脚架等包含在拍摄的图像中。
特别地,在全视图球面三维信息的情况下,用户极难视觉地确认用户自己、三脚架等包含在拍摄的图像中。
使用本实施方式的摄像装置1可以容易地实时确认在拍摄的图像中包括用户自己、三脚架等已经尚未获取所期望的布局的三维信息的上述问题。
图3A、3B、3C和3D所示是本实施方式所涉及的使用摄像装置1的情况的示例。
在图3A所示的情形中,用户M和握持摄像装置1的自拍杆1A没有包含在全景球面图像摄像范围R中,从而用户M和自拍杆1A不包含在全景球面图像(即,拍摄的图像)中。在该说明中,用户M操作摄像装置1来拍摄图像。
在图3B所示的情形中,由于用户M包含在全景球面图像摄像范围R中,因此用户M包含在全景球面图像(即,拍摄的图像)中。
在图3C所示的情形中,因为保持摄像装置1的三脚架1B被包括在全景球面图像摄像范围R中,所以三脚架1B包含在全景球面图像(即,拍摄的图像)中。
在图3D所示的情形中,由于用户M和握持摄像装置1的自拍杆1A没有包含在全景球面图像摄像范围R中,用户M和自拍杆1A不包含在全景球面图像(即,拍摄的图像)中。但是,由于外部光(例如,太阳光、照明设备的光)具有较强的强度,因此有可能错误地判定物体包含在拍摄的图像中。
此外,在图3B和3C所示的情形中,因为包括在拍摄的图像中的物体的颜色、种类和外貌是各种各样的,所以传统方法难以判定例如用户等的对象物体是否被包括在拍摄的图像中。
如果发生图3B和3C所示的上述情况,在基于从TOF传感器13a、13A输出的包括距离信息的图像数据来判定诸如用户自身或三脚架的特定对象(例如,附近物体)的有无时,会难以区分是特定对象真的存在,还是外部光太强。
也就是说,在TOF传感器13a、13A的特定的像素的蓄电量饱和时,难以仅从TOF传感器13a、13A的输出来区分饱和的蓄电量是由特定对象的存在引起的还是由外部光的太强强度引起的。
鉴于上述问题,摄像装置1被配置为通过区分特定对象与外部光的影响来正确地确认拍摄的图像中是否包括例如用户自己或附近对象(例如,三角架)等的特定对象。
图4所示是处理电路14的功能框图的示例。如图4所示,处理电路14包括例如控制单元141、RGB图像数据获取单元142、单色处理单元143、TOF图像数据获取单元144、高分辨率处理单元145、匹配处理单元146、再投影处理单元147、语义分割单元148、视差计算单元149、三维重构处理单元150、判定单元160、显示控制单元170(输出单元的示例)以及发送-接收单元180(输出单元的示例)。在图4中,实线箭头表示信号的流动,虚线箭头表示数据的流动。
响应于从摄像开关15接收ON信号(摄像的开始信号)时,控制单元141对摄像元件11a、11A、光源单元12a、12A以及TOF传感器13a、13A输出同步信号,并控制处理电路14全体。
首先,控制单元141输出指示光源单元12a、12A发射超短脉冲光的信号,并以相同时机来输出指示TOF传感器13a、13A生成TOF图像数据的信号。此外,控制单元141输出指示摄像元件11a、11A拍摄图像的信号。在该构成中,由摄像元件11a、11A进行的摄像既可以在从光源单元12a、12A发射光的期间进行,也可以就在从光源单元12a、12A发射光的前后的期间进行。
RGB图像数据获取单元142根据控制单元141的摄像指令来获取由摄像元件11a、11A拍摄的RGB图像数据,并输出全景球面图像的RGB图像数据。
单色处理单元143为了与从TOF传感器13a、13A获取或获得的TOF图像数据的匹配处理,执行设定数据种类的处理。在该示例情况下,单色处理单元143将全景球面图像的RGB图像数据转换为全景球面图像的单色图像数据。
TOF图像数据获取单元144根据控制单元141的TOF图像数据的生成指示,获取由TOF传感器13a、13A生成的TOF图像数据,并输出全景球面图像的TOF图像数据。
高分辨率处理单元145将全景球面图像的TOF图像数据假定为单色图像数据,并增加TOF图像数据的分辨率。具体来说,高分辨率处理单元145y以全景球面图像的单色图像数据的值(灰度值)来替换与全景球面图像的TOF图像数据的各像素相关联的距离值。
另外,高分辨率处理单元145将全景球面图像的单色图像数据的分辨率增加到从摄像元件11a、11A获取或获得的全景球面图像的RGB图像数据的分辨率。例如,通过执行正常的转换增加处理来执行对高分辨率的转换。
此外,可以应用其他转换方法。例如,获取连续生成的全景球面图像的TOF图像的多个帧,然后通过使用这些帧追加相邻点之间的距离来执行超分辨率处理。
匹配处理单元146从通过将全景球面图像的TOF图像数据转换为高分辨率图像数据而获取或获得的全景球面图像的单色图像数据,以及与全景球面图像的RGB图像数据相对应的全景球面图像的单色图像数据,来提取具有纹理(texture)的部分处的特征量,然后基于所提取的特征量执行匹配处理。例如,匹配处理单元146从每个单色图像数据提取边缘,然后对所提取的边缘信息执行匹配处理。
此外,可以应用其他转换方法。例如,可以使用诸如尺度不变特征转换(SIFT)的量化纹理改变的方法来执行匹配处理。在本说明中,匹配处理意味着对应像素的搜索。
作为匹配处理的一种方法,例如可以使用块匹配。块匹配是计算在要参照的像素附近被切割成M×M(M是正整数)像素尺寸的块的像素值与在对应图像中要搜索的中心像素附近被切割成M×M像素尺寸的块的像素值之间的相似度,并且将具有最高相似度的中心像素作为对应像素的方法。
可以使用各种方法来计算相似度。例如,可以使用表示诸如归一化自相关系数的归一化相关系数(NCC)的式子。NCC数值越高,表示相似度越高,当块的像素值完全匹配时,NCC的值变为1。
此外,由于还从全景球面图像的TOF图像数据获取或获得无纹理区域的距离数据,因此可以通过根据区域设置权重来执行匹配处理。例如,当使用表示NCC的式子来执行计算时,可以通过将权重设置到边缘以外的部分(无纹理区域)来执行计算。
此外,代之以表示NCC的式子,可以使用选择性相关系数(SCC)。
再投影处理单元147将表示测量范围内的各位置的距离的全景球面图像的TOF图像数据再投影到摄像单元11的二维坐标(屏幕坐标系)上。执行再投影以确定由TOF传感器13a、13A计算出的三维点将被投影到由摄像元件11a、11A拍摄的图像的哪个二维坐标。
全景球面图像的TOF图像数据表示以距离信息获取单元13(主要是广角透镜13b、13B)为中心的坐标系中的各三维点的位置。
因此,将全景球面图像的TOF图像数据表示的三维点再投影到以摄像单元11(主要是鱼眼透镜11b、11B)为中心的坐标系上。例如,再投影处理单元147将全景球面图像的TOF图像数据的三维点的坐标平行移动到以摄像单元11为中心的三维点的坐标,在平行移动之后,再投影处理单元147将TOF图像数据的三维点的坐标转换为全景球面图像的RGB图像数据所示的二维坐标系(屏幕坐标系)。
根据这种构成,全景球面图像的TOF图像数据的三维点的坐标与二维图像信息的坐标能够彼此相关联。
再投影处理单元147将全景球面图像的TOF图像数据的三维点的坐标与由摄像单元11拍摄到的全景球面图像的二维图像信息的坐标建立关联。
视差计算单元149从关于由匹配处理获取的对应像素的距离的偏差或波动来计算各位置的视差。
此外,可以使用由再投影处理单元147转换的再投影坐标,通过搜索再投影坐标的位置处的周围像素来执行视差匹配处理,可以缩短处理时间,并且可以获取或获得更详细和更高分辨率的距离信息。
此外,通过使用语义分割单元148执行语义分割处理而获取或获得的分割数据可以用于视差匹配处理。在这种情况下,可以获取或获得更详细和更高分辨率的距离信息。
此外,可以仅对边缘或具有较大特征量的部分来执行视差匹配处理,并且可以使用全景球面图像的TOF图像数据以及例如全景球面图像的RGB图像特征和随机技术来对其他部分执行传播处理。
语义分割单元148使用深度学习将表示目标物的分割标签应用于测量范围的输入图像。通过该处理,能够将全景球面图像的TOF图像数据的各像素固定为按每个距离分割的多个距离区域中的任意一个,能够进一步提高计算的可靠性。
三维重构处理单元150从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,并基于从视差计算单元149输出的距离信息来重构全景球面图像的三维数据,然后输出对各三维点追加了颜色信息的全景球面图像的高密度三维点组。
三维重构处理单元150是确定三维信息的三维信息确定单元的一例。
判定单元160从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,并且还从再投影处理单元147获取被转换成通过全景球面图像的RGB图像数据表示的二维坐标系的全景球面图像的TOF图像数据,然后基于这些数据判定在拍摄的图像中是否包括特定对象,并且将判定结果输出到显示控制单元170。
显示控制单元170从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,并指示显示单元20基于所获取的全景球面图像的RGB图像数据来显示二维图像信息。
此外,显示控制单元170将从判定单元160获取或获得的表示判定结果的信息叠加到二维图像信息上,然后指示显示单元20显示二维图像信息。
显示控制单元170是与三维信息分开地输出的由摄像单元11拍摄的二维图像信息的输出单元的一例。显示单元20是输出二维图像信息的输出目的地的一例。
显示控制单元170可以被配置为从三维重构处理单元150获取或获得全景球面图像的三维数据,并且指示显示单元20显示三维信息。具体来说,显示控制单元170可以根据预设条件来选择显示控制单元170指示显示单元20显示二维图像信息的模式,以及显示控制单元170指示显示单元20显示三维信息的另一种模式。根据这种构成,显示控制单元170可以与三维信息分开地输出二维图像信息。
发送-接收单元180通过有线或无线与外部设备进行通信。发送-接收单元180经由网络400,将从三维重构处理单元150输出的全景球面图像的三维数据和从RGB图像数据获取单元142输出的全景球面图像的二维图像信息发送或输出到执行三维恢复处理的外部设备300。
在本说明中,由摄像单元11拍摄的二维图像信息是指用于创建"用于显示的二维图像数据"的"原始二维图像信息"或"用于显示的二维图像数据"。例如,可以在摄像装置1内部处理由摄像单元11拍摄的二维图像信息(即,原始二维图像信息)以创建"用于显示的二维图像数据",或者可以将摄像单元11拍摄的二维图像信息(即,原始二维图像信息)从摄像装置1发送到外部设备,然后外部设备可以从"原始二维图像信息"来创建"用于显示的二维图像数据"。
发送-接收单元180是输出三维信息的输出单元的一例。外部设备300是输出三维信息的输出目的地的一例。
此外,发送-接收单元180可以被配置为不发送全景球面图像的二维图像信息,而仅发送全景球面图像的三维数据。此外,发送-接收单元180可以被配置为使用能够与诸如安全数字(SD)卡和个人计算机的便携式存储介质通信的接口电路。
(处理电路的动作)
图5所示是摄像装置1的处理电路14的动作的流程图的一例。当摄像开关15被用户接通并且摄像指示信号被输入时,处理电路14的控制单元141使用以下方法(摄像/处理方法和信息处理方法的一例)来执行生成高密度三维点组的动作。
首先,控制单元141驱动光源单元12a、12A、TOF传感器13a、13A以及摄像元件11a、11A来拍摄测量范围的图像(步骤S1)。控制单元141指示光源单元12a、12A发射红外光(光投影步骤的一例),然后TOF传感器13a、13A接收从物体反射的光(光接收步骤的一例)。此外,摄像元件11a、11A在开始驱动光源单元12a、12A的时机或就在开始驱动光源单元12a、12A的时机的附近的期间拍摄测量范围的图像(摄像步骤的一例)。
然后,RGB图像数据获取单元142从摄像元件11a、11A获取测量范围的RGB图像数据(步骤S2)。
然后,显示控制单元170从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,然后指示显示单元20基于所获取的全景球面图像的RGB图像数据来显示二维图像信息(二维图像信息输出步骤的一例)(步骤S3)。
显示控制单元170指示显示单元20显示所获取的全景球面图像的RGB图像数据的部分区域的二维图像信息,然后响应于接收到由用户输入的各种指令来改变由显示单元20显示的二维图像信息的区域。例如,如果摄像装置1设有摄像开关15以外的一个或多个操作开关,或作为输入单元的例如触摸面板等的显示单元20,则用户可以使用这些开关和单元来输入各种指令。
在步骤S3中,用户可以通过观看使用显示单元20显示的二维图像信息来确认在拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取所期望的布局的二维图像信息。
然后,TOF图像数据获取单元144从TOF传感器13a、13A获取表示二维区域中的各位置的距离的TOF图像数据(步骤S4)。
然后,单色处理单元143将RGB图像数据转换为单色图像数据(步骤S5)。因为TOF图像数据是距离数据而RGB图像数据是RGB数据(即,TOF图像数据和RGB图像数据的数据种类不同),所以不能对TOF图像数据和RGB图像数据执行匹配。因此,首先,将各TOF图像数据和各RGB图像数据转换为单色图像数据。关于TOF图像数据,在进行分辨率增强之前,高分辨率处理部145通过将表示各像素的距离的值直接置换为单色图像数据的值,来对表示各像素的距离的值进行转换。
接着,高分辨率处理单元145增加TOF图像数据的分辨率(步骤S6)。
然后,匹配处理单元146针对每个单色图像数据提取具有纹理的部分的特征量,然后使用所提取的特征量来执行匹配处理(步骤S7)。
然后,视差计算单元149从对应像素的距离的偏差来计算各位置的视差,以计算距离(步骤S8)。
然后,判定单元160从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,并且还从再投影处理单元147获取被转换成通过RGB图像数据表示的二维坐标系的全景球面图像的TOF图像数据,然后基于全景球面图像的RGB图像数据和全景球面图像的TOF图像数据来判定在拍摄的图像中有无附近物体(即,特定对象),然后将判定结果输出到显示控制单元170。
然后,显示控制单元170将从判定单元160获取或获得的表示判定结果的信息叠加到二维图像信息上,并指示显示单元20显示二维图像信息(显示步骤的一例)(步骤S9)。
然后,三维重构处理单元150从RGB图像数据获取单元142获取RGB图像数据,并基于从视差计算单元149输出的距离信息来重构三维数据,然后输出对各三维点追加了颜色信息的高密度三维点组(步骤S10)。
然后,发送-接收单元180经由网络400,将从三维重构处理单元150输出的三维数据和从RGB图像数据获取单元142输出的二维图像信息发送到执行三维恢复处理的外部设备300(三维信息输出步骤的一例)(步骤S11)。
发送-接收单元180可以被配置为发送从三维重构处理单元150输出的三维数据,而不发送从RGB图像数据获取单元142输出的二维图像信息。
如上所述,摄像装置1包括摄像单元11和与三维信息分开地输出由摄像单元11拍摄的二维图像信息的显示控制单元170。
根据这种构成,在不确认三维信息的情况下,用户可以从二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
因此,用户可以在停留在获取或获得三维信息的地点的同时重新获取三维信息,相比于用户在离开获取三维信息的地点之后识别出拍摄的图像中包括用户自己、三脚架等或者没有获取到具有期望布局的三维信息的情况,可以减少重新访问获取或获得三维信息的地点的工作或劳动。
在本说明中,三维信息包括例如全景球面图像的三维信息。在这种情况下,如果全景球面三维信息被拍摄且用户感觉难以确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息,则用户可以从摄像单元11拍摄的二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
在发送-接收单元180在步骤S11中发送或输出三维信息之前,显示控制单元170在步骤S3中输出二维图像信息G。此外,在步骤S10中三维重构处理单元150确定三维信息之前,显示控制单元170在步骤S3中输出二维图像信息G。
根据这种构成,在确认三维信息之前,用户可以从二维图像信息确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
摄像装置1可以具备显示单元20,其中显示控制单元170指示显示单元20显示二维图像信息。
根据这种构成,用户可以从使用显示单元20显示的二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
显示控制单元170可以将二维图像信息输出到与发送-接收单元180输出三维信息的外部设备300不同的显示单元20。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从输出到不同于外部设备300的显示单元20的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需确认输出到外部设备300的三维信息。
摄像装置1可以具备基于距离信息获取单元13的输出来确定三维信息的三维重构处理单元150。三维重构处理单元150基于从距离信息获取单元13接收到的输出和二维图像信息来确定三维信息。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从摄像单元11拍摄的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需确认由三维重构处理单元150确定的三维信息。
图6所示是本实施方式所涉及的全景球面图像的图像数据生成的处理的流程图的示例。
图6A所示是对应于参照图5说明的步骤S2的全景球面图像的RGB图像数据生成的处理的流程图的示例。
RGB图像数据获取单元142输入具有鱼眼图像格式的两帧RGB图像数据(步骤S201)。
然后,RGB图像数据获取单元142将两帧RGB图像数据中的每一帧转换为具有等距圆柱图像格式的图像数据(步骤S202)。RGB图像数据获取单元142基于相同的坐标系将两帧RGB图像数据转换为具有等距圆柱图像格式的图像数据,以便于在下一步骤S203中的图像组合或拼接。要注意的是,也可以根据需要将RGB图像数据转换为使用了等距圆柱图像格式以外的一种以上的图像格式的图像数据。例如,可以将RGB图像数据转换为在任意面上透视投影的图像的坐标或者在任意多面体的每个面上透视投影的图像的坐标。
以下,对等距圆柱图像格式进行说明。等距圆柱图像格式是能够表现全景球面图像的格式,并且是使用等距圆柱方法创建的图像(即,等距圆柱图像)的格式。等距圆柱方法是例如地球的纬度和经度等的两个变量表示三维方向,并显示纬度和经度彼此正交的平面图像的方法。因此,等距圆柱图像是使用等距圆柱方法生成的图像,并且使用以球面坐标系统的两个角变量作为两个轴的坐标来表示。
然后,RGB图像数据获取单元142组合或拼接在步骤S202中生成的两帧RGB图像数据,以生成全景球面图像的RGB图像数据的一个图像(步骤S203)。输入的两帧RGB图像数据的每一帧覆盖具有大于180度的全视角的区域。因此,通过适当地组合或拼接两帧RGB图像数据而生成的全景球面图像RGB图像数据可以覆盖全景球面图像区域。
此外,步骤S203中的组合或拼接处理可以使用用于组合或拼接多个图像的任何的已知技术,并且该方法不受特别限制。
图6B所示是对应于参照图5说明的步骤S4的全景球面图像的TOF图像数据生成的处理的流程图的示例。
TOF图像数据获取单元144获取具有鱼眼图像格式的两帧距离图像数据(步骤S401)。
然后,TOF图像数据获取单元144将具有鱼眼图像格式的两帧TOF图像数据转换为具有等距圆柱图像格式的图像数据(步骤S402)。如上所述,等距圆柱图像格式是能够表现全景球面图像的格式。在步骤S402中,基于相同的坐标系将两帧TOF图像数据转换为具有等距圆柱图像格式的图像数据,以便于在下一步骤S403中的图像的组合或拼接处理。
然后,TOF图像数据获取单元144组合或拼接在步骤S402中生成的两帧TOF图像数据,以生成一个全景球面图像的TOF图像数据(步骤S403)。输入的两帧TOF图像数据中的每一帧覆盖具有大于180度的全视角的区域。因此,通过适当地组合或拼接两帧TOF图像数据而生成的全景球面图像TOF图像数据可以覆盖全景球面图像区域。
此外,步骤S403中的组合或拼接处理可以使用用于组合或拼接多个图像的任何的已知技术,并且该方法不受特别限制。
图7所示是本实施方式所涉及的判定附近物体的流程图的示例。
图7所示是判定附近物体是否包括在拍摄的图像中的处理的流程图,该处理对应于参照图5说明的步骤S9。
判定单元160基于从再投影处理单元147获取或获得的全景球面图像的TOF图像数据,判定全景球面图像的TOF图像数据是否具有1个以上的蓄电量饱和的像素(步骤S801)。
如果判定单元160在步骤S801中判定全景球面图像的TOF图像数据具有1个以上的蓄电量饱和的像素(S801:"是"),基于从RGB图像数据获取单元142获取或获得的全景球面图像的RGB图像数据,判定单元160判定全景球面图像的RGB图像数据是否具有与在步骤S801中蓄电量饱和的一个或多个像素为相同坐标的一个或多个像素,该像素具有饱和的蓄电量(步骤S802)。
如果判定单元160在步骤S802中判定全景球面图像的RGB图像数据具有1个以上的蓄电量饱和的像素(S802:"是"),判定单元160判定在步骤S801中具有饱和的蓄电量的像素是由外部光(例如,阳光、照明设备的光)引起的,并将出错信息输出到显示控制单元170。
然后,基于从判定单元160获取或获得的出错信息,显示控制单元170将出错信息叠加到二维图像信息上,然后指示显示单元20显示叠加有出错信息的二维图像信息(步骤S803)。
如果判定单元160在步骤S802中判定全景球面图像的RGB图像数据不具有蓄电量饱和的像素(S802:"否"),判定单元160判定在步骤S801中具有饱和的蓄电量的像素是因附近物体的存在引起的,并且在步骤S801中将具有饱和的蓄电量的像素的坐标位置信息输出到显示控制单元170。
然后,基于从判定单元160获取或获得的像素的坐标位置信息,显示控制单元170将识别附近物体的识别信息叠加在二维图像信息上,然后指示显示单元20显示叠加在二维图像信息上的识别附近物体的识别信息(步骤S804)。
如果判定单元160在步骤S801中判定全景球面图像的TOF图像数据没有蓄电量饱和的像素(S801:"否"),基于从再投影处理单元147获取或获得的全景球面图像的TOF图像数据,判定单元160判定全景球面图像的TOF图像数据是否具有表示全景球面图像的TOF图像数据中的规定距离信息,例如0.5m以下的一个或多个像素(步骤S805)。
如果判定单元160在步骤S805中判定全景球面图像的TOF图像数据没有表示0.5m以下的距离信息的像素(S805:"否"),判定单元160结束该时序。
如果判定单元160在步骤S805中判定全景球面图像的TOF图像数据具有一个以上表示0.5m以下的距离信息的像素(S805:"是"),判定单元160继续时序到步骤S804。
如果步骤S805为"是",则判定单元160判定表示小于0.5m的距离信息的像素是由附近物体的存在引起的,并且在步骤S805中将表示小于0.5m的距离信息的像素的坐标位置信息输出到显示控制单元170。
然后,在步骤S804中,基于从判定单元160获取或获得的像素的坐标位置信息,显示控制单元170指示显示单元20通过将识别附近物体的识别信息叠加在二维图像信息上来显示识别附近物体的识别信息。
如上所述,如果判定单元160判定附近物体存在,则显示控制单元170将识别信息叠加在二维图像信息上,并且如果判定单元160判定附近物体不存在,则显示控制单元170不将识别信息叠加在二维图像信息上。
也就是说,显示控制单元170指示显示单元20根据附近物体的有无来输出不同的显示。
此外,基于从判定单元160获取或获得的像素的坐标位置信息,显示控制单元170指示显示单元20在二维图像信息上显示识别附近物体的识别信息。
也就是说,显示控制单元170指示显示单元20根据附近物体在空间中的位置来设置附近物体的显示位置,这意味着每个附近物体的显示位置根据每个附近物体在空间中的位置而变得不同。
图8所示是本实施方式所涉及的使用显示单元的视图显示内容的示例。
图8所示是对应于图5中的步骤S3和图7中的步骤S803和S804的图。
如图8所示,显示控制单元170指示显示单元20显示二维图像信息G。此外,如图8所示,通过将识别信息G1、G2和出错信息G3重叠在二维图像信息G上,显示控制单元170指示显示单元20显示识别各附近物体(例如,手指、三脚架)的信息G1、G2和出错信息G3。出错信息G3可以是图8所示的表示"太阳光"的标记,也可以是"照明设备"。
如上所述,摄像装置1包括用于拍摄目标物的图像的摄像单元11、用于将光投影到目标物上的投影单元12、距离信息获取单元13,用于接收从目标物反射的光的距离信息获取单元13,以及用于指示显示单元20根据基于从距离信息获取单元13接收的输出信息和摄像单元11的输出信息判定的附近对象的有无来输出不同的显示的显示控制单元170。
根据这种构成,通过将附近物体与外部光的影响区分开,用户可以正确地确认用户自身以及附近物体(例如,三脚架)是否被包括在拍摄的图像中。
如上所述,摄像装置1设置有显示单元20。根据这种构成,用户可以正确地检查附近物体是否包括在拍摄的图像中。
如上所述,显示控制单元170指示显示单元20根据附近物体在空间中的位置来设置附近物体的显示位置,这意味着附近物体的显示位置根据每个附近物体在空间中的位置而变得不同。根据这种构成,用户可以确认包括在拍摄的图像中的每个附近对象的位置。
如上所述,显示控制单元170指示显示单元20显示由摄像单元11拍摄的图像信息G,并且指示显示单元20通过将识别信息G1和G2叠加在图像信息上来显示识别各个附近物体的识别信息G1和G2。根据这种构成,用户可以正确地确认包括在拍摄的图像中的每个附近对象的位置。
如上所述,摄像装置1具备判定单元160,其在由距离信息获取单元13接收的光引起的蓄电量饱和并且摄像单元11中的像素的蓄电量不饱和时,判定有附近物体。
根据这种构成,通过将附近物体与外部光的影响区分开,用户可以正确地确认附近物体是否被包括在拍摄的图像中。
图9所示是本实施方式所涉及的第一变形例的摄像装置1的外观的示例。图10所示是本实施方式所涉及的第一变形例的处理电路的功能框图的一例。
在第一变形例中,显示控制单元170从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,并指示显示设备500的显示单元520基于所获取的全景球面图像的RGB图像数据来显示二维图像信息。显示单元520是输出二维图像信息的输出目的地的一例。
根据这种构成,用户可以从显示单元520显示的二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
显示控制单元170将二维图像信息输出到与发送-接收单元180输出三维信息的外部装置300不同的显示单元520。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从输出到不同于外部设备300的显示单元520的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需确认输出到外部设备300的三维信息。
此外,显示控制单元170可以被配置为从三维重构处理单元150获取或获得全景球面图像的三维数据,并且指示显示单元520显示三维信息。具体来说,显示控制单元170可以根据预设条件来选择显示控制单元170指示显示单元520显示二维图像信息的情况,以及显示控制单元170指示显示单元520显示三维信息的另一种情况。根据这种构成,显示控制单元170可以与三维信息分开地输出二维图像信息。
显示控制单元170基于从判定单元160获取或获得的出错信息将出错信息叠加在二维图像信息上,并且指示显示单元520显示叠加有出错信息的二维图像信息。
显示控制单元170基于从判定单元160获取或获得的像素的坐标位置信息,指示显示单元520显示叠加在二维图像信息上的标识附近物体的标识信息。
即,显示控制单元170指示显示单元520根据基于从距离信息获取单元13接收的输出信息和摄像单元11的输出信息判定的附近对象的有无来输出不同的显示。
根据这种构成,通过将附近物体与外部光的影响区分开,用户可以正确地确认用户自身以及附近物体(例如,三脚架)是否被包括在拍摄的图像中。
如上所述,显示控制单元170指示显示单元520根据附近物体在空间中的位置来设置附近物体的显示位置,这意味着附近物体的显示位置根据每个附近物体在空间中的位置而变得不同。根据这种构成,用户可以确认包括在拍摄的图像中的每个附近对象的位置。
显示控制单元170指示显示单元520显示由摄像单元11拍摄的图像信息G,并且还指示显示单元520通过将识别信息叠加在图像信息上来显示识别附近物体的识别信息。根据这种构成,用户可以正确地确认包括在拍摄的图像中的每个附近对象的位置。
图11所示是本实施方式所涉及的第二变形例的摄像装置1的外观的示例。图12所示是本实施方式所涉及的第二变形例的处理电路的功能框图的一例。
在图11所示的第二变形例中,摄像装置1例如具有多个显示单元20a、20A来代替图1所示的显示单元20。各显示单元20a、20A例如能够由发光二极管(LED)等构成,并基于处理电路14的输出信号使光闪烁。
显示单元20a设置在壳体10的第一面(例如,壳体10的前侧)上,并且显示单元20a设置在壳体10的第二面(例如,壳体10的后侧)上。
在图12所示的第二变形例中,显示控制单元170指示显示单元20a、20A显示表示从判定单元160获取或获得的判定结果的信息或信号。例如,如果在摄像装置1的各侧上由靠近物体,则显示单元20a和20b可以闪烁红色。
此外,发送-接收单元180经由网络400将从RGB图像数据获取单元142输出的全景球面图像的二维图像信息发送或输出到显示设备500。显示设备500是输出二维图像信息的输出目的地的一例。
即,关于第二变形例,在图5中的步骤S3中,发送-接收单元180从RGB图像数据获取单元142获取全景球面图像的RGB图像数据,然后将基于所获取的全景球面图像的RGB图像数据的二维图像信息发送或输出到显示设备500。
显示设备500的发送-接收单元510接收从摄像装置1的发送-接收单元180发送来的二维图像信息。
显示设备500的控制单元530指示显示单元520显示由发送-接收单元510接收的二维图像信息。
如上所述,摄像装置1包括摄像单元11和与三维信息分开地输出由摄像单元11拍摄的二维图像信息的发送-接收单元180。
根据这种构成,在不确认三维信息的情况下,用户可以从二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
因此,用户可以在停留在获取或获得三维信息的地点的同时重新获取三维信息,相比于用户在离开获取三维信息的地点之后识别出拍摄的图像中包括用户自己、三脚架等或者没有获取或获得到具有期望布局的三维信息的情况,可以减少重新访问获取或获得三维信息的地点的工作或劳动。
在步骤S11中发送或输出三维信息之前,发送-接收单元180在步骤S3中发送或输出二维图像信息G。此外,在步骤S10中三维重构处理单元150确定三维信息之前,发送-接收单元180在步骤S3中输出二维图像信息G。
根据这种构成,在确认三维信息之前,用户可以从二维图像信息确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
发送-接收单元180将二维图像信息发送到显示设备500,并且显示设备500指示显示单元520显示二维图像信息。
根据这种构成,用户可以从显示单元520显示的二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
发送-接收单元180将二维图像信息发送到与输出三维信息的外部设备300不同的显示设备500。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从输出到不同于外部设备300的显示单元520的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需确认输出到外部设备300的三维信息。
此外,发送-接收单元180可以被配置为将三维信息发送到显示设备500。具体来说,发送-接收单元180可以根据预设条件来选择发送-接收单元180将二维图像信息发送到显示设备500的情况,以及发送-接收单元180将三维信息发送到显示设备500的另一种情况。根据这种构成,发送-接收单元180可以将二维图像信息与三维信息分开地发送到显示设备500。
图13所示是本实施方式所涉及的第二变形例的判定附近物体的流程图的示例。
图13所示是第二变形例所涉及的判定附近物体是否包括在拍摄的图像中的处理的流程图,该处理对应于参照图5说明的步骤S9。
判定单元160基于从再投影处理单元147获取或获得的全景球面图像的TOF图像数据,判定全景球面图像的TOF图像数据是否具有1个以上的蓄电量饱和的像素(步骤S811)。
如果判定单元160在步骤S811中判定全景球面图像的TOF图像数据具有1个以上的蓄电量饱和的像素(S811:"是"),基于从RGB图像数据获取单元142获取或获得的全景球面图像的RGB图像数据,判定单元160判定全景球面图像的RGB图像数据是否具有与在步骤S811中蓄电量饱和的像素为相同坐标的一个或多个像素,该像素具有饱和的蓄电量(步骤S812)。
如果判定单元160在步骤S812中判定全景球面图像的RGB图像数据具有1个以上的蓄电量饱和的像素(S812:"是"),判定单元160判定在步骤S811中具有饱和的蓄电量的像素是由外部光引起的,并将出错信息输出到显示控制单元170。
然后,基于从判定单元160获取或获得的出错信息,显示控制单元170将出错信息叠加到二维图像信息上,然后指示显示单元20a或显示单元20A显示出错信息(步骤S813)。
如果判定单元160在步骤S812中判定全景球面图像的RGB图像数据不具有蓄电量饱和的像素(S812:"否"),判定单元160判定在步骤S801中具有饱和的蓄电量的像素是因附近物体引起的,并且在步骤S811中将具有饱和的蓄电量的像素的坐标位置信息输出到显示控制单元170。
然后,显示控制单元170基于从判定单元160获取或获得的像素的坐标位置信息,判定坐标位置信息是否表示壳体10的前侧(步骤S814)。
如果判定单元160在步骤S811中判定全景球面图像的TOF图像数据没有蓄电量饱和的像素(S811:"否"),基于从再投影处理单元147获取或获得的全景球面图像的TOF图像数据,判定单元160判定全景球面图像的TOF图像数据是否具有表示全景球面图像的TOF图像数据中的规定距离信息(例如0.5m以下)的一个或多个像素(步骤S815)。
如果判定单元160在步骤S815中判定全景球面图像的TOF图像数据没有表示规定距离信息(例如0.5m以下)的像素(S815:"否"),判定单元160结束该时序。
如果判定单元160在步骤S815中判定全景球面图像的TOF图像数据具有一个以上表示规定距离信息(例如0.5m以下)的像素(S815:"是"),判定单元160继续时序到步骤S814。
如果步骤S815为"是",则判定单元160判定表示小于0.5m的距离信息的像素是由附近物体的存在引起的,并且在步骤S815中将表示小于0.5m的距离信息的像素的坐标位置信息输出到显示控制单元170。
然后,在步骤S814,显示控制单元170基于从判定单元160获取或获得的像素的坐标位置信息,判定像素的坐标位置信息是否表示壳体10的前侧。
如果显示控制单元170在步骤S814中判定像素的坐标位置信息表示前侧(S814:"是"),显示控制单元170指示配置在壳体10的前侧上的显示单元20a闪烁光(步骤S816)。
如果显示控制单元170在步骤S814中判定像素的坐标位置信息不表示前侧(S814:"否"),显示控制单元170指示配置在壳体10的后侧上的显示单元20A闪烁光(步骤S817)。
如上所述,当显示控制单元170判定有附近物体时,显示控制单元170指示显示单元20a或显示单元20A闪烁光,当显示控制单元170判定没有附近物体时,不指示显示单元20a或显示单元20A闪烁光。
也就是说,显示控制单元170指示显示单元20a或显示单元20A根据附近物体的有无来输出不同的显示。
根据这种构成,通过将附近物体与外部光的影响区分开,用户可以正确地确认用户自身或附近物体(例如,三脚架)是否被包括在拍摄的图像中。
此外,显示控制单元170基于从判定单元160获取或获得的像素的坐标位置信息来指示显示单元20a或显示单元20A闪烁光。
也就是说,显示控制单元170指示显示单元20a或显示单元20A根据附近物体在空间中的位置来显示附近物体的位置,这意味着附近物体的位置根据每个附近物体在空间中的位置而不同地显示。根据这种构成,用户可以确认包括在拍摄的图像中的每个附近对象的位置。
然后,显示控制单元170指示显示单元20a、20A中更靠近附近物体的任一个,根据附近物体的有无来输出不同的显示。根据这种构成,用户可以正确地确认包括在拍摄的图像中的特定对象的位置。
图14所示是本实施方式所涉及的第三变形例的摄像装置1的构成的剖视图。
在图14所示的第三变形例中,除了图2所示的构成之外,摄像装置1还包括例如具有另一摄像元件111a、111a以及另一鱼眼透镜(广角透镜)111b、111b的另一摄像单元111。
在第三变形例中,RGB摄像单元11和另一摄像单元111被设置在同一基线上。在该构成中,处理电路14能够对具有多眼的构成执行处理。也就是说,可以通过同时驱动摄像单元11和另一摄像单元111来获取或获得两个视点的RGB图像,其中沿着一个面在摄像单元11和另一摄像单元111之间设有规定的预设距离。因此,可以使用从两个RGB图像计算的视差,并可以提高整个测量范围的距离精度。
具体来说,当设置摄像单元11和用于拍摄RGB图像数据的另一摄像单元111时,可以如传统的视差计算那样,使用利用了平方差之和(SSD)的多基线立体(MSB)和核极线平面图(EPI)处理。因此,通过使用摄像单元11和另一摄像单元111,可以增加视差的可靠性,并且可以实现高的空间分辨率和高精度。
如上所述,摄像装置1包括另一摄像单元111,以及基于从距离信息获取单元13接收的输出信息、二维图像信息和由另一摄像单元111拍摄的另一二维图像信息来确定三维信息的三维重构处理单元150。
此外,摄像装置1可以包括另一摄像单元111和基于二维图像信息以及由另一摄像单元111拍摄的另一二维图像信息来确定三维信息的三维信息确定单元,而不使用来自距离信息获取单元13的输出信息。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从摄像单元11拍摄的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需基于二维图像信息来确认由三维重构处理单元150确定的三维信息。
关于上述实施方式,摄像装置1(信息处理装置的一例)包括拍摄二维图像信息的摄像单元11、输出用于显示的二维图像信息G的输出单元,以及与二维图像信息的坐标相关联的三维信息。
输出单元可以被实现为显示控制单元170。在这种情况下,显示控制单元170输出用于显示的二维图像信息和三维信息。
此外,输出单元可以被实现为发送-接收单元180。在这种情况下,发送-接收单元180将用于显示的二维图像信息输出到外部设备,并且将三维信息输出到外部设备。
此外,输出单元可以被实现为显示控制单元170和发送-接收单元180。在这种情况下,显示控制单元170输出用于显示的二维图像信息,发送-接收单元180将三维信息输出到外部设备。可替换地,显示控制单元170将三维信息输出到外部设备,发送-接收单元180输出用于显示的二维图像信息。
根据这种构成,在不确认三维信息的情况下,用户可以从二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
因此,用户可以在停留在获取或获得三维信息的地点的同时重新获取三维信息,相比于用户在离开获取三维信息的地点之后识别出拍摄的图像中包括用户自己、三脚架等或者没有获取或获得到具有期望布局的三维信息的情况,可以减少重新访问获取或获得三维信息的地点的工作或劳动。
显示控制单元170或发送-接收单元180在输出三维信息之前输出二维图像信息G。此外,显示控制单元170或发送-接收单元180在确定三维信息之前输出二维图像信息G。
根据这种构成,在确认三维信息之前,用户可以从二维图像信息确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
显示控制单元170指示显示单元20和显示单元520显示二维图像信息G。摄像装置1具备显示单元20。
根据这种构成,用户可以从显示单元显示的二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
显示控制单元170或发送-接收单元180将二维图像信息G输出到与输出三维信息的外部设备300(输出目的地的一例)为不同的显示单元20和显示单元520(输出目的地的一例)。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从输出到不同于外部设备300的显示单元20和显示单元520的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需确认输出到外部设备300(输出目的地的一例)的三维信息。
摄像装置1包括用于将光投影到目标物上的投影单元12、用于接收从目标物反射的光的距离信息获取单元13(受光单元的一例),以及用于基于从距离信息获取单元13接收的输出信息来确定三维信息的三维重构处理单元150(三维信息确定单元的一例)。三维重构处理单元150基于从距离信息获取单元13接收到的输出信息和二维图像信息来确定三维信息。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从摄像单元11拍摄的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需确认由三维重构处理单元150确定的三维信息。
摄像装置1包括另一摄像单元111,以及基于从距离信息获取单元13接收的输出信息、二维图像信息和由另一摄像单元111拍摄的另一二维图像信息来确定三维信息的三维重构处理单元150。
如上所述,摄像装置1可以包括另一摄像单元111和基于二维图像信息以及由另一摄像单元111拍摄的另一二维图像信息来确定三维信息的三维信息确定单元,而不使用来自距离信息获取单元13的输出信息。
根据这种构成,用户可以确认拍摄的图像中是否包括用户自己、三脚架等,以及从摄像单元11拍摄的二维图像信息是否已经获取具有所期望的布局的三维信息,而无需基于二维图像信息来确认由三维重构处理单元150确定的三维信息。
三维信息包括例如全景球面三维信息。在这种情况下,即使用户难以确认拍摄的图像中是否包括用户自己、三脚架等,以及在全景球面三维信息中是否已经获取具有所期望的布局的三维信息,则用户可以从摄像单元11拍摄的二维图像信息容易地确认拍摄的图像中是否包括用户自己、三脚架等,以及是否已经获取具有所期望的布局的三维信息。
关于上述实施方式,摄像装置1(信息处理装置的一例)包括拍摄目标物的图像的摄像单元11、将光投影到目标物上的投影单元12、接收从目标物反射的光的距离信息获取单元13(受光单元的一例),以及指示显示单元20和显示单元520根据基于距离信息获取单元13的输出信息和摄像单元11的输出信息判定的特定对象的有无来输出不同的显示的显示控制单元170。
根据这种构成,用户可以通过区分特定对象与外部光的影响来正确地确认拍摄的图像中是否包括特定对象,诸如用户自己或附近物体(例如,三脚架)。
摄像装置1包括显示单元20。根据这种构成,用户可以正确地确认特定对象是否包括在拍摄的图像中。
也就是说,显示控制单元170指示显示单元20和显示单元520根据特定对象在空间中的位置来设置特定对象的显示位置,这意味着每个特定对象的显示位置根据每个特定对象在空间中的位置而变得不同。根据这种构成,用户可以正确地确认包括在拍摄的图像中的特定对象的位置。
显示单元20包括多个显示单元20A、20a。也就是说,显示控制单元170指示靠近附近物体的显示单元20A或显示单元20a根据特定对象的有无来输出不同的显示。根据这种构成,用户可以正确地确认包括在拍摄的图像中的特定对象的位置。
显示控制单元170指示显示单元20和显示单元520显示由摄像单元11拍摄的图像信息G,并且指示显示单元20和显示单元520通过将识别信息G1和G2叠加在图像信息G上来显示识别特定对象的识别信息G1和G2。根据这种构成,用户可以正确地确认包括在拍摄的图像中的特定对象的位置。
摄像装置1具备判定单元160,其在由距离信息获取单元13接收的光引起的蓄电量饱和并且摄像单元11中的像素的蓄电量不饱和时,判定有特定对象。
根据这种构成,通过将特定对象与外部光的影响区分开,用户可以正确地确认特定对象是否被包括在拍摄的图像中。
另外,上述实施例的每个功能可以通过一个或多个处理电路或电路来实现。处理电路包括编程的处理器,处理器包括电路系统。处理电路还包含专用集成电路(ASIC)、数字信号处理器(DSP)、现场可编程门阵列(FPGA)和布置为执行所述功能的常规电路元件等设备。用于执行上述实施例的程序可以被存储在载体装置或存储介质中。
本专利申请基于并要求2020年3月23日向日本专利局提交的日本专利申请No.2020-050539和2020年3月23日向日本专利局提交的日本专利申请No.2020-050608的优先权,其全部公开内容通过引用合并于此。
附图标记列表
1 摄像装置(信息处理装置的示例/实施例)
10 壳体
11 摄像单元
11a、11A 摄像元件
11b、11B 鱼眼透镜
12 投影单元
12a、12A 光源单元
12b、12B 广角透镜
13 距离信息获取单元(受光单元的示例)
13a、13A TOF传感器
13b、13B 广角透镜
14 处理电路
15 摄像开关
20 显示单元
20A、20a 显示单元
111 另一摄像单元
150 三维重构处理单元(三维信息确定单元的示例)
160 判定单元
170 显示控制单元(输出单元的示例)
180 发送-接收单元(输出单元的示例)
300 外部设备(输出目的地的示例)
500 显示装置(输出目的地的示例)
520 显示单元(输出目的地的示例)
L 同步信号线。

Claims (18)

1.一种信息处理装置(1),用于输出基于接收光来确定的三维信息,该信息处理装置(1)包括:
摄像单元(11),被配置为拍摄二维图像信息,以及
输出单元(170、180),被配置为输出用于显示的所述二维图像信息和与所述二维图像信息的坐标相关联的所述三维信息。
2.根据权利要求1所述的信息处理装置(1),
其中,所述输出单元(170、180)在输出所述三维信息之前输出所述二维图像信息。
3.根据权利要求2所述的信息处理装置(1),
其中,所述输出单元(170、180)在确定所述三维信息之前输出所述二维图像信息。
4.根据权利要求1至3中任一项所述的信息处理装置(1),
其中,所述输出单元(170、180)指示显示单元(20、520)显示所述二维图像信息。
5.根据权利要求4所述的信息处理装置(1),
还包括所述显示单元(20、520)。
6.根据权利要求1至5中任一项所述的信息处理装置(1),
其中,所述输出单元(170、180)被配置为将所述二维图像输出到一个输出目的地,该输出目的地不同于输出所述三维信息的另一输出目的地。
7.根据权利要求1至6中任一项所述的信息处理装置(1),还包括:
投影单元(12),被配置为将光投影到空间;
受光单元(13),被配置为接受从存在于所述空间中的一个或多个物体反射的光,以及
三维信息确定单元(150),被配置为基于来自所述受光单元(13)的输出来确定所述三维信息。
8.根据权利要求7所述的信息处理装置(1),
其中,所述三维信息确定单元(150)基于所述受光单元(13)的输出和所述二维图像信息来确定所述三维信息。
9.根据权利要求8所述的信息处理装置(1),还包括另一摄像单元(111):
其中,所述三维信息确定单元(150)基于所述受光单元(13)的输出、所述二维图像信息以及由所述另一摄像单元(111)拍摄的另一二维图像信息来确定所述三维信息。
10.根据权利要求1至6中任一项所述的信息处理装置(1),还包括:
另一摄像单元(111),以及
三维信息确定单元(150),被配置为基于所述二维图像信息和由所述另一摄像单元(111)拍摄的另一二维图像信息来确定所述三维信息。
11.根据权利要求1至10中任一项所述的信息处理装置(1),
其中,所述三维信息包括全景球面三维信息。
12.根据权利要求1至11中任一项所述的信息处理装置(1),还包括:
投影单元(12),被配置为将光投影到空间;
受光单元(13),被配置为接收从存在于所述空间中的一个或多个物体反射的光,以及
显示控制单元(170),被配置为根据基于所述受光单元(13)的输出信息和所述摄像单元(11)的输出信息确定的特定对象的有无来指示显示单元(20、520、20A、20a)不同地显示。
13.如权利要求12所述的信息处理装置(1),还包括:
所述显示单元(20、520、20A、20a)。
14.如权利要求12或13所述的信息处理装置(1),
其中,所述显示控制单元(170)指示所述显示单元(20、520)根据所述特定对象在空间中的位置来设置所述特定对象的显示位置。
15.根据权利要求12至14中任一项所述的信息处理装置(1),
其中,所述显示控制单元(170)指示所述显示单元(20、520)显示由所述摄像单元(11)拍摄的图像信息,并且指示所述显示单元(20、520)通过将识别信息叠加在所述图像信息上来将识别所述特定对象的所述识别信息显示在所述图像信息上。
16.根据权利要求12至15中任一项所述的信息处理装置(1),还包括:
判定单元(160),被配置为当由所述受光单元(13)接收的光引起的蓄电量饱和并且所述摄像单元(11)的像素的蓄电量不饱和时,确定所述特定对象存在。
17.一种信息处理方法,包括:
拍摄二维图像信息的步骤;
输出用于显示的所述二维图像信息的步骤,以及
输出基于接收光确定并与所述二维图像信息的坐标相关联的三维信息的步骤。
18.根据权利要求17所述的信息处理方法,还包括:
将光投影到空间的步骤;
接受从存在于所述空间中的一个或多个物体反射的光的步骤,以及
根据基于所述接收步骤的输出信息和所述拍摄步骤的输出信息确定的特定对象的有无来输出不同的显示的步骤。
CN202180021368.4A 2020-03-23 2021-02-10 信息处理装置和信息处理方法 Pending CN115280767A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2020050539A JP2021150880A (ja) 2020-03-23 2020-03-23 撮像装置および撮像処理方法
JP2020-050608 2020-03-23
JP2020-050539 2020-03-23
JP2020050608A JP2021150882A (ja) 2020-03-23 2020-03-23 撮像装置および撮像処理方法
PCT/IB2021/051052 WO2021191694A1 (en) 2020-03-23 2021-02-10 Information processing apparatus and method of processing information

Publications (1)

Publication Number Publication Date
CN115280767A true CN115280767A (zh) 2022-11-01

Family

ID=74661420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180021368.4A Pending CN115280767A (zh) 2020-03-23 2021-02-10 信息处理装置和信息处理方法

Country Status (6)

Country Link
US (1) US20230145521A1 (zh)
EP (1) EP4128748A1 (zh)
KR (1) KR102660776B1 (zh)
CN (1) CN115280767A (zh)
CA (1) CA3166988A1 (zh)
WO (1) WO2021191694A1 (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102265599A (zh) * 2009-01-20 2011-11-30 歌乐株式会社 障碍物检测显示装置
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
CN103020952A (zh) * 2011-07-08 2013-04-03 佳能株式会社 信息处理设备和信息处理方法
CN106998413A (zh) * 2015-12-04 2017-08-01 佳能株式会社 图像处理设备、摄像设备和图像处理方法
CN107710015A (zh) * 2015-07-03 2018-02-16 松下知识产权经营株式会社 距离测量装置以及距离图像合成方法
CN108027238A (zh) * 2016-09-01 2018-05-11 索尼半导体解决方案公司 成像装置
US20180139431A1 (en) * 2012-02-24 2018-05-17 Matterport, Inc. Capturing and aligning panoramic image and depth data
CN109791207A (zh) * 2016-10-03 2019-05-21 齐诺马蒂赛股份有限公司 用于确定到对象的距离的系统和方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216167A (ja) 2001-01-12 2002-08-02 Namco Ltd 画像生成システム、プログラム及び情報記憶媒体
US20100238139A1 (en) * 2009-02-15 2010-09-23 Neonode Inc. Optical touch screen systems using wide light beams
JP5423287B2 (ja) 2009-09-29 2014-02-19 リコーイメージング株式会社 撮像装置
US9361283B2 (en) * 2011-11-30 2016-06-07 Google Inc. Method and system for projecting text onto surfaces in geographic imagery
US9542045B2 (en) * 2012-03-14 2017-01-10 Texas Instruments Incorporated Detecting and tracking touch on an illuminated surface using a mean-subtracted image
US9754419B2 (en) 2014-11-16 2017-09-05 Eonite Perception Inc. Systems and methods for augmented reality preparation, processing, and application
JP6922187B2 (ja) 2016-11-08 2021-08-18 株式会社リコー 測距装置、監視カメラ、3次元計測装置、移動体、ロボット及び光源駆動条件設定方法
US10445928B2 (en) * 2017-02-11 2019-10-15 Vayavision Ltd. Method and system for generating multidimensional maps of a scene using a plurality of sensors of various types
JP7133145B2 (ja) 2018-09-26 2022-09-08 日本電気硝子株式会社 シミュレーション方法およびシミュレーションプログラム
JP7158974B2 (ja) 2018-09-27 2022-10-24 小林製薬株式会社 義歯洗浄剤
JP7306089B2 (ja) * 2019-06-17 2023-07-11 株式会社リコー 画像処理システム、撮像システム、画像処理装置、撮像装置およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102265599A (zh) * 2009-01-20 2011-11-30 歌乐株式会社 障碍物检测显示装置
US20120056982A1 (en) * 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
CN103020952A (zh) * 2011-07-08 2013-04-03 佳能株式会社 信息处理设备和信息处理方法
US20180139431A1 (en) * 2012-02-24 2018-05-17 Matterport, Inc. Capturing and aligning panoramic image and depth data
CN107710015A (zh) * 2015-07-03 2018-02-16 松下知识产权经营株式会社 距离测量装置以及距离图像合成方法
CN106998413A (zh) * 2015-12-04 2017-08-01 佳能株式会社 图像处理设备、摄像设备和图像处理方法
CN108027238A (zh) * 2016-09-01 2018-05-11 索尼半导体解决方案公司 成像装置
CN109791207A (zh) * 2016-10-03 2019-05-21 齐诺马蒂赛股份有限公司 用于确定到对象的距离的系统和方法

Also Published As

Publication number Publication date
KR20220133267A (ko) 2022-10-04
WO2021191694A1 (en) 2021-09-30
CA3166988A1 (en) 2021-09-30
KR102660776B1 (ko) 2024-04-24
EP4128748A1 (en) 2023-02-08
US20230145521A1 (en) 2023-05-11

Similar Documents

Publication Publication Date Title
EP1792282B1 (en) A method for automated 3d imaging
US20170374342A1 (en) Laser-enhanced visual simultaneous localization and mapping (slam) for mobile devices
US20110234759A1 (en) 3d modeling apparatus, 3d modeling method, and computer readable medium
WO2013012335A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
KR102472156B1 (ko) 전자 장치 및 그 깊이 정보 생성 방법
JP2022176974A (ja) 撮像装置
CN114341940A (zh) 图像处理装置、三维测量系统、图像处理方法
JP6868167B1 (ja) 撮像装置および撮像処理方法
CN109618085B (zh) 电子设备和移动平台
CN109587304B (zh) 电子设备和移动平台
CN109803089B (zh) 电子设备和移动平台
CN115280767A (zh) 信息处理装置和信息处理方法
JP6868168B1 (ja) 撮像装置および撮像処理方法
WO2022202775A1 (en) Imaging device, imaging method, and information processing device
US20240163549A1 (en) Imaging device, imaging method, and information processing device
JP7120365B1 (ja) 撮像装置、撮像方法および情報処理装置
CN114119696A (zh) 深度图像的获取方法及装置、系统、计算机可读存储介质
JP6966011B1 (ja) 撮像装置、撮像方法および情報処理装置
JP2021150882A (ja) 撮像装置および撮像処理方法
JP2021150880A (ja) 撮像装置および撮像処理方法
CN117121479A (zh) 信息处理装置和信息处理方法
WO2022202536A1 (en) Information processing apparatus and information processing method
JP7006824B1 (ja) 情報処理装置
JP7031771B1 (ja) 撮像装置、撮像方法および情報処理装置
JP7040660B1 (ja) 情報処理装置および情報処理方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination