CN114599999A - 移动量估计装置、移动量估计方法、移动量估计程序以及移动量估计系统 - Google Patents
移动量估计装置、移动量估计方法、移动量估计程序以及移动量估计系统 Download PDFInfo
- Publication number
- CN114599999A CN114599999A CN202080074665.0A CN202080074665A CN114599999A CN 114599999 A CN114599999 A CN 114599999A CN 202080074665 A CN202080074665 A CN 202080074665A CN 114599999 A CN114599999 A CN 114599999A
- Authority
- CN
- China
- Prior art keywords
- image
- camera
- light
- reflected light
- receiving element
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000012545 processing Methods 0.000 claims abstract description 78
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 6
- 238000005259 measurement Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 23
- 230000004048 modification Effects 0.000 description 20
- 238000012986 modification Methods 0.000 description 20
- 238000006243 chemical reaction Methods 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 3
- 238000005096 rolling process Methods 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- CLOMYZFHNHFSIQ-UHFFFAOYSA-N clonixin Chemical compound CC1=C(Cl)C=CC=C1NC1=NC=CC=C1C(O)=O CLOMYZFHNHFSIQ-UHFFFAOYSA-N 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
- G01S17/894—3D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/87—Combinations of systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/93—Lidar systems specially adapted for specific applications for anti-collision purposes
- G01S17/931—Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/70—Circuitry for compensating brightness variation in the scene
- H04N23/74—Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
图像处理ECU(30)具备图像获取部(41)以及图像处理模块(42),作为移动量估计装置发挥作用。图像获取部(41)获取通过受光元件(12a)检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像(ImR)和利用受光元件(12a)检测相对于反射光的背景光的包含亮度信息的背景光图像(ImL)。除此之外图像获取部(41)获取由与受光元件(12a)不同的照相机元件(22a)拍摄到的照相机图像(ImC)。图像处理模块(42)使用在反射光图像(ImR)、背景光图像(ImL)以及照相机图像(ImC)共同地检测到的被摄对象的信息,对估计对象的移动量进行估计。
Description
相关申请的交叉引用
该申请主张于2019年10月28日在日本申请的专利申请第2019-195548号的优先权,并在此引用其全部内容。
技术领域
基于该说明书的公开涉及移动量估计的技术。
背景技术
例如在专利文献1公开了使用LiDAR(Light Detection and Ranging:光探测与测距)作为距离传感器的自身位置估计装置。LiDAR设置于能够自主地移动的移动体,并测量到位于移动体的周围的物体的距离。自身位置估计装置使用由LiDAR检测出的测距信息,估计移动体的移动量,进而估计移动体的自身位置。
专利文献1:日本特开2019-128705号公报。
专利文献1的LiDAR反复输出检测出的测距信息。但是,在每单位时间输出的测距信息的数目有限。因此,若仅使用测距信息来估计移动体的移动量,则由于每单位时间的测距信息的帧数即帧速率的不足,而可能难以确保移动量的估计精度。
发明内容
本公开的目的在于提供能够容易地确保移动量的估计精度的移动量估计装置等。
为了实现上述目的,公开的一个方式是移动量估计装置,具备:图像获取部,获取通过受光元件检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像、由受光元件检测相对于反射光的背景光的包含亮度信息的背景光图像、以及利用与受光元件不同的照相机元件拍摄到的照相机图像;以及估计部,使用在反射光图像、背景光图像以及照相机图像共同地检测到的被摄对象的信息,对估计对象的移动量进行估计。
另外公开的一个方式是移动量估计方法,在由至少一个处理器执行的处理包含:获取通过受光元件检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像、由受光元件检测相对于反射光的背景光的包含亮度信息的背景光图像、以及利用与受光元件不同的照相机元件拍摄到的照相机图像;以及使用在反射光图像、背景光图像以及照相机图像共同地检测到的被摄对象的信息,对估计对象的移动量进行估计。
另外公开的一个方式是移动量估计程序,使至少一个处理器执行包含:获取通过受光元件检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像、由受光元件检测相对于反射光的背景光的包含亮度信息的背景光图像、以及利用与受光元件不同的照相机元件拍摄到的照相机图像;以及使用在反射光图像、背景光图像以及照相机图像共同地检测到的被摄对象的信息,对估计对象的移动量进行估计的处理。
另外公开的一个方式是移动量估计系统,具备:测距装置,生成通过受光元件检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像、以及由受光元件检测相对于反射光的背景光的包含亮度信息的背景光图像;照相机装置,通过与受光元件不同的照相机元件的拍摄生成照相机图像;以及运算装置,使用在反射光图像、背景光图像以及照相机图像共同地检测到的被摄对象的信息,对估计对象的移动量进行估计。
在这些方式中,不仅使用反射光图像,估计对象的移动量的估计也使用背景光图像以及照相机图像。根据以上,与仅根据反射光图像估计移动量的情况相比较,能够以较高的帧速率实施移动量的估计。因此,容易确保移动量的估计精度。
另外,权利要求书等中的括号内的参照编号仅示出与后述的实施方式中的具体的构成的对应关系的一个例子,并不对技术范围进行任何限制。
附图说明
图1是表示本公开的第一实施方式的传感器封装体以及自动驾驶系统的整体情况的图。
图2是表示测距传感器以及外界照相机的向车辆的搭载状态的图。
图3是用于说明在图像处理ECU的图像处理的过程的框图。
图4是表示传感器图像以及照相机图像的拍摄定时的一个例子的图。
图5是示意地表示与移动量估计相关的处理的详细的图。
图6是在图像处理ECU实施的移动量估计处理的流程图。
图7是表示第二实施方式中的传感器图像以及照相机图像的拍摄定时的图。
具体实施方式
以下,基于附图对本公开的多个实施方式进行说明。另外,有时通过对各实施方式中对应的构成要素附加相同的附图标记,省略重复的说明。在各实施方式中仅对构成的一部分进行说明的情况下,该构成的其它的部分能够应用先行说明的其它的实施方式的构成。另外,不仅是在各实施方式的说明中明示的构成的组合,只要组合并不特别产生妨碍,则即使未明示也能够部分地组合多个实施方式的构成彼此。而且,多个实施方式以及变形例所记述的构成彼此的未明示的组合也通过以下的说明公开。
<第一实施方式>
在作为移动体的车辆A中使用图1所示的本公开的第一实施方式的图像处理ECU(Electronic Control Unit:电子控制单元)30。如图1以及图2所示,图像处理ECU30与测距传感器10以及外界照相机20等一起,构成传感器封装体100。这样的传感器封装体100能够与自动驾驶ECU50以及电源装置60等一起,构成自动驾驶系统110。在自动驾驶系统110中,图像处理ECU30以及传感器封装体100综合测距传感器10以及外界照相机20的测定结果,作为估计车辆A的移动量的移动量估计装置以及移动量估计系统发挥作用。
图1以及图3所示的自动驾驶系统110例如是能够进行无驾驶员的车辆A的自主行驶的系统包。在自动驾驶系统110中构成核心的自动驾驶ECU50是包含具备处理器、RAM(Random Access Memory:随机存储器)、存储部、输入输出接口、以及连接它们的总线等的计算机作为主体的高速运算装置。自动驾驶ECU50具备识别判断部51以及路径生成部52,作为用于实现自主行驶的功能部。识别判断部51基于来自传感器封装体100的提供信息,识别车辆A的周围的行驶环境,决定车辆A的下一个动作。路径生成部52基于识别判断部51的决定,生成使车辆A行驶的行驶路径。另外,自动驾驶系统110也可以不是能够提供能够进行无人驾驶的完全的自动驾驶功能,而是能够提供进行驾驶员的驾驶支援的高度驾驶支援功能的系统。
图1~图3所示的传感器封装体100如上述那样包含测距传感器10、外界照相机20以及图像处理ECU30。
作为一个例子,测距传感器10是SPAD(Single Photon Avalanche Diode:单光子雪崩二级管)LiDAR。测距传感器10配置于车辆A的前端部或者车辆A的车顶等。设定为测距传感器10的测定范围MA1包含车辆A的周边中至少前方范围。
测距传感器10是包含发光部11、受光部12以及控制单元13等的构成。发光部11通过使用可动光学部件(例如多面镜)进行扫描,朝向测定范围MA1照射从光源发光的光束。光源例如是半导体激光器(Laser diode),根据来自控制单元13的电信号,脉冲状地照射不能够由乘客以及外界的人视觉确认的可视外区域(例如,近红外域)的光束。
受光部12具有聚光透镜以及受光元件12a。聚光透镜对通过测定范围MA1内的物体进行了反射的光束的反射光、以及相对于反射光的背景光进行聚光,并使其射入受光元件12a。受光元件12a是通过光电转换将光转换为电信号的元件。受光元件12a为了高效地检测光束的反射光,而为相对于可视域较高地设定近红外域的灵敏度的CMOS传感器。可以通过光学滤波器调整受光元件12a的对各波长域的灵敏度。受光元件12a具有在一维方向或者二维方向排列为阵列状的多个受光像素。各个受光像素是使用SPAD的构成,通过雪崩倍增来放大由于光子的射入而产生的电子,从而能够进行高灵敏度的光检测。
控制单元13控制发光部11以及受光部12。控制单元13例如与受光元件12a配置在相同的基板上。控制单元13例如以微控制器或者FPGA(Field-Programmable Gate Array:现场可编程门阵列)等的广义的处理器为主体构成。控制单元13实现扫描控制功能、反射光测定功能以及背景光测定功能。
扫描控制功能是控制基于发光部11的光束的扫描的功能。控制单元13在基于设置于测距传感器10的时钟振荡器的动作时钟的定时,使光束从光源脉冲状地振荡多次。除此之外,控制单元13使可动光学部件与光束的照射同步地动作。
反射光测定功能是根据光束的扫描的定时,读出基于由各个受光像素接收的反射光的电压值并测定反射光的强度的功能。控制单元13根据受光元件12a的输出脉冲中的波峰的产生定时,感知反射光的到来时刻。控制单元13通过测量来自光源的光束的射出时刻与反射光的到来时刻的时间差,来测定光的飞行时间(Time of Flight)。
通过以上的扫描控制功能以及反射光测定功能的协作,生成图像状的数据亦即反射光图像ImR。控制单元13利用滚动快门方式测定反射光,生成反射光图像ImR。详细而言,控制单元13例如与向水平方向的光束的扫描配合地,在与测定范围MA1对应的图像平面上一行一行地或者每次多行地生成在横向排列的像素组的信息。控制单元13将按每一行依次生成的像素信息在纵向合成,生成一个反射光图像ImR。
反射光图像ImR是通过由受光元件12a检测(感知)与从发光部11的光照射对应的反射光得到的包含距离信息的图像数据。在反射光图像ImR的各像素包含有表示光的飞行时间的值。换句话说,表示光的飞行时间的值是表示从测距传感器10到位于测定范围MA1的物体的反射点为止的距离的距离值。除此之外,在反射光图像ImR的各像素还包含有表示反射光的强度的值。即,反射光图像ImR成为表示反射光的亮度分布的图像数据。
背景光测定功能是在马上测定反射光之前的定时,读出基于各受光像素接收的背景光的电压值,测定背景光的强度的功能。这里背景光是指实际不包含反射光的从外界中测定范围MA1射入受光元件12a的射入光。在射入光包含有自然光、从外界的显示等射入的显示光等。控制单元13与反射光图像ImR相同地以滚动快门方式测定背景光,生成背景光图像ImL。背景光图像ImL是表示光照射前的背景光的亮度分布的图像数据,包含通过与反射光图像ImR相同的受光元件12a检测出的背景光的亮度信息。即,在背景光图像ImL中二维状地排列的各像素的值是表示测定范围MA1的对应的位置上的背景光的强度的亮度值。
通过共用的受光元件12a进行感知,并从包含该受光元件12a的共用的光学系统获取反射光图像ImR以及背景光图像ImL。因此,反射光图像ImR的坐标系与背景光图像ImL的坐标系能够视为相互一致的同坐标系。除此之外,在反射光图像ImR与背景光图像ImL之间,几乎没有测定定时的偏移(例如小于1ns)。因此,也能够视为连续地获取的一组的反射光图像ImR和背景光图像ImL也取得同步。除此之外,反射光图像ImR以及背景光图像ImL能够唯一地取得各个像素彼此的对应。反射光图像ImR以及背景光图像ImL与各像素对应地,作为包含反射光的强度、到物体为止的距离、以及背景光的强度三个信道的数据的一体的图像数据,依次输出到图像处理ECU30。另外,在以下的说明中,有时将一组的反射光图像ImR以及背景光图像ImL记载为“传感器图像ImS”。
外界照相机20例如配置于车辆A的前挡风玻璃的车厢内侧。外界照相机20能够测定车辆A的外界中至少前方的测定范围MA2。规定为外界照相机20的测定范围MA2与测距传感器10的测定范围MA1至少重复一部分。
外界照相机20是包含受光部22以及控制单元23的构成。受光部22例如通过受光透镜对从照相机外部的测定范围MA2射入的射入光(背景光)进行聚光,并使其射入照相机元件22a。
照相机元件22a是通过光电转换将光转换为电信号的元件,且为与测距传感器10的受光元件12a不同的构成。照相机元件22a例如能够采用CCD传感器或者CMOS传感器。在照相机元件22a中,为了高效地接收可视域的自然光,相对于近红外域较高地设定可视区域的灵敏度。照相机元件22a具有二维地排列为阵列状的多个受光像素。照相机元件22a的受光像素相当于所谓的子像素。在相互相邻的受光像素例如配置有红色、绿色、蓝色的彩色滤光片。各受光像素接收与配置的彩色滤光片对应的颜色的可见光。照相机元件22a利用各受光像素,分别测定红色的强度、绿色的强度以及蓝色的强度,拍摄照相机图像ImC。照相机图像ImC是可视域的彩色图像,与反射光图像ImR以及背景光图像ImL相比成为高分辨率的图像。
控制单元23控制受光部22。控制单元23例如与照相机元件22a配置于共用的基板上,以微控制器或者FPGA等广义的处理器为主体构成。控制单元23实现拍摄功能。
拍摄功能是拍摄上述的彩色图像的功能。控制单元23在基于设置于外界照相机20的时钟振荡器的动作时钟的定时,读出与射入光量对应的各受光像素的电压值。与测距传感器10的时钟振荡器分开独立地设置该时钟振荡器。控制单元23利用全局快门方式在全部受光像素实质同时实施基于照相机元件22a的背景光的测定,生成图像状的数据亦即照相机图像ImC。
照相机图像ImC是表示通过照相机元件22a感知到的可视区域的背景光的亮度分布的图像。在到此为止进行了说明的各图像中,亮度分布是将对应的光(反射光或者背景光,或者可视外区域光或者可视区域光)的强度分布灰度值化后的分布。即,在照相机图像ImC中二维状地排列的各像素的值成为表示从测定范围MA2射入照相机元件22a的各颜色的射入光的强度的亮度值。这样的照相机图像ImC依次输出到图像处理ECU30。
图像处理ECU30是包含具备处理部31、RAM32、存储部33、输入输出接口34以及连接它们的总线等的运算电路作为主体的电子控制装置。处理部31是与RAM32结合的用于运算处理的硬件。处理部31包含至少一个CPU(Central Processing Unit:中央处理器)、GPU(Graphical Processing Unit:图形处理器)、FPGA等运算核心。处理部31能够构成为进一步包含具备其它的专用功能的IP核心等而成的图像处理芯片。这样的图像处理芯片可以是设计为自动驾驶用途专用的ASIC(Application Specific Integrated Circuit:专用集成电路)。处理部31通过对RAM32的访问,执行用于实现后述的各功能部的功能的各种处理。存储部33是包含非易失性的存储介质的构成。在存储部33储存有通过处理部31执行的各种程序(移动量估计程序等)。
图像处理ECU30对测距传感器10的图像信息以及外界照相机20的图像信息进行处理,生成提供给自动驾驶ECU50的提供信息。在图像处理ECU30生成的提供信息包含有搭载传感器封装体100的车辆A的移动量(以下,称为“自身移动量”)的估计结果。图像处理ECU30为了自身移动量估计,通过处理部31执行存储于存储部33的移动量估计程序,具备图像获取部41、校准部43、距离值获取部44、移动量估计部45以及自身移动量运算部46等功能部。在这些功能部中,校准部43、距离值获取部44、移动量估计部45以及自身移动量运算部46等是执行图像处理的图像处理模块42。
图像获取部41从测距传感器10获取反射光图像ImR以及背景光图像ImL。除此之外图像获取部41从外界照相机20获取照相机图像ImC。在第一实施方式中,设定为反射光图像ImR以及背景光图像ImL的帧速率与照相机图像ImC的帧速率实质相同。另一方面,测距传感器10中的反射光图像ImR以及背景光图像ImL的拍摄定时STs与外界照相机20中的照相机图像ImC的拍摄定时STc不同。因此,反射光图像ImR以及背景光图像ImL的拍摄定时STs与照相机图像ImC的拍摄定时STc交替地到来(参照图4)。其结果,图像获取部41交替地实施反射光图像ImR以及背景光图像ImL的获取、和照相机图像ImC的获取。
这里为了方便,将受光元件12a实施用于生成反射光图像ImR以及背景光图像ImL的检测的检测期间设为帧期间,将该帧期间的开始时刻设为反射光图像ImR以及背景光图像ImL的快门开始时刻Tf。另一方面,将照相机元件22a实施用于拍摄照相机图像ImC的曝光的曝光期间的开始时刻设为照相机图像ImC的快门开始时刻Te。
如上述那样,背景光图像ImL以及反射光图像ImR在实质相同(几乎没有时差)的快门开始时刻Tf(参照图4的时刻T1、T3)开始拍摄。另一方面,照相机图像ImC的快门开始时刻Te(参照图4的时刻T2)相对于背景光图像ImL以及反射光图像ImR的快门开始时刻Tf偏移。
除此之外,设定为受光元件12a中的帧期间的整体相对于照相机元件22a中的曝光期间的整体偏移。即,在受光元件12a的帧期间的结束后,开始照相机元件22a的曝光期间。而且,在该曝光期间的结束后,在受光元件12a开始下一个帧期间。根据以上,图像获取部41按照时刻T1的背景光图像ImL以及反射光图像ImR、时刻T2的照相机图像ImC、时刻T3的背景光图像ImL以及反射光图像ImR···这样的顺序,从测距传感器10以及外界照相机20交替地获取图像数据。
如图4所示,通过表示移动体姿势的旋转系的坐标信息R(roll,pitch,yaw)、和表示移动体位置的平移系的坐标信息t(x,y,z)共计六轴的坐标信息规定车辆A的状态。在从时刻T1到时刻T2的期间,在车辆A产生ΔR1的姿势变化和Δt1的位置变化。同样地,在从时刻T2到时刻T3的期间,在车辆A产生ΔR2的姿势变化和Δt2的位置变化。这样的各时刻间的差分(ΔR1,Δt1)以及(ΔR2,Δt2)相当于在图1以及图3所示的图像处理ECU30估计出的车辆A的移动量。
校准部43设定测距传感器10的内部参数、外界照相机20的内部参数以及测距传感器10以及外界照相机20之间的外部参数。校准部43从存储部33读出预先设定的各参数的值,并设置于RAM32的特定的存储区域。通过移动量估计部45参照在RAM32上准备的内部参数的各值。另一方面,通过自身移动量运算部46参照外部参数的各值。
图3以及图5所示的距离值获取部44参照构成一个传感器图像ImS的反射光图像ImR以及背景光图像ImL,使用这些图像ImR、ImL准备传感器元件信息。详细而言,距离值获取部44获取与背景光图像ImL的各像素位置对应的反射光图像ImR的距离值。距离值获取部44根据在图像上相邻的像素间的亮度值以及距离值的变化的程度(梯度),确定在反射光图像ImR以及背景光图像ImL共同地映有的被摄对象PO。距离值获取部44例如将相当于反射光图像ImR所包含的反射光的强度值在恒定以上的像素的位置的背景光图像ImL上的像素设定为特征点Fpa。距离值获取部44将与被摄对象PO相关的特征点Fpa及其附近的像素的距离值以及亮度值作为传感器元件信息。
移动量估计部45使用在反射光图像ImR以及背景光图像ImL、和照相机图像ImC共同地检测到的被摄对象PO的信息,对估计对象ET的移动量进行估计。具体而言,移动量估计部45在时间上连续的传感器图像ImS和照相机图像ImC之间,追踪与被摄对象PO相关的多个特征点Fpa及其附近,计算被摄对象PO的移动向量。被摄对象PO优选为静止的立体结构物。若被摄对象PO为静止物体,则能够根据图像上的被摄对象PO的移动量,容易地估计车辆A的移动量。
具体而言,移动量估计部45也根据照相机图像ImC确定与传感器图像ImS共用的被摄对象PO,并准备与该被摄对象PO相关的像素的亮度值作为照相机元件信息。并且,移动量估计部45为了实施将传感器图像ImS以及照相机图像ImC视为连续的帧图像的处理,将在距离值获取部44准备的传感器元件信息转换为能够与照相机元件信息直接地进行比较的信息。移动量估计部45也适当地调整传感器图像ImS以及照相机图像ImC间的分辨率之差、可见光域以及近红外域的背景光强度之差(亮度差)等。移动量估计部45将照相机元件信息作为基准,对照相机元件信息的亮度值与传感器元件信息的亮度值进行比较。作为一个例子,移动量估计部45例如使用Lucas-Kanade梯度法等求出使下述的数式(1)的左边最小的ΔR、Δt。
[数1]
C(ΔR,Δt)=||W(I_spad,d_spad)-I_image||^2…数式(1)
在上述的数式(1)中,W是根据ΔR以及Δt和外界照相机20的内部参数决定的转换函数。该转换函数W是对图像进行一般的旋转、平移、以及透视投影(变形)等处理的函数。另外,I_spad是背景光图像ImL的亮度值,d_spad是反射光图像ImR的距离值,I_image是照相机图像ImC的亮度值。移动量估计部45基于上述的数式(1),估计微小时间内的被摄对象PO的旋转移动量ΔR和平移移动量Δt。
自身移动量运算部46进行从在移动量估计部45估计出的移动量ΔR、Δt除去外部参数的运算处理,计算作为估计对象ET的车辆A的旋转移动量ΔR_ego以及平移移动量Δt_ego。具体而言,自身移动量运算部46作为测距传感器10以及外界照相机20之间的外部参数,获取相当于这些构成间的姿势以及位置的各差分(参照图2)的R_cam、t_cam。自身移动量运算部46将移动量ΔR、Δt和外部参数R_cam、t_cam应用于下述的数式(2),计算车辆A的自身移动量ΔR_ego、Δt_ego。自身移动量运算部46将计算出的自身移动量ΔR_ego、Δt_ego依次输出到自动驾驶ECU50。
[数2]
ΔR_ego=R_cam·ΔR
Δt_ego=R_cam·Δt+t_cam…数式(2)
以下基于图6所示的流程图,并参照图1、图3以及图5,对以上的实现自身移动量估计的移动量估计方法的详细进行说明。基于电源装置60的对自动驾驶系统110的各构成的电力供给实施,通过结束了初始的启动处理等的图像处理ECU30开始图6所示的移动量估计处理。
在S101中,从存储部33读出与测距传感器10以及外界照相机20相关的内部参数以及外部参数,将各参数的值设定在RAM32的能够参照的区域,并进入S102。在S102中,实施从测距传感器10以及外界照相机20的一方获取图像数据的处理,并进入S103。在S102中,从测距传感器10获取实质在同时刻拍摄到的反射光图像ImR以及背景光图像ImL,或者从外界照相机20获取照相机图像ImC。
在S103中,判定在S102获取的图像是否是测距传感器10的传感器图像ImS。在S103中,判定为从外界照相机20获取了照相机图像ImC的情况下,进入S105。另一方面,在S103中,判定为从测距传感器10获取了传感器图像ImS的情况下,进入S104。
在S104中,进行在同一坐标系生成的反射光图像ImR以及背景光图像ImL的匹配处理,获取与背景光图像ImL的各像素位置对应的反射光图像ImR的距离值。并且在S104中,准备包含与被摄对象PO相关的特征点Fpa等的距离值以及亮度值的传感器元件信息,并进入S105。
在S105中,实施使用背景光图像ImL以及反射光图像ImR准备的传感器元件信息、和使用照相机图像ImC准备的照相机像素信息的比较。在紧前面的S102中获取了照相机图像ImC的情况下,读出在上一次的S104准备的传感器元件信息,与根据这次的照相机图像ImC准备的照相机元件信息进行比较。另一方面,在紧前面的S102,获取了传感器图像ImS的情况下,将在紧前面的S104准备的传感器元件信息与基于在上一次的S102获取的最新的照相机图像ImC的照相机元件信息进行比较。在S105中,通过将照相机元件信息作为基准,对基于上述的数式(1)的各元件信息的亮度值进行比较的处理,估计移动量ΔR、Δt,并进入S106。
在S106中,基于上述的数式(2),实施从在S105估计出的移动量除去外部参数的处理,运算车辆A的自身移动量ΔR_ego、Δt_ego。将在S107中估计出的最新的自身移动量输出到外部的自动驾驶ECU50等,并进入S107。
在S107中,判定自动驾驶系统110是否移至关闭状态。在S107中,判定为系统的工作继续的情况下,返回到S102,继续自己移动的估计。另一方面,在S107中,判定为系统移至关闭状态的情况下,进入S108。然后,在S108中,执行传感器封装体100的结束处理,结束一系列的移动量估计处理。
在到此为止进行了说明的第一实施方式中,不仅是反射光图像ImR,估计对象ET的移动量的估计也使用背景光图像ImL以及照相机图像ImC。根据以上,与仅根据反射光图像ImR估计移动量的情况相比较,能够以较高的帧速率实施移动量的估计。因此,容易确保移动量的估计精度。
除此之外在第一实施方式中,不仅是基于反射光图像ImR的距离值的被摄对象PO的形状信息,移动量估计也使用基于背景光图像ImL以及照相机图像ImC的亮度值的被摄对象PO的纹理信息。根据以上,即使在各测定范围MA1、MA2静止的立体结构物较少的场景下,图像处理ECU30也能够精度良好地估计估计对象ET的移动量。
另外在第一实施方式中,搭载受光元件12a以及照相机元件22a的车辆A为估计对象ET,自身移动量运算部46估计车辆A的自身移动量。如上述那样,根据传感器图像ImS以及照相机图像ImC的组合所带来的帧速率的提高,即使估计对象ET为车辆A,也容易对其自身移动量确保较高的估计精度。
并且在第一实施方式中,生成反射光图像ImR以及背景光图像ImL的快门开始时刻Tf相对于照相机图像ImC的快门开始时刻Te偏移。因此,在时间上连续的传感器图像ImS和照相机图像ImC成为在估计对象ET的位置彼此不同的状态下获取的图像。根据以上,能够更可靠地发挥提高了帧速率所带来的移动量的估计精度的提高效果。
除此之外在第一实施方式中,受光元件12a中的帧期间的整体相对于照相机元件22a中的曝光期间的整体偏移。如以上那样,若使帧期间与曝光期间较大地偏移,使这些期间不重复,则图像处理ECU30对图像的获取间隔变得稳定。其结果,估计出的移动量的精度也抑制变动,容易稳定地维持为较高的状态。
另外在第一实施方式中,对使用传感器图像ImS准备的被摄对象PO相关的传感器元件信息、和使用照相机图像ImC准备的被摄对象PO相关的照相机元件信息进行比较。如以上那样,通过并不对各图像数据整体的像素的值进行比较,而进行限制于与被摄对象PO相关的像素的比较,图像处理模块42能够高速地进行移动量的估计。
并且在第一实施方式中,通过转换函数W的应用,传感器元件信息转换为能够与照相机元件信息进行比较的信息。然后,移动量估计部45将照相机元件信息作为基准,对传感器元件信息所包含的亮度值和照相机元件信息所包含的亮度值进行比较,估计移动量。如以上那样,用于估计移动量的图像间的差分运算主要使用在各图像ImS、ImC共同地包含的亮度值。换句话说,不实施根据照相机元件信息,生成用于与传感器元件信息的距离值进行比较的值的处理。其结果为,能够降低移动量的估计处理所需要的运算负荷。
除此之外,在第一实施方式中,传感器图像ImS中的被摄对象PO以及特征点Fpa的确定不仅利用背景光图像ImL的亮度值,还利用反射光图像ImR的距离值。根据以上,即使传感器图像ImS相对于照相机图像ImC相对地低分辨率,也能够在传感器图像ImS精度良好地设定作为亮度值的比较对象的图像中的像素的位置。其结果,也容易确保利用梯度法估计出的移动量ΔR、Δt的精度。
另外,在第一实施方式中,测距传感器10相当于“测距装置”,外界照相机20相当于“照相机装置”,图像处理ECU30相当于“运算装置”以及“移动量估计装置”。另外,处理部31相当于“处理器”,图像处理模块42相当于“估计部”,车辆A相当于“移动体”,传感器封装体100相当于“移动量估计系统”。
<第二实施方式>
在图7所示的第二实施方式中,外界照相机20中的照相机图像ImC的拍摄周期与测距传感器10中的传感器图像ImS的拍摄周期不同。具体而言,设定为照相机图像ImC的帧速率比传感器图像ImS的帧速率高。作为一个例子,在第二实施方式中,照相机图像ImC的帧速率为传感器图像ImS的三倍左右。而且,在传感器图像ImS的拍摄定时STs亦即时刻T1、T5的期间,产生三次照相机图像ImC的拍摄定时STc(参照时刻T2、T3、T4)。如图3以及图7所示,图像获取部41从测距传感器10以及外界照相机20依次获取时刻T1的传感器图像ImS、时刻T2~T4的各照相机图像ImC、时刻T5的传感器图像ImS。
图像处理模块42除了组合了传感器图像ImS以及照相机图像ImC的移动量估计之外,还实施使用在时间上连续的多个照相机图像ImC的移动量估计。具体而言,图像处理模块42在时刻T2~T4等获取了照相机图像ImC时,将各时刻的照相机图像ImC与最新(时刻T1)的传感器图像ImS组合,实施移动量估计。除此之外图像处理模块42在时刻T3、T4,将各时刻的最新的照相机图像ImC与前一个帧的照相机图像ImC(时刻T2、T3)组合,实施移动量估计。
并且图像处理模块42在获取了传感器图像ImS时,能够进行与多个照相机图像ImC独立地进行对比的处理,来估计移动量。具体而言,图像处理模块42若获取时刻T5的传感器图像ImS,则除了时刻T4的照相机图像ImC之外,还将该传感器图像ImS与时刻T3的照相机图像ImC进行比较。图像处理模块42对多个比较结果进行综合,来估计移动量。
在到此为止进行了说明的第二实施方式中,也实现与第一实施方式相同的效果,通过较高的帧速率的移动量估计,能够实现估计精度的确保。除此之外在第二实施方式中,在视为由照相机图像ImC以及传感器图像ImS构成多个帧的情况下,不仅实施在时间上相邻的帧间的亮度值比较,也实施跳过一个帧间的亮度值比较。根据这样的处理的采用,更容易确保移动量的估计精度。
<其它的实施方式>
以上,对本公开的多个实施方式进行了说明,但本公开并不限定于上述实施方式进行解释,能够在不脱离本公开的主旨的范围内应用于各种实施方式以及组合。
在上述实施方式的变形例1中,设定为测距传感器10的帧速率比外界照相机20的帧速率高。另外在变形例2中,使测距传感器10以及外界照相机20的帧速率可变。如以上的变形例1、2那样,可以适当地变更测距传感器10以及外界照相机20的帧速率。
除此之外,传感器图像ImS的快门开始时刻Tf与照相机图像ImC的快门开始时刻Te也可以并不在全部的拍摄定时STs、STc完全偏移。换句话说,也可以在测距传感器10以及外界照相机20的帧速率相互不同的状态下,在特定的定时,使相互的快门开始时刻Tf、Te偶发地一致。变形例3的图像处理模块42具有把握各图像ImS、ImC的快门开始时刻Tf、Te,在相互的开始时刻Tf、Te实质相同的情况下,中止这些图像间的亮度值比较的功能。
这里,帧期间的整体与曝光期间的整体在前后偏移,并且,帧期间以及曝光期间的一方的结束时刻与另一方的开始时刻接近的传感器图像ImS以及照相机图像ImC成为适合移动量估计的图像组。图像处理模块42在帧速率相互不同的情况下,也可以选择与上述的条件一致的图像组,实施移动量估计。
在上述实施方式的变形例4中,测距传感器10以及外界照相机20固定于静止结构物。图像处理模块42将在传感器图像ImS以及照相机图像ImC共同地检测到的被摄对象PO作为估计对象ET,估计该被摄对象PO的移动量。如以上的变形例4那样,估计对象ET并不限定于车辆A等自身的移动体。并且,测距传感器10以及外界照相机20也可以设置于不移动的结构物。
变形例5的图像处理模块42正确地把握测距传感器10的快门开始时刻Tf以及帧期间、和外界照相机20的快门开始时刻Te以及曝光期间。图像处理模块42在估计出自身的平移移动量Δt_ego之后,使用快门开始时刻Tf、Te间的差分时间,运算作为移动体的车辆A的移动速度。即,图像处理模块42也可以除了移动量估计功能之外,还具备移动速度估计功能。另外,在不具备移动速度的运算功能的情况下,图像处理模块42也可以不正确地把握各快门开始时刻Tf、Te的对应关系。
变形例6的图像处理模块42实施对从特定的基准点(例如移动开始地点)起的移动量进行累计,估计车辆A的当前位置的运算。即,图像处理模块42也可以除了移动量估计功能之外,还具备位置估计功能。
在上述实施方式中,组合实质在相同时刻拍摄到的反射光图像ImR以及背景光图像ImL的像素信息,生成包含距离值以及亮度值的传感器元件信息。然后,通过利用转换函数W对这样的传感器元件信息进行转换,并与照相机素信息进行比较的处理,实施移动量的估计。
与此相对,在上述实施方式的变形例7的图像处理模块42中,独立地实施反射光图像ImR以及照相机图像ImC的比较、和背景光图像ImL以及照相机图像ImC的比较。然后,图像处理模块42通过对各个比较结果进行综合,来估计移动量。这样,可以适当地变更使用反射光图像ImR、背景光图像ImL以及照相机图像ImC的移动量估计的具体的处理工序。除此之外,反射光图像ImR以及背景光图像ImL也可以不是实际在相同时刻拍摄到的图像。并且,也可以对照相机图像ImC的亮度值实施应用转换函数等的数据处理,以能够与反射光图像ImR的距离值进行比较。即,也可以实施以传感器图像ImS为基准的移动量估计处理。
在上述实施方式的变形例8中,测距传感器10以及外界照相机20构成作为一体型的传感器单元。另外在变形例9中,使传感器单元与图像处理ECU30为一体型,构成传感器封装体单元。并且,在变形例10中,在一个综合控制ECU集中安装图像处理ECU30以及自动驾驶ECU50的各功能。另外在变形例11中,通过设置在网络上的计算机执行图像处理ECU30的移动量估计相关的处理的至少一部分。在这样的变形例11中,移动量估计的结果通过网络提供给车辆A的自动驾驶ECU50。
在上述实施方式的变形例12中,多个测距传感器10或者多个外界照相机20将图像数据依次输出到图像处理ECU30。图像处理ECU30能够从获取的图像数据中,适当地组合包含共用的被摄对象PO的图像,并实施移动量估计。若如这样的变形例12那样,能够通过移动检测同一被摄对象PO,则各测定范围也可以并不一定重叠。另外,测距传感器10以及外界照相机20的各测定范围并不限定于车辆A的前方范围,也可以是侧方范围、后方范围。
变形例13的测距传感器10是不具备多面镜等可动光学部件的非扫描侧的光达装置。并且,也可以利用全局快门方式拍摄反射光图像ImR以及背景光图像ImL。另外,通过变形例14的外界照相机20输出的照相机图像ImC不是彩色图像,而是灰度图像。也可以利用滚动快门方式拍摄这样的照相机图像ImC。在变形例15的图像处理ECU30,除了测距传感器10以及外界照相机20之外,例如还电连接有雷达装置以及声呐装置等自主传感器。图像处理ECU30能够进一步组合各装置的检测信息,估计自身移动量等。
在上述实施方式中,也能够通过软件以及执行该软件的硬件,仅软件,仅硬件,或者它们的复合的组合提供通过图像处理ECU30提供的各功能。并且,在通过作为硬件的电子电路提供这样的功能的情况下,也能够通过包含许多的逻辑电路的数字电路,或者模拟电路提供各功能。
并且,也可以适当地变更存储能够实现上述的移动量估计方法的移动量估计程序等的存储介质(持续性有形计算机读取介质,non-transitory tangible storage medium)的形态。例如存储介质并不限定于设置在电路基板上的构成,也可以是以存储卡等形态提供,插入到插口部,并与图像处理ECU30的控制电路电连接的构成。并且,存储介质也可以是成为图像处理ECU30的程序的复印源的光盘以及硬盘。
也可以通过构成被编程为执行通过计算机程序具体化的一个或者多个功能的处理器的专用计算机实现本公开所记载的控制部及其方法。或者,也可以通过专用硬件逻辑电路实现本公开所记载的装置及其方法。或者,也可以通过由执行计算机程序的处理器与一个以上的硬件逻辑电路的组合构成的一个以上的专用计算机实现本公开所记载的装置及其方法。另外,计算机程序也可以作为通过计算机执行的指令,存储于计算机能够读取的非迁移有形记录介质。
Claims (11)
1.一种移动量估计装置,其中,具备:
图像获取部(41),获取通过由受光元件(12a)检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像(ImR)、由上述受光元件检测相对于上述反射光的背景光的包含亮度信息的背景光图像(ImL)以及由与上述受光元件不同的照相机元件(22a)拍摄到的照相机图像(ImC);以及
估计部(42),使用在上述反射光图像、上述背景光图像以及上述照相机图像共同地检测到的被摄对象(PO)的信息,对估计对象(ET)的移动量进行估计。
2.根据权利要求1所述的移动量估计装置,其中,
上述估计部将设置了上述受光元件以及上述照相机元件的移动体(A)作为上述估计对象,来估计该移动体的移动量。
3.根据权利要求1或者2所述的移动量估计装置,其中,
在上述受光元件实施用于生成上述反射光图像以及上述背景光图像的检测的检测期间的开始时刻(Tf)相对于在上述照相机元件实施用于拍摄上述照相机图像的曝光的曝光期间的开始时刻(Te)偏移。
4.根据权利要求3所述的移动量估计装置,其中,
上述受光元件中的上述检测期间的整体相对于上述照相机元件中的上述曝光期间的整体偏移。
5.根据权利要求1~4中任意一项所述的移动量估计装置,其中,
上述估计部通过使用上述反射光图像以及上述背景光图像准备的与上述被摄对象相关的传感器元件信息与使用上述照相机图像准备的与上述被摄对象相关的照相机元件信息的比较,来估计上述被摄对象的移动量。
6.根据权利要求5所述的移动量估计装置,其中,
上述估计部通过上述传感器元件信息所包含的亮度值与上述照相机元件信息所包含的亮度值的比较,来估计上述被摄对象的移动量。
7.根据权利要求1~6中任意一项所述的移动量估计装置,其中,
在上述被摄对象的信息包含有与上述被摄对象相关的多个特征点(Fpa)的信息。
8.根据权利要求7所述的移动量估计装置,其中,
上述估计部通过多个上述特征点的追踪来计算上述被摄对象的移动向量,并根据图像上的上述被摄对象的移动量来估计上述估计对象的移动量。
9.一种移动量估计方法,其中,
在由至少一个处理器(31)执行的处理包含:
获取通过由受光元件(12a)检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像(ImR)、由上述受光元件检测相对于上述反射光的背景光的包含亮度信息的背景光图像(ImL)、以及由与上述受光元件不同的照相机元件(22a)拍摄到的照相机图像(ImC)(S102);以及
使用在上述反射光图像、上述背景光图像以及上述照相机图像共同地检测到的被摄对象(PO)的信息,对估计对象(ET)的移动量进行估计(S105、S106)。
10.一种移动量估计程序,其中,
该移动量估计程序使至少一个处理器(31)执行如下处理:
获取通过由受光元件(12a)检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像(ImR)、由上述受光元件检测相对于上述反射光的背景光的包含亮度信息的背景光图像(ImL)、以及由与上述受光元件不同的照相机元件(22a)拍摄到的照相机图像(ImC)(S102);以及
使用在上述反射光图像、上述背景光图像以及上述照相机图像共同地检测到的被摄对象(PO)的信息,对估计对象(ET)的移动量进行估计(S105、S106)。
11.一种移动量估计系统,其中,具备:
测距装置(10),生成通过由受光元件(12a)检测通过光照射而从物体反射的反射光得到的包含距离信息的反射光图像(ImR)、以及由上述受光元件检测相对于上述反射光的背景光的包含亮度信息的背景光图像(ImL);
照相机装置(20),通过与上述受光元件不同的照相机元件(22a)的拍摄生成照相机图像(ImC);以及
运算装置(30),使用在上述反射光图像、上述背景光图像以及上述照相机图像共同地检测到的被摄对象(PO)的信息,对估计对象(ET)的移动量进行估计。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019195548A JP7147729B2 (ja) | 2019-10-28 | 2019-10-28 | 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム |
JP2019-195548 | 2019-10-28 | ||
PCT/JP2020/033068 WO2021084891A1 (ja) | 2019-10-28 | 2020-09-01 | 移動量推定装置、移動量推定方法、移動量推定プログラム、及び移動量推定システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114599999A true CN114599999A (zh) | 2022-06-07 |
Family
ID=75637111
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202080074665.0A Pending CN114599999A (zh) | 2019-10-28 | 2020-09-01 | 移动量估计装置、移动量估计方法、移动量估计程序以及移动量估计系统 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220244394A1 (zh) |
JP (1) | JP7147729B2 (zh) |
CN (1) | CN114599999A (zh) |
WO (1) | WO2021084891A1 (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113589320B (zh) * | 2021-07-12 | 2023-12-08 | 中国科学院西安光学精密机械研究所 | 一种非扫描式单次三维激光雷达成像方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1940711A (zh) * | 2005-09-27 | 2007-04-04 | 欧姆龙株式会社 | 前方摄影装置 |
CN107204012A (zh) * | 2016-03-16 | 2017-09-26 | 美国亚德诺半导体公司 | 降低飞行时间深度成像的功耗 |
CN108319976A (zh) * | 2018-01-25 | 2018-07-24 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN108919294A (zh) * | 2013-11-20 | 2018-11-30 | 松下知识产权经营株式会社 | 测距摄像系统以及固体摄像元件 |
WO2019026438A1 (ja) * | 2017-08-03 | 2019-02-07 | 株式会社小糸製作所 | 車両用照明システム、車両システム及び車両 |
CN110058263A (zh) * | 2019-04-16 | 2019-07-26 | 广州大学 | 一种车辆行驶过程中的物体定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU5646299A (en) * | 1999-09-08 | 2001-04-10 | 3Dv Systems Ltd. | 3d imaging system |
-
2019
- 2019-10-28 JP JP2019195548A patent/JP7147729B2/ja active Active
-
2020
- 2020-09-01 CN CN202080074665.0A patent/CN114599999A/zh active Pending
- 2020-09-01 WO PCT/JP2020/033068 patent/WO2021084891A1/ja active Application Filing
-
2022
- 2022-04-25 US US17/660,584 patent/US20220244394A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1940711A (zh) * | 2005-09-27 | 2007-04-04 | 欧姆龙株式会社 | 前方摄影装置 |
CN108919294A (zh) * | 2013-11-20 | 2018-11-30 | 松下知识产权经营株式会社 | 测距摄像系统以及固体摄像元件 |
CN107204012A (zh) * | 2016-03-16 | 2017-09-26 | 美国亚德诺半导体公司 | 降低飞行时间深度成像的功耗 |
WO2019026438A1 (ja) * | 2017-08-03 | 2019-02-07 | 株式会社小糸製作所 | 車両用照明システム、車両システム及び車両 |
CN108319976A (zh) * | 2018-01-25 | 2018-07-24 | 北京三快在线科技有限公司 | 建图方法及装置 |
CN110058263A (zh) * | 2019-04-16 | 2019-07-26 | 广州大学 | 一种车辆行驶过程中的物体定位方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2021067649A (ja) | 2021-04-30 |
WO2021084891A1 (ja) | 2021-05-06 |
US20220244394A1 (en) | 2022-08-04 |
JP7147729B2 (ja) | 2022-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110023785B (zh) | 距离测定装置 | |
JP5448617B2 (ja) | 距離推定装置、距離推定方法、プログラム、集積回路およびカメラ | |
US20180308282A1 (en) | Shape measuring apparatus and method | |
US9807369B2 (en) | 3D imaging apparatus | |
US20190007592A1 (en) | Imaging device and solid-state imaging element used in same | |
US11662443B2 (en) | Method and apparatus for determining malfunction, and sensor system | |
KR102559910B1 (ko) | 차량 주변 환경을 특성화하기 위한 시스템 | |
EP2717069B1 (en) | Method for determining and/or compensating range offset of a range sensor | |
JP2010175435A (ja) | 三次元情報検出装置及び三次元情報検出方法 | |
WO2020066236A1 (ja) | 奥行取得装置、奥行取得方法およびプログラム | |
US20240183963A1 (en) | 3d vision system with automatically calibrated stereo vision sensors and lidar sensor | |
US20220321871A1 (en) | Distance measurement device, moving device, distance measurement method, control method for moving device, and storage medium | |
CN112740065B (zh) | 成像装置、用于成像的方法和用于深度映射的方法 | |
US20220244394A1 (en) | Movement amount estimation device, movement amount estimation method, movement amount estimation program, and movement amount estimation system | |
JP7259660B2 (ja) | イメージレジストレーション装置、画像生成システム及びイメージレジストレーションプログラム | |
US20230078063A1 (en) | Distance measurement device and distance measurement system | |
WO2023286542A1 (ja) | 物体検知装置および物体検知方法 | |
US20230003894A1 (en) | Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method | |
JP6379646B2 (ja) | 情報処理装置、測定方法及びプログラム | |
JP7140091B2 (ja) | 画像処理装置、画像処理方法、画像処理プログラム、及び画像処理システム | |
US20240083346A1 (en) | Gating camera, vehicle sensing system, and vehicle lamp | |
US20230003895A1 (en) | Method and apparatus for controlling distance measurement apparatus | |
JP2014021100A (ja) | 3次元情報検出装置および3次元情報検出方法 | |
WO2023047928A1 (ja) | 制御装置、制御方法、制御プログラム | |
CN118339475A (zh) | 异常判定装置、异常判定方法、以及异常判定程序 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |