CN108076263B - 摄像装置及自动控制系统 - Google Patents
摄像装置及自动控制系统 Download PDFInfo
- Publication number
- CN108076263B CN108076263B CN201710740371.7A CN201710740371A CN108076263B CN 108076263 B CN108076263 B CN 108076263B CN 201710740371 A CN201710740371 A CN 201710740371A CN 108076263 B CN108076263 B CN 108076263B
- Authority
- CN
- China
- Prior art keywords
- filter
- region
- image
- light
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/09—Beam shaping, e.g. changing the cross-sectional area, not otherwise provided for
- G02B27/0938—Using specific optical elements
- G02B27/095—Refractive optical elements
- G02B27/0955—Lenses
- G02B27/0961—Lens arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/571—Depth or shape recovery from multiple images from focus
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/201—Filters in the form of arrays
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B5/00—Optical elements other than lenses
- G02B5/20—Filters
- G02B5/22—Absorbing filters
- G02B5/23—Photochromic filters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/55—Optical parts specially adapted for electronic image sensors; Mounting thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N25/00—Circuitry of solid-state image sensors [SSIS]; Control thereof
- H04N25/10—Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
- H04N25/11—Arrangement of colour filter arrays [CFA]; Filter mosaics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Studio Devices (AREA)
- Measurement Of Optical Distance (AREA)
- Focusing (AREA)
- Blocking Light For Cameras (AREA)
- Automatic Focus Adjustment (AREA)
- Color Television Image Signal Generators (AREA)
Abstract
本发明的实施方式涉及一种摄像装置及自动控制系统。实施方式的摄像装置具备:滤光片,其使为拍摄被摄体而入射的光透过;以及影像传感器,其接收透过了所述滤光片的光而生成影像。所述滤光片包含第1滤光区域、第2滤光区域、第3滤光区域及第4滤光区域。所述第1滤光区域使所述入射的光中的第1波长区域的光透过,使波长不同于所述第1波长区域的第2波长区域的光不透过。所述第2滤光区域使所述第1波长区域的光不透过,使所述第2波长区域的光透过。所述第3滤光区域使所述第1波长区域的光不透过,且使所述第2波长区域的光不透过。所述第4滤光区域使所述第1波长区域的光透过,且使所述第2波长区域的光透过。
Description
本申请以日本专利申请2016-220635(申请日期:2016年11月11日)为基础,自该申请享受优先权。本申请通过参考该申请而包含该申请的全部内容。
技术领域
本发明的实施方式涉及一种摄像装置及自动控制系统。
背景技术
通常,已知有根据由摄像装置(摄像机)拍摄到的被摄体的影像(以下,记作拍摄影像)来获取表示该摄像装置到被摄体的距离的距离信息的技术。
作为这种技术的一例,已知有例如通过利用被称为立体摄像机的2个摄像机从不同方向拍摄被摄体(对象物)来算出到该被摄体的距离的情况。
然而,上述立体摄像机必须以规定间隔设置2个摄像机,因此难以小型化。
此外,根据拍摄影像来获取距离信息的技术除了立体摄像机以外还存在各种技术,但在小型且低成本的摄像装置中高精度地获取距离信息的技术还没有建立起来。
发明内容
本发明要解决的问题在于提供一种小型且低成本、能够高精度地获取距离信息的摄像装置及自动控制系统。
实施方式的摄像装置具备:滤光片,其使为拍摄被摄体而入射的光透过;以及影像传感器,其接收透过所述滤光片之后的光而生成影像。所述滤光片包含第1滤光区域、第2滤光区域、第3滤光区域及第4滤光区域。所述第1滤光区域使所述入射的光中的第1波长区域的光透过,使波长不同于所述第1波长区域的第2波长区域的光不透过。所述第2滤光区域使所述第1波长区域的光不透过,使所述第2波长区域的光透过。所述第3滤光区域使所述第1波长区域的光不透过,且使所述第2波长区域的光不透过。所述第4滤光区域使所述第1波长区域的光透过,且使所述第2波长区域的光透过。
附图说明
图1为表示第1实施方式的摄像装置的硬件构成的一例的框图。
图2为用以说明设置在摄像装置的开口部的滤光片的一例的图。
图3为表示第1滤光区域~第3滤光区域的透过率特性的一例的图。
图4为表示摄像装置的功能构成的一例的图。
图5为表示摄像装置的处理步骤的一例的流程图。
图6为用以概念性地说明由第1传感器生成的R影像的图。
图7为用以概念性地说明由第3传感器生成的B影像的图。
图8为表示R影像的散景形状的大小的变化的图。
图9为表示G影像的散景形状的大小的变化的图。
图10为表示B影像的散景形状的大小的变化的图。
图11为用以说明对R影像的散景形状运用修正滤波器的情况的图。
图12为展示表示R影像的散景形状的点扩散函数以及表示G影像的散景形状的点扩散函数的一例的图。
图13为表示对应于距离d1的修正滤波器的一例的图。
图14为表示对应于距离d2的修正滤波器的一例的图。
图15为表示对应于距离d3的修正滤波器的一例的图。
图16为用以说明对B影像的散景形状运用修正滤波器的情况的图。
图17为表示第1滤光区域~第4滤光区域的另一配置例的图。
图18为表示第1滤光区域~第4滤光区域的又一配置例的图。
图19为表示第1滤光区域~第4滤光区域的又一配置例的图。
图20为表示运用于监视系统的摄像装置的一例的图。
图21为表示监视系统的功能构成的一例的框图。
图22为用以说明被摄体的追踪时的三维信息的活用例的图。
图23为表示控制汽车的动作的自动控制系统的功能构成的一例的框图。
图24为表示汽车上所设置的摄像装置的一例的图。
图25为表示控制机器人的动作的自动控制系统的功能构成的一例的图。
图26为表示控制自动门的动作的自动控制系统的功能构成的一例的框图。
图27为表示自动门系统的动作例的图。
图28为表示自动门系统的动作例的图。
图29为用以说明设置在第2实施方式的摄像装置的开口部的滤光片的一例的图。
图30为概念性地说明由第1传感器生成的R影像的图。
图31为概念性地说明由第3传感器生成的B影像的图。
图32为表示第1滤光区域~第4滤光区域的另一配置例的图。
图33为表示第1滤光区域~第4滤光区域的又一配置例的图。
(符号说明)
10滤光片、11第1滤光区域、12第2滤光区域、13第3滤光区域、14第4滤光区域、20透镜、30影像传感器、40 CPU、50非易失性存储器、60主存储器、70通信I/F、80显示器、90存储卡槽、100摄像装置、110影像处理部、111输入部、112距离算出部、113影像生成部。
具体实施方式
下面,参考附图,对各实施方式进行说明。
(第1实施方式)
首先,对第1实施方式进行说明。图1为表示本实施方式的摄像装置的硬件构成的一例的框图。本实施方式的摄像装置例如能够以摄像机、具有摄像功能的手机、智能手机及PDA(Personal Digital Assistant,Personal Data Assistant)这样的便携信息终端、具有摄像功能的个人计算机、或者各种电子设备中内置的嵌入式系统的形式加以实现。
如图1所示,摄像装置100具备滤光片10、透镜20、影像传感器30、影像处理部及存储部。影像处理部例如由CPU 40等电路构成。存储部例如由非易失性存储器50及主存储器60构成。摄像装置100也可还具备通信I/F 70、显示器80及存储卡槽90等。例如,影像传感器30、CPU 40、非易失性存储器50、主存储器60、通信I/F 70、显示器80及存储卡槽90能够经由总线而相互连接。
滤光片10例如设置在摄像装置100的开口部,透过图1中以箭头表示的、为拍摄被摄体而入射的光(经被摄体反射后的光)。
在滤光片10设置在摄像装置100的开口部的情况下,透镜20以聚光的方式使透过了该滤光片10的光透过。
透过了滤光片10及透镜20的光到达至影像传感器30,被影像传感器30接收。影像传感器30通过将接收到的光转换(光电转换)为电信号来生成影像。在以下的说明中,为方便起见,将由影像传感器30生成的影像称为拍摄影像。
再者,影像传感器30例如是通过CCD(Charge Coupled Device)影像传感器及CMOS(Complementary Metal Oxide Semiconductor)影像传感器等来实现。影像传感器30例如具有检测红色(R)波长区域的光的传感器(R传感器)、检测绿色(G)波长区域的光的传感器(G传感器)以及检测蓝色(B)波长区域的光的传感器(B传感器),通过各传感器来接收对应的波长区域的光,生成对应于各波长区域(色彩分量)的影像(R影像、G影像及B影像)。即,上述拍摄影像中包含R影像、G影像及B影像。
再者,图1中是对滤光片10设置在摄像装置100的开口部的情况进行的说明,但该滤光片10也可设置在透镜20的内部,也可设置在透镜20与影像传感器30之间。即,滤光片10只要设置在影像传感器30能够接收透过滤光片10之后的光而生成影像的位置即可。
CPU 40是统括性地控制摄像装置100的动作的硬件处理器。具体而言,CPU 40执行从非易失性存储器50加载至主存储器60的各种程序(软件)。再者,作为非易失性存储器50,例如可以使用HDD(Hard Disk Drive)及NAND型闪存等可重写存储装置。此外,作为主存储器60,例如使用RAM(Random Access Memory)等。
通信I/F 70例如是控制与外部设备的通信等的接口。显示器80包括液晶显示器及触摸屏显示器等。存储卡槽90例如构成为能够插入SD存储卡及SDHC存储卡等移动式存储介质来加以利用。在存储卡槽90中插入有存储介质的情况下,能够执行对该存储介质的数据的写入及读出。数据例如为影像数据、后文叙述的距离信息。
再者,图1中,是利用滤光片10、透镜20、影像传感器30、CPU 40、非易失性存储器50、主存储器60、通信I/F 70、显示器80及存储卡槽90均配备在摄像装置100内的情况来进行的说明,但在本实施方式中,例如也可为除滤光片10、透镜20及影像传感器30以外当中的至少1方未配备在摄像装置100中这样的构成。
接着,参考图2,对设置在本实施方式的摄像装置100的开口部的滤光片10的一例进行说明。
在本实施方式中,滤光片10为彩色滤光片,使特定波段的光透过。滤光片10例如通过相互不重叠的多个区域来构成全部区域。在图2所示的例子中,滤光片10包含第1滤光区域11、第2滤光区域12、第3滤光区域13及第4滤光区域14。
如图2所示,第1滤光区域~第4滤光区域11~14例如为相对于透镜20的光学中心呈非点对称的形状。第1滤光区域~第4滤光区域11~14由滤光片10的外缘和处于该外缘的内侧且相交的至少2条以上的线形成。在图2所示的例子中,第1滤光区域~第4滤光区域11~14例如具有由通过摄像装置100的开口部(也就是滤光片10)的形状(例如圆形状)的中心且相互交叉的2条线10a及10b形成的相同大小的扇型形状。开口部的形状的中心例如为透镜20的光学中心。2条线10a及10b例如正交。2条线例如为线段。在从被摄像装置100拍摄的被摄体侧观察的情况下,例如第1滤光区域11的位置分别与第3滤光区域13的左侧且第4滤光区域14的上侧相邻,而且是配置在与第2滤光区域12相对的位置。即,如图2所示,本实施方式中的滤光片10中,第1滤光区域11配置在滤光片10的左上,第2滤光区域12配置在滤光片10的右下,第3滤光区域13配置在滤光片10的右上,第4滤光区域14配置在滤光片10的左下。第1滤光区域11与第2滤光区域12相对。第3滤光区域13与第4滤光区域14相对。第1滤光区域11、第2滤光区域12、第3滤光区域13及第4滤光区域14按照该顺序沿开口部的圆周排列。
第1滤光区域11使为拍摄被摄体而入射进摄像装置100的光(以下,简记作入射光)中的第1波长区域的光透过。此外,第1滤光区域11使入射光中的波长不同于第1波长区域的第2波长区域的光不透过。第1滤光区域11例如通过反射第2波长区域的光来将其遮蔽。第1滤光区域11例如通过吸收第2波长区域的光来使其衰减。此处,第1波长区域包含红色的波长区域,第2波长区域包含蓝色的波长区域。第1滤光区域11例如由透过红色的波长区域的光和绿色的波长区域(第3波长区域)的光、不透过蓝色波长区域的光的“黄色(Y:Yellow)滤光片”构成。
第2滤光区域12使入射光中的第1波长区域的光不透过、使第2波长区域的光透过。当像上述那样将第1波长区域设为红色的波长区域、将第2波长区域设为蓝色的波长区域时,第2滤光区域12由透过绿色的波长区域的光和蓝色的波长区域的光、不透过红色的波长区域的光的“青色(C:Cyan)滤光片”构成。
第3滤光区域13使入射光中的第1波长区域的光以及第2波长区域的光不透过。当像上述那样将第1波长区域设为红色的波长区域、将第2波长区域设为蓝色的波长区域时,第3滤光区域13由透过第3波长区域(例如绿色的波长区域)的光、不透过红色的波长区域的光和蓝色的波长区域的光的“绿色(G:Green)滤光片”构成。
第4滤光区域14使入射光中的第1波长区域的光以及第2波长区域的光透过。当像上述那样将第1波长区域设为红色的波长区域、将第2波长区域设为蓝色的波长区域时,第4滤光区域14由透过红色的波长区域的光、绿色的波长区域的光以及蓝色的波长区域的光(也就是透过入射光的全部颜色)的“透明滤光片”构成。再者,在开口部设置滤光片10的构成上,是以第4滤光区域14由“透明滤光片”构成的情况来进行说明,但也可为在该第4滤光区域14不设置滤光片(透明滤光片)的构成。
此处,图3表示上述第1滤光区域~第3滤光区域11~13的透过率特性的一例。图3中,第1滤光区域11使红色及绿色的波长区域的光透过。第2滤光区域12使绿色及蓝色的波长区域的光透过。进而,第3滤光区域13使绿色的波长区域的光透过。
再者,图3中虽然省略了第4滤光区域14的透过率特性,但第4滤光区域14是透过红色、绿色及蓝色波长区域的光的“透明滤光片”。如此,在本实施方式中,滤光片10构成为第1滤光区域~第4滤光区域11~14的透过率特性各不相同。
再者,在本实施方式中,所谓“透过”,意指以高透过率透过对应的波长区域的光、该波长区域的光的衰减(即,光量的降低)极小。即,所谓“透过”,不仅包括完全透过对应的波长区域的光的情况,还包括主要透过该波长区域这样的情况。
此外,所谓“不透过”,是指遮蔽对应的波长区域的光,例如意指以低透过率透过该波长区域的光、由该滤光区域所引起的该波长区域的光的衰减极大。即,所谓“不透过”,不仅包括完全不透过对应的波长区域的光的情况,还包括主要不透过该波长区域这样的情况。
具体而言,第1滤光区域11构成为使红色及绿色的波长区域的光透过、遮蔽蓝色的波长区域的光,但也可不是使红色及绿色的波长区域的光完全透过,也可不是使蓝色的波长区域的光完全不透过。其他滤光区域也是一样的。换句话说,例如以如下方式设定第1滤光区域~第4滤光区域11~14的透过率特性即可:能够利用透过了第1滤光区域11及第4滤光区域14的光来生成基于红色的波长区域的光的R影像,能够利用透过了第1滤光区域~第4滤光区域11~14的光来生成基于绿色的波长区域的光的G影像,能够利用透过了第2滤光区域12及第4滤光区域14的光来生成基于蓝色的波长区域的光的B影像。
本实施方式的摄像装置100具有如下的功能:根据通过经由上述那样的滤光片10来拍摄任意被摄体而获得的影像来获取表示该摄像装置100到被摄体的距离(纵深)的信息(以下,记作距离信息)。
图4表示本实施方式的摄像装置100的功能构成的一例。如图4所示,摄像装置100除了包括上述的滤光片10、透镜20及影像传感器30以外,还包括作为功能构成部的影像处理部110。在本实施方式中,影像处理部110的一部分或全部是通过使CPU 40等计算机执行程序来实现,即,通过软件来实现。使计算机执行的程序可存储、分发至计算机可读取的存储介质,也可通过网络下载至摄像装置100。再者,影像处理部110的一部分或全部也可通过IC(Integrated Circuit)等硬件来实现,也能以软件及硬件的组合构成的形式来实现。
此处,在本实施方式中,设置在摄像装置100的开口部的滤光片10像上述那样包含第1滤光区域~第4滤光区域11~14。
影像传感器30对透过了滤光片10和透镜20的光进行光电转换,并将电信号送至影像处理部110。可在滤光片10与影像传感器30之间设置透镜20,也可在透镜20与影像传感器30之间设置滤光片10。在有多个透镜20的情况下,也可在2个透镜之间设置滤光片10。滤光片10也可设置在透镜20的表面上。
此外,影像传感器30包括第1传感器~第3传感器31~33。再者,第1传感器31是检测第1波长区域的光的R传感器,第2传感器32是检测第2波长区域的光的G传感器,第3传感器33是检测第3波长区域的光的B传感器。
第1传感器31根据所检测到的红色的波长区域的光来生成R影像。
第2传感器32根据所检测到的绿色的波长区域的光来生成G影像。
第3传感器33根据所检测到的蓝色的波长区域的光来生成B影像。
此处,第2传感器32像上述那样是对透过了全部第1滤光区域~第4滤光区域11~14的绿色的波长区域的光进行检测,因此G影像能够成为比其他影像(R影像及B影像)亮、噪声少的影像。此外,G影像可以说是因设置滤光片10所产生的影响较少的影像。因此,由第2传感器32生成的G影像接近不设置滤光片10的情况下的理想的影像(以下,记作参考影像)。另一方面,由第1传感器31生成的R影像以及由第3传感器33生成的B影像是由透过了第1滤光区域~第4滤光区域11~14中的2个滤光区域的光生成的影像,因此不同于参考影像或G影像等。该R影像及B影像的详情将于后文叙述。
如上所述,由第1传感器~第3传感器31~33生成的R影像、G影像及B影像输出至影像处理部110。
如图4所示,影像处理部110包括输入部111、距离算出部112及影像生成部113。
输入部111输入由第1传感器~第3传感器31~33生成的R影像、G影像及B影像。
距离算出部112根据由输入部111输入的R影像、G影像及B影像来算出摄像装置100到被摄体的距离(以下,记作被摄体距离)。在该情况下,距离算出部112针对拍摄影像的每一像素而算出被摄体距离。再者,由距离算出部112进行的被摄体距离的算出处理将于后文叙述。
影像生成部113根据由输入部111输入的R影像、G影像及B影像和由距离算出部112针对每一像素算出的被摄体距离(表示被摄体距离的距离信息)来生成显示在显示器80上的影像(以下,记作显示影像)。
再者,图4中是以摄像装置100包括影像处理部110的情况来进行说明,但该影像处理部110例如也可设置在独立于摄像装置100的影像处理装置等当中。
接着,参考图5的流程图,对本实施方式的摄像装置100的处理步骤进行说明。
首先,当开始由摄像装置100进行的被摄体的摄像时,透过了摄像装置100中设置的滤光片10及透镜20的光到达至影像传感器30。
在该情况下,影像传感器30中所包括的第1传感器31(R传感器)从透过了第1滤光区域11及第4滤光区域14的光中检测出(接收)红色的波长区域的光而生成R影像(步骤S1)。
再者,该步骤S1中所生成的R影像像上述那样不同于参考影像等。
此处,参考图6,对由第1传感器31生成的R影像进行概念性说明。
如上所述,设置在摄像装置100的开口部的滤光片10中包含透过率特性不同的第1滤光区域~第4滤光区域11~14,而在以下的说明中,为方便起见,将包含该第1滤光区域~第4滤光区域11~14中的透过红色的波长区域的光的第1滤光区域11及第4滤光区域14的区域(也就是从被摄像装置100拍摄的被摄体侧观察的情况下的滤光片10的左半部分区域)称为R滤光区域201。图6的右列和中列表示影像传感器30上所形成的影像的散景形状,左列分别表示从上方(也就是Y轴的正方向)观察摄像装置100的情况下的透镜20及滤光片10的组合和影像传感器30。
再者,在以下的说明中,将摄像装置100中对焦的位置(以下,记作焦点位置)到被摄体的距离称为距离d。再者,距离d是以焦点位置为基准(0),在被摄体的位置比焦点位置远的情况下为正值,在被摄体的位置比焦点位置近的情况下为负值。
首先,设想被摄体的位置比焦点位置远也就是距离d>0的情况。在该情况下,由于焦点没有对在被摄体上,因此在R影像中产生散景。这在G影像中也是一样的。
此外,如上所述,R影像是根据透过了R滤光区域(滤光片10的左半部分区域)201的光而生成的影像。因此,距离d>0的情况下的R影像的散景的形状(以下,简记作散景形状)201a像图6的上层所示那样是例如与G影像的散景形状202a相比偏右侧的形状。即,G影像的散景形状202a是与滤光片10(开口部)的形状相应的点对称形状,R影像的散景形状201a是与R滤光区域201的形状相应的非点对称形状(偏右侧的形状)。
再者,本实施方式中说明的散景形状是指在包含特定像素的规定范围内产生的散景的形状。在以下的说明中也是一样的。
再者,表示散景形状201a及202a那样的散景的形状的函数称为点扩散函数(PSF:Point Spread Function)。
接着,设想被摄体的位置与焦点位置一致也就是距离d=0的情况。如图6的中层所示,该情况下的R影像中未产生散景。再者,在距离d=0的情况下,G影像中也同样未产生散景。
进而,设想被摄体的位置比焦点位置近也就是距离d<0的情况。在该情况下,由于焦点没有对在被摄体上,因此在R影像中产生散景。
此外,如上所述,R影像是根据透过了R滤光区域201的光而生成的影像,而距离d<0的情况下的R影像的散景形状201b像图6的下层所示那样是例如与G影像的散景形状202b相比偏左侧的形状。
即,散景形状201b与上述散景形状201a一样是与R滤光区域201的形状相应的非点对称形状,是以平行于Y轴方向的位置直线为中心将该散景形状201a翻转而得的形状。
另一方面,该情况下的G影像的散景形状202b是与上述G影像的散景形状202a相同的点对称形状。
再次返回至图5,影像传感器30中所包括的第2传感器32(G传感器)从透过了第1滤光区域~第4滤光区域11~14的光中检测出(接收)绿色的波长区域的光而生成G影像(步骤S2)。
再者,如上所述,绿色的波长区域的光透过所有滤光区域,因此G影像接近参考影像。
接着,影像传感器30中所包括的第3传感器33(B传感器)从透过了第2滤光区域12及第4滤光区域14的光中检测出(接收)蓝色的波长区域的光而生成B影像(步骤S3)。
再者,该步骤S3中所生成的B影像像上述那样不同于参考影像等。
此处,参考图7,对由第3传感器33生成的B影像进行概念性说明。再者,图7所示的G影像的散景形状与图6中说明过的一致,因此省略其详细说明。
如上所述,设置在摄像装置100的开口部的滤光片10中包含透过率特性不同的第1滤光区域~第4滤光区域11~14,而在以下的说明中,为方便起见,将包含该第1滤光区域~第4滤光区域11~14中的透过蓝色的波长区域的光的第2滤光区域12及第4滤光区域14的区域(也就是从被摄像装置100拍摄的被摄体侧观察的情况下的滤光片10的下半部分区域)称为B滤光区域203。图7的右列和中列表示影像传感器30上所形成的影像的散景形状,左列分别表示从右方(也就是X轴的正方向)观察摄像装置100的情况下的透镜20及滤光片10的组合和影像传感器30。
首先,设想被摄体的位置比焦点位置远也就是距离>0的情况。在该情况下,由于焦点没有对在被摄体上,因此在B影像中产生散景。这在G影像中也是一样的。
此外,如上所述,B影像是根据透过了B滤光区域(滤光片10的下半部分区域)203的光而生成的影像。因此,距离d>0的情况下的B影像的散景形状203a像图7的上层所示那样是例如与G影像的散景形状202a相比偏上侧的形状。即,B影像的散景形状203a是与B滤光区域203的形状相应的非点对称形状(偏上侧的形状)。
接着,设想被摄体的位置与焦点位置一致也就是距离d=0的情况。如图7的中层所示,该情况下的B影像中未产生散景。
进而,设想被摄体的位置比焦点位置近也就是距离d<0的情况。在该情况下,由于焦点没有对在被摄体上,因此在B影像中产生散景。
此外,如上所述,B影像是根据透过了B滤光区域203的光而生成的影像,而距离d<0的情况下的B影像的散景形状203b像图7的下层所示那样是例如与G影像的散景形状202b相比偏下侧的形状。
即,散景形状203b与上述散景形状203a一样是与B滤光区域203的形状相应的非点对称形状,是以平行于X轴方向的位置直线为中心将该散景形状203a翻转而得的形状。
如上所述,在R影像及B影像中,散景形状根据距离d而发生变化。具体而言,若距离d>0,则R影像的散景形状变为G影像的散景形状的左侧缺损而成的半圆形状一样的形状(非点对称形状),若距离d<0,则R影像的散景形状变为G影像的散景形状的右侧缺损而成的半圆形状一样的形状。另一方面,若距离d>0,则B影像的散景形状变为G影像的散景形状的下侧缺损而成的半圆形状一样的形状(非点对称形状),若距离d<0,则B影像的散景形状变为G影像的散景形状的上侧缺损而成的半圆形状一样的形状(非点对称形状)。
此外,虽然图6及图7中没有展示,但R影像、G影像及B影像中的散景形状的大小(宽度)取决于距离|d|。再者,图8展示了R影像的散景形状的大小根据距离|d|而发生变化的情况。图9展示了G影像的散景形状的大小根据距离|d|而发生变化的情况。图10展示了B影像的散景形状的大小根据距离|d|而发生变化的情况。即,距离|d|越大,散景形状的大小越大(宽度越宽)。
在本实施方式中,利用上述那样的根据透过了滤光片10的光而生成的拍摄影像(R影像、G影像及B影像)的特性来算出被摄体距离。
再次返回至图5,上述的步骤S1中所生成的R影像、步骤S2中所生成的G影像以及步骤S3中所生成的B影像由影像处理部110中所包括的输入部111输入。
距离算出部112根据由输入部111输入的R影像、G影像及B影像来算出被摄体距离(步骤S4)。再者,在步骤S4中,例如以接近参考影像的G影像为基准,对上述的根据焦点位置到被摄体的距离d而发生变化的R影像及B影像的散景形状与该G影像的散景形状进行比较,由此,针对构成拍摄影像的每一像素而算出被摄体距离。
下面,对由距离算出部112进行的算出处理(也就是步骤S4的处理)进行说明。此处,将接近参考影像的影像即G影像称为基准影像,将与该基准影像相比散景形状发生了变化的各个R影像及B影像称为对象影像。
在步骤S4中,距离算出部112运用附加与任意距离对应的散景的修正滤波器(修正核)来修正对象影像的散景形状,并对该修正后的对象影像的散景形状与基准影像的散景形状进行比较,由此算出被摄体距离。再者,修正滤波器包含通过运用于对象影像的散景形状来对该散景形状附加散景的函数(点扩散函数)。此外,修正滤波器是针对每一不同距离d而预先准备好的。
此处,参考图11,说明对R影像的散景形状运用修正滤波器的情况。此处,如图11所示,对距离d>0的情况下的R影像的散景形状201a进行说明。
图11所示的修正滤波器301相当于如下点扩散函数:散景分布在穿过上述的分割R滤光区域201(第1滤光区域11及第4滤光区域14)与其他滤光区域(第2滤光区域12及第3滤光区域13)的线(图2所示的线10a)的中心点且垂直于该线的X轴的负方向的直线上(直线附近)。
在将这种修正滤波器301运用于R影像的散景形状201a的情况下,如图11所示,生成对R影像的散景形状201a附加散景而得的散景形状401。
再者,图11中仅对1个修正滤波器进行了说明,但在本实施方式中,像上述那样准备有对应于各个不同距离d的多个修正滤波器。因此,针对每一修正滤波器(不同距离d)而生成对散景形状201a附加散景(也就是该散景形状201a经修正)后的散景形状。如上所述,散景形状的宽度(大小)取决于距离d,因此,由对应于各距离d的修正滤波器附加的散景的大小(量)不一样。
在该情况下,距离算出部112对针对每一不同距离d而生成的各散景形状(以下,记作修正后的散景形状)与基准影像(G影像)的散景形状(以下,记作基准散景形状)进行比较,判定该修正后的散景形状以及该基准散景形状是否一致。由此,距离算出部112确定与针对每一不同距离d而生成的多个修正后的散景形状中的被判定为与基准散景形状一致的修正后的散景形状的生成中所使用的修正滤波器相对应的距离d。
此处,参考图12~图15,对与各个不同距离d相对应的多个修正滤波器进行概念性说明。
图12展示了表示R影像的散景形状201a的点扩散函数以及表示G影像的散景形状202a的点扩散函数。
相对于此,图13表示例如对应于距离d1的修正滤波器301a(表示由其附加的散景的点扩散函数)。图14表示例如对应于距离d2的修正滤波器301b(表示由其附加的散景的点扩散函数)。图15表示例如对应于距离d3的修正滤波器301c(表示由其附加的散景的点扩散函数)。再者,修正滤波器301a~301c作为运用于R影像的散景形状201a的修正滤波器而被预先准备。再者,距离d1、d2及d3处于d1<d2<d3的关系。
在该情况下,通过对图12所示的R影像的散景形状201a(表示散景形状201a的点扩散函数)运用(卷积)各修正滤波器301a~301c,得以对该散景形状201a附加散景。判定如此对散景形状201a附加散景后的散景形状(也就是修正后的散景形状)与基准影像的散景形状(基准散景形状)202a是否一致。
例如,参考图12及图13,即便对R影像的散景形状201a附加了对应于修正滤波器301a的散景(形状),修正后的散景形状也与基准散景形状202a不一致。
例如,参考图12及图14,在对R影像的散景形状201a附加了对应于修正滤波器301b的散景的情况下,修正后的散景形状与基准散景形状202a一致。
例如,参考图12及图15,即便对R影像的散景形状201a附加了对应于修正滤波器301c的散景,修正后的散景形状也与基准散景形状202a不一致。
由此,距离算出部112能够确定对应于修正滤波器301b的距离d2。
再者,在本实施方式中,也可为:不仅是在修正后的散景形状与基准散景形状完全一致的情况下,例如在修正后的散景形状与基准散景形状的一致度为规定值(阈值)以上的情况下,也可确定与该修正后的散景形状的生成中所使用的修正滤波器相对应的距离d。该一致度例如可以通过使用类似度评价方法等对修正后的散景形状以及基准散景形状的相关进行计算来算出。即,通过求与基准散景形状的相关最高的修正后的散景形状来确定距离d即可。
作为类似度评价方法,可以使用SSD(Sum of Squared Difference)、SAD(Sum ofAbsolute Difference)、NCC(Nomalized Cross-Correlation)、ZNCC(Zero-meanNomalized Cross-Correlation)、Color Alignment Measure等。
通过执行上述那样的处理,能够使用R影像及G影像来确定距离d,从而根据该距离d以及摄像装置100中的焦点距离(焦点位置)等来算出被摄体距离。
此处,主要对距离d>0的情况下的R影像的散景形状201a进行了说明,但是,例如距离d<0的情况下的R影像的散景形状201b也是一样的。具体而言,在散景形状201b的情况下,通过运用散景分布在与修正滤波器301相反的方向(X轴的正方向)的修正滤波器来生成修正后的散景形状即可。再者,生成修正后的散景形状后的处理与距离d>0的情况相同。
接着,参考图16,说明对B影像的散景形状运用修正滤波器的情况。此处,如图16所示,对距离d>0的情况下的B影像的散景形状203a进行说明。
图16所示的修正滤波器302相当于如下点扩散函数:散景分布在穿过上述的分割B滤光区域203(第2滤光区域12及第4滤光区域14)与其他滤光区域(第1滤光区域11及第3滤光区域13)的线(图2所示的线10b)的中心点且垂直于该线的Y轴的负方向的直线上(直线附近)。
在将这种修正滤波器302运用于B影像的散景形状203a的情况下,如图16所示,生成对B影像的散景形状203a附加散景而得的散景形状402(修正影像)。
再者,图16中仅对1个修正滤波器进行了说明,但在本实施方式中,像上述那样准备有对应于各个不同距离d的多个修正滤波器。因此,针对每一修正滤波器(不同距离d)而生成对散景形状203a附加散景(也就是该散景形状203a经修正)后的散景形状。
在该情况下,距离算出部112对针对每一不同距离d而生成的各散景形状(修正后的散景形状)与基准散景形状进行比较,判定该修正后的散景形状以及该基准散景形状是否一致。由此,距离算出部112确定与针对每一不同距离d而生成的多个修正后的散景形状中的被判定为与基准散景形状一致的修正后的散景形状的生成中所使用的修正滤波器相对应的距离d。
再者,对B影像预先准备的对应于各个不同距离d的多个修正滤波器与上述图12~图15等当中说明过的一致,因此省略其详细说明。
通过执行上述那样的处理,能够使用B影像及G影像来确定距离d,从而根据该距离d以及摄像装置100中的焦点距离(焦点位置)等来算出被摄体距离。
此处,主要对距离d>0的情况下的B影像的散景形状203a进行了说明,但是,例如距离d<0的情况下的B影像的散景形状203b也是一样的。具体而言,在散景形状203b的情况下,通过运用散景分布在与修正滤波器302相反的方向(Y轴的正方向)的修正滤波器来生成修正后的散景形状即可。再者,生成修正后的散景形状后的处理与距离d>0的情况相同。
再者,被摄体距离能够使用R影像及B影像中的一方和G影像来算出。例如,可省略图5的步骤S1和步骤S3中的任一方,在S4中利用2种影像来算出距离。在使用3种影像来算出距离的情况下,例如通过斟酌使用R影像和G影像来确定的距离d以及使用B影像和G影像来确定的距离d两方,能够算出精度更高的被摄体距离。在该情况下,可根据使用R影像和G影像来确定的距离d以及使用B影像和G影像来确定的距离d中的、例如通过算出更高的一致度(相关)而确定的距离d来算出被摄体距离。此外,也可根据使用R影像和G影像来确定的距离d以及使用B影像和G影像来确定的距离d的平均值等来算出被摄体距离。
此外,可以针对每一R影像及B影像而算出对应于各个不同距离d的修正后的散景形状与基准散景形状的一致度的曲率。该一致度的曲率相当于使用R影像或B影像来确定的距离d的可靠度。因此,也可根据使用R影像和G影像来确定的距离d以及使用B影像和G影像来确定的距离d中的、上述基于一致度的曲率的可靠度较高的距离d来算出被摄体距离。
此处,上述的散景形状是指包含特定像素的规定范围的散景的形状。因此,在本实施方式中,通过针对构成拍摄影像的每一像素而执行上述处理,能够针对该每一像素而获取表示被摄体距离的距离信息。
再次返回至图5,影像生成部113根据由输入部111输入的R影像、G影像及B影像和步骤S4中针对每一像素而算出的表示被摄体距离的距离信息来生成显示影像(步骤S5)。显示影像包含对拍摄影像附加空间的纵深(即,距离信息)而得的影像(以下,记作距离影像)。再者,在距离影像(距离映射)中,例如,在该距离影像中所包含的到被摄体的距离距摄像装置100较近的情况下,该被摄体(与其对应的像素)以红色显示,在到该被摄体的距离距摄像装置100较远的情况下,该被摄体(与其对应的像素)以蓝色显示。根据这种距离影像,能够直观地掌握摄像装置100到被摄体的距离。再者,距离影像例如也可为仅对拍摄影像中的根据亮度差而检测到的边缘部分附加距离信息而得的影像等。
再者,在本实施方式中,也能根据R影像、G影像及B影像来生成彩色影像(RGB影像)。因此,也可生成彩色影像作为上述显示影像。在该情况下,可在根据步骤S4中算出的被摄体距离来修正R影像及B影像的散景形状之后生成彩色影像。此外,也可对如此生成的彩色影像执行基于被摄体距离的影像处理(例如,去除散景的处理等),由此生成全焦点影像(所有距离下都对焦的影像)或再对焦影像(指定距离下对焦的影像)等。
如上所述,由影像生成部113生成的显示影像例如输出至显示器80而显示在该显示器80上。再者,也可生成上述的距离影像、彩色影像、全焦点影像及再对焦影像,将由用户指定的影像显示在显示器80上作为显示影像。此处是以显示影像输出至显示器80的情况来进行说明,但该显示影像也可输出至摄像装置100的外部的各种装置。
此外,在本实施方式中,能够利用距离信息来输出各种信息(影像)。
具体而言,例如可输出表示彩色影像中的位置(范围)与距摄像装置100的距离的对应关系的一览表(表),也可输出仅显示处于规定距离的范围内的被摄体(与其对应的像素)这样的影像。此外,也可输出拍摄影像中的距摄像装置100的距离的最大值、最小值、中央值(中心值)及平均值,也可输出根据距离来分割彩色影像的区域而得的结果。此外,也可输出仅提取存在于任意距离的被摄体而得的结果。进而,也可输出利用了距离信息的、针对拍摄影像中的物体的识别处理以及针对拍摄影像中的人物或动物的行动识别处理的结果。此外,在摄像装置100具备对焦机构的情况下,也可将距离信息输出至该对焦机构,由此将该距离信息用于对焦速度的提高。如此,本实施方式中所算出的表示被摄体距离的距离信息可用于各种处理。
此外,关于上述彩色影像及距离影像,例如也可在彩色影像(数据)之后接连输出距离影像(数据)而不是单独输出。此外,例如也可在YUV(亮度信号、色差信号[Cb]、色差信号[Cr])形式的影像数据之后接连输出距离影像。进而,也可在彩色影像之后输出上述一览表。
此外,在输出距离影像的情况下,也能以弹出窗口显示与该距离影像上的指定位置相对应的距离。此外,也可在彩色影像上以弹出窗口显示距离信息。
再者,在本实施方式中,是以针对每一像素而算出被摄体距离的情况来进行说明,但该距离也可不针对影像中的所有像素而算出。例如,也可预先确定成为检测距离的对象的被摄体。被摄体的确定例如可以通过影像识别、基于使用摄像装置100的用户的输入的指定来进行。
进而,即便在针对所有像素而算出了被摄体距离的情况下,也可不在输出数据中载入该被摄体距离(表示该被摄体距离的距离信息)的全部。例如,对于通过影像识别等而判别为不重要这样的区域,可不载入距离信息。
如上所述,在本实施方式中,使为拍摄被摄体而入射的光(入射光)透过的滤光片10包含:第1滤光区域11,其使红色的波长区域(第1波长区域)的光透过,不透过(遮蔽)蓝色的波长区域(第2波长区域)的光;第2滤光区域12,其使红色的波长区域的光不透过,使蓝色的波长区域的光透过;第3滤光区域13,其使红色的波长区域的光不透过,且使蓝色的波长区域的光不透过;以及第4滤光区域14,其使红色的波长区域的光透过,且使蓝色的波长区域的光透过。
再者,在使用这种滤光片10的情况下,根据透过了第1滤光区域11及第4滤光区域14的红色的波长区域的光由影像传感器30(中所包括的第1传感器31)生成的R影像(第1影像)的散景形状与根据透过了第2滤光区域12及第4滤光区域14的蓝色的波长区域的光由影像传感器30(中所包括的第3传感器33)生成的B影像(第2影像)的散景形状不一样,R影像的散景形状以及B影像的散景形状为非点对称形状。
在本实施方式中,由于能够利用这种根据透过了滤光片10的入射光而生成的拍摄影像(R影像、B影像及G影像)来算出被摄体距离,因此能够小型且低成本、高精度地获取距离信息。
另外,在本实施方式中,如上所述,通过对根据透过了R滤光区域201(第1滤光区域11及第4滤光区域14)的红色的波长区域的光而生成的R影像的散景形状卷积修正滤波器而附加散景,能够算出被摄体距离。同样地,在本实施方式中,通过对根据透过了B滤光区域203(第2滤光区域12及第4滤光区域14)的蓝色的波长区域的光而生成的B影像的散景形状卷积修正滤波器而附加散景,能够算出被摄体距离。以下,将对R影像的散景形状附加散景的方向称为R影像的卷积方向,将对B影像的散景形状附加散景的方向称为B影像的卷积方向。
在本实施方式中,例如像图2所示那样第1滤光区域11配置成与第4滤光区域14的上侧相邻,第2滤光区域12配置成与第4滤光区域14的右侧相邻。通过这种构成,本实施方式中的R影像的卷积方向为左方或右方,B影像的卷积方向为上方或下方。
此处,例如设想构成为配置在图2所示的位置的滤光区域11~14中的第1滤光区域11及第4滤光区域14为R滤光区域、第2滤光区域12及第3滤光区域13为B滤光区域的滤光片。再者,这种滤光片例如是通过将该滤光片的左半部分设为“黄色滤光片”、将该滤光片的右半部分设为“青色滤光片”来实现的。以下,将该滤光片称为左右二分型滤光片。
在将左右二分型滤光片设置在开口部的情况下,与本实施方式的摄像装置100一样,也能算出被摄体距离,但该情况下的R影像及B影像的卷积方向均为水平方向(左右方向)。具体而言,在R影像的卷积方向为左方的情况下,B影像的卷积方向为右方,在R影像的卷积方向为右方的情况下,B影像的卷积方向为左方。
然而,在拍摄影像中存在水平方向的边缘的情况下,即便在R影像及B影像中的边缘部分在沿着该边缘这样的方向(左右方向)上卷积了修正滤波器,也无法算出被摄体距离。具体而言,即便对与分割R滤光区域及B滤光区域的线正交的方向的边缘卷积了与不同距离d相对应的多个修正滤波器,该卷积结果(也就是修正后的散景形状)也是一样的,从而无法确定距离d,因此,结果无法算出被摄体距离。
因而,在使用上述左右二分型滤光片的情况下,由于R影像的卷积方向以及B影像的卷积方向均为左右方向,因此,不管是在使用R影像的情况下还是在使用B影像的情况下,都无法针对水平方向的边缘部分而算出(检测)被摄体距离。
相对于此,在本实施方式中,是以R影像的卷积方向以及B影像的卷积方向交叉(正交)的方式配置第1滤光区域~第4滤光区域11~14。因此,在水平方向的边缘的情况下,通过使用卷积方向为垂直方向(上下方向)的B影像(也就是对B影像与G影像进行比较),能够确定距离d,在垂直方向的边缘的情况下,通过使用卷积方向为水平方向(左右方向)的R影像(也就是对R影像与G影像进行比较),能够确定距离d。
即,在本实施方式中,通过以分割R滤光区域及其他区域的线与分割B滤光区域及其他区域的线交叉的方式配置第1滤光区域~第4滤光区域11~14而使得R影像及B影像的卷积方向不一致,不论边缘的方向如何,均能算出被摄体距离。
再者,图2所示的第1滤光区域~第4滤光区域11~14的配置(即,滤光片10的构成)为一例,滤光片10只要像上述那样以R影像及B影像的卷积方向不一致的方式配置有第1滤光区域~第4滤光区域11~14即可。例如,可调换第1滤光区域11及第2滤光区域12的配置,也可调换第3滤光区域13及第4滤光区域14的配置。
此外,滤光片10只要被相交的至少2条以上的线分割成第1滤光区域~第4滤光区域11~14即可,例如也可像图17所示那样通过在滤光片10的中心交叉的3条线(直线)10b、10c及10d将滤光片10(的区域)分割成第1滤光区域~第4滤光区域11~14。
进而,在本实施方式中,是以第1滤光区域~第4滤光区域11~14像图2所示那样为同一大小的扇型形状的情况来进行说明,但是,例如也能以通过图18所示的2条线10e及10f来分割滤光片10的方式使得第1滤光区域~第4滤光区域11~14不全为同一形状。此外,例如也可像图19所示的线10g及10h那样,将滤光片10分割为第1滤光区域~第4滤光区域11~14的2条以上的线不在滤光片10的中心交叉。此外,虽未图示,但将滤光片10分割为第1滤光区域~第4滤光区域11~14的线也可不为直线而为曲线。
此外,在本实施方式中,是以滤光片10被分割为4个滤光区域的情况来进行说明,但只要以R影像及B影像的卷积方向不同的方式配置有R滤光区域及B滤光区域、且构成为滤光片10中所包含的所有滤光区域均透过绿色的波长区域的光,则滤光区域的数量也可为5以上。再者,只要能够生成相当于G影像的基准影像,则也可为滤光片10中所包含的至少1个滤光区域不透过绿色的波长区域的光的构成。
此处,在本实施方式中,是对透过滤光片10中所包含的全部第1滤光区域~第4滤光区域11~14的波长区域的光的颜色(以下,记作共通色)为绿色的情况进行了说明,但这是因为大多情况下采用的是接收绿色的波长区域的传感器(第2传感器32)配置得比接收红色的波长区域的传感器(第1传感器31)以及接收蓝色的波长区域的传感器(第3传感器33)多的影像传感器30。在这种影像传感器30的情况下,通过将共通色设为绿色,能够增加影像传感器30所接收的光量。
再者,共通色并不限于绿色。例如在将第1滤光区域11设为“黄色滤光片”、将第2滤光区域12设为“品红色(M:Magenta)滤光片”、将第3滤光区域13设为“红色(R:Red)滤光片”、将第4滤光区域14设为“透明滤光片”的情况下,可以使用以红色为共通色的滤光片10。“品红色滤光片”是透过红色的波长区域的光和蓝色的波长区域的光(也就是不透过绿色的波长区域的光)的滤光片。在该情况下,通过对G影像的修正后的散景形状与R影像的散景形状(基准散景形状)进行比较、或者对B影像的修正后的散景形状与R影像的散景形状进行比较,能够算出被摄体距离。
同样地,例如在将第1滤光区域11设为“品红色滤光片”、将第2滤光区域12设为“青色滤光片”、将第3滤光区域13设为“蓝色(B:Blue)滤光片”、将第4滤光区域14设为“透明滤光片”的情况下,可以使用以蓝色为共通色的滤光片10。在该情况下,通过对R影像的修正后的散景形状与B影像的散景形状(基准散景形状)进行比较、或者对G影像的修正后的散景形状与B影像的散景形状进行比较,能够算出被摄体距离。
再者,在本实施方式中,为方便说明,是以滤光片10为圆形状的情况来进行说明,但该滤光片10也可为与摄像装置100的开口部的形状相应的形状。具体而言,滤光片10的外周也可形成为摄像装置100的光圈叶片形状,例如,滤光片10也可具有多边形(例如,六边形及八边形等)的形状。
如上所述,本实施方式能够通过包含各种形状或配置的第1滤光区域~第4滤光区域11~14的滤光片10来实现,而该第1滤光区域~第4滤光区域11~14的形状例如也可根据摄像装置100上的硬件的制约等来决定。具体而言,在对R影像或B影像的散景形状卷积修正滤波器(也就是对该散景形状附加散景)时会使用线路存储器,而例如根据R影像或B影像的卷积方向的不同,所需的线路存储器的容量是不一样的。因此,第1滤光区域~第4滤光区域11~14的形状(也就是R影像或B影像的卷积方向)也可按照线路存储器的容量来设定。即,第1滤光区域~第4滤光区域11~14的形状也能以能够利用线路存储器进行卷积的方式加以决定。
此外,如上所述,在R影像及B影像中的例如R影像的卷积方向为沿着边缘这样的方向的情况下,无法使用该R影像来算出被摄体距离。在该情况下,虽然能够使用B影像来算出被摄体距离,但为了提高精度,优选使用R影像及B影像两方来算出被摄体距离。因此,例如在根据被摄像装置100拍摄的被摄体等而设想拍摄影像中的边缘的朝向这样的情况下,也能以R影像及B影像的卷积方向不同于该边缘的朝向的方式决定第1滤光区域~第4滤光区域11~14的形状。
此外,在将R影像或B影像的卷积方向设为水平方向的情况下,与其他方向的情况相比,能够降低离散化误差的影响、提高精度。因此,也能以R影像及B影像的卷积方向中的一方为水平方向的方式决定第1滤光区域~第4滤光区域11~14的形状。
再者,根据像上述图2所示那样将R影像的卷积方向设为水平方向、B影像的卷积方向与该R影像的卷积方向正交的构成,能够提高精度,而且能够实现对拍摄影像中的边缘的高稳健性(鲁棒性)。
如上所述,通过决定(变更)第1滤光区域~第4滤光区域11~14的形状(或配置),能够实现各种R影像及B影像的卷积方向,而只要按照该卷积方向预先准备有对应于各个不同距离d的多个修正滤波器即可。即,只要预先准备有在R影像及B影像的卷积方向上附加散景这样的修正滤波器即可。
此外,在本实施方式中,是通过对经对应于不同距离d的修正滤波器修正后的R影像或B影像的散景形状(第1散景形状)与G影像的散景形状(第2散景形状)进行比较来算出被摄体距离的构成,因此,能够利用通用的影像传感器来高精度地获取距离信息。再者,例如也能设为如下构成:把R影像及B影像当作由立体摄像机拍摄到的2个影像看待,根据该R影像及B影像间的视差量来算出被摄体距离。
进而,在本实施方式中,能够输出根据表示所算出的被摄体距离的距离信息加工而得的影像(例如,距离影像等)。根据这种距离影像,能够容易地掌握摄像装置100到被摄体的距离。
再者,在本实施方式中,是以使用包括检测(接收)红色、绿色及蓝色的RGB传感器的影像传感器30的情况来进行说明,但也可使用包括检测其他颜色的传感器的影像传感器。在该情况下,通过设置与由传感器检测的颜色相应的本实施方式中的滤光片,同样也能获取距离信息。
再者,在本实施方式中,由于能够获取表示被摄体距离的距离信息,因此能够获得被摄像装置100拍摄的空间的三维信息。再者,本实施方式中能够获得的(也就是从摄像装置100输出的)三维信息例如为与被摄体的位置、该被摄体的移动、到该被摄体的距离以及该被摄体处于规定范围之内/外等相关的信息。该三维信息除了用于在本实施方式中说明过的情况以外也能用于各种处理等。
具体而言,本实施方式的摄像装置100例如能够运用于图20所示那样的对预先规定的范围(内存在的人物等)进行监视的监视系统。
此处,图21为表示本实施方式中的监视系统1000的功能构成的一例的框图。此处,假设监视系统1000例如为用以针对每一时段而掌握设施内等当中的人的流动的系统。
如图21所示,监视系统1000具有摄像装置100、控制部1001及用户接口部1002。摄像装置100及控制部1001可经由有线或无线网络加以连接。
控制部1001使摄像装置100连续地进行拍摄,并经由用户接口部1002来显示由摄像装置100拍摄到的被摄体的影像。用户接口部1002例如执行朝显示装置等的显示处理、来自键盘或指示装置的输入处理。显示装置和指示装置例如也可为触摸屏显示器等一体型装置。
此外,控制部1001根据从摄像装置100依序输出的人物(被摄体)的三维信息来解析例如人物正在道路的哪一位置朝哪一方向行走等人的移动,并将该解析结果记录至例如HDD(Hard Disk Drive)等存储装置。再者,该解析并非必须实时执行,也能以使用存储装置中存储的被摄体的三维信息的分批处理的形式加以执行。
接着,参考图22,对由摄像装置100拍摄的被摄体的追踪时的三维信息(距离信息)的活用例进行说明。
此处,设想从摄像装置100观察而人物X正要从左向右移动、人物Y相反正要从右向左移动的情况(A)。此外,从摄像装置100观察,身高较低的人物X相比身高较高的人物Y位于跟前位置,在人物X及Y相互重叠的位置的情况下,成为影像上的人物像的尺寸大致一致的状态。
当人物X及Y像上述那样移动时,在某一时间点影像上的人物像(被摄体像)重叠(B),其后朝左右分开(C)。在这种情况下,若不使用距离而例如仅靠影像识别来追踪人物像,则在人物像的交叉时有可能弄错追踪对象而误追踪为人物X及Y分别掉头返回。
相对于此,通过使用三维信息(距离),能够防止在人物像的交叉时弄错追踪对象这一情况。
再者,这种监视系统1000例如也可用于在被摄体进行了预先规定的行动以外的行动(例如,进入禁止进入区域)时输出警报这样的情况。关于被摄体是否进行了预先规定的行动以外的行动,可以根据上述被摄体的位置、该被摄体的移动、到该被摄体的距离以及该被摄体处于规定范围之内/外等来判定。
此外,本实施方式的摄像装置100例如也可用于控制各种移动体的动作的自动控制系统。
此处,图23为表示本实施方式中的自动控制系统1100的功能构成的一例的框图。此处,如图24所示,设想由自动控制系统1100控制动作的移动体例如为汽车的情况。
如图23所示,自动控制系统1100具有摄像装置100、控制部1101及驱动机构1102。如图24所示,摄像装置100例如以拍摄汽车的行进方向的被摄体的方式设置在该汽车(移动体)上。再者,作为以拍摄汽车的行进方向的被摄体的方式加以设置的形态,除了以拍摄前方的所谓的前置摄像机的形式设置以外,还能以在倒车时拍摄后方的所谓的后置摄像机的形式设置。当然,也可设置这两方。此外,摄像装置100也可设置成兼具作为所谓的行车记录仪的功能。即,摄像装置100也可为录像设备。
控制部1101根据从摄像装置100输出的三维信息来控制使汽车动作(移动)的驱动机构1102。在该情况下,例如在向处于行进方向的被摄体靠近到规定距离时,能够使移动的汽车停止、减速、加速,或者使停止的汽车移动。或者,控制部1101也能以如下方式控制驱动机构1102:当被摄体已相距规定距离以上时,使汽车停止、减速、加速、移动。或者,控制部1101也可在向被摄体靠近到规定距离的情况下将汽车的动作模式从正常驱动模式切换至防碰撞模式,也可在被摄体已相距规定距离以上的情况下将该动作模式从防碰撞模式切换至正常驱动模式。再者,成为控制部1101的控制的基准的规定距离例如是由用户任意设定的阈值。
根据这种自动控制系统1100,例如在汽车的行驶中,能够根据前方车辆的三维信息(距离信息)以汽车跟随前方车辆的方式自动驾驶,或者自动控制制动器以避免追尾该前方车辆。此外,通过利用存在于汽车后方的物体(被摄体)的三维信息,在汽车倒车的情况下,在汽车的后方的比预先规定的距离近的位置存在障碍物等时,能够自动进行制动或者禁止倒车。此外,还能根据前方车辆的三维信息(距离信息),以汽车与该前方车辆的距离固定的方式进行控制。由此,能够容易地实现由自动控制系统控制动作(移动)的多个汽车的队列行驶等。
上述移动体不限于包括汽车在内的车辆,只要是具有移动用驱动机构的移动体,则也可为无人机或飞机等飞行体以及船舶等,也可为工业用机器人、AGV(AutomaticGuided Vehicle)、清扫机器人及交流机器人等各种机器人。
图25为表示本实施方式中的控制机器人的动作的自动控制系统1200的功能构成的一例的框图。此处,设想机器人例如为设置在能够生产多种产品的生产线等的工业用机器人。
如图25所示,自动控制系统1200具有摄像装置100、控制部1201、驱动机构1202及转动机构1203。
控制部1201根据从摄像装置输出的作业的对象物即被摄体的三维信息来控制驱动机构1202。驱动机构1202例如驱动机械臂,所述机械臂用以在对象物上安装构件、或者将对象物堆起来搬送至规定位置。再者,摄像装置100经由转动机构203而搭载在例如机械臂(的手掌或手腕等)上。
在这种自动控制系统中,例如通过利用从机械臂上所搭载的摄像装置100输出的存在于机器人周边的物体(被摄体)的三维信息,能够进行使该机器人抓住规定物体等控制。
再者,如上所述,例如在R影像的卷积方向与沿着拍摄影像中的边缘的方向一致的情况下,无法使用该R影像来算出被摄体距离。在该情况下,通过由控制部1201控制转动机构1203而使摄像装置100转动,也能使得R影像的卷积方向与沿着拍摄影像中的边缘的方向不一致。此处是对R影像进行的说明,但在B影像的卷积方向与沿着拍摄影像中的边缘的方向一致的情况下也是一样的。根据这种构成,能够使用R影像及B影像两方来算出被摄体距离,因此能够提高该被摄体距离的算出精度。
此外,上述自动控制系统1200也可用于控制AGV或清扫机器人的动作的情况。在该情况下,通过利用存在于AGV或清扫机器人前方等的物体(被摄体)的三维信息,能够使该AGV或清扫机器人以避开障碍物这样的轨道移动。
进而,上述自动控制系统1200也可用于控制与人物进行交流的交流机器人的动作的情况。在该情况下,通过利用存在于交流机器人前方等的人物(被摄体)的三维信息,在人物已靠近至该交流机器人的规定范围内的情况下,能够开始与该人物的交流。
再者,在上述移动体例如为无人机的情况下,通过利用存在于该无人机前方等的物体(被摄体)的三维信息,能够使该无人机以避开障碍物这样的轨道飞行。
进而,在移动体为无人机的情况下,在从高空检查裂缝或电线断裂等时,摄像装置100获取拍摄检查对象而得的影像,并获取该检查对象(被摄体)的三维信息(距离信息)。在该情况下,通过根据与检查对象的距离而以与该检查对象的距离为固定的方式控制无人机的推力,能够使该无人机以平行于检查对象的方式飞行。同样地,通过使无人机例如以与前方无人机的距离固定的方式飞行,能够容易地实现该无人机的队列飞行等。进而,通过使无人机例如以与地面(上存在的被摄体)的距离固定的方式飞行,能够使该无人机以固定(指定)的高度飞行。
如上所述,在本实施方式中,根据从摄像装置100输出的被摄体的三维信息,能够执行与各种移动体或其一部分的加速、减速、转向、正常驾驶模式与自动驾驶模式(例如,防碰撞模式)的切换、以及安全气囊等安全装置的运行当中的至少1种相关的控制。具体而言,在被摄体存在于规定距离的近前的情况下,例如能够执行减速、防碰撞、朝远离被摄体的方向的转向、以及安全装置的运行当中的至少1种。此外,在被摄体存在于规定距离的远处的情况下,例如能够执行加速以及朝靠近被摄体的方向的转向当中的至少1种。
进而,上述由自动控制系统控制动作的移动体的概念例如也可包括自动门。图26表示控制自动门的动作的自动控制系统(以下,记作自动门系统)1300的功能构成的一例。如图26所示,自动门系统1300具有控制部1301、驱动机构1302及门部1303。
在自动门系统1300中,摄像装置100设置在能够拍摄要通过自动门的人物(被摄体)的位置。
控制部1301根据从摄像装置100输出的被摄体(人物)的三维信息,以使门部1303开闭的方式控制驱动机构1302。具体而言,在被摄体处于规定距离的近前的情况下,控制部1301以门部1303成为打开状态的方式控制驱动机构1302。此外,在被摄体处于规定距离的远处的情况下,控制部1301以门部1303成为关闭状态的方式控制驱动机构1302。再者,在门部1303处于打开状态时,在被摄体处于规定距离的近前的情况下,控制部1301能以使门部1303保持打开的方式控制驱动机构1302。在门部1303处于关闭状态的情况下,控制部1301可根据被摄体与规定距离的关系以使门部1303保持关闭的方式控制驱动机构1302。在被摄体已从规定距离的远处移动至近前时,控制部1301能以打开门部1303的方式控制驱动机构1302。进而,在被摄体已从规定距离的近前移动至远处时,控制部1301能以关闭门部1303的方式控制驱动机构1302。
驱动机构1302例如具有马达,通过将该马达的驱动传递至门部1303来开闭门部1303。驱动机构1302根据控制部1201的控制,以门部1303变为打开状态或关闭状态的方式驱动该门部1303。
图27及图28表示自动门系统1300的动作例。在图27及图28所示的例子中,在能够拍摄在门部1303的正面移动的行人(人物)等的位置例如门部1303的上方设置有摄像装置100。也就是说,摄像装置100是以能够获取俯瞰门部1303的正面的道路等所得的影像的方式设置。
此处,自动门系统1300中的控制部1301能够根据从摄像装置100输出的三维信息来判定被摄体即行人1300a是否处于基准面1300b的近前。在该情况下,在由摄像装置100拍摄到的包含多个被摄体的影像中,也可仅将指定的特定被摄体作为自动门系统1300中设为对象的人物(也就是行人1300a)。
基准面1300b例如被设定在门部1303正面的、与该门部1303相距一定距离的位置。基准面1300b例如为与门部1303平行的平面。基准面1300b与摄像装置100的透镜20的光轴可正交也可不正交。再者,基准面是以其为平面的情况来进行说明,但也可为曲面。
在像图27所示那样行人1300a处于基准面1300b的近前的情况下,控制部1301以使门部1303变成打开状态的方式控制驱动机构1302。驱动机构1302根据控制部1301的控制,以门部1303变成打开状态的方式驱动该门部1303。
此外,在像图28所示那样行人1300a处于基准面1300b的远处的情况下,控制部1301以使门部1303变成关闭状态的方式控制驱动机构1302。驱动机构1302根据控制部1301的控制,以门部1303变成关闭状态的方式驱动该门部1303。
此处,是对根据行人1300a是处于基准面1300b的近前还是远处来控制门部1303的开闭的情况进行了说明,但控制部1301例如也可根据行人1300a从基准面1300b的近前移动到了远处这一情况、以及行人1300a从基准面1300b的远处移动到了近前这一情况来控制门部1303的开闭。具体而言,可在行人1300a从基准面1300b的近前移动到了远处的情况下使门部1303变成关闭状态,在行人1300a从基准面1300b的远处移动到了近前的情况下使门部1303变成打开状态。
进而,也可在行人1300a在基准面1300b的近前持续停留了规定时间的情况下使门部1303变成打开状态,在行人1300a在基准面1300b远处持续停留了规定时间的情况下使门部1303变成关闭状态。
此外,也可在行人1300a在基准面1300b的近前持续停留期间维持门部1303的打开状态,在行人1300a在基准面1300b的远处持续停留期间维持门部1303的关闭状态。
根据上述那样的自动门系统1300,除了利用设置在门部1303(自动门)的传感器(用以检测人物的存在的传感器)以外,还利用从摄像装置100输出的存在于门部1303周边的人物的三维信息,由此,能够提高自动门的使用者的方便性。例如,在通过监视朝门部1303而来的人物的距离的变化而判定该人物的速度比预先规定的速度快(也就是说,该人物正在跑步接近门部1303)的情况下,能够在由上述传感器检测到人物的存在之前使门部1303变成打开状态。由此,能够避免人物撞到门部1303。再者,该情况下的摄像装置100也可用于监视通过自动门(门部1303)的人物。
(第2实施方式)
接着,对第2实施方式进行说明。再者,本实施方式的摄像装置的硬件构成及功能构成与前文叙述过的第1实施方式相同,因此酌情使用图1及图4等来进行说明。此外,在以下的说明中,对于与前文叙述过的第1实施方式相同的部分省略其详细说明,主要对不同于该第1实施方式的部分进行叙述。
本实施方式中,滤光片10中所包含的滤光区域11~14的形状及配置不同于前文叙述过的第1实施方式。
下面,参考图29,对设置在本实施方式的摄像装置100的开口部的滤光片10的一例进行说明。
本实施方式中的滤光片10与前文叙述过的第1实施方式一样为彩色滤光片,透过特定波段的光。在本实施方式中,第1滤光区域~第4滤光区域11~14是像图29所示那样配置。
具体而言,第1滤光区域~第4滤光区域11~14由将滤光片10一分为二、且通过作为该滤光片10的一部分的闭合区域的外缘上的2点的线形成。换句话说,滤光片10(的区域)被以包含该滤光片10上的一定范围的区域的方式形成的线(第1线)10i和通过该第1线10i上的2点且与该滤光片10的外周(外缘)相交的线(第2线)10j分割成4个区域(第1滤光区域~第4滤光区域11~14)。
再者,在图29所示的例子中,上述闭合区域为圆,第1线10i形成为包含以滤光片10的中央为中心的圆形的区域。第2线10j包含通过由第1线10i围成的圆形的区域的中心(也就是将为圆的闭合区域一分为二)的直线。
在以下的说明中,将由第1线10i围成的圆形的区域称为内侧区域,将滤光片10的外周与第1线10i之间的区域称为外侧区域。
在本实施方式中,第1滤光区域11及第4滤光区域14配置在内侧区域内相邻(相对)的位置。第2滤光区域12及第3滤光区域13配置在外侧区域内相邻(相对)的位置。此外,第1滤光区域11及第3滤光区域13配置成相接触,第2滤光区域12及第4滤光区域14配置成相接触。即,本实施方式中的滤光片10是像图29所示那样以第1滤光区域11配置在内侧区域的右侧、第2滤光区域12配置在外侧区域的左侧、第3滤光区域13配置在外侧区域的右侧、第4滤光区域14配置在内侧区域的左侧的方式构成。
再者,第1滤光区域11由透过红色的波长区域的光和绿色的波长区域的光的“黄色滤光片”构成。
第2滤光区域12由透过绿色的波长区域的光和蓝色的波长区域的光的“青色滤光片”构成。
第3滤光区域13由透过绿色的波长区域的光的“绿色滤光片”构成。
第4滤光区域14由透过红色的波长区域的光、绿色的波长区域的光以及蓝色的波长区域的光的“透明滤光片”构成。
即,与前文叙述过的第1实施方式一样,第1滤光区域~第4滤光区域11~14的透过率特性各不相同。
在本实施方式中,通过这种透过率特性,第1滤光区域11及第4滤光区域14(也就是内侧区域)使红色的波长区域的光透过。此外,第2滤光区域12及第4滤光区域14(也就是滤光片10的左半部分区域)使蓝色的波长区域的光透过。进而,第1滤光区域~第4滤光区域11~14使绿色的波长区域的光透过。
再者,如前文叙述过的第1实施方式中说明过的那样,所谓“透过”,意指以高透过率透过对应的波长区域的光、该波长区域的光的衰减(即,光量的降低)极小。
接着,对本实施方式的摄像装置100的处理步骤进行说明。此处,为方便起见,使用前文叙述过的图5的流程图来进行说明。
首先,当开始由摄像装置100进行的被摄体的摄像时,透过了摄像装置100中所设置的滤光片10及透镜20的光到达至影像传感器30。
在该情况下,影像传感器30中所包括的第1传感器31(R传感器)从透过了第1滤光区域11及第4滤光区域14的光中检测(接收)红色的波长区域的光而生成R影像(步骤S1)。该步骤S1中所生成的R影像变为与参考影像等相比发生了变化的影像。
此处,参考图30,对由第1传感器31生成的R影像进行概念性说明。再者,图30所示的G影像的散景形状与图6等当中说明过的相同,因此省略其详细说明。
如上所述,设置在摄像装置100的开口部的滤光片10中包含透过率特性不同的第1滤光区域~第4滤光区域11~14,而在以下的说明中,为方便起见,将包含该第1滤光区域~第4滤光区域11~14中的透过红色的波长区域的光的第1滤光区域11及第4滤光区域14的区域(也就是滤光片10的内侧区域)称为R滤光区域501。再者,图30的右列和中列表示影像传感器30上所形成的影像的散景形状,左列表示从上方(也就是Y轴的正方向)观察摄像装置100的情况下的透镜20及滤光片10的组合和影像传感器30。
首先,设想被摄体的位置比焦点位置远也就是距离d>0的情况。在该情况下,由于焦点没有对在被摄体上,因此在R影像中产生散景。
此外,如上所述,R影像是根据透过了R滤光区域(滤光片10的内侧区域)501的光而生成的影像。因此,关于距离d>0的情况下的R影像的散景形状501a,如图30的上层所示,例如是与G影像的散景形状202a相比该散景形状202a被缩小后那样的形状。
即,R影像的散景形状501a是与R滤光区域501的形状(大小)相应的点对称形状。
接着,设想被摄体的位置与焦点位置一致也就是距离d=0的情况。如图30的中层所示,该情况下的R影像中未产生散景。
进而,设想被摄体的位置比焦点位置近也就是距离d<0的情况。在该情况下,由于焦点没有对在被摄体上,因此在R影像中产生散景。
此外,如上所述,R影像是根据透过了R滤光区域501的光而生成的影像,而距离d<0的情况下的R影像的散景形状501b例如是与G影像的散景形状202b相比该散景形状202b被缩小后那样的形状。再者,散景形状501b的形状与上述散景形状501a相同。
再次返回至图5,影像传感器30中所包括的第2传感器32(G传感器)从透过了第1滤光区域~第4滤光区域11~14的光中检测绿色的波长区域的光而生成G影像(步骤S2)。
再者,由于绿色的波长区域的光透过所有滤光区域,因此G影像接近参考影像。
接着,影像传感器30中所包括的第3传感器33(B传感器)从透过了第2滤光区域12及第4滤光区域14的光中检测(接收)蓝色的波长区域的光而生成B影像(步骤S3)。该步骤S3中所生成的B影像变为与参考影像等相比发生了变化的影像。
此处,参考图31,对由第3传感器33生成的B影像进行概念性说明。再者,图31所示的G影像的散景形状与图30相同,因此省略其详细说明。
如上所述,设置在摄像装置100的开口部的滤光片10中包含透过率特性不同的第1滤光区域~第4滤光区域11~14,而在以下的说明中,为方便起见,将包含该第1滤光区域~第4滤光区域11~14中的透过蓝色的波长区域的光的第2滤光区域12及第4滤光区域14的区域(也就是从被摄像装置100拍摄的被摄体侧观察的情况下的滤光片10的左半部分区域)称为B滤光区域502。再者,图31的右列和中列表示影像传感器30上所形成的影像的散景形状,左列分别表示从上方(也就是Y轴的正方向)观察摄像装置100的情况下的透镜20及滤光片10的组合和影像传感器30。
首先,设想被摄体的位置比焦点位置远也就是距离d>0的情况。在该情况下,由于焦点没有对在被摄体上,因此在B影像中产生散景。
此外,如上所述,B影像是根据透过了B滤光区域(滤光片10的左半部分区域)502的光而生成的影像。因此,距离d>0的情况下的B影像的散景形状502a是例如与G影像的散景形状202a相比偏右侧的形状。
即,B影像的散景形状502a是与B滤光区域203的形状相应的非点对称形状(偏右侧的形状)。
接着,设想被摄体的位置与焦点位置一致也就是距离d=0的情况。如图31的中层所示,该情况下的B影像中未产生散景。
进而,设想被摄体的位置比焦点位置近也就是距离d<0的情况。在该情况下,由于焦点没有对在被摄体上,因此在B影像中产生散景。
此外,如上所述,B影像是根据透过了B滤光区域502的光而生成的影像,而距离d<0的情况下的B影像的散景形状502b是例如与G影像的散景形状202b相比偏左侧的形状。
即,散景形状502b与上述散景形状502a一样是与B滤光区域502的形状相应的非点对称形状,是以平行于Y轴方向的位置直线为中心将该散景形状502a翻转而得的形状。
如上所述,在R影像及B影像中,散景形状根据距离d而发生变化。具体而言,在距离d>0及距离d<0的情况(也就是距离d=0以外的情况)下,R影像的散景形状变为G影像的散景形状缩小而得的形状(点对称形状)。另一方面,若距离d>0,则B影像的散景形状变为G影像的散景形状的左侧缺损而成的半圆形状那样的形状(非点对称形状),若距离d<0,则B影像的散景形状变为G影像的散景形状的右侧缺损而成的半圆形状那样的形状(非点对称形状)。
再者,虽然图30及图31中没有展示,但R影像、G影像及B影像中的散景形状的大小(宽度)像前文叙述过的第1实施方式中说明过的那样取决于距离|d|。
再次返回至图5,上述步骤S1中所生成的R影像、步骤S2中所生成的G影像以及步骤S3中所生成的B影像由影像处理部110中所包括的输入部111输入。
距离算出部112根据由输入部111输入的R影像、G影像及B影像来算出被摄体距离(步骤S4)。
再者,在步骤S4中,与前文叙述过的第1实施方式一样,例如以接近参考影像的G影像为基准对上述的根据焦点位置到被摄体的距离d而发生变化的R影像及B影像的散景形状与该G影像的散景形状进行比较,由此算出构成拍摄影像的每一像素的被摄体距离。
此处,若以接近参考影像的影像即G影像为基准影像、以与该基准影像相比散景形状发生了变化的R影像及B影像各方为对象影像,则距离算出部112运用对应于任意距离的修正滤波器来修正对象影像的散景形状,并对该修正后的对象影像的散景形状与基准影像的散景形状进行比较,由此算出被摄体距离。
再者,在对象影像为R影像的情况下,运用对该R影像的散景形状(G影像的散景形状被缩小的形状)的周围附加散景的修正滤波器。在该情况下,通过对R影像的散景形状进行二维的修正滤波器的卷积,能够将该R影像的散景形状修正为与G影像的散景形状一致的形状。再者,对R影像的散景形状运用修正滤波器之后的处理与前文叙述过的第1实施方式相同,由此省略其详细说明。
此外,本实施方式中的B滤光区域502与前文叙述过的第1实施方式中的R滤光区域201为滤光片10中的同一区域。因此,在本实施方式中,在对象影像为B影像的情况下,执行与前文叙述过的第1实施方式中的使用R影像和G影像来确定距离d(也就是算出被摄体距离)的情况相同的处理即可。
在步骤S4中针对每一像素而算出了被摄体距离的情况下,执行步骤S5的处理。再者,步骤S5的处理与前文叙述过的第1实施方式中说明过的一致,由此省略其详细说明。
如上所述,在本实施方式中,透过为拍摄被摄体而入射的光的滤光片10被分割成4个滤光区域(第1滤光区域~第4滤光区域11~14),所述4个滤光区域(第1滤光区域~第4滤光区域11~14)由将该滤光片10一分为二且通过作为该滤光片10的一部分的闭合区域(内侧区域)的外缘上的2点的线形成,滤光片10构成为该4个滤光区域的透过率特性各不相同。
具体而言,如图29所示,第1线10i形成为包含以滤光片10的中央为中心的圆形的区域,第2线10j包含通过该圆形的区域的中心的直线。由该第1线10i及第2线10j形成第1滤光区域~第4滤光区域11~14。
在本实施方式中,能够利用根据透过了这种滤光片10的入射光而生成的拍摄影像(R影像、B影像及G影像)来算出被摄体距离,由此能够小型且低成本、高精度地获取距离信息。
此处,本实施方式中的R影像的散景形状是G影像的散景形状(基准散景形状)被缩小后那样的形状(点对称形状)。针对这种R影像的散景形状的卷积方向不同于上述第1实施方式中的R影像及B影像,并不限定于一个方向。因此,在本实施方式中,不论边缘的方向如何,都能算出被摄体距离。
再者,在本实施方式中,B影像的卷积方向为水平方向(左右方向),因此,对于水平方向的边缘部分,无法使用该B影像来算出距离d。在该情况下,是使用R影像来算出距离d,但由于该R影像的散景形状为点对称形状,因此不论是在距离d>0的情况下还是在距离d<0的情况下,该散景形状都是一样的。即,仅靠R影像,虽然能够算出距离|d|,但无法区分该距离d>0及距离d<0。相对于此,对于周边的像素而言,只在特定像素(与其对应的位置)距离d的正负发生颠倒的可能性低,因此,例如可根据针对该周边的像素算出的距离d(被摄体距离)来区分该特定像素的距离d>0或距离d<0。
进而,在本实施方式中,例如能够根据影像传感器30的分光灵敏度等来调整由第1线10i围成的内侧区域的大小(内侧区域的直径),因此,滤光片10中所包含的第1滤光区域~第4滤光区域11~14的设计的自由度较高,对照明变化等的稳健性(鲁棒性)的控制较为容易。
再者,图29所示的第1滤光区域~第4滤光区域11~14的配置(即,滤光片10的构成)为一例,滤光片10例如只要像上述那样以R影像的散景形状(R滤光区域501)为点对称形状、B影像的散景形状(B滤光区域502)为非点对称形状的方式配置有第1滤光区域~第4滤光区域11~14即可。例如,也可调换第1滤光区域11与第4滤光区域14并调换第2滤光区域12与第3滤光区域13。
此外,在本实施方式中,是以图29所示的通过第1线10i和第2线10j将滤光片10分割为4个滤光区域的情况来进行说明,但是,例如也可像图32所示那样通过第1线10i和2条以上的第2线(例如,第2线10k及10l)来分割滤光片10。
此外,例如也可像图33所示的第2线10m那样使第2线不穿过滤光片10的中心。进而,虽未图示,但也能以例如内侧区域的形状为矩形形状的方式使第1线为多条直线。此外,第2线也可为曲线。
此外,在本实施方式中,是以滤光片10被分割为4个滤光区域的情况来进行了说明,但只要以R影像的散景形状为G影像的散景形状(点对称形状)缩小后那样的形状、B影像的散景形状为非点对称形状的方式配置有R滤光区域及B滤光区域,而且构成为滤光片10中所包含的所有滤光区域均透过绿色的波长区域的光,则滤光区域的数量也可为5以上。再者,像前文叙述过的第1实施方式中说明过的那样,只要能够生成相当于G影像的基准影像,则也可为滤光片10中所包含的至少1个滤光区域不透过绿色的波长区域的光的构成。
此处,在本实施方式中,是对透过滤光片10中所包含的全部第1滤光区域~第4滤光区域11~14的波长区域的光的颜色(共通色)为绿色的情况进行了说明,而在将共通色设为绿色的情况下,也能以将上述本实施方式中的R滤光区域501设为B滤光区域、将B滤光区域502设为R滤光区域的方式构成滤光片10。即,也可将第1滤光区域11设为“青色滤光片”、将第2滤光区域12设为“黄色滤光片”、将第3滤光区域13设为“绿色滤光片”、将第4滤光区域14设为“透明滤光片”。在这种构成中,滤光片10的内侧区域(第1滤光区域11及第4滤光区域14)成为B滤光区域,滤光片10的左半部分区域(第2滤光区域12及第4滤光区域14)成为R滤光区域。在该情况下,也能通过分别对B影像(对象影像)及G影像(基准影像)、R影像(对象影像)及G影像(基准影像)进行比较来算出被摄体距离。
此外,共通色不限于绿色。例如,在将第1滤光区域11设为“品红色滤光片”、将第2滤光区域12设为“黄色滤光片”、将第3滤光区域13设为“红色滤光片”、将第4滤光区域14设为“透明滤光片”的情况下,可以使用以红色为共通色的滤光片10。在这种构成中,滤光片10的内侧区域成为B滤光区域,滤光片10的左半部分区域成为G滤光区域(透过绿色的波长区域的光的区域)。此外,作为共通色为红色的滤光片10的另一例,也可将第1滤光区域11设为“黄色滤光片”、将第2滤光区域12设为“品红色滤光片”、将第3滤光区域13设为“红色滤光片”、将第4滤光区域14设为“透明滤光片”。在这种构成中,滤光片10的内侧区域成为G滤光区域,滤光片10的左半部分区域成为B滤光区域。在共通色为红色的情况下,能够通过分别对G影像(对象影像)及R影像(基准影像)、B影像(对象影像)及R影像(基准影像)进行比较来算出被摄体距离。
进而,例如在将第1滤光区域11设为“品红色滤光片”、将第2滤光区域12设为“青色滤光片”、将第3滤光区域13设为“蓝色滤光片”、将第4滤光区域14设为“透明滤光片”的情况下,可以使用以蓝色为共通色的滤光片10。在这种构成中,滤光片10的内侧区域成为R滤光区域,滤光片10的左半部分区域成为G滤光区域。此外,作为共通色为蓝色的滤光片10的另一例,也可将第1滤光区域11设为“青色滤光片”、将第2滤光区域12设为“品红色滤光片”、将第3滤光区域13设为“蓝色滤光片”、将第4滤光区域14设为“透明滤光片”。在这种构成中,滤光片10的内侧区域成为G滤光区域,滤光片10的左半部分区域成为R滤光区域。在共通色为蓝色的情况下,能够通过分别对R影像(对象影像)及B影像(基准影像)、G影像(对象影像)及B影像(基准影像)进行比较来算出被摄体距离。
再者,与前文叙述过的第1实施方式一样,在本实施方式的摄像装置100中也能获得空间的三维信息。因此,本实施方式的摄像装置100也可用(运用)于前文叙述过的监视系统及自动控制系统等。
根据以上叙述过的至少1种实施方式,能够提供一种能够小型且低成本、高精度地获取距离信息的摄像装置及自动控制系统。
虽然对本发明的若干实施方式进行了说明,但这些实施方式是作为例子加以展示的,并非意欲限定发明的范围。这些实施方式能以其他各种形态加以实施,能够在不脱离发明的主旨的范围内进行各种省略、替换、变更。这些实施方式和其变形包含在发明的范围和主旨内,同样包含在权利要求书中记载的发明及其均等的范围内。
再者,可以将上述实施方式概括在以下的技术方案中。
[技术方案1]
一种摄像装置,其具备:
滤光片,其使为拍摄被摄体而入射的光透过;以及
影像传感器,其接收透过了所述滤光片的光而生成影像;
所述滤光片包含:
第1滤光区域,其使所述入射的光中的第1波长区域的光透过,使波长不同于所述第1波长区域的第2波长区域的光不透过;
第2滤光区域,其使所述第1波长区域的光不透过,使所述第2波长区域的光透过;
第3滤光区域,其使所述第1波长区域的光不透过,且使所述第2波长区域的光不透过;以及
第4滤光区域,其使所述第1波长区域的光透过,且使所述第2波长区域的光透过。
[技术方案2]
根据上述技术方案1所述的摄像装置,其中,
根据透过了所述第1滤光区域及所述第4滤光区域的第1波长区域的光由所述影像传感器生成的第1影像的散景形状与根据透过了所述第2滤光区域及所述第4滤光区域的第2波长区域的光由所述影像传感器生成的第2影像的散景形状不一样,
所述第1影像的散景形状以及所述第2影像的散景形状为非点对称形状。
[技术方案3]
根据上述技术方案1所述的摄像装置,其中,所述第1滤光区域~所述第4滤光区域由所述滤光片的外缘和处于所述外缘的内侧且相交的至少2条以上的线形成。
[技术方案4]
根据上述技术方案3所述的摄像装置,其中,
所述第1滤光区域被配置成与所述第4滤光区域相邻,
所述第2滤光区域被配置成与所述第4滤光区域相邻。
[技术方案5]
根据上述技术方案1所述的摄像装置,其中,所述滤光片具有所述第1滤光区域~所述第4滤光区域,所述第1滤光区域~所述第4滤光区域由作为该滤光片的一部分的闭合区域和将所述滤光片一分为二且通过所述闭合区域的外缘上的2点的线形成。
[技术方案6]
根据上述技术方案5所述的摄像装置,其中,
所述闭合区域为圆,
所述线将所述圆一分为二。
[技术方案7]
根据上述技术方案1所述的摄像装置,其中,所述第1滤光区域~所述第4滤光区域使波长不同于所述第1波长区域及所述第2波长区域的第3波长区域透过。
[技术方案8]
根据上述技术方案7所述的摄像装置,其中,
所述影像传感器构成为分别接收红色、绿色及蓝色的波长区域的光,
所述第1波长区域包含红色的波长区域,
所述第2波长区域包含蓝色的波长区域,
所述第3波长区域包含绿色的波长区域。
[技术方案9]
根据上述技术方案7所述的摄像装置,其还具备算出单元,所述算出单元通过对第1影像或者第2影像的第1散景形状与第3影像的第2散景形状进行比较来算出到所述被摄体的距离,所述第1影像是根据所述第1波长区域由所述影像传感器生成的,所述第2影像是根据所述第2波长区域由所述影像传感器生成的,所述第3影像是根据所述第3波长区域由所述影像传感器生成的。
[技术方案10]
根据上述技术方案9所述的摄像装置,其中,
所述第1散景形状为非点对称形状,
所述第2散景形状为点对称形状。
[技术方案11]
根据上述技术方案10所述的摄像装置,其还具备输出单元,所述输出单元输出根据表示所述算出的距离的距离信息加工而得的影像。
[技术方案12]
根据上述技术方案10所述的摄像装置,其中,所述第1滤光区域~所述第4滤光区域的形状或配置是根据到所述被摄体的距离的计算中所使用的所述摄像装置上的硬件的制约来决定。
[技术方案13]
根据上述技术方案10所述的摄像装置,其中,所述第1滤光区域~所述第4滤光区域的形状或配置是以对所述第1散景形状附加散景的方向不同于所述第1影像中或第2影像中的边缘的朝向的方式决定。
[技术方案14]
根据上述技术方案10所述的摄像装置,其中,所述第1滤光区域~所述第4滤光区域的形状或配置是以对所述第1影像的第1散景形状附加散景的方向以及对所述第2影像的第1散景形状附加散景的方向中的一方为水平的方式来决定。
[技术方案15]
根据上述技术方案10所述的摄像装置,其中,所述第1滤光区域~所述第4滤光区域的形状或配置是以对所述第1影像的第1散景形状附加散景的方向以及对所述第2影像的第1散景形状附加散景的方向正交的方式来决定。
[技术方案16]
根据上述技术方案1所述的摄像装置,其还具备算出单元,所述算出单元基于第1影像以及第2影像间的视差量来算出到由所述摄像装置拍摄到的被摄体的距离,所述第1影像是根据透过了所述第1滤光区域及第4滤光区域的第1波长区域由所述影像传感器生成的,所述第2影像是根据透过了所述第2滤光区域及第4滤光区域的第2波长区域由所述影像传感器生成的。
[技术方案17]
一种摄像装置,其具备:
滤光片,其使为拍摄被摄体而入射的光透过;以及
影像传感器,其接收透过了所述滤光片的光而生成影像;
所述滤光片被分割成4个滤光区域,所述4个滤光区域由作为该滤光片的一部分的闭合区域和将所述滤光片一分为二且通过所述闭合区域的外缘上的2点的线形成,
所述4个滤光区域的透过率特性各不相同。
[技术方案18]
一种自动控制系统,其具备:
根据上述技术方案1~17中任一项所述的摄像装置;以及
控制单元,其根据所述摄像装置中所生成的影像来控制移动体的动作。
Claims (9)
1.一种摄像装置,其特征在于,具备:
滤光片,其使为拍摄被摄体而入射的光透过;以及
影像传感器,其接收透过了所述滤光片的光而生成影像,
所述滤光片包含:
第1滤光区域,其使所述入射的光中的第1波长区域的光透过,使波长不同于所述第1波长区域的第2波长区域的光不透过;
第2滤光区域,其使所述第1波长区域的光不透过,使所述第2波长区域的光透过;
第3滤光区域,其使所述第1波长区域的光不透过,且使所述第2波长区域的光不透过;以及
第4滤光区域,其使所述第1波长区域的光透过,且使所述第2波长区域的光透过,
根据透过了所述第1滤光区域及所述第4滤光区域的第1波长区域的光由所述影像传感器生成的第1影像的散景形状与根据透过了所述第2滤光区域及所述第4滤光区域的第2波长区域的光由所述影像传感器生成的第2影像的散景形状不一样,
所述第1影像的散景形状以及所述第2影像的散景形状为非点对称形状。
2.根据权利要求1所述的摄像装置,其特征在于,所述第1滤光区域至所述第4滤光区域由所述滤光片的外缘和处于所述外缘的内侧且相交的至少2条以上的线形成。
3.根据权利要求2所述的摄像装置,其特征在于,
所述第1滤光区域被配置成与所述第4滤光区域相邻,
所述第2滤光区域被配置成与所述第4滤光区域相邻。
4.根据权利要求1所述的摄像装置,其特征在于,所述滤光片具有所述第1滤光区域至所述第4滤光区域,所述第1滤光区域至所述第4滤光区域由作为该滤光片的一部分的闭合区域和将所述滤光片一分为二且通过所述闭合区域的外缘上的2点的线形成。
5.根据权利要求4所述的摄像装置,其特征在于,
所述闭合区域为圆,
所述线将所述圆一分为二。
6.根据权利要求1所述的摄像装置,其特征在于,所述第1滤光区域至所述第4滤光区域使波长不同于所述第1波长区域及所述第2波长区域的第3波长区域透过。
7.根据权利要求6所述的摄像装置,其特征在于,
所述影像传感器构成为分别接收红色、绿色及蓝色的波长区域,
所述第1波长区域包含红色的波长区域,
所述第2波长区域包含蓝色的波长区域,
所述第3波长区域包含绿色的波长区域。
8.一种摄像装置,其特征在于,具备:
滤光片,其使为拍摄被摄体而入射的光透过;以及
影像传感器,其接收透过了所述滤光片的光而生成影像,
所述滤光片被分割成第1滤光区域至第4滤光区域,所述第1滤光区域至所述第4滤光区域由作为该滤光片的一部分的闭合区域和将所述滤光片一分为二且通过所述闭合区域的外缘上的2点的线形成,
所述第1滤光区域至所述第4滤光区域的透过率特性各不相同,
根据透过了所述第1滤光区域及所述第4滤光区域的第1波长区域的光由所述影像传感器生成的第1影像的散景形状与根据透过了所述第2滤光区域及所述第4滤光区域的第2波长区域的光由所述影像传感器生成的第2影像的散景形状不一样,
所述第1影像的散景形状以及所述第2影像的散景形状为非点对称形状。
9.一种自动控制系统,其特征在于,具备:
根据权利要求1~8中任一项所述的摄像装置;以及
控制单元,其根据所述摄像装置中所生成的影像来控制移动体的动作。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016220635A JP6699897B2 (ja) | 2016-11-11 | 2016-11-11 | 撮像装置、自動制御システム及びシステム |
JP2016-220635 | 2016-11-11 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108076263A CN108076263A (zh) | 2018-05-25 |
CN108076263B true CN108076263B (zh) | 2020-07-14 |
Family
ID=62107779
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710740371.7A Active CN108076263B (zh) | 2016-11-11 | 2017-08-25 | 摄像装置及自动控制系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10914960B2 (zh) |
JP (1) | JP6699897B2 (zh) |
CN (1) | CN108076263B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6860433B2 (ja) * | 2017-06-19 | 2021-04-14 | 株式会社東芝 | 処理装置、処理システム、方法及びプログラム |
JP6878219B2 (ja) | 2017-09-08 | 2021-05-26 | 株式会社東芝 | 画像処理装置および測距装置 |
JP7030592B2 (ja) * | 2018-03-27 | 2022-03-07 | キヤノン株式会社 | 測距装置、撮像装置、移動装置、ロボット装置、プログラム |
JP6989466B2 (ja) * | 2018-09-13 | 2022-01-05 | 株式会社東芝 | 光学フィルタ、撮像装置および測距装置 |
US10402673B1 (en) * | 2018-10-04 | 2019-09-03 | Capital One Services, Llc | Systems and methods for digitized document image data spillage recovery |
JP7123884B2 (ja) * | 2019-09-12 | 2022-08-23 | 株式会社東芝 | 撮像装置、方法及びプログラム |
JP2022186023A (ja) * | 2021-06-04 | 2022-12-15 | キヤノン株式会社 | 画像処理装置、撮像装置、画像処理方法およびプログラム |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1677217A (zh) * | 2004-03-31 | 2005-10-05 | 松下电器产业株式会社 | 摄像装置及摄像用光检测装置 |
CN101673026A (zh) * | 2008-09-12 | 2010-03-17 | 夏普株式会社 | 照相机以及成像系统 |
CN103636199A (zh) * | 2011-04-07 | 2014-03-12 | 松下电器产业株式会社 | 三维摄像装置、图像处理装置、图像处理方法及图像处理程序 |
CN104025579A (zh) * | 2011-12-27 | 2014-09-03 | 富士胶片株式会社 | 固体摄像装置 |
KR20150092612A (ko) * | 2014-02-05 | 2015-08-13 | 엘지전자 주식회사 | 입체적 형상을 감지하기 위한 카메라 및 그것의 제어 방법 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3299216B2 (ja) * | 1999-01-29 | 2002-07-08 | エヌイーシービューテクノロジー株式会社 | 映像投写装置 |
US20050146634A1 (en) * | 2003-12-31 | 2005-07-07 | Silverstein D. A. | Cameras, optical systems, imaging methods, and optical filter configuration methods |
JP2009276294A (ja) * | 2008-05-16 | 2009-11-26 | Toshiba Corp | 画像処理方法 |
JP2013017138A (ja) | 2011-07-06 | 2013-01-24 | Olympus Corp | 撮像装置、画像処理装置 |
JP5923754B2 (ja) * | 2011-08-11 | 2016-05-25 | パナソニックIpマネジメント株式会社 | 3次元撮像装置 |
JP2013246052A (ja) | 2012-05-25 | 2013-12-09 | Olympus Corp | 距離測定装置 |
CN104521231B (zh) * | 2012-08-10 | 2016-12-21 | 株式会社尼康 | 图像处理装置和摄像装置 |
WO2016003253A1 (en) | 2014-07-04 | 2016-01-07 | Samsung Electronics Co., Ltd. | Method and apparatus for image capturing and simultaneous depth extraction |
JP2016102733A (ja) | 2014-11-28 | 2016-06-02 | 株式会社東芝 | レンズ及び撮影装置 |
JP6428391B2 (ja) * | 2015-03-10 | 2018-11-28 | 株式会社デンソー | 撮像装置 |
JP6608763B2 (ja) | 2015-08-20 | 2019-11-20 | 株式会社東芝 | 画像処理装置及び撮影装置 |
US10382684B2 (en) | 2015-08-20 | 2019-08-13 | Kabushiki Kaisha Toshiba | Image processing apparatus and image capturing apparatus |
JP6585006B2 (ja) | 2016-06-07 | 2019-10-02 | 株式会社東芝 | 撮影装置および車両 |
-
2016
- 2016-11-11 JP JP2016220635A patent/JP6699897B2/ja active Active
-
2017
- 2017-08-25 CN CN201710740371.7A patent/CN108076263B/zh active Active
- 2017-08-31 US US15/692,827 patent/US10914960B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1677217A (zh) * | 2004-03-31 | 2005-10-05 | 松下电器产业株式会社 | 摄像装置及摄像用光检测装置 |
CN101673026A (zh) * | 2008-09-12 | 2010-03-17 | 夏普株式会社 | 照相机以及成像系统 |
CN103636199A (zh) * | 2011-04-07 | 2014-03-12 | 松下电器产业株式会社 | 三维摄像装置、图像处理装置、图像处理方法及图像处理程序 |
CN104025579A (zh) * | 2011-12-27 | 2014-09-03 | 富士胶片株式会社 | 固体摄像装置 |
KR20150092612A (ko) * | 2014-02-05 | 2015-08-13 | 엘지전자 주식회사 | 입체적 형상을 감지하기 위한 카메라 및 그것의 제어 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN108076263A (zh) | 2018-05-25 |
JP2018078514A (ja) | 2018-05-17 |
US10914960B2 (en) | 2021-02-09 |
JP6699897B2 (ja) | 2020-05-27 |
US20180136477A1 (en) | 2018-05-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108076263B (zh) | 摄像装置及自动控制系统 | |
EP3338248B1 (en) | Systems and methods for object tracking | |
US20180278820A1 (en) | Optical detection apparatus and methods | |
CN111683193B (zh) | 图像处理装置 | |
US11100662B2 (en) | Image processing apparatus, ranging apparatus and processing apparatus | |
JP6699898B2 (ja) | 処理装置、撮像装置、及び自動制御システム | |
US20180365849A1 (en) | Processing device and processing system | |
US20180137607A1 (en) | Processing apparatus, imaging apparatus and automatic control system | |
JP2018077190A (ja) | 撮像装置及び自動制御システム | |
JP2018084571A (ja) | 処理装置、撮像装置および自動制御システム | |
JP2019011971A (ja) | 推定システムおよび自動車 | |
CN107950023B (zh) | 车辆用显示装置以及车辆用显示方法 | |
CN112484691B (zh) | 图像处理装置、测距装置、测距方法及记录介质 | |
US20180268225A1 (en) | Processing apparatus and processing system | |
US11176397B2 (en) | Object recognition device | |
JP6847709B2 (ja) | カメラ装置、検出装置、検出システムおよび移動体 | |
CN104697491A (zh) | 在车辆中使用单视场成像器的距离确定 | |
KR20210003856A (ko) | 자동차 또는 감시 애플리케이션을 위한 스캐닝 광학 경로 폴딩 요소들을 구비하는 카메라 | |
Li et al. | Lane marking detection by side fisheye camera | |
JP2021170385A (ja) | 処理装置および処理システム | |
JP2007233487A (ja) | 歩行者検出方法、装置、およびプログラム | |
JP7242822B2 (ja) | 推定システムおよび自動車 | |
US20230106188A1 (en) | Vehicular vision system with object classification based on change in orientation of object | |
JP7446455B2 (ja) | 位置情報取得システム、位置情報取得方法、および位置情報取得装置 | |
KR102506811B1 (ko) | 자율 주행용 차량의 근접 거리 측정 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |