JP2018084571A - Processing device, imaging device, and automatic control system - Google Patents

Processing device, imaging device, and automatic control system Download PDF

Info

Publication number
JP2018084571A
JP2018084571A JP2017139402A JP2017139402A JP2018084571A JP 2018084571 A JP2018084571 A JP 2018084571A JP 2017139402 A JP2017139402 A JP 2017139402A JP 2017139402 A JP2017139402 A JP 2017139402A JP 2018084571 A JP2018084571 A JP 2018084571A
Authority
JP
Japan
Prior art keywords
image
distance
filter
reliability
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2017139402A
Other languages
Japanese (ja)
Inventor
三島 直
Sunao Mishima
直 三島
優介 森内
Yusuke Moriuchi
優介 森内
三田 雄志
Takeshi Mita
雄志 三田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to CN201710801514.0A priority Critical patent/CN108076267A/en
Priority to CN201710771177.5A priority patent/CN108076266A/en
Priority to US15/701,340 priority patent/US20180137629A1/en
Priority to US15/704,025 priority patent/US20180137607A1/en
Publication of JP2018084571A publication Critical patent/JP2018084571A/en
Abandoned legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a processing device capable of outputting and controlling related to the reliability of distance to a subject obtained from an image.SOLUTION: According to an embodiment, a processing device includes an acquisition unit, a distance calculation unit, and a reliability calculation unit. The acquisition unit acquires a first image of a subject including a blur of a shape indicated by a symmetrical first blur function and a second image of the subject including a blur of the shape indicated by an asymmetrical second blur function. The distance calculation unit calculates distance to the subject on the basis of correlation between the first blur function and the second blur function. The reliability calculation unit calculates the reliability of the distance on the basis of a level of the correlation.SELECTED DRAWING: Figure 5

Description

本発明の実施形態は、処理装置、撮像装置、自動制御システム、撮像システム及び距離情報取得方法に関する。   Embodiments described herein relate generally to a processing apparatus, an imaging apparatus, an automatic control system, an imaging system, and a distance information acquisition method.

近年、被写体までの距離を画像から得る画像処理技術が注目されている。   In recent years, an image processing technique for obtaining a distance to a subject from an image has attracted attention.

特開2015−194486号公報JP-A-2015-194486 特開2004−340714号公報JP 2004-340714 A 特許第4979525号公報Japanese Patent No. 4997525 実用新案登録第3179836号公報Utility Model Registration No. 3179836 特開2016−241744号公報JP, 2006-241744, A

本発明が解決しようとする課題は、画像から得た被写体までの距離の信頼度に関する出力や制御を行うことができる処理装置、撮像装置、自動制御システム、撮像システム及び距離情報取得方法を提供することである。   The problem to be solved by the present invention is to provide a processing device, an imaging device, an automatic control system, an imaging system, and a distance information acquisition method capable of performing output and control related to the reliability of the distance from the image to the subject. That is.

実施形態によれば、処理装置は、取得部と、距離算出部と、信頼度算出部と、を具備する。前記取得部は、対称な第1のぼけ関数で示される形状のぼけを含む被写体の第1の画像と、非対称な第2のぼけ関数で示される形状のぼけを含む前記被写体の第2の画像とを取得する。前記距離算出部は、前記第1のぼけ関数と前記第2のぼけ関数との相関に基づき、前記被写体までの距離を算出する。前記信頼度算出部は、前記相関の度合いに基づき前記距離の信頼度を算出する。   According to the embodiment, the processing device includes an acquisition unit, a distance calculation unit, and a reliability calculation unit. The acquisition unit includes a first image of a subject including a blur having a shape indicated by a symmetric first blur function, and a second image of the subject including a blur having a shape indicated by an asymmetric second blur function. And get. The distance calculation unit calculates a distance to the subject based on a correlation between the first blur function and the second blur function. The reliability calculation unit calculates the reliability of the distance based on the degree of correlation.

実施形態に係る撮像装置のハードウェア構成例を示すブロック図。FIG. 2 is a block diagram illustrating a hardware configuration example of the imaging apparatus according to the embodiment. 実施形態に係るフィルタの構成例を示す図。The figure which shows the structural example of the filter which concerns on embodiment. 実施形態に係るフィルタ領域の透過率特性の一例を示す図。The figure which shows an example of the transmittance | permeability characteristic of the filter area | region which concerns on embodiment. 実施形態に係るカラー開口による光線変化と、ぼけの形状とについて説明するための図。The figure for demonstrating the light ray change by the color opening which concerns on embodiment, and the shape of a blur. 実施形態に係る撮像装置の機能構成例を示すブロック図。FIG. 2 is a block diagram illustrating an example of a functional configuration of the imaging apparatus according to the embodiment. 実施形態に係る基準画像のぼけ関数の一例を示す図。The figure which shows an example of the blurring function of the reference | standard image which concerns on embodiment. 実施形態に係る対象画像のぼけ関数の一例を示す図。The figure which shows an example of the blurring function of the object image which concerns on embodiment. 実施形態に係るぼけ補正フィルタの一例を示す図。The figure which shows an example of the blurring correction filter which concerns on embodiment. 実施形態における信頼度算出処理を説明するための第1の図。The 1st figure for demonstrating the reliability calculation process in embodiment. 実施形態における信頼度算出処理を説明するための第2の図。The 2nd figure for demonstrating the reliability calculation process in embodiment. 実施形態における信頼度算出処理を説明するための第3の図。The 3rd figure for demonstrating the reliability calculation process in embodiment. 実施形態における信頼度算出処理を説明するための第4の図。FIG. 6 is a fourth diagram for explaining reliability calculation processing in the embodiment. ステレオマッチングにおける距離と相関値を説明するための図。The figure for demonstrating the distance and correlation value in stereo matching. 実施形態における相関関数の曲率の算出方法の一例を説明するための図。The figure for demonstrating an example of the calculation method of the curvature of a correlation function in embodiment. 実施形態における距離と距離の信頼度の出力形式の一例を示す図。The figure which shows an example of the output format of the distance and reliability of distance in embodiment. 実施形態における距離と距離の信頼度の出力形式の他の例を示す図。The figure which shows the other example of the output format of the distance and reliability of distance in embodiment. 実施形態における画像処理の流れの一例を示すフローチャート。5 is a flowchart illustrating an example of a flow of image processing in the embodiment. 実施形態に係るロボットの機能構成例を示すブロック図。The block diagram which shows the function structural example of the robot which concerns on embodiment. 実施形態に係るロボットにおける距離の信頼度に基づく一動作例を説明するための図。The figure for demonstrating one operation example based on the reliability of the distance in the robot which concerns on embodiment. 実施形態に係る移動体の機能構成例を示すブロック図。The block diagram which shows the function structural example of the mobile body which concerns on embodiment. 実施形態に係る移動体における距離の信頼度に基づく一動作例を説明するための第1の図。The 1st figure for demonstrating one operation example based on the reliability of the distance in the mobile body which concerns on embodiment. 実施形態に係る移動体における距離の信頼度に基づく一動作例を説明するための第2の図。The 2nd figure for demonstrating one operation example based on the reliability of the distance in the mobile body which concerns on embodiment. 実施形態に係る監視システムの機能構成例を示すブロック図。The block diagram which shows the function structural example of the monitoring system which concerns on embodiment. 実施形態に係る監視システムにおける距離の信頼度に基づく一処理例を説明するための図。The figure for demonstrating the example of 1 process based on the reliability of the distance in the monitoring system which concerns on embodiment. 実施形態に係る監視システムにおける距離に基づく一処理例を説明するための図。The figure for demonstrating one process example based on the distance in the monitoring system which concerns on embodiment. 実施形態に係る監視システムにおける距離の一提示例を示す図。The figure which shows the example of 1 presentation of the distance in the monitoring system which concerns on embodiment. 実施形態に係る監視システムにおけるメッセージの一表示例を示す図。The figure which shows the example of 1 display of the message in the monitoring system which concerns on embodiment. 第2実施形態に係る撮像装置の設置例を示す図。The figure which shows the example of installation of the imaging device which concerns on 2nd Embodiment. 第2実施形態に係る撮像装置の回転の一例を示す図。The figure which shows an example of rotation of the imaging device which concerns on 2nd Embodiment. 第2実施形態に係るシステムの電気的な構成の一例を示すブロック図。The block diagram which shows an example of the electrical constitution of the system which concerns on 2nd Embodiment. 第2実施形態に係るシステムの距離算出、表示制御のための機能構成の一例を示すブロック図。The block diagram which shows an example of the function structure for the distance calculation of the system which concerns on 2nd Embodiment, and display control. 第2実施形態に係る撮像装置により撮影される被写体の一例を示す図。FIG. 6 is a diagram illustrating an example of a subject photographed by an imaging apparatus according to a second embodiment. 第2実施形態に係る撮像装置のカラーフィルタの一例を示す図。FIG. 6 is a diagram illustrating an example of a color filter of an imaging apparatus according to a second embodiment. 第2実施形態に係る撮像装置のカラーフィルタの第1変形例を示す図。The figure which shows the 1st modification of the color filter of the imaging device which concerns on 2nd Embodiment. 第2実施形態に係る撮像装置のカラーフィルタの第2変形例を示す図。FIG. 10 is a diagram illustrating a second modification of the color filter of the imaging apparatus according to the second embodiment. 第2実施形態に係る撮像装置のカラーフィルタの第3変形例を示す図。FIG. 10 is a diagram illustrating a third modification of the color filter of the imaging device according to the second embodiment. 第2実施形態に係る撮像装置のカラーフィルタの第4変形例を示す図。FIG. 10 is a diagram illustrating a fourth modification of the color filter of the imaging device according to the second embodiment. 第3実施形態に係る撮像装置の設置例を示す図。The figure which shows the example of installation of the imaging device which concerns on 3rd Embodiment. 第3実施形態に係る撮像装置の回転の一例を示す図。The figure which shows an example of rotation of the imaging device which concerns on 3rd Embodiment. 第3実施形態に係る撮像装置における第1、第2主軸の一例を示す図。The figure which shows an example of the 1st, 2nd main axis | shaft in the imaging device which concerns on 3rd Embodiment. 実施形態の第1応用例に係る監視システムの機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of the monitoring system which concerns on the 1st application example of embodiment. 監視システムの使用例を示す図。The figure which shows the usage example of a monitoring system. 実施形態の第2応用例に係る自動ドアシステムの機能構成の一例を示す図。The figure which shows an example of a function structure of the automatic door system which concerns on the 2nd application example of embodiment. 自動ドアシステムの動作例を示す図。The figure which shows the operation example of an automatic door system. 自動ドアシステムの変形例に係る自動車ドア開閉システムの一例を示す図。The figure which shows an example of the motor vehicle door opening / closing system which concerns on the modification of an automatic door system. 実施形態の第3応用例に係る移動体制御システムの機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of the mobile body control system which concerns on the 3rd application example of embodiment. 第3応用例の移動体の一例であるロボットを示す図。The figure which shows the robot which is an example of the mobile body of the 3rd application example. 第3応用例の移動体がドローンの場合の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure in case the mobile body of a 3rd application example is a drone. 第3応用例の移動体が自動車の場合の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure in case the mobile body of a 3rd application example is a motor vehicle.

以下、実施形態について図面を参照して説明する。   Hereinafter, embodiments will be described with reference to the drawings.

図1は、実施形態に係る撮像装置のハードウェア構成例を示すブロック図である。この撮像装置100は、画像を撮像し、撮像された画像を処理する機能を有する。この撮像装置100は、たとえば、カメラ、カメラ機能を有する携帯電話機やスマートフォン、PDA(Personal Digital Assistant, Personal Data Assistant)といった携帯情報端末、カメラ機能を有するパーソナルコンピュータ、または各種電子機器に内蔵される組み込みシステムとして実現され得る。   FIG. 1 is a block diagram illustrating a hardware configuration example of the imaging apparatus according to the embodiment. The imaging apparatus 100 has a function of capturing an image and processing the captured image. The imaging apparatus 100 is incorporated in, for example, a camera, a mobile phone or a smartphone having a camera function, a portable information terminal such as a PDA (Personal Digital Assistant, Personal Data Assistant), a personal computer having a camera function, or various electronic devices. It can be realized as a system.

図1に示すように、撮像装置100は、たとえば、フィルタ10、レンズ20、イメージセンサ30、画像処理部、および記憶部を備える。画像処理部は、例えばCPU40などの回路で構成される。記憶部は、例えばRAM50や不揮発性メモリ90で構成される。撮像装置100は、さらにメモリカードスロット60、ディスプレイ70および通信部80を備えてもよい。例えば、イメージセンサ30、CPU40、RAM50、メモリカードスロット60、ディスプレイ70、通信部80および不揮発性メモリ90は、バス110を介して相互に接続され得る。   As illustrated in FIG. 1, the imaging device 100 includes, for example, a filter 10, a lens 20, an image sensor 30, an image processing unit, and a storage unit. The image processing unit is configured by a circuit such as a CPU 40, for example. The storage unit includes, for example, a RAM 50 and a nonvolatile memory 90. The imaging apparatus 100 may further include a memory card slot 60, a display 70, and a communication unit 80. For example, the image sensor 30, the CPU 40, the RAM 50, the memory card slot 60, the display 70, the communication unit 80, and the nonvolatile memory 90 can be connected to each other via the bus 110.

イメージセンサ30は、フィルタ10およびレンズ20を透過した光を受光し、受光した光を電気信号に変換(光電変換)することによって、画像を生成する。イメージセンサ30には、たとえばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)が用いられる。イメージセンサ30は、たとえば、赤色(R)の光を受光する撮像素子(第1のセンサ31)と、緑色(G)の光を受光する撮像素子(第2のセンサ32)と、青色(B)の光を受光する撮像素子(第3のセンサ33)とを備える。各撮像素子は、対応する波長帯域の光を受光し、受光した光を電気信号に変換する。この電気信号をA/D変換することによりカラー画像を生成することができる。なお、赤、緑、青の撮像素子毎の電気信号を用いて、R画像、G画像、B画像をそれぞれ生成することもできる。つまり、カラー画像、R画像、G画像、B画像を同時に生成することができる。換言すると、撮像装置100は、1度の撮像で、カラー画像、R画像、G画像、B画像を得ることができる。   The image sensor 30 receives light transmitted through the filter 10 and the lens 20, and generates an image by converting the received light into an electrical signal (photoelectric conversion). For example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) is used for the image sensor 30. The image sensor 30 includes, for example, an image sensor (first sensor 31) that receives red (R) light, an image sensor (second sensor 32) that receives green (G) light, and blue (B ). The imaging element (third sensor 33) that receives the light of Each image sensor receives light in a corresponding wavelength band, and converts the received light into an electrical signal. A color image can be generated by A / D converting the electrical signal. It is also possible to generate an R image, a G image, and a B image using electrical signals for the red, green, and blue image sensors. That is, a color image, an R image, a G image, and a B image can be generated simultaneously. In other words, the imaging apparatus 100 can obtain a color image, an R image, a G image, and a B image by one imaging.

CPU40は、撮像装置100内の様々なコンポーネントの動作を制御するプロセッサである。CPU40は、ストレージデバイスである不揮発性メモリ90からRAM50にロードされる様々なプログラムを実行する。不揮発性メモリ90には、イメージセンサ30によって生成された画像や、その画像の処理結果も格納され得る。   The CPU 40 is a processor that controls operations of various components in the imaging apparatus 100. The CPU 40 executes various programs loaded into the RAM 50 from the nonvolatile memory 90 that is a storage device. The non-volatile memory 90 can also store images generated by the image sensor 30 and processing results of the images.

メモリカードスロット60には、SDメモリカードやSDHCメモリカードのような各種の可搬記憶媒体が挿入され得る。メモリカードスロット60に記憶媒体が挿入された場合、その記憶媒体に対するデータの書き込みおよび読み出しが実行され得る。データは、例えば画像データや距離データである。   Various portable storage media such as an SD memory card and an SDHC memory card can be inserted into the memory card slot 60. When a storage medium is inserted into the memory card slot 60, data can be written to and read from the storage medium. The data is, for example, image data or distance data.

ディスプレイ70は、たとえばLCD(Liquid Crystal Display)である。ディスプレイ70は、CPU40等によって生成される表示信号に基づいて画面イメージを表示する。なお、ディスプレイ70はタッチスクリーンディスプレイであってもよい。その場合、たとえば、LCDの上面にタッチパネルが配置される。タッチパネルは、LCDの画面上で入力を行うための静電容量式のポインティングデバイスである。指が接触される画面上の接触位置および接触位置の動き等がタッチパネルによって検出される。   The display 70 is, for example, an LCD (Liquid Crystal Display). The display 70 displays a screen image based on a display signal generated by the CPU 40 or the like. The display 70 may be a touch screen display. In that case, for example, a touch panel is arranged on the upper surface of the LCD. The touch panel is an electrostatic capacitance type pointing device for performing input on an LCD screen. The touch position on the screen where the finger is touched and the movement of the touch position are detected by the touch panel.

通信部80は、有線通信または無線通信を実行するように構成されたインターフェース機器である。通信部80は、信号を有線または無線送信する送信部と、信号を有線又は無線受信する受信部とを含む。   The communication unit 80 is an interface device configured to execute wired communication or wireless communication. The communication unit 80 includes a transmission unit that transmits signals in a wired or wireless manner and a reception unit that receives signals in a wired or wireless manner.

図2は、フィルタ10の構成例を示す図である。フィルタ10は、たとえば、2色のカラーフィルタ領域である第1のフィルタ領域11と第2のフィルタ領域12とで構成される。フィルタ10の中心は、撮像装置100の光学中心13と一致している。第1のフィルタ領域11および第2のフィルタ領域12は、それぞれ、光学中心13に対して非点対称である形状を有している。また、例えば各フィルタ領域11,12は重複せず、かつ、2つのフィルタ領域11,12によってフィルタ領域の全領域を構成している。図2に示す例では、第1のフィルタ領域11および第2のフィルタ領域12は、それぞれ、円形のフィルタ10が光学中心13を通る線分で分割された半円の形状を有している。また、第1のフィルタ領域11は、たとえばイエロー(Y)のフィルタ領域であり、第2のフィルタ領域12は、たとえばシアン(C)のフィルタ領域である。   FIG. 2 is a diagram illustrating a configuration example of the filter 10. The filter 10 includes, for example, a first filter area 11 and a second filter area 12 that are two color filter areas. The center of the filter 10 coincides with the optical center 13 of the imaging device 100. The first filter region 11 and the second filter region 12 each have a shape that is asymmetric with respect to the optical center 13. For example, the filter regions 11 and 12 do not overlap each other, and the two filter regions 11 and 12 constitute the entire filter region. In the example shown in FIG. 2, each of the first filter region 11 and the second filter region 12 has a semicircular shape in which the circular filter 10 is divided by a line segment passing through the optical center 13. The first filter region 11 is, for example, a yellow (Y) filter region, and the second filter region 12 is, for example, a cyan (C) filter region.

フィルタ10は、2以上のカラーフィルタ領域を有する。カラーフィルタ領域それぞれは、撮像装置の光学中心に対して非対称な形状である。一のカラーフィルタ領域が透過する光の波長領域の一部と他の一のカラーフィルタ領域が透過する光の波長領域の一部は、例えば重複する。一のカラーフィルタ領域が透過する光の波長領域は、例えば他の一のカラーフィルタ領域が透過する光の波長領域を含んでもよい。以下では、例として図2のフィルタ10を用いて説明する。   The filter 10 has two or more color filter regions. Each of the color filter regions has an asymmetric shape with respect to the optical center of the imaging device. A part of the wavelength region of light transmitted through one color filter region and a part of the wavelength region of light transmitted through another color filter region overlap, for example. The wavelength region of light transmitted through one color filter region may include, for example, the wavelength region of light transmitted through another color filter region. Below, it demonstrates using the filter 10 of FIG. 2 as an example.

このようなフィルタ10がカメラの開口部に配置されることによって、開口部が2色で2分割された構造開口であるカラー開口が構成される。このカラー開口を透過する光線に基づいて、イメージセンサ30は画像を生成する。イメージセンサ30に入射する光の光路上において、フィルタ10とイメージセンサ30との間にレンズ20が配置されてもよい。イメージセンサ30に入射する光の光路上において、レンズ20とイメージセンサ30との間にフィルタ10が配置されてもよい。レンズ20は複数設けられる場合には、フィルタ10は2のレンズ20の間に配置されてもよい。   By arranging such a filter 10 in the opening of the camera, a color opening which is a structure opening in which the opening is divided into two colors is formed. Based on the light rays that pass through the color aperture, the image sensor 30 generates an image. The lens 20 may be disposed between the filter 10 and the image sensor 30 on the optical path of the light incident on the image sensor 30. The filter 10 may be disposed between the lens 20 and the image sensor 30 on the optical path of the light incident on the image sensor 30. When a plurality of lenses 20 are provided, the filter 10 may be disposed between the two lenses 20.

より詳細には、第2のセンサ32に対応する波長帯域の光は、イエローの第1のフィルタ領域11とシアンの第2のフィルタ領域12の両方を透過する。第1のセンサ31に対応する波長帯域の光は、イエローの第1のフィルタ領域11を透過し、シアンの第2のフィルタ領域12を透過しない。第3のセンサ33に対応する波長帯域の光は、シアンの第2のフィルタ領域12を透過し、イエローの第2のフィルタ領域12を透過しない。   More specifically, the light in the wavelength band corresponding to the second sensor 32 passes through both the yellow first filter region 11 and the cyan second filter region 12. The light in the wavelength band corresponding to the first sensor 31 passes through the yellow first filter region 11 and does not pass through the cyan second filter region 12. The light in the wavelength band corresponding to the third sensor 33 passes through the cyan second filter region 12 and does not pass through the yellow second filter region 12.

なお、ある波長帯域の光がフィルタまたはフィルタ領域を透過するとは、フィルタまたはフィルタ領域が高い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰(すなわち、光量の低下)が極めて小さいことを意味する。また、ある波長帯域の光がフィルタまたはフィルタ領域を透過しないとは、光がフィルタまたはフィルタ領域に遮蔽されることであり、例えば、フィルタまたはフィルタ領域が低い透過率でその波長帯域の光を透過し、そのフィルタまたはフィルタ領域による当該波長帯域の光の減衰が極めて大きいことを意味する。例えばフィルタまたはフィルタ領域は、ある波長帯の光を吸収することにより光を減衰させる。   Note that light in a certain wavelength band passes through a filter or filter region. The filter or filter region transmits light in that wavelength band with a high transmittance, and the filter or filter region attenuates light in that wavelength band (ie This means that the reduction in the amount of light) is extremely small. In addition, the fact that light in a certain wavelength band does not pass through the filter or filter area means that the light is shielded by the filter or filter area. This means that the attenuation of light in the wavelength band by the filter or the filter region is extremely large. For example, a filter or filter region attenuates light by absorbing light in a certain wavelength band.

図3は、第1のフィルタ領域11および第2のフィルタ領域12の透過率特性の例を示す図である。図3に示すように、イエローの第1のフィルタ領域11の透過率特性21では、R画像およびG画像に対応する波長帯域の光が高い透過率で透過され、B画像に対応する波長帯域の光がほとんど透過されていない。また、シアンの第2のフィルタ領域12の透過率特性22では、B画像およびG画像に対応する波長帯域の光が高い透過率で透過され、R画像に対応する波長帯域の光がほとんど透過されていない。   FIG. 3 is a diagram illustrating an example of transmittance characteristics of the first filter region 11 and the second filter region 12. As shown in FIG. 3, in the transmittance characteristic 21 of the yellow first filter region 11, light in the wavelength band corresponding to the R image and G image is transmitted with high transmittance, and the wavelength band corresponding to the B image is transmitted. Little light is transmitted. In the transmittance characteristic 22 of the cyan second filter region 12, light in the wavelength band corresponding to the B image and the G image is transmitted with high transmittance, and light in the wavelength band corresponding to the R image is almost transmitted. Not.

したがって、R画像に対応する波長帯域の光はイエローの第1のフィルタ領域11のみを透過し、B画像に対応する波長帯域の光はシアンの第2のフィルタ領域12のみを透過するので、R画像およびB画像上のぼけの形状は、被写体までの距離dに応じて、より詳細には、距離dと合焦距離dfとの差分に応じて変化する。また、各フィルタ領域が光学中心に対して非対称な形状なので、R画像およびB画像上のぼけの形状が、被写体が合焦距離dfよりも手前にあるか、それとも奥にあるかによって異なる。すなわち、R画像およびB画像上のぼけの形状は偏っている。 Therefore, the light in the wavelength band corresponding to the R image is transmitted only through the first filter region 11 for yellow, and the light in the wavelength band corresponding to the B image is transmitted only through the second filter region 12 for cyan. the shape of blur in the image and B image, depending on the distance d to the subject, and more particularly, changes according to the difference between the distance d and the focal length d f. Further, each filter region is so asymmetric shape with respect to the optical center, the shape of the blurring of the R and B images, depending on whether the subject is there in front of the focusing distance d f, or in the back. That is, the blur shapes on the R image and the B image are biased.

図4を参照して、フィルタ10が配置されたカラー開口による光線変化と、ぼけの形状とについて説明する。   With reference to FIG. 4, a description will be given of a light ray change caused by the color aperture in which the filter 10 is disposed and a blur shape.

被写体15が合焦距離dfよりも奥にある場合(d>df)、イメージセンサ30によって撮像された画像にはぼけが発生する。この画像上のぼけの形状を示すぼけ関数(PSF:Point Spread Function)は、R画像、G画像およびB画像でそれぞれ異なっている。すなわち、R画像のぼけ関数101Rは左側に偏ったぼけの形状を示し、G画像のぼけ関数101Gは偏りのないぼけの形状を示し、B画像のぼけ関数101Bは右側に偏ったぼけの形状を示している。 When the object 15 is in the back than focusing distance d f (d> d f) , the image captured by the image sensor 30 blur occurs. The blur function (PSF: Point Spread Function) indicating the shape of the blur on the image is different for each of the R image, the G image, and the B image. That is, the blur function 101R of the R image shows a blur shape biased to the left side, the blur function 101G of the G image shows a blur shape without bias, and the blur function 101B of the B image has a blur shape biased to the right. Show.

被写体15が合焦距離dfにある場合(d=df)、イメージセンサ30によって撮像された画像にはほとんどぼけが発生しない。この画像上のぼけの形状を示すぼけ関数は、R画像、G画像およびB画像でほぼ同じである。すなわち、R画像のぼけ関数102R、G画像のぼけ関数102G、およびB画像のぼけ関数102Bは、偏りのないぼけの形状を示している。 When the subject 15 is at the in-focus distance d f (d = d f ), the image captured by the image sensor 30 is hardly blurred. The blur function indicating the shape of blur on this image is substantially the same for the R image, the G image, and the B image. In other words, the blur function 102R for the R image, the blur function 102G for the G image, and the blur function 102B for the B image indicate the shape of the blur without deviation.

被写体15が合焦距離dfよりも手前にある場合(d<d)、イメージセンサ30によって撮像された画像にはぼけが発生する。この画像上のぼけの形状を示すぼけ関数は、R画像、G画像及びB画像でそれぞれ異なっている。すなわち、R画像のぼけ関数103Rは右側に偏ったぼけの形状を示し、G画像のぼけ関数103Gは偏りのないぼけの形状を示し、B画像のぼけ関数103Bは左側に偏ったぼけの形状を示している。 When the object 15 is in front of the focusing distance d f (d <d f) , the image captured by the image sensor 30 blur occurs. The blur function indicating the blur shape on the image is different for each of the R image, the G image, and the B image. That is, the blur function 103R of the R image shows a blur shape biased to the right, the blur function 103G of the G image shows a blur shape without bias, and the blur function 103B of the B image has a blur shape biased to the left. Show.

本実施形態では、このような特性を利用して、被写体までの距離を算出する。   In the present embodiment, the distance to the subject is calculated using such characteristics.

図5は、撮像装置100の機能構成例を示すブロック図である。   FIG. 5 is a block diagram illustrating a functional configuration example of the imaging apparatus 100.

図5に示すように、撮像装置100は、前述のフィルタ10、レンズ20およびイメージセンサ30に加えて、画像処理部41を備える。フィルタ10からイメージセンサ30までの矢印は、光の経路を示す。イメージセンサ30から画像処理部41までの矢印は、電気信号の経路を示す。画像処理部41は、たとえば、画像取得部411、距離算出部412、信頼度算出部413および出力部414を備える。画像処理部41は、これらの一部またはすべてがソフトウェア(プログラム)で実現されても良いし、ハードウェア回路で実現されても良い。   As illustrated in FIG. 5, the imaging apparatus 100 includes an image processing unit 41 in addition to the filter 10, the lens 20, and the image sensor 30 described above. An arrow from the filter 10 to the image sensor 30 indicates a light path. An arrow from the image sensor 30 to the image processing unit 41 indicates a path of an electric signal. The image processing unit 41 includes, for example, an image acquisition unit 411, a distance calculation unit 412, a reliability calculation unit 413, and an output unit 414. The image processing unit 41 may be realized in part or in whole by software (program) or a hardware circuit.

画像取得部411は、ぼけ関数(Point spread function、PSF)が偏りのないぼけの形状を示すG画像を基準画像として取得する。また、ぼけ関数が偏ったぼけの形状を示すR画像およびB画像の一方または両方を対象画像として取得する。例えば、対象画像と基準画像は、一の撮像装置により同時刻に撮像された画像である。   The image acquisition unit 411 acquires, as a reference image, a G image that shows a blur shape with no blurring function (Point spread function, PSF). In addition, one or both of an R image and a B image showing a blur shape with a defocused blur function is acquired as a target image. For example, the target image and the reference image are images captured at the same time by one imaging device.

距離算出部412は、複数のぼけ補正フィルタのうち、対象画像に付加すると、基準画像との相関がより高くなるぼけ補正フィルタを求めることで、画像に写る被写体までの距離を算出する。距離算出部412は、さらに算出した距離から、距離画像を出力してもよい。複数のぼけ補正フィルタは、対象画像に対して、相互に異なるぼけを付加する関数である。ここで、まず、距離算出部412による距離算出処理の詳細について説明する。   The distance calculation unit 412 calculates a distance to a subject in the image by obtaining a blur correction filter that has a higher correlation with the reference image when added to the target image among the plurality of blur correction filters. The distance calculation unit 412 may output a distance image from the further calculated distance. The plurality of blur correction filters are functions that add different blurs to the target image. Here, first, the details of the distance calculation processing by the distance calculation unit 412 will be described.

距離算出部412は、取得された対象画像と基準画像とをもとに、対象画像に異なるぼけを付加することで、対象画像のぼけ形状を補正した補正画像を生成する。本実施形態では、画像に写る被写体までの距離が任意の距離であると仮定して作成した複数のぼけ補正フィルタを用いて、対象画像のぼけ形状を補正した補正画像を生成し、補正画像と基準画像との相関がより高くなる距離を求めることで、被写体までの距離を算出する。なお、補正画像と基準画像との相関を計算する手法については後述する。   The distance calculation unit 412 generates a corrected image in which the blur shape of the target image is corrected by adding different blurs to the target image based on the acquired target image and the reference image. In this embodiment, a corrected image in which the blur shape of the target image is corrected is generated using a plurality of blur correction filters created assuming that the distance to the subject in the image is an arbitrary distance. The distance to the subject is calculated by obtaining a distance that provides a higher correlation with the reference image. A method for calculating the correlation between the corrected image and the reference image will be described later.

撮像画像のぼけ関数は、撮像装置100の開口形状と、被写体の位置とピント位置との距離によって決定する。図6は、実施形態に係る基準画像のぼけ関数の一例を示す図である。図6に示すように、第2のセンサに対応する波長領域が透過する開口形状は点対称形である円形状であるため、ぼけ関数で示されるぼけの形状は、ピント位置の前後で変化はなく、被写体とピント位置との間の距離の大きさによってぼけの幅が変化する。このようなぼけの形状を示すぼけ関数は、被写体の位置とピント位置との間の距離の大きさによってぼけの幅が変化するガウス関数として表現できる。なお、ぼけ関数は、被写体の位置とピント位置との距離によってぼけの幅が変化するピルボックス関数として表現してもよい。   The blur function of the captured image is determined by the opening shape of the image capturing apparatus 100 and the distance between the subject position and the focus position. FIG. 6 is a diagram illustrating an example of a blur function of a reference image according to the embodiment. As shown in FIG. 6, since the aperture shape through which the wavelength region corresponding to the second sensor transmits is a circular shape that is a point-symmetrical shape, the blur shape indicated by the blur function does not change before and after the focus position. The blur width changes depending on the distance between the subject and the focus position. Such a blur function indicating the shape of the blur can be expressed as a Gaussian function in which the blur width varies depending on the distance between the subject position and the focus position. Note that the blur function may be expressed as a pillbox function in which the blur width changes depending on the distance between the position of the subject and the focus position.

一方、図7は、実施形態に係る対象画像のぼけ関数の一例を示す図である。なお、各図の中心(x0,y0)=(0,0)である。図7に示すように、対象画像(たとえばR画像)のぼけ関数は、被写体がピント位置よりも遠方にあるd>dfの場合、x>0において第1のフィルタ領域11での光減衰によってぼけの幅が減衰するガウス関数として表現できる。また、被写体がピント位置よりも近方にあるd<dfの場合、x<0において第1のフィルタ領域11での光減衰によってぼけの幅が減衰するガウス関数として表現できる。 On the other hand, FIG. 7 is a diagram illustrating an example of a blur function of the target image according to the embodiment. The center (x 0 , y 0 ) = ( 0 , 0 ) in each figure. As shown in FIG. 7, a blur function of the target image (e.g. R image) in the case of d> d f in farther than the subject focus position, the optical attenuation at the first filter region 11 in x> 0 It can be expressed as a Gaussian function with a reduced blur width. Further, the subject be in a proximal than the focus position of the d <d f, can be expressed as a Gaussian function width of blur is attenuated by the light attenuation of the first filter region 11 in x <0.

また、基準画像のぼけ関数と対象画像のぼけ関数とを解析することにより、対象画像のぼけ形状を基準画像のぼけ形状へ補正するための複数のぼけ補正フィルタを求めることができる。   Further, by analyzing the blur function of the reference image and the blur function of the target image, a plurality of blur correction filters for correcting the blur shape of the target image to the blur shape of the reference image can be obtained.

図8は、実施形態に係るぼけ補正フィルタの一例を示す図である。なお、図8に示すぼけ補正フィルタは、図2に示したフィルタ10を用いた場合のぼけ補正フィルタである。図8に示すように、ぼけ補正フィルタは、第1のフィルタ領域11と第2のフィルタ領域12の境界の線分の中心点を通り、この線分に直交する直線上(直線付近)に分布する。その分布は、想定する距離毎にピーク点(直線上の位置,高さ)とピーク点からの広がり方とが異なる図示のような山状の分布となる。対象画像のぼけ形状は、ぼけ補正フィルタを用いて、任意の距離を想定した様々なぼけ形状に補正することができる。つまり、任意の距離を想定した補正画像を生成することができる。   FIG. 8 is a diagram illustrating an example of a blur correction filter according to the embodiment. Note that the blur correction filter shown in FIG. 8 is a blur correction filter when the filter 10 shown in FIG. 2 is used. As shown in FIG. 8, the blur correction filter is distributed on the straight line (near the straight line) that passes through the center point of the line segment at the boundary between the first filter region 11 and the second filter region 12 and is orthogonal to the line segment. To do. The distribution is a mountain-shaped distribution as shown in the figure in which the peak point (position and height on the straight line) and the spread from the peak point differ for each assumed distance. The blur shape of the target image can be corrected to various blur shapes assuming an arbitrary distance using a blur correction filter. That is, a corrected image assuming an arbitrary distance can be generated.

距離算出部412は、生成した補正画像と基準画像とのぼけ形状が最も近似または一致する距離を撮像画像の各画素から求める。ぼけ形状の一致度は、各画素を中心とする任意サイズの矩形領域における補正画像と基準画像との相関を計算すれば良い。ぼけ形状の一致度の計算は、既存の類似度評価手法を用いれば良い。距離算出部412は、補正画像と基準画像とで相関が最も高くなる距離を求め、各画素に写る被写体までの距離を算出する。   The distance calculation unit 412 obtains the distance at which the blur shape between the generated corrected image and the reference image is the closest or the same from each pixel of the captured image. The degree of coincidence of the blur shapes may be calculated by calculating the correlation between the corrected image and the reference image in a rectangular area having an arbitrary size centered on each pixel. The degree of coincidence of blur shapes may be calculated using an existing similarity evaluation method. The distance calculation unit 412 calculates a distance that gives the highest correlation between the corrected image and the reference image, and calculates the distance to the subject that appears in each pixel.

たとえば、既存の類似度評価手法は、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross-Correlation)、ZNCC(Zero-mean Normalized Cross-Correlation)、Color Alignment Measure等を利用すれば良い。本実施形態では、自然画像の色成分が局所的には線形な関係を持つ特性を有することを利用したColor Alignment Measureを利用する。Color Alignment Measureでは、撮像画像の対象画素を中心とする局所境域の色分布の分散から、相関関係を表す指標が算出される。   For example, existing similarity evaluation methods include SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), NCC (Normalized Cross-Correlation), ZNCC (Zero-mean Normalized Cross-Correlation), Color Alignment Measure, etc. Use it. In the present embodiment, Color Alignment Measure is used that utilizes the characteristic that the color components of a natural image have a locally linear relationship. In Color Alignment Measure, an index representing a correlation is calculated from the dispersion of the color distribution in the local border centered on the target pixel of the captured image.

このように、距離算出部412は、フィルタ領域に応じた対象画像のぼけ形状を、距離を仮定したぼけ補正フィルタにより補正した補正画像を生成し、生成した補正画像と基準画像との相関がより高くなる距離を求めることで、被写体までの距離を算出する。   As described above, the distance calculation unit 412 generates a corrected image in which the blur shape of the target image corresponding to the filter region is corrected by the blur correction filter assuming the distance, and the correlation between the generated corrected image and the reference image is greater. The distance to the subject is calculated by obtaining the distance that increases.

信頼度算出部413は、以上のように距離算出部412が算出した距離の信頼性を算出する。次に、信頼度算出部413による信頼度算出処理の詳細について説明する。   The reliability calculation unit 413 calculates the reliability of the distance calculated by the distance calculation unit 412 as described above. Next, details of the reliability calculation processing by the reliability calculation unit 413 will be described.

たとえば、図9に示すように、被写体(A)の位置がピント位置よりも遠い場合、被写体像(B)のぼけは、B画像においては右側に偏り(C1)、R画像においては左側に偏る(C2)。G画像においては、左右対称のぼけが現れる。なお、図9の被写体(A)と被写体像(B)の横軸は、C1、C2、D1、D2、Eの横軸と同じ次元である。また、C1、C2、D1、D2の縦軸は、ぼけに関する色成分の量を示す。   For example, as shown in FIG. 9, when the position of the subject (A) is far from the focus position, the blur of the subject image (B) is biased to the right side (C1) in the B image and to the left side in the R image. (C2). In the G image, symmetrical blur appears. The horizontal axes of the subject (A) and the subject image (B) in FIG. 9 are the same dimensions as the horizontal axes of C1, C2, D1, D2, and E. The vertical axes of C1, C2, D1, and D2 indicate the amount of color components related to blur.

このように、B画像およびR画像の一方または両方について、ぼけの形状をG画像のぼけの形状に一致させるべく(E)、距離毎のぼけ補正フィルタ(D1,D2)の中から最適なぼけ補正フィルタを探索することにより、被写体(A)までの距離を得ることができる。   Thus, for one or both of the B image and the R image, the optimum blur is selected from the blur correction filters (D1, D2) for each distance in order to match the blur shape with the blur shape of the G image (E). By searching for the correction filter, the distance to the subject (A) can be obtained.

図10は、図9に示した被写体像(B)のぼけの形状(C1,C2)および補正後のぼけの形状(E)を断面波形として表した図である。図11に示すように、B画像およびR画像の一方または両方について、ぼけの形状をG画像のぼけの形状と一致させるためのぼけ補正量を探索する(A1,A2)という探索問題は凸最適化問題である。つまり、距離毎のぼけ補正フィルタ(図9:D1,D2)による補正後のB画像またはR画像のぼけの形状とG画像のぼけの形状との相関関数は凸関数となる。   FIG. 10 is a diagram illustrating the blur shape (C1, C2) and the corrected blur shape (E) of the subject image (B) illustrated in FIG. 9 as cross-sectional waveforms. As shown in FIG. 11, for one or both of the B image and the R image, the search problem of searching for a blur correction amount for matching the blur shape with the blur shape of the G image (A1, A2) is convex optimal. Problem. That is, the correlation function between the blurred shape of the B image or R image and the blurred shape of the G image after correction by the blur correction filter for each distance (FIG. 9: D1, D2) is a convex function.

また、凸関数である当該相関関数の曲率は、図12に示すように、閾値以上の相関値が得られたぼけ補正フィルタの数が少ない場合、すなわち、解のばらつきが小さい場合、大きくなり、解のばらつきが大きい場合、小さくなる。信頼度算出部413は、この相関関数の曲率に基づき、距離算出部412により算出された距離の信頼度を算出する。これに対して、2枚の画像からステレオマッチングにより被写体までの距離を算出する場合、一方の画像上の注目点に対応する他方の画像上の対応点を探索するという探索問題は、たとえば図13に示すように、凸最適化問題ではない。したがって、ステレオマッチングの場合、相関値で距離の信頼度を得ることは難しい。   Further, as shown in FIG. 12, the curvature of the correlation function, which is a convex function, increases when the number of blur correction filters that obtain a correlation value equal to or higher than the threshold value is small, that is, when the dispersion of the solution is small, When the variation of the solution is large, it becomes small. The reliability calculation unit 413 calculates the reliability of the distance calculated by the distance calculation unit 412 based on the curvature of the correlation function. On the other hand, when calculating the distance from two images to the subject by stereo matching, the search problem of searching for a corresponding point on the other image corresponding to the target point on one image is, for example, FIG. This is not a convex optimization problem. Therefore, in the case of stereo matching, it is difficult to obtain the reliability of distance using the correlation value.

図14を参照して、相関関数の曲率の算出方法の一例を説明する。   An example of a method for calculating the curvature of the correlation function will be described with reference to FIG.

たとえば、距離毎のぼけ補正フィルタ(fn)適用時の各相関値(rn)から得られる曲線として2次関数をフィッティング(最小二乗法)し、相関関数の曲率を、当該2次関数の2次係数とする。この場合には、3点(p1,p2,p3)から曲率を算出することができる。 For example, a quadratic function is fitted (least square method) as a curve obtained from each correlation value (r n ) when applying the blur correction filter (f n ) for each distance, and the curvature of the correlation function is calculated using the quadratic function. A secondary coefficient is used. In this case, the curvature can be calculated from three points (p 1 , p 2 , p 3 ).

より詳細には、上記3点(p1,p2,p3)について、
1=c+bf1+af1 2 …(式1)
2=c+bf2+af2 2 …(式2)
3=c+bf3+af3 2 …(式3)
の式を立て、この3つの式からa,b,cの値を算出する。すなわち、曲率とする2次係数であるaを算出する。
More specifically, for the above three points (p 1 , p 2 , p 3 ),
r 1 = c + bf 1 + af 1 2 (Formula 1)
r 2 = c + bf 2 + af 2 2 (Formula 2)
r 3 = c + bf 3 + af 3 2 (Formula 3)
And the values of a, b, and c are calculated from these three equations. That is, a which is a secondary coefficient as a curvature is calculated.

また、このようにして算出した曲率を、例えば、ガウス関数を用いた以下の(式4)により信頼度(0〜1)へと変換する。   Moreover, the curvature calculated in this way is converted into reliability (0 to 1) by, for example, the following (Expression 4) using a Gaussian function.

信頼度=1−exp(−(曲率2/2σ2)) …(式4)
信頼度算出部413は、被写体までの距離を算出する過程で算出される距離毎のぼけ補正フィルタ処理適用時の相関値を距離算出部412から取得し、たとえば前述した方法により、距離算出部412により算出された距離の信頼度を算出する。
Reliability = 1−exp (− (curvature 2 / 2σ 2 )) (Formula 4)
The reliability calculation unit 413 obtains a correlation value at the time of applying the blur correction filter processing for each distance calculated in the process of calculating the distance to the subject from the distance calculation unit 412, and for example, the distance calculation unit 412 by the method described above. The reliability of the distance calculated by the above is calculated.

出力部414は、距離算出部412により算出された距離と、信頼度算出部413により算出された距離の信頼度とを対応づけた出力データを出力する。出力部414は、たとえば、図15に示すように、画像と位置的に対応づけて配置したマップ形式で、画素単位に算出される距離と距離の信頼度とを出力する。あるいは、出力部414は、たとえば、図16に示すように、画像上に設定される座標に基づく順序で並べたリスト形式で、画素単位に算出される距離と距離の信頼度とを出力してもよい。出力部414は、図15および図16に示した形式に限らず、どのような形式で、画素単位に算出される距離と距離の信頼度とを出力してもよい。   The output unit 414 outputs output data in which the distance calculated by the distance calculation unit 412 and the reliability of the distance calculated by the reliability calculation unit 413 are associated with each other. For example, as illustrated in FIG. 15, the output unit 414 outputs the distance calculated for each pixel and the reliability of the distance in a map format that is arranged in a positional relationship with the image. Alternatively, the output unit 414 outputs the distance calculated in pixel units and the reliability of the distance in a list format arranged in the order based on the coordinates set on the image, for example, as shown in FIG. Also good. The output unit 414 is not limited to the formats shown in FIGS. 15 and 16, and may output the distance calculated for each pixel and the reliability of the distance in any format.

例えば、前述したようなマップ形式で、距離(距離マップ)と信頼度(信頼度マップ)とを別々に出力してもよい。さらに、RGBの3画像データの後にこの2マップデータのいずれかまたは両方をつなげて出力データとしてもよい。あるいは、YUV(輝度信号,色差信号[Cb],色差信号[Cr])の3データの後にこの2マップデータのいずれかまたは両方をつなげてもよい。   For example, the distance (distance map) and the reliability (reliability map) may be output separately in the map format as described above. Further, either or both of the two map data may be connected after the RGB three-image data as output data. Alternatively, either one or both of the two map data may be connected after three data of YUV (luminance signal, color difference signal [Cb], color difference signal [Cr]).

また、例えば、前述したようなリスト形式で、距離(距離リスト)と信頼度(信頼度リスト)とを別々に出力してもよい。さらに、RGBの3画像データの後にこの2リストデータのいずれかまたは両方をつなげて出力データとしてもよい。あるいは、YUVの3データの後にこの2リストデータのいずれかまたは両方をつなげてもよい。   Further, for example, the distance (distance list) and the reliability (reliability list) may be separately output in the list format as described above. Further, one or both of the two list data may be connected to the RGB three-image data as output data. Alternatively, either one or both of the two list data may be connected after the three YUV data.

また、信頼度を出力する形態は、例えば、距離画像上の位置を指定されると信頼度をポップアップで示す表示であってもよい。距離画像上の指定された位置における距離がポップアップで表示されてもよい
あるいは、カラー画像上に距離情報と信頼度をポップアップで表示してもよい。
Moreover, the form which outputs a reliability may be the display which shows a reliability with a pop-up, for example, when the position on a distance image is designated. The distance at the specified position on the distance image may be displayed in a pop-up, or the distance information and the reliability may be displayed in a pop-up on the color image.

距離は、画像中のすべての画素に対して算出しなくてもよい。例えば、距離を検出する対象となる被写体が予め特定されていてもよい。特定は、例えば画像認識や、ユーザの入力による指定により行うことができる。一方、信頼度も、距離が求められている画素すべてに対して算出しなくてもよい。例えば特定の被写体や距離が近い被写体については信頼度を算出し、遠い被写体については信頼度を算出しなくてもよい。   The distance need not be calculated for all pixels in the image. For example, a subject whose distance is to be detected may be specified in advance. The identification can be performed by, for example, image recognition or designation by user input. On the other hand, the reliability may not be calculated for all the pixels for which the distance is required. For example, the reliability may be calculated for a specific subject or a subject close to the distance, and the reliability may not be calculated for a far subject.

また、前述したようなマップ形式で、図15に示すように距離と信頼度とを同時に出力する場合または距離マップと信頼度マップとで別々に出力する場合、あるいは、前述したようなリスト形式で、図16に示すように距離と信頼度とを同時に出力する場合または距離リストと信頼度リストとで別々に出力する場合、のいずれにおいても、その出力データに、算出したすべての距離を載せなくてもよい。例えば、信頼度が所定値より低い、あるいは相対的に信頼度が低い場合にはその距離を出力データに載せなくてもよい。   Further, in the map format as described above, when the distance and the reliability are output simultaneously as shown in FIG. 15, when the distance map and the reliability map are output separately, or in the list format as described above. As shown in FIG. 16, in the case where the distance and the reliability are output at the same time or when the distance list and the reliability list are output separately, all the calculated distances are not included in the output data. May be. For example, when the reliability is lower than a predetermined value or relatively low, the distance may not be included in the output data.

また、このようにマップ、リストその他の様々な形式で出力され得る出力データは、例えば、ディスプレイ70に出力されてもよい。   In addition, output data that can be output in various forms such as a map, a list, and the like may be output to the display 70, for example.

図17は、実施形態における画像処理の流れの一例を示すフローチャートである。   FIG. 17 is a flowchart illustrating an example of the flow of image processing in the embodiment.

画像取得部411は、イメージセンサ30により生成される画像であって、フィルタ10のフィルタ領域を透過した光のうち、第1のフィルタ領域および第2のフィルタ領域のいずれによっても減衰せずに透過する光により結像される基準画像を取得する(ステップA1)。また、画像取得部411は、同じくイメージセンサ30により生成される画像であって、フィルタ10のフィルタ領域を透過した光のうち、たとえば第1のフィルタ領域により減衰して透過する光により結像される対象画像を取得する(ステップA2)。ここでは、対象画像として、第1のフィルタ領域により減衰して透過する光により結像される画像を取得することを想定するが、画像取得部411は、第2のフィルタ領域により減衰して透過する光により結像される画像を取得してもよいし、第1のフィルタ領域により減衰して透過する光により結像される画像と、第2のフィルタ領域により減衰して透過する光により結像される画像との2つを取得してもよい。   The image acquisition unit 411 is an image generated by the image sensor 30 and is transmitted without being attenuated by either the first filter region or the second filter region of the light transmitted through the filter region of the filter 10. A reference image formed by the light to be acquired is acquired (step A1). The image acquisition unit 411 is also an image generated by the image sensor 30 and is imaged by light transmitted through the filter region of the filter 10 after being attenuated and transmitted by the first filter region, for example. Target image is acquired (step A2). Here, it is assumed that an image formed by light that is attenuated and transmitted through the first filter region is acquired as the target image, but the image acquisition unit 411 is attenuated and transmitted through the second filter region. An image formed by light that is attenuated by the first filter region and an image formed by light that is attenuated and transmitted by the first filter region and the light that is attenuated and transmitted by the second filter region. You may acquire two with the image to be imaged.

距離算出部412は、ぼけ補正フィルタを用いて、対象画像のぼけ形状を補正した補正画像を生成し(ステップA3)、この補正画像のぼけと基準画像のぼけとの相関値を算出する(ステップA4)。補正画像の生成および相関値の算出は、距離毎のぼけ補正フィルタの数分行われる。距離算出部412は、算出した相関値に基づき、被写体までの距離を算出する(ステップA5)。より詳細には、距離毎のぼけ補正フィルタの中から、生成された補正画像と基準画像との相関が最も高いぼけ補正フィルタを探索することにより、被写体までの距離を取得する。あるいは、他の補正フィルタよりも基準画像等との相関が高い補正画像を生成するボケ補正フィルタが探索されてもよい。   The distance calculation unit 412 uses the blur correction filter to generate a corrected image in which the blur shape of the target image is corrected (step A3), and calculates a correlation value between the blur of the corrected image and the blur of the reference image (step A3). A4). Correction image generation and correlation value calculation are performed by the number of blur correction filters for each distance. The distance calculation unit 412 calculates the distance to the subject based on the calculated correlation value (step A5). More specifically, the distance to the subject is obtained by searching for the blur correction filter having the highest correlation between the generated corrected image and the reference image from among the blur correction filters for each distance. Alternatively, a blur correction filter that generates a corrected image having a higher correlation with the reference image or the like than other correction filters may be searched.

また、信頼度算出部413は、被写体までの距離を算出する過程で算出される距離毎のぼけ補正フィルタ処理適用時の相関値に基づき、相関関数の曲率を算出する(ステップA6)。信頼度算出部413は、算出した曲率に基づき、距離算出部412により算出された距離の信頼度を算出する(ステップA7)。   Further, the reliability calculation unit 413 calculates the curvature of the correlation function based on the correlation value when the blur correction filter process is applied for each distance calculated in the process of calculating the distance to the subject (step A6). The reliability calculation unit 413 calculates the reliability of the distance calculated by the distance calculation unit 412 based on the calculated curvature (step A7).

そして、出力部414は、距離算出部412により算出された距離と、信頼度算出部413により算出された距離の信頼度とを対応づけて出力する(ステップA8)。   Then, the output unit 414 outputs the distance calculated by the distance calculation unit 412 and the reliability of the distance calculated by the reliability calculation unit 413 in association with each other (step A8).

以上のように、本実施形態によれば、画像から得た被写体までの距離の信頼度を、実際の信頼性を反映した値として算出することができる。   As described above, according to the present embodiment, the reliability of the distance from the image to the subject can be calculated as a value reflecting the actual reliability.

ところで、前述の説明では、距離毎のぼけ補正フィルタにより生成される補正画像と基準画像との相関関数の曲率を算出し、この曲率を距離の信頼度へと変換した。補正画像と基準画像との相関値を、その補正画像の生成に用いられたぼけ補正フィルタに対応づけられる距離が正しい値である確率(0〜1)として捉えて、算出された相関値そのものを距離の信頼度としてもよい。より詳細には、複数のぼけ補正フィルタのうち、補正画像と基準画像との相関が最も高いぼけ補正フィルタの相関値を距離の信頼度としてもよい。   In the above description, the curvature of the correlation function between the corrected image generated by the blur correction filter for each distance and the reference image is calculated, and this curvature is converted into distance reliability. The correlation value between the corrected image and the reference image is regarded as a probability (0 to 1) that the distance associated with the blur correction filter used to generate the corrected image is a correct value, and the calculated correlation value itself is used. It is good also as the reliability of distance. More specifically, among the plurality of blur correction filters, the correlation value of the blur correction filter having the highest correlation between the correction image and the reference image may be used as the distance reliability.

また、たとえば曲率を距離の信頼度へと変換する際、最も高い相関値を重みとして用いて、その相関値が高いほど、距離の信頼度が高くなるようにしてもよい。あるいは、被写体像のエッジ方向、より詳細には、処理対象となっている画素のエッジ勾配方向を重みとして用いて、その方向がフィルタ10の第1のフィルタ領域と第2のフィルタ領域との境界線の方向と一致しているほど、距離の信頼度が高くなるようにしてもよい。相関値そのものを距離の信頼度とする場合においても、被写体像のエッジ方向を重みとして用いるようにしてもよい。あるいは、被写体像のエッジ強度、より詳細には、処理対象となっている画素のエッジ勾配の強度を重みとして用いて、その強度が強いほど、距離の信頼度が高くなるようにしてもよい。   For example, when converting curvature into distance reliability, the highest correlation value may be used as a weight, and the higher the correlation value, the higher the distance reliability. Alternatively, the edge direction of the subject image, more specifically, the edge gradient direction of the pixel to be processed is used as a weight, and the direction is the boundary between the first filter region and the second filter region of the filter 10. The more reliable the distance, the higher the reliability of the distance. Even when the correlation value itself is the reliability of the distance, the edge direction of the subject image may be used as the weight. Alternatively, the edge strength of the subject image, more specifically, the strength of the edge gradient of the pixel to be processed may be used as a weight, and the higher the strength, the higher the reliability of the distance.

なお、以上では、フィルタ10で画像のぼけ関数を変更することにより、被写体までの距離を画像から算出する例を説明したが、たとえば2PDセンサなどと称される、受光される入射光を画素毎に左右2分割するイメージセンサを利用すれば、フィルタ10によらずに、少なくとも一方のぼけ関数を変更させた2つの画像を取得でき、かつ、これら2つの画像のぼけの形状の相関から距離を算出できる。この場合においても、前述した距離の信頼度を算出する手法は適用可能である。   In the above description, the example in which the distance to the subject is calculated from the image by changing the blur function of the image with the filter 10 has been described. However, for example, the received incident light called a 2PD sensor or the like is detected for each pixel. By using an image sensor that divides the image into left and right parts, it is possible to obtain two images in which at least one of the blur functions is changed without using the filter 10, and to obtain a distance from the correlation between the blur shapes of these two images. It can be calculated. Even in this case, the above-described method for calculating the reliability of the distance can be applied.

次に、以上のように構成され、被写体までの距離および当該距離の信頼度を出力する撮像装置100を適用するシステムの例についていくつか説明する。   Next, some examples of a system to which the imaging apparatus 100 configured as described above and outputting the distance to the subject and the reliability of the distance are applied will be described.

<自動制御システム:ロボット>
図18は、実施形態に係るロボット200の機能構成例を示すブロック図である。ここでは、ロボット200が、たとえば複数種の製品を生産し得る生産ラインなどに設置される産業用ロボットであることを想定する。ロボット200は、設置型に限らず、たとえばAGV(Automatic Guided Vehicle)など自律的に移動するものであってもよい。また、ロボット200は、たとえば、床を掃除するための掃除ロボットや、来場者に各種案内を行うコミュニケーションロボットなどの非産業用としても実現され得る。
<Automatic control system: Robot>
FIG. 18 is a block diagram illustrating a functional configuration example of the robot 200 according to the embodiment. Here, it is assumed that the robot 200 is an industrial robot installed in a production line that can produce a plurality of types of products, for example. The robot 200 is not limited to the installation type, and may be an autonomously moving robot such as an AGV (Automatic Guided Vehicle). The robot 200 can also be realized for non-industrial use such as a cleaning robot for cleaning the floor and a communication robot for performing various guidance to visitors.

図18に示すように、ロボット200は、撮像装置100と、制御部201と、駆動機構202と、回転機構203とを有する。また、撮像装置100は、回転機構203に取り付けられている。   As illustrated in FIG. 18, the robot 200 includes an imaging device 100, a control unit 201, a drive mechanism 202, and a rotation mechanism 203. In addition, the imaging device 100 is attached to the rotation mechanism 203.

制御部201は、第1に、撮像装置100から出力される、作業の対象物である被写体までの距離に基づき、駆動機構202を制御する。駆動機構202は、たとえば、対象物に部材を取り付けたり、対象物を摘み上げて所定の場所へ搬送したりするためのロボットアームである。また、制御部201は、第2に、撮像装置100から距離とともに出力される当該距離の信頼度に基づき、回転機構203を制御する。図19は、制御部201による回転機構203の制御を説明するための図である。   First, the control unit 201 controls the drive mechanism 202 based on the distance to the subject that is the work target, which is output from the imaging device 100. The drive mechanism 202 is, for example, a robot arm for attaching a member to an object or picking up an object and transporting it to a predetermined place. Secondly, the control unit 201 controls the rotation mechanism 203 based on the reliability of the distance output together with the distance from the imaging device 100. FIG. 19 is a diagram for explaining the control of the rotation mechanism 203 by the control unit 201.

概して、被写体像のエッジ方向と、フィルタ10の第1のフィルタ領域と第2のフィルタ領域との境界線の方向とが一致していると、距離の信頼度は高くなる。一方、これらの方向が直交する場合、距離の信頼度は低くなる。そこで、制御部201は、撮像装置100から出力される距離の信頼度が高くなるように、回転機構203を制御する。より詳細には、被写体の形状や模様、置かれた向きなどにより、たとえば(A)に示すように、被写体像のエッジが垂直方向に多く現れる場合、フィルタ10の第1のフィルタ領域と第2のフィルタ領域との境界線が垂直方向となるように回転機構203を制御し、また、たとえば(B)に示すように、被写体像のエッジが水平方向に多く現れる場合、フィルタ10の第1のフィルタ領域と第2のフィルタ領域との境界線が水平方向となるように回転機構203を制御する。   In general, when the edge direction of the subject image and the direction of the boundary line between the first filter region and the second filter region of the filter 10 coincide with each other, the reliability of the distance increases. On the other hand, when these directions are orthogonal, the reliability of the distance is low. Therefore, the control unit 201 controls the rotation mechanism 203 so that the reliability of the distance output from the imaging apparatus 100 is high. More specifically, for example, when many edges of a subject image appear in the vertical direction due to the shape and pattern of the subject, the orientation of the subject, etc., as shown in FIG. The rotation mechanism 203 is controlled so that the boundary line with the filter area of the filter 10 is in the vertical direction, and when many edges of the subject image appear in the horizontal direction, for example, as shown in FIG. The rotation mechanism 203 is controlled so that the boundary line between the filter area and the second filter area is in the horizontal direction.

たとえば、制御部201は、まず、プレ撮像を撮像装置100に行わせ、このプレ撮像時に撮像装置100から出力される距離の信頼度に基づき、回転機構203により撮像装置100を回転させるべき回転角を導き出す。プレ撮像では、撮像装置100は、画像上の全画素分、距離と当該距離の信頼度とを算出するのではなく、ある程度の数のサンプリングした画素分、距離と当該距離の信頼度とを算出するようにしてもよい。また、制御部201は、たとえば、これらの平均値をプレ撮像における距離の信頼度とする。回転角の導出方法としては、たとえば、プレ撮像における距離の信頼度が閾値未満の場合、90度とする等、様々な方法を適用可能である。回転機構203により撮像装置100を回転させた後、制御部201は、本撮像を撮像装置100に行わせる。   For example, the control unit 201 first causes the imaging device 100 to perform pre-imaging, and based on the reliability of the distance output from the imaging device 100 during this pre-imaging, the rotation angle at which the imaging device 100 should be rotated by the rotation mechanism 203. To derive. In pre-imaging, the imaging apparatus 100 does not calculate the distance and reliability of the distance for all the pixels on the image, but calculates a certain number of sampled pixels, distance and the reliability of the distance. You may make it do. In addition, the control unit 201 uses, for example, the average value of these as the reliability of the distance in the pre-imaging. As a method for deriving the rotation angle, for example, when the reliability of the distance in the pre-imaging is less than the threshold, various methods such as 90 degrees can be applied. After rotating the imaging apparatus 100 by the rotation mechanism 203, the control unit 201 causes the imaging apparatus 100 to perform main imaging.

あるいは、制御部201は、回転機構203により撮像装置100を回転させながら撮像装置100に連続的に撮像を行わせて、距離の信頼度が最も高い画像を採用するようにしてもよい。   Alternatively, the control unit 201 may cause the image capturing apparatus 100 to continuously perform image capturing while rotating the image capturing apparatus 100 using the rotation mechanism 203, and may employ an image having the highest reliability of distance.

なお、図19では、回転機構203が駆動機構202上に設けられる例を示したが、撮像装置100を駆動機構202上に設けることは必須ではなく、したがって、回転機構203は、駆動機構202とは別途独立して設けられるものであってもよい。   FIG. 19 shows an example in which the rotation mechanism 203 is provided on the drive mechanism 202. However, it is not essential to provide the imaging device 100 on the drive mechanism 202. Therefore, the rotation mechanism 203 includes the drive mechanism 202. May be provided separately.

距離の信頼度が高くなるように撮像装置100を回転させるという手法は、ロボット200以外の移動体にも適用可能である。移動体が、たとえばドローンなどの回転自在な飛翔体であるような場合、回転機構によらず、移動体300全体を回転させるべく制御部301が駆動機構302を制御してもよい。   The technique of rotating the imaging apparatus 100 so that the reliability of the distance is high can be applied to a moving body other than the robot 200. When the moving body is a rotatable flying body such as a drone, for example, the control unit 301 may control the drive mechanism 302 to rotate the entire moving body 300 regardless of the rotating mechanism.

撮像装置100は、イメージセンサ30に対してフィルタ10を回転させる回転機構を備えてもよい。回転機構は、例えば光学中心を中心にしてフィルタを一平面内で回転させる。フィルタ10の回転により、信頼度の高い距離を取得することができる。   The imaging apparatus 100 may include a rotation mechanism that rotates the filter 10 with respect to the image sensor 30. The rotation mechanism rotates the filter in one plane around the optical center, for example. With the rotation of the filter 10, a highly reliable distance can be acquired.

<自動制御システム:移動体>
図20は、実施形態に係る移動体300の機能構成例を示すブロック図である。ここでは、移動体300が、たとえば自動車であることを想定する。移動体300は、自動車を含む車両に限らず、移動用の駆動機構を有するものであるならば、ドローンや飛行機などの飛翔体、船舶、AGVや掃除ロボットなどのロボット等、様々なものとして実現され得る。さらに、移動体300は自動ドアであってもよい。
<Automatic control system: moving body>
FIG. 20 is a block diagram illustrating a functional configuration example of the moving object 300 according to the embodiment. Here, it is assumed that the moving body 300 is, for example, an automobile. The moving body 300 is not limited to a vehicle including an automobile, and can be realized as various things such as a flying body such as a drone or an airplane, a ship, a robot such as an AGV or a cleaning robot as long as it has a driving mechanism for movement. Can be done. Furthermore, the moving body 300 may be an automatic door.

図20に示すように、移動体300は、制御システムを有する。制御システムは、2つの撮像装置100(100−1,100−2)と、制御部301と、駆動機構302とを有する。ここでは、2つの撮像装置100を有することを想定しているが、3つ以上の撮像装置100を有してもよい。制御システムは、移動体300に搭載されてもよいし、移動体を遠隔で制御してもよい。制御部301は、駆動機構302を直接制御してもよいし、無線により間接的に制御してもよい。図21に示すように、2つの撮像装置100は、たとえば、移動体300の進行方向の被写体を撮像するように設置される。なお、移動体300の進行方向の被写体を撮像するように設置される形態としては、前方を撮像するいわゆるフロントカメラとして設置され得るほか、バック時に後方を撮像するいわゆるリアカメラとして設置され得る。もちろん、これら両方が設置されてもよい。また、撮像装置100は、いわゆるドライブレコーダとしての機能を兼ねて設置されるものであってもよい。すなわち、撮像装置100は、録画機器であってもよい。   As shown in FIG. 20, the moving body 300 has a control system. The control system includes two imaging devices 100 (100-1 and 100-2), a control unit 301, and a drive mechanism 302. Here, it is assumed that two imaging devices 100 are provided, but three or more imaging devices 100 may be provided. The control system may be mounted on the moving body 300 or the moving body may be controlled remotely. The control unit 301 may directly control the driving mechanism 302 or may indirectly control by wireless. As shown in FIG. 21, the two imaging devices 100 are installed so as to image a subject in the traveling direction of the moving body 300, for example. In addition, as a form installed so that the to-be-photographed object of the moving body 300 may be imaged, it can be installed as a so-called front camera that images the front, or it can be installed as a so-called rear camera that images the back during back. Of course, both of these may be installed. In addition, the imaging apparatus 100 may be installed so as to function as a so-called drive recorder. That is, the imaging device 100 may be a recording device.

制御部201は、2つの撮像装置100それぞれから出力される距離と信頼度に基づいて、駆動機構302を制御する。例えば、2つの撮像装置100それぞれから得られた距離のうち信頼度が高い方の距離に基づいて、制御部201は駆動機構302を制御する。または、2つの撮像装置100それぞれから得られた距離を、それぞれの信頼度で重みづけして得た距離に基づいて、制御部201は駆動機構302を制御する。制御は、たとえば、進行方向にある被写体へ所定の距離まで近づいたら移動する移動体300を停止させたり減速させたり加速させたり、停止している移動体300を移動開始させたりすることである。あるいは、制御部201は、被写体が所定距離以上離れたら、移動体300を停止、減速、加速、移動開始させるように駆動機構302を制御してもよい。あるいは、制御部201は、被写体へ所定の距離まで近づいたら通常駆動モードから衝突回避モードへ切り替えたり、被写体が所定の距離以上離れたら衝突回避モードから通常駆動モードに切り替えたりするように駆動機構302を制御してもよい。所定の距離は、例えば信頼度に応じて変更されてもよい。   The control unit 201 controls the drive mechanism 302 based on the distance and reliability output from each of the two imaging devices 100. For example, the control unit 201 controls the drive mechanism 302 based on the distance with higher reliability among the distances obtained from the two imaging devices 100. Alternatively, the control unit 201 controls the drive mechanism 302 based on the distances obtained by weighting the distances obtained from the two imaging devices 100 with the respective reliability. The control is, for example, stopping, decelerating, or accelerating the moving moving body 300 or starting moving the stopped moving body 300 when approaching a subject in the traveling direction up to a predetermined distance. Alternatively, the control unit 201 may control the driving mechanism 302 to stop, decelerate, accelerate, and start moving the moving body 300 when the subject is separated by a predetermined distance or more. Alternatively, the control unit 201 switches from the normal drive mode to the collision avoidance mode when the subject approaches a predetermined distance, or switches from the collision avoidance mode to the normal drive mode when the subject is separated by a predetermined distance or more. May be controlled. The predetermined distance may be changed according to the reliability, for example.

信頼度は、画像単位で求められてもよいし、画像上の領域単位で求められてもよい。前者の場合、たとえば距離の信頼度の平均値が高い方の画像を採用する。後者の場合、たとえば2つの画像間の対応する画素毎に距離の信頼値を比較して、各々値が高い方を採用する。これにより、被写体までの距離を、より正確に取得することができる。駆動機構は、例えばタイヤやローラやプロペラを駆動するためのモータやエンジンである。   The reliability may be obtained for each image or for each region on the image. In the former case, for example, an image having a higher average value of distance reliability is employed. In the latter case, for example, the reliability value of the distance is compared for each corresponding pixel between two images, and the higher value is adopted. Thereby, the distance to the subject can be acquired more accurately. The drive mechanism is, for example, a motor or an engine for driving a tire, a roller, or a propeller.

続いて、図22を参照して、移動体300における距離の信頼度の一活用例について説明する。   Next, with reference to FIG. 22, an example of using distance reliability in the moving body 300 will be described.

ここでは、制御部201が、駆動機構302の制御の1つとして、進行方向の被写体へ所定の距離まで近づいたら移動体300を停止させるべく駆動機構302を制御する場合を想定する。制御部201は、被写体までの距離と当該距離の信頼度とを撮像装置100から取得すると、この距離および当該距離の信頼度に基づき、誤差範囲の一端である距離の下方限界値を算出する。そして、制御部201は、撮像装置100から出力された距離ではなく、この下方限界値を用いて、駆動機構302を制御する。下方限界値は、距離の信頼度が高い程、距離との差分が小さい値として算出され、距離の信頼度が低い程、距離との差分が大きい値として算出される。   Here, it is assumed that the control unit 201 controls the drive mechanism 302 to stop the moving body 300 when approaching a subject in the traveling direction up to a predetermined distance as one of the controls of the drive mechanism 302. When the control unit 201 acquires the distance to the subject and the reliability of the distance from the imaging apparatus 100, the control unit 201 calculates a lower limit value of the distance that is one end of the error range based on the distance and the reliability of the distance. Then, the control unit 201 controls the drive mechanism 302 using this lower limit value instead of the distance output from the imaging device 100. The lower limit value is calculated as a value having a smaller difference from the distance as the reliability of the distance is higher, and is calculated as a value having a larger difference from the distance as the reliability of the distance is lower.

たとえば、図22に示すように、被写体までの実際の距離よりも長い距離が撮像装置100により算出されて出力された場合であっても、距離の信頼度から算出される距離の下方限界値を用いることで、移動体300の停止、減速、衝突回避、方向転換、エアバッグ等の安全装置の作動、などが後手に回ってしまうという事態を防止することができる。   For example, as shown in FIG. 22, even when a distance longer than the actual distance to the subject is calculated and output by the imaging apparatus 100, the lower limit value of the distance calculated from the distance reliability is set. By using it, it is possible to prevent a situation in which the moving body 300 stops, decelerates, avoids a collision, turns around, or operates a safety device such as an airbag.

なお、距離と距離の信頼度とから算出される距離の下方限界値を用いることは、撮像装置100が1つの場合に行ってもよい。また、移動体300に限らず、たとえば図19および図20を参照して説明したロボット200などにおいても有効である。   Note that the lower limit value of the distance calculated from the distance and the reliability of the distance may be used when the number of the imaging device 100 is one. Further, the present invention is not limited to the moving body 300, and is effective for the robot 200 described with reference to FIGS. 19 and 20, for example.

<監視システム>
図23は、実施形態に係る監視システム400の機能構成例を示すブロック図である。ここでは、監視システム400が、たとえば店舗内などにおける人の流れを時間帯毎に把握するためのシステムであることを想定する。
<Monitoring system>
FIG. 23 is a block diagram illustrating a functional configuration example of the monitoring system 400 according to the embodiment. Here, it is assumed that the monitoring system 400 is a system for grasping the flow of people in, for example, a store for each time zone.

図23に示すように、監視システム400は、撮像装置100と、制御部401と、ユーザインタフェース部402とを有する。撮像装置100と制御部401とは、有線または無線のネットワーク経由で接続してもよい。   As illustrated in FIG. 23, the monitoring system 400 includes the imaging device 100, a control unit 401, and a user interface unit 402. The imaging device 100 and the control unit 401 may be connected via a wired or wireless network.

制御部401は、撮像装置100に連続的に撮像を行わせ、第1に、撮像装置100により撮像される画像を、ユーザインタフェース部402を介して表示する。ユーザインタフェース部402は、たとえばディスプレイ装置などへの表示処理と、たとえばキーボードやポインティングデバイスからの入力処理とを実行する。ディスプレイ装置とポインティングデバイスとは、たとえばタッチスクリーンディスプレイなどの一体型のデバイスであってもよい。   The control unit 401 causes the imaging device 100 to continuously perform imaging, and first displays an image captured by the imaging device 100 via the user interface unit 402. The user interface unit 402 executes display processing on a display device, for example, and input processing from, for example, a keyboard or a pointing device. The display device and the pointing device may be an integrated device such as a touch screen display.

また、制御部401は、第2に、撮像装置100から順次出力されてくる、被写体までの距離と当該距離の信頼度とに基づき、たとえば人が通路のどの辺りをどの方向に歩いているか等の人の流れを解析し、その解析結果をたとえばHDD(Hard Disk Drive)などの記憶装置に記録する。なお、この解析は、必ずしもリアルタイムに実行されるものでなくともよく、記憶装置に蓄積された被写体までの距離と当該距離の信頼度とを用いるバッチ処理として実行されてもよい。   Secondly, based on the distance to the subject and the reliability of the distance, which is sequentially output from the imaging apparatus 100, the control unit 401, for example, which part of the passage is walking in which direction, etc. Are analyzed, and the analysis result is recorded in a storage device such as an HDD (Hard Disk Drive). This analysis is not necessarily executed in real time, and may be executed as a batch process using the distance to the subject stored in the storage device and the reliability of the distance.

いま、たとえば図24に示すように、2つの立体物が撮像範囲に存在する状態下で撮像装置100による撮像が行われたものとする。また、たとえば背景や照明などの様々な要因により、実際には存在しない立体物らしきものが写った画像が撮像され易い状況下にあるものとする。この場合、たとえば画像中の距離の分布に基づき、立体物を認識するものとすると、立体物らしきものが立体物として誤認識され(A)、たとえば追跡対象などとなってしまうおそれがある。   Now, for example, as shown in FIG. 24, it is assumed that imaging is performed by the imaging apparatus 100 in a state where two three-dimensional objects exist in the imaging range. Further, for example, it is assumed that an image showing a three-dimensional object that does not actually exist is easily captured due to various factors such as background and lighting. In this case, if a three-dimensional object is recognized based on the distance distribution in the image, for example, a three-dimensional object may be misrecognized as a three-dimensional object (A) and may be a tracking target, for example.

これに対して、たとえば、画像中の距離の分布を算出する際、信頼度の低い距離を除外することで、立体物らしきものを立体物として誤認識してしまうという事態を防止することができる(B)。   On the other hand, for example, when calculating the distribution of distances in the image, it is possible to prevent a situation in which a three-dimensional object is erroneously recognized as a three-dimensional object by excluding distances with low reliability. (B).

続いて、図25を参照して、以上のようにして認識される画像中の被写体像の追跡における距離の一活用例について説明する。   Next, with reference to FIG. 25, a description will be given of an example of utilizing distance in tracking the subject image in the image recognized as described above.

いま、ある人が、撮像装置100から見て左から右へ移動し、別の人が、逆に、右から左へと移動しようとしている場合を想定する(A)。また、この2人は身長が異なり、身長の低い方の人が、身長の高い方の人よりも、撮像装置100から見て手前に位置しており、その結果、画像上の被写体像のサイズが略一致した状態にあるものと想定する。   Assume that a person moves from left to right as viewed from the imaging apparatus 100 and another person tries to move from right to left (A). In addition, the two persons are different in height, and the person having a shorter height is positioned in front of the person having a shorter height than the person having a higher height, and as a result, the size of the subject image on the image. Are substantially in agreement.

この2人がそのまま移動し続けると、ある時点で画像上の被写体像が重なり(B)、その後、左右に離れていく(C)。このような場合、距離を用いず、たとえば画像認識のみで被写体像を追跡すると、被写体像の交差時、追跡対象を取り違えて、2人がそれぞれUターンしたように誤追跡してしまうおそれがある。   If these two people continue to move as they are, the subject images on the image overlap at a certain point (B), and then move left and right (C). In such a case, if the subject image is tracked only by image recognition without using the distance, for example, when the subject image intersects, the tracking target may be mistaken and the two people may mistrack as if they made a U-turn. .

これに対して、距離を用いることで、被写体像の交差時に追跡対象の取り違えを起こしてしまうという事態を防止することができる。   On the other hand, by using the distance, it is possible to prevent a situation in which the tracking target is mistaken when the subject images intersect.

また、以上のようにして認識される画像中の被写体像の追跡における距離の他の活用例としては、たとえば、被写体がドアに向かって移動しており、かつ、所定の距離まで近づいたことを検知した場合、ドアを自動的に開け、一方、被写体がドアから遠ざかるように移動しており、かつ、所定の距離以上遠ざかったことを検知した場合、ドアを自動的に占める自動ドアシステムなどを挙げることができる。   Another example of using the distance in tracking the subject image in the image recognized as described above is, for example, that the subject is moving toward the door and has approached a predetermined distance. When detected, the door is automatically opened.On the other hand, if it is detected that the subject is moving away from the door and the distance is more than a predetermined distance, an automatic door system that automatically occupies the door is used. Can be mentioned.

図26は、信頼度を活用した距離の一提示例を示す図である。   FIG. 26 is a diagram illustrating an example of a distance using the reliability.

前述したように、制御部401は、撮像装置100により撮像される画像を、ユーザインタフェース部402を介して表示する。また、制御部401は、被写体までの距離と当該距離の信頼度とを撮像装置100から取得する。さらに、制御部401は、たとえばポインティングデバイスにより画像上の任意の位置が指定された場合、その座標を含むイベント情報をユーザインタフェース部402から受け取る。   As described above, the control unit 401 displays an image captured by the imaging device 100 via the user interface unit 402. In addition, the control unit 401 acquires the distance to the subject and the reliability of the distance from the imaging device 100. Furthermore, when an arbitrary position on the image is designated by a pointing device, for example, the control unit 401 receives event information including the coordinates from the user interface unit 402.

このイベント情報を受け取ると、制御部401は、その座標に対応する画素について撮像装置100において算出された距離と当該距離の信頼度とに基づき、誤差範囲の両端である距離の下方限界値および上方限界値を算出する。そして、制御部201は、距離だけではなく、誤差を考慮した距離の範囲を、ユーザインタフェース部402を介して、たとえばポインティングデバイスのポインタ近傍にポップアップ表示する。   Upon receiving this event information, the control unit 401, based on the distance calculated in the imaging apparatus 100 for the pixel corresponding to the coordinates and the reliability of the distance, the lower limit value of the distance and the upper limit of the distance. Calculate the limit value. Then, the control unit 201 pops up a range of distance considering not only the distance but also an error, for example, near the pointer of the pointing device via the user interface unit 402.

つまり、被写体が写っている画像上の位置を指し示すと、その被写体までの距離を、誤差範囲を認識可能に提示させることのできるGUI(graphical user interface)を提供することができる。   That is, it is possible to provide a GUI (graphical user interface) capable of presenting the distance to the subject so that the error range can be recognized when the position on the image in which the subject is shown is pointed out.

また、ユーザインタフェース部402は、左右対称のぼけが現れるG画像、左右非対称のぼけが現れるB画像とR画像、およびカラー画像(RGB画像)の少なくとも一つと、距離画像とを同時に表示し、G画像上、B画像上もしくはR画像上またはカラー画像上の位置が指定されると、距離画像上に距離と信頼度とを表示するというGUIを提供してもよい。   Further, the user interface unit 402 simultaneously displays at least one of a G image in which left-right symmetric blur appears, a B image and R image in which left-right asymmetric blur appears, and a color image (RGB image), and a distance image. When a position on the image, the B image, the R image, or the color image is designated, a GUI may be provided that displays the distance and the reliability on the distance image.

また、このようなGUIは、タブレットコンピュータやスマートフォンなどのスタンドアロン型の電子機器で撮像装置を構成する場合においても有用である。たとえば、電子機器で画像を撮像し、画像が表示されるタッチスクリーンディスプレイ上でタッチ操作を行うことで、被写体までの距離を表示するといった測距ツールとして当該GUIを提供してもよい。   Such a GUI is also useful when the imaging apparatus is configured with a stand-alone electronic device such as a tablet computer or a smartphone. For example, the GUI may be provided as a distance measurement tool that captures an image with an electronic device and displays a distance to a subject by performing a touch operation on a touch screen display on which the image is displayed.

また、被写体までの距離を画素単位で取得できれば、これらの距離を用いて、被写体の各部分の長さを算出することも可能である。したがって、たとえば販売店に展示されている家具などを撮像することにより、その家具の寸法を測ることのできる採寸ツールを、スタンドアロン型の電子機器において実現することができる。前述したように、距離の信頼度は、被写体像のエッジ方向、より詳細には、処理対象となっている画素のエッジ勾配方向と、フィルタ10の第1のフィルタ領域と第2のフィルタ領域との境界線の方向とに依存する。そこで、距離の信頼度が閾値未満であった場合、たとえば図27に示すように、より正確な距離が算出されるように、回転角を示し、電子機器を回転させて画像を撮像することを促すメッセージをディスプレイ等に表示するといったGUIを提供してもよい。あるいは、ディスプレイは、現在の電子機器の向きを針や矢印などの棒状の図形で表し、正確な距離を算出しやすい向きを針谷矢印などの棒上の図形で表したり、回転角や回転の向きを矢印で表したりしてもよい。   If the distance to the subject can be acquired in units of pixels, the length of each part of the subject can be calculated using these distances. Therefore, for example, a measuring tool capable of measuring the size of the furniture displayed in the store by taking an image of the furniture can be realized in the stand-alone electronic device. As described above, the reliability of the distance is determined by the edge direction of the subject image, more specifically, the edge gradient direction of the pixel to be processed, the first filter region and the second filter region of the filter 10. Depending on the direction of the boundary line. Therefore, when the reliability of the distance is less than the threshold, for example, as shown in FIG. 27, the rotation angle is indicated and the electronic device is rotated to capture an image so that a more accurate distance is calculated. You may provide GUI which displays the message to urge on a display etc. Alternatively, the display shows the current orientation of the electronic device as a bar-shaped figure such as a needle or arrow, and the direction that makes it easy to calculate the correct distance is shown as a figure on a bar such as a needle-valley arrow, or the rotation angle or direction of rotation. May be represented by an arrow.

以上説明したように、本実施形態によれば、相関関数の曲率を用いて、画像から得た被写体までの距離の信頼度に関する出力や制御を行うことができる。   As described above, according to the present embodiment, it is possible to perform output and control related to the reliability of the distance from the image to the subject using the curvature of the correlation function.

以下、他の実施の形態について図面を参照して説明する。なお、開示はあくまで一例にすぎず、以下の実施形態に記載した内容により発明が限定されるものではない。当業者が容易に想到し得る変形は、当然に開示の範囲に含まれる。説明をより明確にするため、図面において、各部分のサイズ、形状等を実際の実施態様に対して変更して模式的に表す場合もある。複数の図面において、対応する要素には同じ参照数字を付して、詳細な説明を省略する場合もある。   Hereinafter, other embodiments will be described with reference to the drawings. The disclosure is merely an example, and the invention is not limited by the contents described in the following embodiments. Variations readily conceivable by those skilled in the art are naturally included in the scope of the disclosure. In order to make the explanation clearer, in the drawings, the size, shape, and the like of each part may be schematically expressed by changing the actual embodiment. Corresponding elements in the drawings are denoted by the same reference numerals, and detailed description may be omitted.

[第2実施形態]
上述したように、カラー開口を備える単眼カメラである撮像装置により撮影された画像から被写体までの距離が求められる。カラー開口は、少なくとも2つのカラーフィルタ領域を備えるカラーフィルタを撮像装置の開口部に配置することによって構成される。カラー開口を透過する光線に基づいてイメージセンサが画像を生成する。図2に示す例では、第1、第2フィルタ領域は円形のフィルタが光学中心を通る鉛直方向の線分により左右(水平方向)に分割されてなる半円の形状を有している。例えば、第1フィルタ領域はイエロー(Y)のフィルタ領域であり、第2フィルタ領域はシアン(C)のフィルタ領域である。緑(G)画像の波長帯域の光は第1、第2フィルタ領域を透過するが、赤(R)画像の波長帯域の光は第1フィルタ領域のみを透過し、青(B)画像の波長帯域の光は第2フィルタ領域のみを透過する。そのため、G画像のぼけの形状は被写体までの距離に応じて変化しないが、R画像およびB画像のぼけの形状は被写体までの距離に応じて変化する。具体的には被写体が合焦距離よりも手前又は奥にあるかに応じてR画像とB画像のぼけは右又は左に偏る。
[Second Embodiment]
As described above, the distance from the image taken by the imaging device, which is a monocular camera having a color opening, to the subject is obtained. The color aperture is configured by arranging a color filter including at least two color filter regions in the aperture of the imaging device. An image sensor generates an image based on light rays that pass through the color aperture. In the example shown in FIG. 2, the first and second filter regions have a semicircular shape in which a circular filter is divided into left and right (horizontal directions) by a vertical line segment passing through the optical center. For example, the first filter area is a yellow (Y) filter area, and the second filter area is a cyan (C) filter area. Light in the wavelength band of the green (G) image is transmitted through the first and second filter areas, but light in the wavelength band of the red (R) image is transmitted through only the first filter area, and the wavelength of the blue (B) image. The band light passes through only the second filter region. Therefore, the blur shape of the G image does not change according to the distance to the subject, but the blur shape of the R image and the B image changes according to the distance to the subject. Specifically, the blur between the R image and the B image is biased to the right or left depending on whether the subject is in front of or behind the in-focus distance.

カラー開口によって変化したR、G、B画像のぼけの形状差は被写体までの距離と一対一で対応している。そのため、カラー開口によって変化したR画像とB画像のぼけの形状をG画像のぼけの形状に補正するぼけ補正フィルタを用意する。ぼけ補正フィルタは、被写体までの距離と対応する。そして、ぼけ補正フィルタをR画像及び/又はB画像に演算し、補正後の画像とG画像との相関に基づいて距離を決定する。   The difference in shape of the blur of the R, G, and B images changed by the color opening has a one-to-one correspondence with the distance to the subject. Therefore, a blur correction filter for correcting the blur shape of the R image and the B image changed by the color opening to the blur shape of the G image is prepared. The blur correction filter corresponds to the distance to the subject. Then, the blur correction filter is calculated into an R image and / or a B image, and the distance is determined based on the correlation between the corrected image and the G image.

図8に示すように、ぼけ補正フィルタはフィルタ領域を第1、第2フィルタ領域に分割する鉛直方向(分割方向)に直交する水平方向付近に分布する。このような補正フィルタによりR画像及び/又はB画像を補正することは、R画像及び/又はB画像と補正フィルタを水平方向に畳み込むことである。そのため、カラー開口のフィルタ領域分割方向と直交する水平方向のエッジ(濃度勾配方向は鉛直方向)ではどの想定距離でも畳み込み結果は同じとなり、距離が決定できない可能性がある。このような可能性を低くするために、第2実施形態の撮像装置は、カラー開口のフィルタ領域分割方向が被写体に含まれるエッジの方向と直交しないように、言い換えるとフィルタ領域分割方向が被写体の濃度勾配方向と一致しないように、設置することができるように構成されている。   As shown in FIG. 8, the blur correction filter is distributed in the vicinity of the horizontal direction orthogonal to the vertical direction (division direction) that divides the filter region into first and second filter regions. To correct the R image and / or the B image with such a correction filter is to convolve the R image and / or the B image and the correction filter in the horizontal direction. Therefore, the convolution result is the same at any assumed distance at the edge in the horizontal direction orthogonal to the filter area dividing direction of the color aperture (the density gradient direction is the vertical direction), and the distance may not be determined. In order to reduce such a possibility, the imaging apparatus according to the second embodiment prevents the filter area division direction of the color opening from being orthogonal to the direction of the edge included in the subject, in other words, the filter area division direction of the subject. It is configured to be installed so as not to coincide with the concentration gradient direction.

[撮像装置の設置例]
図28は第2実施形態に係る撮像装置の設置例を示す。第2実施形態の撮像装置は監視システム等に応用することができる。図28はカラー開口504を備える撮像装置502をチルト/パン/ロール可能な取付具を介して部屋の天井に取り付ける例を示す。チルト/パンは実施形態には直接関係ないので、それらの機能は省略可能である。さらに、後述するように、ロール機能も省略可能である。図2に示したように、X軸、Y軸はカラー開口の平面内の軸である。Z軸は撮像装置502の光軸方向の軸である。
[Imaging device installation example]
FIG. 28 shows an installation example of the imaging apparatus according to the second embodiment. The imaging device of the second embodiment can be applied to a monitoring system or the like. FIG. 28 shows an example in which an imaging device 502 having a color opening 504 is attached to the ceiling of a room via a fixture capable of tilting / panning / rolling. Since tilt / pan is not directly related to the embodiment, these functions can be omitted. Furthermore, as will be described later, the roll function can also be omitted. As shown in FIG. 2, the X axis and the Y axis are axes in the plane of the color opening. The Z axis is an axis in the optical axis direction of the imaging device 502.

撮像装置502の後端の中心に円柱状のアーム508の先端が固定されている。アーム508の軸と撮像装置502の光軸とは一致する。アーム508の後端は、アーム508と同心でアーム508より大径のアーム512の先端に挿入される。このため、アーム508(及び撮像装置502)はアーム512に挿入された状態で光軸(ロール軸とも称する)を中心に時計方向、反時計方向にロール回転可能である。時計方向、反時計方向は視線の方向で変わるが、この明細書では、撮像装置502から被写体を見た状態で回転方向を定義する。すなわち、X軸に沿った被写体がY軸に沿うような回転を時計方向の回転と称する。時計方向、反時計方向それぞれのロール角度(鉛直方向を基準とする角度)は90度以上である必要は無く、45度程度でもよい。アーム508の回転はビス等で抑制され、ロール角度が固定される。ロール角度を調整することにより、カラー開口のフィルタ領域分割方向が被写体に含まれるエッジの方向と直交しないように、言い換えるとフィルタ領域分割方向が被写体の濃度勾配方向と一致しないように、設置することができる。   The tip of a columnar arm 508 is fixed at the center of the rear end of the imaging device 502. The axis of the arm 508 coincides with the optical axis of the imaging device 502. The rear end of the arm 508 is inserted into the tip of an arm 512 that is concentric with the arm 508 and has a larger diameter than the arm 508. Therefore, the arm 508 (and the imaging device 502) can be rotated in the clockwise and counterclockwise directions around the optical axis (also referred to as a roll axis) while being inserted into the arm 512. Although the clockwise direction and the counterclockwise direction vary depending on the direction of the line of sight, in this specification, the rotation direction is defined while the subject is viewed from the imaging device 502. That is, the rotation of the subject along the X axis along the Y axis is referred to as clockwise rotation. The roll angle in each of the clockwise direction and the counterclockwise direction (angle based on the vertical direction) does not need to be 90 degrees or more, and may be about 45 degrees. The rotation of the arm 508 is suppressed by a screw or the like, and the roll angle is fixed. Adjust the roll angle so that the filter area division direction of the color aperture does not intersect the direction of the edge included in the subject, in other words, the filter area division direction does not match the density gradient direction of the subject. Can do.

アーム512の後端は垂直方向のアーム514の下端に軸支される。この軸はチルト軸とも称する。このため、アーム512(及びアーム508、撮像装置502)は上下方向にチルト回転可能である。アーム512の回転はビス等で抑制され、チルト角度が固定される。   The rear end of the arm 512 is pivotally supported by the lower end of the arm 514 in the vertical direction. This axis is also called a tilt axis. For this reason, the arm 512 (and the arm 508 and the imaging device 502) can be tilted in the vertical direction. The rotation of the arm 512 is suppressed by a screw or the like, and the tilt angle is fixed.

アーム514の上端はアーム514と同心でアーム514より大径のアーム516の下端に挿入される。このため、アーム514(及びアーム512、508、撮像装置502)はアーム516に挿入された状態で水平方向にパン回転可能である。アーム514の回転はビス等で抑制され、パン角度が固定される。アーム516の上端は取付板520と一体化されている。   The upper end of the arm 514 is concentric with the arm 514 and is inserted into the lower end of the arm 516 having a larger diameter than the arm 514. For this reason, the arm 514 (and the arms 512 and 508 and the imaging device 502) can be pan-rotated in the horizontal direction while being inserted into the arm 516. The rotation of the arm 514 is suppressed by a screw or the like, and the pan angle is fixed. The upper end of the arm 516 is integrated with the mounting plate 520.

チルト角度、パン角度は撮像装置の設置前に特定の角度に固定しておいてもよいし、設置後に所望の視野が撮影されるようにアーム512、514を可動して調整してもよい。   The tilt angle and pan angle may be fixed at specific angles before installation of the imaging apparatus, or may be adjusted by moving the arms 512 and 514 so that a desired field of view is photographed after installation.

図28は天井に取り付ける取付具の例を示すが、アーム516を水平方向に曲げる、あるいは水平アームをアーム516にさらに接続すれば、部屋の壁あるいは道路脇の電信柱、街路灯等に取り付けることも可能である。   FIG. 28 shows an example of a fixture to be attached to the ceiling. However, if the arm 516 is bent in the horizontal direction, or if the horizontal arm is further connected to the arm 516, it can be attached to a telephone wall or street light on the wall of the room or the road. Is also possible.

[撮像装置の回転]
図29は第2実施形態に係る撮像装置の回転の一例を示す。ここでは、カラー開口のフィルタ分割方向が鉛直方向であり、距離が算出し難い可能性のあるエッジは水平方向のエッジであるとする。そのため、鉛直方向を表す直線を仮定する。撮像装置502のロール角度が0度、すなわち撮像装置502の上下方向が鉛直方向と一致する場合、図29(a)に示すように、鉛直方向を表す直線をフィルタ面に射影した直線と、フィルタの分割方向を表す直線は平行になる。この状態では、フィルタの分割方向を表す直線と直交する水平方向のエッジの距離は算出し難い可能性がある。図29(b)に示すように、撮像装置502(アーム508)を光軸を中心としてロール回転させ、撮像装置502の上下方向が鉛直方向と一致しないようにすれば、鉛直方向を表す直線をフィルタ面に射影した直線と、フィルタの分割方向を表す直線は非平行とすることができる。これにより、被写体に含まれる水平方向のエッジとフィルタ分割方向が直交しなくなり、水平方向のエッジの距離が算出できるようになる。
[Rotation of imaging device]
FIG. 29 shows an example of rotation of the imaging apparatus according to the second embodiment. Here, it is assumed that the filter division direction of the color opening is the vertical direction, and the edge whose distance may be difficult to calculate is the horizontal edge. Therefore, a straight line representing the vertical direction is assumed. When the roll angle of the image pickup apparatus 502 is 0 degree, that is, when the vertical direction of the image pickup apparatus 502 coincides with the vertical direction, as shown in FIG. The straight lines representing the division directions are parallel. In this state, it may be difficult to calculate the distance between the edges in the horizontal direction perpendicular to the straight line representing the filter dividing direction. As shown in FIG. 29B, if the imaging device 502 (arm 508) is rotated around the optical axis so that the vertical direction of the imaging device 502 does not coincide with the vertical direction, a straight line representing the vertical direction is obtained. The straight line projected on the filter surface and the straight line representing the division direction of the filter can be made non-parallel. As a result, the horizontal edge included in the subject and the filter division direction are not orthogonal, and the distance between the horizontal edges can be calculated.

この場合のロール角度は0度より大きければよい。ロール角度が90度となると、垂直方向のエッジの距離が算出し難い可能性がある。ロール角度は45度程度でもよい。算出し難いエッジは避けられないので、どのエッジを算出させ、どのエッジを算出し難いエッジとするかはユーザの思惑次第である。   In this case, the roll angle may be larger than 0 degree. If the roll angle is 90 degrees, the edge distance in the vertical direction may be difficult to calculate. The roll angle may be about 45 degrees. Edges that are difficult to calculate are unavoidable, and it is up to the user to decide which edge is calculated and which edge is difficult to calculate.

設置後、被写体を撮影して距離を算出し、その結果を見ながらロール角度を調整しつつ適切な角度を試行錯誤的に求めることもできる。設置後、図15、図16に示すような信頼度のような指標に基づいてロール角度を決定してもよい。あるいは、被写体に含まれる種々のエッジの方向が予め既知の場合は、全てのエッジの方向がフィルタ分割方向と直交しないような適切なロール角度を予め求めておき、その角度に撮像装置を固定しておいてから設置してもよい。さらに、被写体に含まれる既知のエッジの方向から適切なロール角度が予め求められた場合、撮像装置が光軸を中心に回転された状態で天井等に取り付けることができれば、図28に示すようなロール回転機構は必須ではない。ただし、ロール回転機構が備わっていれば、被写体に含まれるエッジの方向が変化した場合、容易に対処できる。ロール回転機構が備わっていなければ、被写体に含まれるエッジの方向が変化した場合、再度設置すればよい。   After installation, the subject can be photographed to calculate the distance, and an appropriate angle can be obtained by trial and error while adjusting the roll angle while viewing the result. After installation, the roll angle may be determined based on an index such as reliability as shown in FIGS. Alternatively, when the directions of various edges included in the subject are known in advance, an appropriate roll angle is determined in advance so that the directions of all the edges are not orthogonal to the filter division direction, and the imaging device is fixed to the angles. It may be installed after leaving. Furthermore, when an appropriate roll angle is obtained in advance from the direction of a known edge included in the subject, as shown in FIG. 28, if the imaging device can be attached to a ceiling or the like while being rotated around the optical axis. A roll rotation mechanism is not essential. However, if a roll rotation mechanism is provided, it is possible to easily cope with a change in the direction of the edge included in the subject. If the roll rotation mechanism is not provided, it may be installed again when the direction of the edge included in the subject changes.

ロール回転機構は図28の例に限られない。図28ではロール回転軸は撮像装置502の光軸と一致するが、光軸以外の軸を中心として撮像装置を回転するように撮像装置を設置してもよい。例えば、図28において、アーム508の先端に撮像装置502を取り付けるのではなく、アーム508の表面に撮像装置502を載置するホルダを取り付けてもよい。この場合、アーム508を回転すると、撮像画像は画面外にあるアーム508の軸を中心として傾く。図28の場合は、アーム508を回転すると、撮像画像は画面内にある光軸を中心として傾く。   The roll rotation mechanism is not limited to the example of FIG. In FIG. 28, the roll rotation axis coincides with the optical axis of the imaging device 502, but the imaging device may be installed so as to rotate the imaging device around an axis other than the optical axis. For example, in FIG. 28, instead of attaching the imaging device 502 to the tip of the arm 508, a holder for mounting the imaging device 502 may be attached to the surface of the arm 508. In this case, when the arm 508 is rotated, the captured image is tilted about the axis of the arm 508 outside the screen. In the case of FIG. 28, when the arm 508 is rotated, the captured image is tilted about the optical axis in the screen.

[システムブロック図]
図30は第2実施形態の撮像装置502の電気的な構成の一例を示すブロック図である。第2実施形態は、撮像部(カメラと称することもある)と処理装置(処理部)を含むシステムである。撮像部505は、例えばイメージセンサ542と撮影レンズ538とカラーフィルタ536とを含む。被写体からの光(図示破線矢印)が複数枚(便宜上図示は1枚)のレンズからなる撮影レンズ538を介してイメージセンサ542に入射される。イメージセンサ542は、入射光を光電変換し、画像信号(動画でも静止画でもよい)を出力するものであり、CCD(Charge Coupled Device)型のイメージセンサ、CMOS(Complementary Metal Oxide Semiconductor)型のイメージセンサ等、どのようなセンサを用いてもよい。撮影レンズ538は例えば複数のレンズを備え、いずれかのレンズは焦点を調節するため光軸に沿って移動可能であってもよい。撮影レンズ538の開口(主点、あるいはその近傍)にカラーフィルタ536が形成される。カラーフィルタ536が追加された撮影レンズ538はカラー開口付レンズ504とも称する。撮影レンズ538の開口部の全面にカラーフィルタを配置する例を示したが、開口部の全面にカラーフィルタを配置しなくてもよい。例えば、開口部は、カラーフィルタ領域とカラーフィルタを設けない領域とにより構成されてもよい。
[System block diagram]
FIG. 30 is a block diagram illustrating an example of an electrical configuration of the imaging apparatus 502 of the second embodiment. The second embodiment is a system including an imaging unit (sometimes referred to as a camera) and a processing device (processing unit). The imaging unit 505 includes, for example, an image sensor 542, a photographing lens 538, and a color filter 536. Light from the subject (broken arrows in the figure) enters the image sensor 542 through a photographing lens 538 formed of a plurality of lenses (for convenience, one is shown). The image sensor 542 photoelectrically converts incident light and outputs an image signal (which may be a moving image or a still image), and is a CCD (Charge Coupled Device) type image sensor or a CMOS (Complementary Metal Oxide Semiconductor) type image. Any sensor such as a sensor may be used. The taking lens 538 may include, for example, a plurality of lenses, and any of the lenses may be movable along the optical axis in order to adjust the focal point. A color filter 536 is formed at the opening (the main point or in the vicinity thereof) of the photographing lens 538. The photographing lens 538 to which the color filter 536 is added is also referred to as a color aperture lens 504. Although an example in which a color filter is disposed on the entire surface of the opening of the photographing lens 538 has been shown, the color filter may not be disposed on the entire surface of the opening. For example, the opening may be configured by a color filter region and a region where no color filter is provided.

処理装置は、CPU(Central Processing Unit)544、フラッシュメモリまたはハードディスクドライブ等の不揮発性記憶部546、RAM(Random Access Memory)等の揮発性メモリ548を備える。処理装置は、さらに通信インターフェース550、ディスプレイ556、メモリカードスロット552を備えてもよい。イメージセンサ542、CPU544、不揮発性記憶部546、揮発性メモリ548、通信インターフェース550、ディスプレイ556、メモリカードスロット552等は、バス34により互いに接続される。   The processing device includes a CPU (Central Processing Unit) 544, a nonvolatile storage unit 546 such as a flash memory or a hard disk drive, and a volatile memory 548 such as a RAM (Random Access Memory). The processing device may further include a communication interface 550, a display 556, and a memory card slot 552. The image sensor 542, the CPU 544, the nonvolatile storage unit 546, the volatile memory 548, the communication interface 550, the display 556, the memory card slot 552, and the like are connected to each other via the bus 34.

撮像部と処理装置は別体でもよいし、一体でもよい。一体の場合、両者は、スマートフォン、タブレット等のカメラ付の電子機器として実現されてもよい。別体の場合、一眼レフカメラ等として実現される撮像部から出力される信号が、パソコン等として実現される処理装置に入力されてもよい。撮像部と処理装置は、例えば無線または有線で通信可能である。   The imaging unit and the processing device may be separate or integrated. In the case of integration, both may be realized as an electronic device with a camera such as a smartphone or a tablet. In the case of a separate body, a signal output from an imaging unit realized as a single-lens reflex camera or the like may be input to a processing device realized as a personal computer or the like. The imaging unit and the processing device can communicate, for example, wirelessly or by wire.

CPU544は、システム全体の動作を統括的に制御する。例えば、CPU544は、不揮発性記憶部546に記憶された撮影制御プログラム、距離算出プログラム、表示制御プログラム等を実行し、撮影制御、距離算出、表示制御等のための機能ブロックを実現する。これにより、CPU544は、撮像装置のイメージセンサ542に限らず、ディスプレイ556等も制御する。なお、撮影制御、距離算出、表示制御等のための機能ブロックをCPU544により実現するのではなく、専用のハードウェアにより実現してもよい。距離算出プログラムは、一例として上述した原理に基づき撮影画像の画素毎に当該画素に写っている被写体までの距離を求める。   The CPU 544 controls the overall operation of the system. For example, the CPU 544 executes a shooting control program, a distance calculation program, a display control program, and the like stored in the nonvolatile storage unit 546, and implements functional blocks for shooting control, distance calculation, display control, and the like. Thereby, the CPU 544 controls not only the image sensor 542 of the imaging apparatus but also the display 556 and the like. Note that functional blocks for shooting control, distance calculation, display control, and the like are not realized by the CPU 544 but may be realized by dedicated hardware. As an example, the distance calculation program obtains the distance to the subject shown in each pixel of the captured image based on the principle described above.

不揮発性記憶部546はハードディスクドライブ、フラッシュメモリ等から構成される。ディスプレイ556は、液晶ディスプレイやタッチパネル等から構成される。ディスプレイ556は、例えば撮影画像をカラー表示するとともに、画素毎に求められた距離情報を特定の形態で、例えば、撮影画像が距離に応じて色が付けられた距離画像(距離マップとも称する)として表示する。なお、距離情報の表示は、距離画像としてではなく、距離と位置の対応関係表等の表形式でもよい。   The nonvolatile storage unit 546 includes a hard disk drive, a flash memory, and the like. The display 556 includes a liquid crystal display, a touch panel, or the like. The display 556 displays the captured image in color, for example, and the distance information obtained for each pixel in a specific form, for example, as a distance image (also referred to as a distance map) in which the captured image is colored according to the distance. indicate. The distance information may be displayed not in the distance image but in a table format such as a distance-position correspondence table.

例えばSDRAM(Synchronous Dynamic Random Access Memory)等からなる揮発性メモリ548は、システム全体の制御に関するプログラムや処理に使用される各種データ等を記憶する。   For example, a volatile memory 548 composed of SDRAM (Synchronous Dynamic Random Access Memory) or the like stores programs related to control of the entire system, various data used for processing, and the like.

通信I/F550は、外部機器との通信や、キーボード、操作ボタン等を用いるユーザによる各種指示の入力を制御するインターフェースである。撮影画像や距離情報はディスプレイ556で表示されるだけではなく、通信I/F550を介して外部へ送信され、距離情報に基づいて動作が制御される外部機器で利用されてもよい。外部機器の一例は、自動車やドローン等の走行支援システムや、不審者の侵入を監視する監視システム等がある。画像信号から距離を求める処理の一部を処理装置が行い、残りはホスト等の外部機器が行うように、複数の機器で分担して距離情報を求めてもよい。   The communication I / F 550 is an interface that controls communication with an external device and input of various instructions by a user using a keyboard, operation buttons, and the like. The captured image and the distance information are not only displayed on the display 556 but may be transmitted to the outside via the communication I / F 550 and used by an external device whose operation is controlled based on the distance information. An example of the external device is a driving support system such as an automobile or a drone, a monitoring system that monitors intrusion of a suspicious person, and the like. The processing apparatus may perform a part of the processing for obtaining the distance from the image signal and the rest may be performed by an external device such as a host, and the distance information may be obtained by sharing with a plurality of devices.

メモリカードスロット552には、SD(Secure Digital)メモリカードやSDHC(SD High-Capacity)メモリカード等の可搬型記憶媒体が挿入可能である。撮影画像や距離情報が可搬記憶媒体に記憶され、可搬記憶媒体の情報が他の機器で読み取られることにより、撮影画像や距離情報が他の機器で利用されるようにしてもよい。あるいは、他の撮像装置で撮影された画像信号がメモリカードスロット552内の可搬型記憶媒体を介して本システムの処理装置に入力され、その画像信号に基づいて距離が算出されてもよい。さらに、他の撮像装置で撮影された画像信号が通信I/F550を介して本システムの処理装置に入力されてもよい。   A portable storage medium such as an SD (Secure Digital) memory card or an SDHC (SD High-Capacity) memory card can be inserted into the memory card slot 552. The captured image and the distance information may be stored in a portable storage medium, and the information on the portable storage medium may be read by another device so that the captured image and the distance information are used by the other device. Alternatively, an image signal captured by another imaging device may be input to the processing device of the present system via a portable storage medium in the memory card slot 552, and the distance may be calculated based on the image signal. Furthermore, an image signal captured by another imaging apparatus may be input to the processing apparatus of the present system via the communication I / F 550.

図31はCPU544による距離算出、表示制御のための機能ブロック図である。CPU544は、例えば撮影画像取得部562と、距離画像取得部564と、傾き補正部566、568と、回転角度・回転中心取得部570と、を含む。イメージセンサ542の出力が撮影画像取得部562に供給され、被写体の撮影画像が得られる。撮影画像は傾き補正部566と距離画像取得部564に供給される。距離画像取得部564は距離算出プログラムに基づき撮影画像の画素毎に当該画素に写っている被写体までの距離を求め、距離画像を求める。距離画像は、距離もしくは距離に相当するぼけの大きさを表す画像である。距離画像は傾き補正部568に供給される。傾き補正部566、568は回転角度・回転中心取得部570から供給される回転中心を中心として撮影画像と距離画像を回転角度・回転中心取得部570から供給される回転角度だけ回転する。回転角度・回転中心取得部570は撮像部505(撮像装置502)の回転中心と回転角度(例えば時計方向はプラス、反時計報告はマイナス)を求め、傾き補正部566、568は回転角度が表す方向の反対方向に画像を回転する。回転角度・回転中心取得部570は、連続する複数枚の撮影画像の中の特徴点を追跡することにより回転中心と回転角度を取得してもよいし、ユーザが予め測定した値を回転角度・回転中心取得部570に入力することにより回転中心と回転角度を取得してもよい。傾き補正部566、568で回転された画像がディスプレイ556で表示される。   FIG. 31 is a functional block diagram for distance calculation and display control by the CPU 544. The CPU 544 includes, for example, a captured image acquisition unit 562, a distance image acquisition unit 564, inclination correction units 566 and 568, and a rotation angle / rotation center acquisition unit 570. The output of the image sensor 542 is supplied to the captured image acquisition unit 562, and a captured image of the subject is obtained. The captured image is supplied to an inclination correction unit 566 and a distance image acquisition unit 564. The distance image acquisition unit 564 obtains a distance image for each pixel of the photographed image based on the distance calculation program, and obtains a distance image. The distance image is an image representing the distance or the size of the blur corresponding to the distance. The distance image is supplied to the inclination correction unit 568. The inclination correction units 566 and 568 rotate the captured image and the distance image about the rotation center supplied from the rotation angle / rotation center acquisition unit 570 by the rotation angle supplied from the rotation angle / rotation center acquisition unit 570. The rotation angle / rotation center acquisition unit 570 calculates the rotation center and rotation angle of the imaging unit 505 (imaging device 502) (for example, the clockwise direction is positive and the counterclockwise report is negative), and the inclination correction units 566 and 568 indicate the rotation angle. Rotate the image in the opposite direction. The rotation angle / rotation center acquisition unit 570 may acquire the rotation center and the rotation angle by tracking the feature points in a plurality of consecutive captured images, or the value measured by the user in advance The rotation center and the rotation angle may be acquired by inputting to the rotation center acquisition unit 570. An image rotated by the inclination correction units 566 and 568 is displayed on the display 556.

[画像の傾き補正]
図32を参照して傾き補正の一例を説明する。撮像部505のロール角を0度とした状態で撮像装置502を天井等に設置した後、算出された距離に基づいて距離画像が表示される。例えばユーザは距離画像を観察し水平方向のエッジの距離が正しくないと判断すると、光軸を中心として撮像部505は回転する。図28のように撮像部505が撮像装置502と一体である場合は、撮像装置502を回転することにより撮像部505を回転するが、撮像部505のみ回転可能な場合は、撮像装置502は固定し撮像部505のみを回転してもよい。撮像部505が光軸を中心に時計方向に回転すると、画像取得部562が取得する撮影画像は、図32(a)に示すように、水平線が時計方向に回転した撮影画像となる。すなわち、鉛直方向がフィルタ面に投影された直線は鉛直方向から時計方向に傾く。このままでもよいが、画像として観察するには違和感がある。傾き補正部566は撮影画像を反時計方向に回転し、図32(b)に示すように、表示枠やディスプレイ56の横方向が画像の水平方向に一致する補正画像を生成する。距離画像も同様に傾き補正部568により傾きが補正される。傾き補正は必ず行う必要はない。画像を表示する場合は傾き補正を行う方が好ましい場合もあるが、算出した距離を利用するだけで距離画像を表示しない場合は、傾き補正は不要の場合が多い。
[Image tilt correction]
An example of inclination correction will be described with reference to FIG. After the imaging device 502 is installed on the ceiling or the like with the roll angle of the imaging unit 505 set to 0 degree, a distance image is displayed based on the calculated distance. For example, when the user observes the distance image and determines that the distance between the horizontal edges is not correct, the imaging unit 505 rotates around the optical axis. As shown in FIG. 28, when the imaging unit 505 is integrated with the imaging device 502, the imaging unit 505 is rotated by rotating the imaging device 502. However, when only the imaging unit 505 is rotatable, the imaging device 502 is fixed. However, only the imaging unit 505 may be rotated. When the imaging unit 505 rotates clockwise about the optical axis, the captured image acquired by the image acquisition unit 562 becomes a captured image with the horizontal line rotated clockwise as shown in FIG. That is, the straight line whose vertical direction is projected on the filter surface is inclined clockwise from the vertical direction. This may be left as it is, but it is uncomfortable to observe as an image. The tilt correction unit 566 rotates the captured image counterclockwise, and generates a corrected image in which the horizontal direction of the display frame and the display 56 matches the horizontal direction of the image, as shown in FIG. Similarly, the inclination of the distance image is corrected by the inclination correction unit 568. It is not always necessary to perform tilt correction. In some cases, it is preferable to perform tilt correction when displaying an image. However, when only a calculated distance is used and no distance image is displayed, tilt correction is often unnecessary.

[カラーフィルタの例]
図33は第2実施形態に係るカラーフィルタ536の一例を示す。カラーフィルタ536の中心にあるフィルタ領域580は、たとえば、2色のカラーフィルタ領域である第1フィルタ領域580Aと第2フィルタ領域580Bとで構成される。フィルタ領域580の中心は、撮像部505の光学中心582と一致している。第1、第2フィルタ領域580A、580Bそれぞれは光学中心582に対して非点対称である形状を有している。第1、第2フィルタ領域580A、580Bは重複せず、かつ第1、第2フィルタ領域580A、580Bによってフィルタ領域580の全領域を構成している。第1、第2フィルタ領域580A、580Bは、それぞれ円形のフィルタ領域580が光学中心582を通る線分で分割された半円の形状を有している。
[Example of color filter]
FIG. 33 shows an example of the color filter 536 according to the second embodiment. The filter region 580 at the center of the color filter 536 is composed of, for example, a first filter region 580A and a second filter region 580B that are two color filter regions. The center of the filter region 580 coincides with the optical center 582 of the imaging unit 505. Each of the first and second filter regions 580A and 580B has a shape that is asymmetric with respect to the optical center 582. The first and second filter regions 580A and 580B do not overlap, and the first and second filter regions 580A and 580B constitute the entire region of the filter region 580. The first and second filter regions 580A and 580B each have a semicircular shape in which the circular filter region 580 is divided by a line segment passing through the optical center 582.

第1、第2フィルタ領域580A、580Bの重心を結ぶ線分の中点で当該線分に直交する直線をフィルタの分割方向を表す直線と定義する。第1、第2フィルタ領域580A、580Bが同じサイズの同じ形状であると、フィルタの分割方向を表す直線は、図33に示すフィルタ領域580を実際に分割する直線(2つの半円形の互いに接する直径)である。   A straight line that is perpendicular to the line segment at the midpoint of the line segment that connects the centroids of the first and second filter regions 580A and 580B is defined as a straight line that represents the division direction of the filter. When the first and second filter regions 580A and 580B have the same shape and the same size, the straight line representing the filter dividing direction is a straight line that actually divides the filter region 580 shown in FIG. Diameter).

フィルタ領域580A、580Bはそれぞれ異なる特定の波長帯の光を透過するカラーフィルタである。フィルタ領域580A、580Bからなるフィルタ領域580は領域580A、580Bに共通する色を透過する。透過光がイメージセンサ542に集光される際、むらが生じることがある。透過光のイメージセンサ542への集光むらを少なくするためには、フィルタ領域580のフィルタ面はイメージセンサ542の撮像面と平行に設置すればよい。   The filter regions 580A and 580B are color filters that transmit light of different specific wavelength bands. The filter area 580 including the filter areas 580A and 580B transmits a color common to the areas 580A and 580B. When the transmitted light is collected on the image sensor 542, unevenness may occur. In order to reduce the unevenness of collected light on the image sensor 542, the filter surface of the filter region 580 may be installed in parallel with the imaging surface of the image sensor 542.

第1フィルタ領域580Aは、イメージセンサ542で受光される波長領域のうちの一部である第1の波長領域を透過する。例えば、第1フィルタ領域580Aは、図33(b)に示すように、R画像に対応する波長帯の光とG画像に対応する波長帯の光を透過するイエロー(Y)フィルタである。第2フィルタ領域580Bはイメージセンサ542で受光される光の色のうち第1波長領域とは異なる第2の波長領域を透過する。例えば、第2フィルタ領域580Bは、図33(b)に示すように、B画像に対応する波長域の光とR画像に対応する波長域の光を透過するマゼンタ(M)フィルタである。第1波長領域の一部と第2波長領域の一部は、重複する。Y、Mフィルタが共に透過する共通色はRである。一般に、C、M、Yの補色フィルタは、R、G、Bの原色フィルタと比較して感度が高いので、同じ波長帯の透過率が同一であっても、より多くの光を透過することが知られている。   The first filter region 580A transmits the first wavelength region that is a part of the wavelength region received by the image sensor 542. For example, as shown in FIG. 33B, the first filter region 580A is a yellow (Y) filter that transmits light in the wavelength band corresponding to the R image and light in the wavelength band corresponding to the G image. The second filter region 580 </ b> B transmits a second wavelength region different from the first wavelength region in the color of light received by the image sensor 542. For example, as shown in FIG. 33B, the second filter region 580B is a magenta (M) filter that transmits light in the wavelength region corresponding to the B image and light in the wavelength region corresponding to the R image. Part of the first wavelength region and part of the second wavelength region overlap. The common color that both the Y and M filters transmit is R. In general, C, M, and Y complementary color filters are more sensitive than R, G, and B primary color filters, so that even if the transmittance in the same wavelength band is the same, more light is transmitted. It has been known.

第1フィルタ領域580Aと第2フィルタ領域580Bの組み合わせは、上記に限定されず、第1フィルタ領域580AがR画像に対応する波長域の光とG画像に対応する波長域の光を透過するYフィルタで、第2フィルタ領域580BがB画像に対応する波長域の光とG画像に対応する波長域の光を透過するシアン(C)フィルタでもよいし、第1フィルタ領域580AがR画像に対応する波長域の光とB画像に対応する波長域の光を透過するMフィルタで、第2フィルタ領域580BがB画像に対応する波長域の光とG画像に対応する波長域の光を透過するCフィルタでもよいし、第1フィルタ領域580AがC、M、Yフィルタのいずれかで、第2フィルタ領域580Bが全ての色の光を透過する透明フィルタであってもよい。さらに、図33において右側が第1フィルタ領域580Aとし、左側が第2フィルタ領域580Bとしたが、この逆に、右側が第2フィルタ領域580Bであり、左側が第1フィルタ領域580Aであってもよい。   The combination of the first filter region 580A and the second filter region 580B is not limited to the above, and the first filter region 580A transmits light in the wavelength region corresponding to the R image and light in the wavelength region corresponding to the G image. In the filter, the second filter region 580B may be a cyan (C) filter that transmits light in the wavelength region corresponding to the B image and light in the wavelength region corresponding to the G image, and the first filter region 580A corresponds to the R image. The second filter region 580B transmits light in the wavelength region corresponding to the B image and light in the wavelength region corresponding to the G image by the M filter that transmits the light in the wavelength region corresponding to the B image and the light in the wavelength region corresponding to the B image. The C filter may be used, or the first filter region 580A may be any one of the C, M, and Y filters, and the second filter region 580B may be a transparent filter that transmits light of all colors. Further, in FIG. 33, the right side is the first filter region 580A and the left side is the second filter region 580B, but the right side is the second filter region 580B and the left side is the first filter region 580A. Good.

第1、第2フィルタ領域580A、580Bは任意波長帯域の透過率を変更するフィルタや、任意方向の偏光光を透過させる偏光フィルタ(偏光板)、任意波長帯域の集光パワーを変更させるマイクロレンズであってもよい。例えば、任意波長帯域の透過率を変更するフィルタは、R、G、Bの原色フィルタ、C、M、Yの補色フィルタ、色補正フィルタ(CC−RGB/CMY)、赤外線・紫外線カットフィルタ、NDフィルタ、遮蔽板であってもよい。第1、第2フィルタ領域580A、580Bがマイクロレンズである場合、撮影レンズ538により光線の集光の分布に偏りが生じることでぼけ関数が変化する。   The first and second filter regions 580A and 580B are a filter that changes the transmittance in an arbitrary wavelength band, a polarizing filter (polarizing plate) that transmits polarized light in an arbitrary direction, and a microlens that changes a condensing power in an arbitrary wavelength band. It may be. For example, filters for changing the transmittance in an arbitrary wavelength band include R, G, B primary color filters, C, M, Y complementary color filters, color correction filters (CC-RGB / CMY), infrared / ultraviolet cut filters, ND It may be a filter or a shielding plate. When the first and second filter regions 580A and 580B are microlenses, the blur function changes due to a deviation in the light collection by the photographing lens 538.

図33(b)は、第1フィルタ領域580A、第2フィルタ領域580Bの透過率特性の一例を示す。イエローフィルタである第1フィルタ領域580Aの透過率特性586Aは、R画像およびG画像に対応する波長帯域の光は高い透過率で透過し、B画像に対応する波長帯域の光はほとんど透過しないことを示す。マゼンタフィルタである第2フィルタ領域580Bの透過率特性586Bは、B画像およびR画像に対応する波長帯域の光は高い透過率で透過し、G画像に対応する波長帯域の光はほとんど透過しないことを示す。したがって、R画像に対応する波長帯域の光は第1、第2フィルタ領域580A、580Bの両方を透過するが、G画像に対応する波長帯域の光は第1フィルタ領域580Aのみを透過し、B画像に対応する波長帯域の光は第2フィルタ領域580Bのみを透過するので、G画像およびB画像上のぼけの形状は、被写体までの距離に応じて変化する。各フィルタ領域が光学中心に対して非対称な形状なので、G画像およびB画像上のぼけの形状は被写体が合焦距離よりも手前にあるか、それとも奥にあるかによって異なる。すなわち、G画像およびB画像上のぼけの形状は偏っている。そのため、G画像とB画像のぼけの形状をR画像のぼけの形状に補正するぼけ補正フィルタを距離毎に用意しておき、想定距離でのぼけ補正フィルタをG画像及び/又はB画像に演算し、補正後の画像とR画像との相関に基づいて距離を決定することができる。   FIG. 33B shows an example of transmittance characteristics of the first filter region 580A and the second filter region 580B. The transmittance characteristic 586A of the first filter region 580A that is a yellow filter is such that light in the wavelength band corresponding to the R image and G image is transmitted with high transmittance, and light in the wavelength band corresponding to the B image is hardly transmitted. Indicates. The transmittance characteristic 586B of the second filter region 580B which is a magenta filter is such that light in the wavelength band corresponding to the B image and the R image is transmitted with high transmittance, and light in the wavelength band corresponding to the G image is hardly transmitted. Indicates. Therefore, the light in the wavelength band corresponding to the R image is transmitted through both the first and second filter regions 580A and 580B, while the light in the wavelength band corresponding to the G image is transmitted only through the first filter region 580A. Since the light in the wavelength band corresponding to the image is transmitted only through the second filter region 580B, the shape of the blur on the G image and the B image changes according to the distance to the subject. Since each filter region has an asymmetric shape with respect to the optical center, the blur shape on the G image and the B image differs depending on whether the subject is in front of or behind the focus distance. That is, the blur shape on the G image and the B image is biased. Therefore, a blur correction filter for correcting the blur shape of the G image and the B image to the blur shape of the R image is prepared for each distance, and the blur correction filter at the assumed distance is calculated to the G image and / or the B image. The distance can be determined based on the correlation between the corrected image and the R image.

[カラーフィルタの変形例]
図33のフィルタ領域580は第1、第2フィルタ領域580A、580Bによって全領域が構成されるように分割されている。変形例として、フィルタ領域が第1、第2、第3フィルタ領域に分割される例を説明する。
[Modification of color filter]
The filter area 580 in FIG. 33 is divided so that the entire area is constituted by the first and second filter areas 580A and 580B. As a modification, an example in which the filter area is divided into first, second, and third filter areas will be described.

図34は第2実施形態に係るカラーフィルタの第1変形例を示す。図34(a)、(b)に示すように、フィルタ領域590は第1フィルタ領域590A、第2フィルタ領域590B、第3フィルタ領域590cからなる。第1、第2フィルタ領域590A、590Bは図33の例と同様に、それぞれ異なる組み合わせの複数色を透過し、第3フィルタ領域590Cは第1、第2フィルタ領域を共に透過する共通色を透過する。第1、第2フィルタ領域590A、590BがY、MあるいはM、Yフィルタの場合、第3フィルタ領域590CはRフィルタである。第1、第2フィルタ領域590A、590BがY、CあるいはC、Yフィルタの場合、第3フィルタ領域590CはGフィルタである。第1、第2フィルタ領域590A、590BがC、MあるいはM、Cフィルタの場合、第3フィルタ領域590CはBフィルタである。なお、第3フィルタ領域590CはR、G、Bの全ての色を透過する透明フィルタであってもよい。   FIG. 34 shows a first modification of the color filter according to the second embodiment. As shown in FIGS. 34A and 34B, the filter region 590 includes a first filter region 590A, a second filter region 590B, and a third filter region 590c. As in the example of FIG. 33, the first and second filter regions 590A and 590B transmit a plurality of different colors, and the third filter region 590C transmits a common color that transmits both the first and second filter regions. To do. When the first and second filter regions 590A and 590B are Y, M or M, Y filters, the third filter region 590C is an R filter. When the first and second filter regions 590A and 590B are Y, C or C, Y filters, the third filter region 590C is a G filter. When the first and second filter regions 590A and 590B are C, M or M and C filters, the third filter region 590C is a B filter. The third filter region 590C may be a transparent filter that transmits all the colors R, G, and B.

図34(a)では、第1、第2フィルタ領域590A、590Bは光学中心592を通りY軸に沿って延在する直線の左右にそれぞれ位置し、形状は光学中心592において互いに接する円形である。第3フィルタ領域590Cは第1、第2フィルタ領域590A、590B以外の領域である。図34(b)では、第1、第2フィルタ領域590A、590Bは円形光学中心592を通りY軸に沿って延在する直線の左右にそれぞれ位置し、形状は光学中心592において互いに接する楕円形である。図34(a)、(b)では、第1、第2のフィルタ領域590A、590Bは光学中心592を通りY軸に沿って延在する直線に対して線対称となるように配置された同じ大きさの領域であるが、異なる大きさの2つの領域が非線対称で配置されてもよい。第1、第2フィルタ領域590A、590Bの形状は円形、楕円形に限らず、三角形、矩形、多角形でもよい。   In FIG. 34 (a), the first and second filter regions 590A and 590B are located on the left and right of a straight line passing through the optical center 592 and extending along the Y axis, respectively, and the shape is a circle in contact with each other at the optical center 592. . The third filter region 590C is a region other than the first and second filter regions 590A and 590B. In FIG. 34 (b), the first and second filter regions 590A and 590B are located on the left and right sides of a straight line passing through the circular optical center 592 and extending along the Y axis, respectively, and the shapes are elliptical shapes that touch each other at the optical center 592. It is. In FIGS. 34A and 34B, the first and second filter regions 590A and 590B are arranged so as to be symmetrical with respect to a straight line passing through the optical center 592 and extending along the Y axis. Although it is an area | region of a magnitude | size, two area | regions of a different magnitude | size may be arrange | positioned by axisymmetrical. The shape of the first and second filter regions 590A and 590B is not limited to a circle and an ellipse, but may be a triangle, a rectangle, or a polygon.

第1、第2フィルタ領域590A、590Bの重心を結ぶ線分の中点を通り当該線分に直交する直線であるフィルタの分割方向を表す直線は、第1、第2フィルタ領域590A、590BがY軸に対して線対称であると、光学中心592を通りY軸に沿って延在する直線である。   The first and second filter regions 590A and 590B are straight lines representing the filter dividing direction, which is a straight line that passes through the midpoint of the line segment that connects the centroids of the first and second filter regions 590A and 590B and is orthogonal to the line segment. When the line is symmetrical with respect to the Y axis, the line passes through the optical center 592 and extends along the Y axis.

図34の第1変形例では、第1、第2フィルタ領域は光学中心で互いに接しているが、第1、第2フィルタ領域が互いに接していない第2変形例を説明する。図35は第2実施形態に係るカラーフィルタの第2変形例を示す。図35(a)、(b)に示すように、フィルタ領域600は第1フィルタ領域600A、第2フィルタ領域600B、第3フィルタ領域600Cからなる。第1、第2フィルタ領域600A、600Bは図33、図34の例と同様に、一部重複する異なる波長領域の光を透過し、第3フィルタ領域600Cは第1、第2フィルタ領域を共に透過する波長領域の光を透過する。第1、第2フィルタ領域の色の例は第1変形例と同じである。   In the first modification of FIG. 34, the first and second filter regions are in contact with each other at the optical center, but a second modification in which the first and second filter regions are not in contact with each other will be described. FIG. 35 shows a second modification of the color filter according to the second embodiment. As shown in FIGS. 35A and 35B, the filter region 600 includes a first filter region 600A, a second filter region 600B, and a third filter region 600C. As in the example of FIGS. 33 and 34, the first and second filter regions 600A and 600B transmit light of different wavelength regions that partially overlap, and the third filter region 600C has both the first and second filter regions. Transmits light in the transmitted wavelength region. Examples of the colors of the first and second filter regions are the same as in the first modification.

図35(a)では、第1、第2フィルタ領域600A、600Bの形状は光学中心602を通りY軸に沿って延在する直線の左右にそれぞれ対象に位置する三日月形である。第1、第2フィルタ領域600A、600B以外の第3フィルタ領域600Cは楕円形である。図35(b)では、円形のフィルタ領域600がY軸に沿って延在する2本の直線によって3分割され、中央が第3フィルタ領域600Cであり、第3フィルタ領域600Cの両側が第1、第2フィルタ領域600A、600Bである。円形のフィルタ領域600を2本の直線ではなく、2本の波線によって3分割してもよい。2本の分割線は平行でなくてもよい。さらに、3分割は3等分に限定されず、3つの領域のサイズは任意である。   In FIG. 35A, the shapes of the first and second filter regions 600A and 600B are crescents located on the left and right of the straight line extending through the optical center 602 and extending along the Y axis. The third filter region 600C other than the first and second filter regions 600A and 600B is elliptical. In FIG. 35B, the circular filter region 600 is divided into three by two straight lines extending along the Y axis, the center is the third filter region 600C, and both sides of the third filter region 600C are the first. , Second filter regions 600A and 600B. The circular filter region 600 may be divided into three by two wavy lines instead of two straight lines. The two dividing lines may not be parallel. Further, the three divisions are not limited to three equal parts, and the sizes of the three regions are arbitrary.

第1、第2フィルタ領域600A、600Bの重心を結ぶ線分の中点を通り当該線分に直交する直線であるフィルタの分割方向を表す直線は、第1、第2フィルタ領域600A、600BがY軸に対して線対称であると、光学中心602を通りY軸に沿って延在する直線である。   The first and second filter regions 600A and 600B are straight lines that represent the dividing direction of the filter, which is a straight line that passes through the midpoint of the line segment that connects the centroids of the first and second filter regions 600A and 600B and is orthogonal to the line segment. A line symmetric with respect to the Y axis is a straight line passing through the optical center 602 and extending along the Y axis.

図36は第2実施形態に係るカラーフィルタの第3変形例を示す。フィルタ領域610は図33のフィルタ領域580と同様にそれぞれ半円形の第1、第2フィルタ領域610A、610Bを含む。第1、第2フィルタ領域610A、610Bの内部に複数の第3フィルタ領域610Cが設けられている。第3フィルタ領域610Cの形状、個数、配置は任意である。   FIG. 36 shows a third modification of the color filter according to the second embodiment. The filter region 610 includes first and second filter regions 610A and 610B that are semicircular as in the filter region 580 of FIG. A plurality of third filter regions 610C are provided inside the first and second filter regions 610A and 610B. The shape, number, and arrangement of the third filter region 610C are arbitrary.

第1、第2フィルタ領域610A、610Bの重心を結ぶ線分の中点を通り当該線分に直交する直線であるフィルタの分割方向を表す直線は、第1、第2フィルタ領域610A、610BがY軸に対して線対称であり、第3フィルタ領域610CがY軸に対して線対称であると、光学中心612を通りY軸に沿って延在する直線である。   The first and second filter regions 610A and 610B are straight lines representing the filter dividing direction, which is a straight line that passes through the midpoint of the line segment connecting the centroids of the first and second filter regions 610A and 610B and is orthogonal to the line segment. When the third filter region 610C is line symmetric with respect to the Y axis, the line is symmetric with respect to the Y axis, and is a straight line extending along the Y axis through the optical center 612.

図37は第2実施形態に係るカラーフィルタの第4変形例を示す。第4変形例は、図34に示した第2実施形態において第1、第2フィルタ領域が互いに接しておらず、離間している例である。図37(a)では、第1、第2フィルタ領域620A、620Bは光学中心622を通りY軸に沿って延在する直線の左右にそれぞれ離間して位置し、形状は円形である。図37(b)では、第1、第2フィルタ領域620A、620Bは光学中心622を通りY軸に沿って延在する直線の左右にそれぞれ離間して位置し、形状は正方形である。第1、第2フィルタ領域620A、620Bの形状は正方形に限らず、三角形、矩形、多角形でもよいし、複数の第1、第2フィルタ領域620A、620Bを設けてもよいし、左右で非対称に設けてもよい。   FIG. 37 shows a fourth modification of the color filter according to the second embodiment. The fourth modification is an example in which the first and second filter regions are not in contact with each other in the second embodiment shown in FIG. In FIG. 37 (a), the first and second filter regions 620A and 620B are positioned apart from each other on the left and right of a straight line that passes through the optical center 622 and extends along the Y axis, and have a circular shape. In FIG. 37 (b), the first and second filter regions 620A and 620B are spaced apart from each other on the left and right of a straight line passing through the optical center 622 and extending along the Y axis, and the shape is a square. The shape of the first and second filter regions 620A and 620B is not limited to a square, but may be a triangle, a rectangle, or a polygon, or a plurality of first and second filter regions 620A and 620B may be provided, or asymmetrical on the left and right. May be provided.

第1、第2フィルタ領域620A、620Bの重心を結ぶ線分の中点を通り当該線分に直交する直線であるフィルタの分割方向を表す直線は、第1、第2フィルタ領域620A、620BがY軸に対して線対称であると、光学中心622を通りY軸に沿って延在する直線である。   The first and second filter regions 620A and 620B are straight lines representing the dividing direction of the filter, which is a straight line passing through the midpoint of the line segment connecting the centroids of the first and second filter regions 620A and 620B and orthogonal to the line segment. A line symmetric with respect to the Y axis is a straight line passing through the optical center 622 and extending along the Y axis.

以上をまとめると、フィルタ領域は、透過する波長領域が一部重複する第1フィルタ領域と第2フィルタ領域を含む。フィルタ領域は、第1フィルタと第2フィルタの両方に透過される波長領域を透過する第3フィルタ領域をさらに含んでもよい。第3フィルタ領域は、例えば第1フィルタ領域が透過する波長領域と第2フィルタ領域が透過する波長領域の光を透過してもよい。例えば、フィルタ領域は、第1、第2フィルタ領域に加えて、任意数・種類のフィルタ領域から構成してもよい。任意数・種類のフィルタ領域はRフィルタ、Gフィルタ、Bフィルタ、Yフィルタ、Cフィルタ、Mフィルタ及び透明フィルタから選んでもよい。   In summary, the filter region includes a first filter region and a second filter region in which the transmitted wavelength regions partially overlap. The filter region may further include a third filter region that transmits a wavelength region that is transmitted by both the first filter and the second filter. For example, the third filter region may transmit light in a wavelength region transmitted through the first filter region and a wavelength region transmitted through the second filter region. For example, the filter region may be composed of an arbitrary number and type of filter regions in addition to the first and second filter regions. Any number and types of filter regions may be selected from R filters, G filters, B filters, Y filters, C filters, M filters, and transparent filters.

第2実施形態によれば、撮像部505を光軸を中心として回転し、カラー開口のフィルタ領域分割方向を任意の方向となるように撮像部505あるいは撮像装置502を設置することにより、フィルタ領域分割方向と直交するため被写体までの距離が算出し難いエッジの方向を変えることができる。そのため、距離が算出し難いエッジの方向を、被写体に含まれない、あるいは殆ど含まれないエッジの方向とすることができる。例えば、水平方向のエッジに関する距離が算出し難い状況を防ぐことができる。   According to the second embodiment, the image capturing unit 505 is rotated about the optical axis, and the image capturing unit 505 or the image capturing device 502 is installed so that the filter region dividing direction of the color aperture is an arbitrary direction. Since it is orthogonal to the dividing direction, the direction of the edge, which is difficult to calculate the distance to the subject, can be changed. Therefore, the direction of the edge for which it is difficult to calculate the distance can be set as the direction of the edge that is not included or hardly included in the subject. For example, it is possible to prevent a situation in which it is difficult to calculate the distance regarding the edge in the horizontal direction.

なお、図18、図19で説明した取付具においてロール回転を電動回転とし、算出した距離の信頼度に関する指標に応じて撮像部505あるいは撮像装置502を自動的に回転してもよい。   18 and 19, the roll rotation may be an electric rotation, and the imaging unit 505 or the imaging device 502 may be automatically rotated according to an index relating to the calculated reliability of distance.

[第3実施形態]
図38は第3実施形態に係る撮像装置502の設置例を示す。第3実施形態も監視システムに応用することができる。第2実施形態は天井、壁、柱等から斜め下を撮影したが、天井から真下を撮影する第3実施形態を説明する。すなわち、撮像部505の光軸は鉛直方向と平行である。撮像装置502の後端の中心に円柱状のアーム524の先端が固定されている。アーム524の軸と撮像部505あるいは撮像装置502の光軸とは一致する。アーム524の後端は、アーム524と同心でアーム524より大径のアーム526の先端に挿入される。このため、アーム524(及び撮像装置502)はアーム526に挿入された状態で光軸(ロール軸とも称する)を中心に時計方向および反時計方向にロール回転可能である。アーム526の上端は取付板530と一体化されている。
[Third Embodiment]
FIG. 38 shows an installation example of the imaging apparatus 502 according to the third embodiment. The third embodiment can also be applied to a monitoring system. In the second embodiment, an obliquely lower part is photographed from a ceiling, a wall, a pillar, and the like, but a third embodiment in which a photograph is taken directly below from the ceiling will be described. That is, the optical axis of the imaging unit 505 is parallel to the vertical direction. The tip of a columnar arm 524 is fixed at the center of the rear end of the imaging device 502. The axis of the arm 524 coincides with the optical axis of the imaging unit 505 or the imaging device 502. The rear end of the arm 524 is inserted into the tip of an arm 526 that is concentric with the arm 524 and has a larger diameter than the arm 524. For this reason, the arm 524 (and the imaging device 502) can be rotated in the clockwise and counterclockwise directions around the optical axis (also referred to as a roll axis) while being inserted into the arm 526. The upper end of the arm 526 is integrated with the mounting plate 530.

第2実施形態と同様に、時計方向、反時計方向ともにロール角度は0度より大きければよい。ロール角度が90度となると、垂直方向のエッジの距離が算出し難い可能性がある。ロール角度は45度程度でもよい。算出し難いエッジは避けられないので、どのエッジを算出させ、どのエッジを算出し難いエッジとするかはユーザの思惑次第である。   Similar to the second embodiment, the roll angle only needs to be greater than 0 degrees in both the clockwise and counterclockwise directions. If the roll angle is 90 degrees, the edge distance in the vertical direction may be difficult to calculate. The roll angle may be about 45 degrees. Edges that are difficult to calculate are unavoidable, and it is up to the user to decide which edge is calculated and which edge is difficult to calculate.

設置後、被写体を撮影して距離を算出し、その結果を見ながらロール角度を調整しつつ適切な角度を試行錯誤的に求めることもできる。設置後、図15、図16に示すような信頼度のような指標に基づいてロール角度を決定してもよい。あるいは、被写体に含まれる種々のエッジの方向が予め既知の場合は、フィルタ領域の分割方向が被写体に含まれる最も多いエッジ方向と直交しないようにロール角度を設定することができる。あるいは、全てのエッジの方向がフィルタ分割方向と直交しないような、言い換えるとフィルタ領域分割方向が被写体の濃度勾配方向と一致しないような適切なロール角度を予め求めておき、撮像部505のロール角度がその角度に一致するように撮像装置502を設置してもよい。さらに、被写体に含まれる既知のエッジの方向から適切なロール角度が予め求められた場合、取付板530を天井に取り付ける際、撮像部505が光軸を中心に回転された状態で撮像装置502を取り付けることができれば、図38に示すようなロール回転機構は必須ではない。ただし、ロール回転機構が備わっていれば、被写体に含まれるエッジの方向が変化した場合、容易に対処できる。ロール回転機構が備わっていなければ、被写体に含まれるエッジの方向が変化した場合、撮像部505あるいは撮像装置502を任意の向きに再度設置すればよい。   After installation, the subject can be photographed to calculate the distance, and an appropriate angle can be obtained by trial and error while adjusting the roll angle while viewing the result. After installation, the roll angle may be determined based on an index such as reliability as shown in FIGS. Alternatively, when the directions of various edges included in the subject are known in advance, the roll angle can be set so that the division direction of the filter region is not orthogonal to the most edge directions included in the subject. Alternatively, an appropriate roll angle is calculated in advance so that the direction of all edges is not orthogonal to the filter division direction, in other words, the filter region division direction does not coincide with the density gradient direction of the subject. The image pickup apparatus 502 may be installed so as to match the angle. Further, when an appropriate roll angle is obtained in advance from the direction of a known edge included in the subject, when the mounting plate 530 is attached to the ceiling, the imaging device 502 is operated with the imaging unit 505 rotated about the optical axis. If it can be attached, a roll rotation mechanism as shown in FIG. 38 is not essential. However, if a roll rotation mechanism is provided, it is possible to easily cope with a change in the direction of the edge included in the subject. If the roll rotation mechanism is not provided, the imaging unit 505 or the imaging device 502 may be installed again in an arbitrary direction when the direction of the edge included in the subject changes.

[撮像部の回転]
図39は第3実施形態に係る撮像部505あるいは撮像装置502の回転の一例を示す。第3実施形態では撮像部505あるいは撮像装置502の光軸が鉛直方向に沿っているので、鉛直方向をフィルタ面に投影すると、直線にはならず、点となる。そのため、距離を算出し難い条件の定義は、第2実施形態の定義と異なる。第3実施形態では、被写体のシーン中に直交する2つの軸(主軸と称する)を定義する。主軸はシーンの主たる構造に基づいて設定される。例えば、図40(a)に示すように、撮像範囲が室内の場合は通常矩形の床面の2辺に沿って第1主軸、第2主軸が設定できる。例えば、第1主軸と第2主軸に平行な面は床面と平行である。また、人物が移動している場合、移動方向とそれに直交する方向に沿って第1主軸、第2主軸を設定してもよい。図40(b)に示すように、撮像範囲に道路や廊下等が含まれる場合、道路や廊下等の延在方向とそれに直交する方向に沿って第1主軸、第2主軸が設定できる。例えば、第1主軸と第2主軸に平行な面は、道路や廊下と平行である。また、自動車や人物が移動している場合、移動方向とそれに直交する方向に沿って第1主軸、第2主軸を設定してもよい。撮像範囲に自動車や人物など移動するものを含む場合は、例えば、第1主軸と第2主軸に平行な面は、自動車や人物が移動する面と平行である。撮像部505あるいは撮像装置502のロール角度が0度の場合、図39(a)に示すように、第1主軸をフィルタ面に射影した直線又は第2主軸をフィルタ面に射影した直線と、フィルタの分割方向を表す直線は平行になる。この状態では、第2主軸方向のエッジの距離は算出し難い可能性がある。図39(b)に示すように、撮像部505あるいは撮像装置502(アーム524)を光軸を中心にロール回転させ、フィルタの分割方向を表す直線が第1主軸をフィルタ面に射影した直線及び第2主軸をフィルタ面に射影した直線とも非平行とする、すなわち、フィルタの分割方向を表す直線が第1主軸をフィルタ面に射影した直線及び第2主軸をフィルタ面に射影した直線と交差させることができる。
[Rotation of imaging unit]
FIG. 39 shows an example of rotation of the imaging unit 505 or the imaging device 502 according to the third embodiment. In the third embodiment, since the optical axis of the imaging unit 505 or the imaging apparatus 502 is along the vertical direction, when the vertical direction is projected onto the filter surface, it becomes a point instead of a straight line. For this reason, the definition of the condition for which it is difficult to calculate the distance is different from the definition of the second embodiment. In the third embodiment, two orthogonal axes (referred to as principal axes) are defined in the scene of the subject. The main axis is set based on the main structure of the scene. For example, as shown in FIG. 40A, when the imaging range is indoors, the first main axis and the second main axis can be set along two sides of a generally rectangular floor surface. For example, a plane parallel to the first main axis and the second main axis is parallel to the floor surface. Further, when the person is moving, the first main axis and the second main axis may be set along the moving direction and the direction orthogonal thereto. As shown in FIG. 40B, when the imaging range includes a road, a corridor, and the like, the first main axis and the second main axis can be set along the extending direction of the road, the corridor, and the direction orthogonal thereto. For example, a plane parallel to the first main axis and the second main axis is parallel to a road or a hallway. Further, when a car or a person is moving, the first main axis and the second main axis may be set along the moving direction and the direction orthogonal thereto. When the imaging range includes a moving object such as an automobile or a person, for example, a plane parallel to the first principal axis and the second principal axis is parallel to a plane on which the automobile or person moves. When the roll angle of the imaging unit 505 or the imaging device 502 is 0 degree, as shown in FIG. 39A, a straight line obtained by projecting the first principal axis onto the filter surface or a straight line obtained by projecting the second principal axis onto the filter surface, The straight lines representing the division directions are parallel. In this state, it may be difficult to calculate the distance of the edge in the second principal axis direction. As shown in FIG. 39B, the imaging unit 505 or the imaging device 502 (arm 524) is rotated around the optical axis, and a straight line representing the filter dividing direction is a straight line obtained by projecting the first principal axis onto the filter surface. The second principal axis is not parallel to the straight line projected on the filter surface, that is, the straight line representing the filter dividing direction intersects the straight line obtained by projecting the first principal axis on the filter surface and the straight line projected on the filter surface on the second principal axis. be able to.

これにより、被写体に含まれる第1主軸及び第2主軸の方向のエッジとフィルタ分割方向が直交しなくなり、第1主軸及び第2主軸の方向のエッジの距離が算出できるようになる。この場合のロール角度は0度より大きく、90度未満である。ロール角度は、例えば55度以下である。ロール角度は、例えば35度以上である。   Thereby, the edge in the direction of the first principal axis and the second principal axis included in the subject and the filter division direction are not orthogonal, and the distance between the edges in the direction of the first principal axis and the second principal axis can be calculated. In this case, the roll angle is larger than 0 degree and smaller than 90 degrees. The roll angle is, for example, 55 degrees or less. The roll angle is, for example, 35 degrees or more.

このような第3実施形態においても、第2実施形態と同様に、撮像部505あるいは撮像装置502を光軸を中心に回転し、カラー開口のフィルタ領域分割方向を回転することにより、フィルタ領域分割方向と直交するため被写体までの距離が算出し難いエッジの方向を変えることができる。そのため、距離が算出し難いエッジを、被写体に含まれない、あるいは殆ど含まれない方向のエッジとすることができる。例えば、被写体内の第1主軸、第2主軸方向のエッジに関する距離が算出し難い状況を防ぐことができる。   Also in the third embodiment, similarly to the second embodiment, the image capturing unit 505 or the image capturing apparatus 502 is rotated about the optical axis, and the filter region dividing direction of the color opening is rotated, thereby dividing the filter region. Since the direction is orthogonal to the direction, the direction of the edge where the distance to the subject is difficult to calculate can be changed. Therefore, an edge whose distance is difficult to calculate can be an edge in a direction that is not included or hardly included in the subject. For example, it is possible to prevent a situation in which it is difficult to calculate the distance related to the edges in the direction of the first principal axis and the second principal axis in the subject.

上述の実施形態は距離情報の出力形態の一例として距離画像の表示を説明したが、これに限らず、距離と位置の対応関係表の表示でもよい。各画素に写っている被写体までの距離に加えて、画像全体に映っている被写体の距離の最大値/最小値/中心値/平均値等を出力してもよい。さらに、画像全体の距離画像に限らず、画像の一部の距離を出力してもよい。   In the above-described embodiment, the display of the distance image has been described as an example of the output form of the distance information. In addition to the distance to the subject shown in each pixel, the maximum value / minimum value / center value / average value of the distance of the subject shown in the entire image may be output. Further, not only the distance image of the entire image but also the distance of a part of the image may be output.

距離情報を用いて各画素の画像信号のぼけを処理することにより下記の情報を得ることができる。全ての画素の画像信号が合焦状態である全焦点画像や、撮影時とは異なる被写体領域が合焦状態となり、撮影時に合焦状態の被写体領域は非合焦状態となるリフォーカス画像を生成することができる。任意の距離にある物体を抽出することや、抽出した物体を認識することも可能である。さらには、認識した物体の現在までの距離の変化を辿ることにより、物体の行動も推定できる。   The following information can be obtained by processing the blur of the image signal of each pixel using the distance information. Generates all-in-focus images in which the image signals of all pixels are in focus, and refocused images in which subject areas that are different from those at the time of shooting are in focus, and those that are in focus at the time of shooting are out of focus. can do. It is also possible to extract an object at an arbitrary distance and recognize the extracted object. Furthermore, the behavior of the object can also be estimated by following a change in the distance of the recognized object to the present.

実施形態では、距離情報は処理装置においてユーザが認識できるように表示されるが、これに限らず、他の装置へ出力され、他の装置で距離情報が利用されてもよい。実施形態によれば、ステレオカメラを用いずに、単眼カメラを用いて撮影画像と距離情報を取得することができ、小型軽量の単眼カメラは種々の分野に応用できる。   In the embodiment, the distance information is displayed so as to be recognized by the user in the processing device. However, the present invention is not limited to this, and the distance information may be output to another device and used by the other device. According to the embodiment, a captured image and distance information can be acquired using a monocular camera without using a stereo camera, and the compact and lightweight monocular camera can be applied to various fields.

[応用例1:監視システム]
監視システムは撮影装置で撮影している空間への侵入物を検出して、警報を発するものである。図42は、監視システムの一例である、駐車場における人や車の流れ等を時間帯毎に把握するためのシステムを示す。監視システムは、駐車場に限らず、店舗内における人の流れのような撮像装置が撮影する範囲内を移動する様々な被写体の監視にも用いられる。
[Application example 1: Monitoring system]
The monitoring system detects an intruder into the space where the image is being taken by the imaging device and issues an alarm. FIG. 42 shows an example of a monitoring system, which is a system for grasping the flow of people and vehicles in a parking lot for each time zone. The monitoring system is used not only for parking lots but also for monitoring various subjects moving within a range captured by an imaging device such as a flow of people in a store.

図41は監視システムのブロック図を示す。撮像装置502が図31の撮影画像取得部562と距離画像取得部564の両方に対応する処理装置632に入力される。処理装置632から出力された撮影画像と画素毎の距離情報は、人物検出部634に入力される。人物検出部634は距離に変化に基づいて人物又は移動体を検出する。検出結果はエリア侵入/退出検出部636に供給される。エリア侵入/退出検出部636は、検出した人物又は移動体までの距離に基づいて撮像装置502から所定範囲内の特定エリアに人物又は移動体が侵入したか否か、あるいは特定エリアから人物又は移動体が退出したか否かを判定する。エリア侵入/退出検出部636は例えば、人がある基準距離内に入ったこと、人がある基準距離内から出たこと等の人の流れや、車がある基準距離内に入ったこと、車がある基準距離内から出たこと等の車の流れを解析し、その解析結果を例えばHDD(Hard Disk Drive)などの記憶装置に記録してもよい。人物検出部634とエリア侵入/退出検出部636とは、例えばCPUに含まれてもよい。なお、人物または移動体を検出する処理と、所定範囲内の特定エリアに人物又は移動体が侵入したか否かあるいは特定エリアから人物又は移動体が退出したか否かを判定する処理とは、まとめて1つの処理で行われてもよい。   FIG. 41 shows a block diagram of the monitoring system. The imaging device 502 is input to the processing device 632 corresponding to both the captured image acquisition unit 562 and the distance image acquisition unit 564 of FIG. The captured image output from the processing device 632 and distance information for each pixel are input to the person detection unit 634. The person detection unit 634 detects a person or a moving body based on a change in distance. The detection result is supplied to the area entry / exit detection unit 636. The area intrusion / exit detection unit 636 determines whether or not a person or a moving body has entered a specific area within a predetermined range from the imaging apparatus 502 based on the detected distance to the person or moving body, or a person or a movement from the specific area. Determine if the body has left. The area intrusion / exit detection unit 636 may be, for example, a flow of a person such as a person entering a certain reference distance, a person exiting a certain reference distance, a car entering a certain reference distance, a vehicle For example, the flow of the vehicle such as having exited from a certain reference distance may be analyzed, and the analysis result may be recorded in a storage device such as an HDD (Hard Disk Drive). The person detection unit 634 and the area entry / exit detection unit 636 may be included in the CPU, for example. The process of detecting a person or moving body and the process of determining whether a person or moving body has entered a specific area within a predetermined range or whether a person or moving body has left the specific area are: A single process may be performed collectively.

図42は、監視システムの使用例を示す。駐車場に設置された撮像装置502を用いて、駐車場の人や車の動きを監視することができる。特定エリアは、撮像可能な領域の一部に設定することができる。  FIG. 42 shows a usage example of the monitoring system. Using the imaging device 502 installed in the parking lot, it is possible to monitor the movement of people and cars in the parking lot. The specific area can be set to a part of the imageable area.

人物又は移動体の侵入/退出が検出されると、ユーザインタフェース部638で所定の警告が発せられる。警告は、例えば表示部による表示や、スピーカによる音声出力である。ユーザインタフェース部638は、例えばキーボードやポインティングデバイスからの入力処理も実行する。ユーザインタフェース部638がディスプレイ装置とポインティングデバイスを含む場合には、ユーザインタフェース部638は、例えばディスプレイ装置とポインティングデバイスが一体となったタッチスクリーンディスプレイであってもよい。 When intrusion / exit of a person or a moving body is detected, a predetermined warning is issued by the user interface unit 638. The warning is, for example, display by a display unit or sound output by a speaker. The user interface unit 638 also executes input processing from, for example, a keyboard or a pointing device. When the user interface unit 638 includes a display device and a pointing device, the user interface unit 638 may be, for example, a touch screen display in which the display device and the pointing device are integrated.

この監視カメラは警告を発する代わりに、他のアクションを行うことも可能である。例えば、自動ドアの前方の空間をカメラで撮影し、その空間に人物が移動してくると、ドアを開けるようにしてもよい。   Instead of issuing a warning, the surveillance camera can take other actions. For example, a space in front of the automatic door may be photographed with a camera, and the door may be opened when a person moves into the space.

[応用例2:自動ドアシステム]
図43は、撮像装置502を含む自動ドアシステムの機能構成を示す。自動ドアシステムは、撮像装置502と、制御信号生成部642と、駆動機構644と、ドア部646とを備える。
[Application example 2: Automatic door system]
FIG. 43 shows a functional configuration of an automatic door system including the imaging device 502. The automatic door system includes an imaging device 502, a control signal generation unit 642, a drive mechanism 644, and a door unit 646.

制御信号生成部642は、図41の監視部630と同じである。すなわち、制御信号生成部642は、図31の撮影画像取得部562と距離画像取得部564と図41の人物検出部634とエリア侵入/退出検出部636の機能を含み、被写体が基準距離よりも手前にあるか、それとも奥にあるかを判定し、その判定結果に基づいて、ドア部646の開閉に関する制御信号を生成し、生成された制御信号を駆動機構644に出力する。より具体的には、制御信号生成部642は、被写体が基準距離よりも手前にあることを示す判定結果に基づいて、ドア部646を開いた状態にするための制御信号あるいはドア部646が空いた状態を維持するための制御信号を生成し、駆動機構644に出力する。また、制御信号生成部642は、被写体が基準距離よりも奥にあることを示す判定結果に基づいて、ドア部646を閉じた状態にするための制御信号あるいはドア部646が閉じた状態を維持するための制御信号を生成し、駆動機構644に出力する。   The control signal generation unit 642 is the same as the monitoring unit 630 in FIG. That is, the control signal generation unit 642 includes the functions of the captured image acquisition unit 562, the distance image acquisition unit 564 in FIG. 31, the person detection unit 634, and the area intrusion / exit detection unit 636 in FIG. It is determined whether it is in front or behind, and based on the determination result, a control signal relating to the opening / closing of the door portion 646 is generated, and the generated control signal is output to the drive mechanism 644. More specifically, the control signal generation unit 642 is free of the control signal or the door unit 646 for opening the door unit 646 based on the determination result indicating that the subject is closer to the reference distance. A control signal for maintaining the state is generated and output to the drive mechanism 644. In addition, the control signal generation unit 642 maintains the control signal for closing the door unit 646 or the closed state of the door unit 646 based on the determination result indicating that the subject is behind the reference distance. A control signal for generating the signal is generated and output to the drive mechanism 644.

駆動機構644は、例えば、モータを有し、モータの駆動をドア部646に伝達することによって、ドア部646を開閉する。駆動機構644は、制御信号生成部642によって生成された制御信号に基づいて、ドア部646が開いた状態又は閉じた状態になるように動作させる。   The drive mechanism 644 has, for example, a motor, and opens and closes the door portion 646 by transmitting the drive of the motor to the door portion 646. The drive mechanism 644 is operated based on the control signal generated by the control signal generation unit 642 so that the door unit 646 is opened or closed.

図44は、自動ドアシステムの動作例を示す。ドア部646の正面を移動する歩行者等を撮影できる位置である、例えばドア部646の上方に、図28に示したような取付具を用いて撮像装置502が設置されている。つまり、撮像装置502は、ドア部646の正面の通路等を俯瞰した画像が取得できるように設置される。   FIG. 44 shows an operation example of the automatic door system. An imaging device 502 is installed using a fixture as shown in FIG. 28, for example, above the door 646, which is a position where a pedestrian or the like moving in front of the door 646 can be photographed. In other words, the imaging device 502 is installed so that an image obtained by bird's-eye view of a passage in front of the door portion 646 can be acquired.

制御信号生成部642における基準距離は、例えば、ドア部646正面の、ドア部646から一定の距離に設定される。撮像装置502の光軸は床面に対して斜めであるので、床面に直交するが撮像装置502の光軸に対しては斜めの平面652が基準距離の面として設定され、ドア部646の上方に設置されている撮像装置502は、歩行者650が、この平面652よりも手前にいるか、それとも奥にいるかを判定する。   The reference distance in the control signal generation unit 642 is set to a certain distance from the door unit 646 on the front surface of the door unit 646, for example. Since the optical axis of the imaging device 502 is oblique to the floor surface, a plane 652 that is orthogonal to the floor surface but is oblique to the optical axis of the imaging device 502 is set as a reference distance surface. The imaging device 502 installed above determines whether the pedestrian 650 is in front of or behind this plane 652.

図44(a)に示す例では、歩行者106が基準平面652よりも手前にいると判定される。制御信号生成部642は、この判定結果に基づいて、ドア部646を開いた状態にするための制御信号を生成し、駆動機構644に出力する。駆動機構644は、制御信号生成部642から受信した制御信号に基づいて、ドア部646が開いた状態になるように動作する。   In the example shown in FIG. 44A, it is determined that the pedestrian 106 is in front of the reference plane 652. Based on the determination result, the control signal generation unit 642 generates a control signal for opening the door unit 646 and outputs the control signal to the drive mechanism 644. The drive mechanism 644 operates so that the door unit 646 is opened based on the control signal received from the control signal generation unit 642.

図44(b)に示す例では、歩行者106が基準平面652よりも奥にいると判定される。制御信号生成部642は、この判定結果に基づいて、ドア部646を閉じた状態にするための制御信号を生成し、駆動機構644に出力する。駆動機構644は、制御信号生成部642から受信した制御信号に基づいて、ドア部646が閉じた状態になるように動作する。   In the example shown in FIG. 44B, it is determined that the pedestrian 106 is behind the reference plane 652. Based on the determination result, the control signal generation unit 642 generates a control signal for closing the door unit 646 and outputs the control signal to the drive mechanism 644. The driving mechanism 644 operates based on the control signal received from the control signal generation unit 642 so that the door unit 646 is in a closed state.

このような自動ドアシステムは、自動車のドアの制御にも適用することができる。図45に示すように、自動車のフロントガラスに自動車の右側側面を撮影する撮像装置502Aと、左側側面を撮影する撮像装置502Bを設ける。人物が撮像装置502A、502Bから第1距離に設定された第1平面より奥から手前に変化したことが判定されると、ドアを開けるようにしてもよい。また、人物が撮像装置502A、502Bから第2距離に設定された第2平面より奥から手前に変化したことが判定されると、たとえ社内からドアを開けようとしてもドアが開かないようにしてもよい。第2距離は、例えば第1距離よりも短い距離とすることができる。これは、人間又は物体が自動車に接近している時、ドアが開くことによって、ドアと人間又は物体とが接触するような事故を防ぐためである。   Such an automatic door system can also be applied to control of an automobile door. As shown in FIG. 45, an imaging device 502A for photographing the right side surface of the automobile and an imaging device 502B for photographing the left side surface are provided on the windshield of the automobile. When it is determined that the person has changed from the back to the front of the first plane set at the first distance from the imaging devices 502A and 502B, the door may be opened. If it is determined that the person has changed from the back to the front of the second plane set at the second distance from the imaging devices 502A and 502B, the door will not be opened even if the door is opened from inside the company. Also good. The second distance can be a distance shorter than the first distance, for example. This is to prevent an accident that the door and the person or the object come into contact with each other by opening the door when the person or the object is approaching the automobile.

[応用例3:移動体制御システム]
図46は、撮像装置502を含む移動体670の機能構成例を示す。ここでは、移動体670が、例えば、移動ロボット(Automated Guided Vehicle)や掃除ロボット、コミュニケーションロボットなど自律的に移動するロボットであることを想定する。移動体670は、このようなロボットに限らず、移動用の駆動機構を有するものであるならば、自動車を含む車両、ドローンや飛行機などの飛翔体、船舶等、様々なものとして実現され得る。移動体670にはさらに、ロボット本体が移動するものだけでなく、ロボットアームのような、ロボットの一部分の移動・回転用の駆動機構を有する産業用ロボットも含まれ得る。
[Application Example 3: Mobile Control System]
FIG. 46 illustrates a functional configuration example of the moving object 670 including the imaging device 502. Here, it is assumed that the moving body 670 is a robot that moves autonomously, such as a mobile robot (Automated Guided Vehicle), a cleaning robot, or a communication robot. The moving body 670 is not limited to such a robot, and may be realized as various things such as a vehicle including an automobile, a flying body such as a drone or an airplane, a ship, and the like as long as it has a driving mechanism for movement. Further, the moving body 670 may include not only a robot body that moves, but also an industrial robot having a driving mechanism for moving and rotating a part of the robot, such as a robot arm.

図46に示すように、移動体670は、撮像装置502と、制御信号生成部672と、駆動機構674とを有する。図47に示すように、撮像装置502は、例えば、移動体670の進行方向の被写体を撮像するように設置される。移動体670の進行方向の被写体を撮像するように設置される形態としては、前方を撮像するいわゆるフロントカメラとして設置され得るほか、バック時に後方を撮像するいわゆるリアカメラとして設置され得る。もちろん、これら両方が設置されてもよい。また、撮像装置502は、いわゆるドライブレコーダとしての機能を兼ねて設置されるものであってもよい。すなわち、撮像装置502は、録画機器であってもよい。なお、移動体670の一部分の移動及び回転を制御する場合、撮像装置502は、例えば、ロボットアームで把持される物体を撮像するように、ロボットアームの先端等に設置されてもよい。   As illustrated in FIG. 46, the moving body 670 includes an imaging device 502, a control signal generation unit 672, and a drive mechanism 674. As shown in FIG. 47, the imaging device 502 is installed so as to image a subject in the traveling direction of the moving body 670, for example. As a form installed so as to image the subject in the traveling direction of the moving body 670, it can be installed as a so-called front camera that images the front, or it can be installed as a so-called rear camera that images the rear when back. Of course, both of these may be installed. Further, the imaging device 502 may be installed so as to function as a so-called drive recorder. That is, the imaging device 502 may be a recording device. Note that when the movement and rotation of a part of the moving body 670 is controlled, the imaging device 502 may be installed at the tip of the robot arm or the like so as to image an object gripped by the robot arm, for example.

制御信号生成部672は、図41の処理装置632と同じであり、被写体との距離基づいて、移動体670又はその一部分の加速、減速、停止、衝突回避、方向転換、及びエアバック等の安全装置の作動の内の少なくとも一つに関する制御信号を生成する。   The control signal generation unit 672 is the same as the processing device 632 of FIG. 41, and based on the distance to the subject, the mobile body 670 or a part thereof is accelerated, decelerated, stopped, collision avoidance, direction change, air bag safety, etc. A control signal for at least one of the operation of the device is generated.

制御信号生成部672は、図43の制御信号生成部643と同じに、被写体との距離に基づいて、被写体が所定範囲内の特定エリアに侵入したか否かあるいは特定エリアから退出したか否かを判定してもよい。この場合、制御信号生成部672は、被写体が基準距離よりも手前にあることを示す判定結果に基づいて、減速、衝突回避、被写体から遠ざかる方向への方向転換、及び安全装置の作動の内の少なくとも一つに関する制御信号を生成し得る。また、制御信号生成部672は、被写体が基準距離よりも手前にあるという判定結果に基づいて、加速、及び被写体に近寄る方向への方向転換の内の少なくとも一つに関する制御信号を生成し得る。制御信号生成部672は、生成された制御信号を駆動機構674に出力する。   As with the control signal generation unit 643 in FIG. 43, the control signal generation unit 672 determines whether the subject has entered a specific area within the predetermined range or has left the specific area based on the distance to the subject. May be determined. In this case, based on the determination result indicating that the subject is in front of the reference distance, the control signal generation unit 672 includes deceleration, collision avoidance, direction change away from the subject, and operation of the safety device. A control signal for at least one may be generated. In addition, the control signal generation unit 672 can generate a control signal related to at least one of acceleration and a change in direction toward the subject based on the determination result that the subject is closer to the reference distance. The control signal generation unit 672 outputs the generated control signal to the drive mechanism 674.

駆動機構674は、この制御信号に基づいて移動体670を動作させる。つまり、駆動機構674は、制御信号に基づいて、移動体670又はその一部分によって加速、減速、衝突回避、方向転換、及びエアバック等の安全装置の作動の内の少なくとも一つが行われるように動作する。このような構成は、リアルタイムでの制御が要求される、例えば、ロボットの移動や自動車の自動運転等に適している。   The drive mechanism 674 operates the moving body 670 based on this control signal. That is, the driving mechanism 674 operates based on the control signal so that at least one of acceleration, deceleration, collision avoidance, direction change, and operation of a safety device such as an airbag is performed by the moving body 670 or a part thereof. To do. Such a configuration is suitable for, for example, movement of a robot or automatic driving of a car that requires real-time control.

移動体670がドローンである場合、上空からのひび割れや電線破断等の点検時に、撮像装置502は点検対象を撮影した画像を取得し、被写体との距離を検出し、あるいは被写体が基準距離よりも手前にあるか、それとも奥にあるかを判定する。制御信号生成部672は、この検出結果または判定結果に基づいて、点検対象との距離が一定になるようにドローンの推力を制御するための制御信号を生成する。駆動機構674が、この制御信号に基づいてドローンを動作させることにより、ドローンを点検対象に並行して飛行させることができる。   When the moving body 670 is a drone, the imaging device 502 acquires an image obtained by photographing the inspection target and detects the distance to the subject when the inspection such as a crack from the sky or a wire breakage occurs. Determine whether it is in front or behind. Based on the detection result or determination result, the control signal generation unit 672 generates a control signal for controlling the drone thrust so that the distance from the inspection target is constant. The drive mechanism 674 operates the drone based on this control signal, so that the drone can fly in parallel with the inspection target.

また、ドローンの飛行時に、撮像装置502は地面方向を撮影した画像を取得し、地面からのドローンの高さを検出し、あるいは地面からの高さが基準距離よりも手前にあるか、それとも奥にあるかを判定する。制御信号生成部672は、この検出結果または判定結果に基づいて、地面からの高さが指定された高さになるようにドローンの推力を制御するための制御信号を生成する。駆動機構674が、この制御信号に基づいてドローンを動作させることにより、ドローンを指定された高さで飛行させることができる。   In addition, when the drone flies, the imaging device 502 acquires an image obtained by capturing the direction of the ground, detects the height of the drone from the ground, or whether the height from the ground is in front of the reference distance or in the back. It is determined whether or not. The control signal generation unit 672 generates a control signal for controlling the thrust of the drone so that the height from the ground becomes the specified height based on the detection result or the determination result. The drive mechanism 674 operates the drone based on the control signal, so that the drone can fly at a specified height.

さらに、移動体670がドローン又は自動車である場合、ドローンの連携飛行や自動車の連隊走行時に、撮像装置502は、周囲のドローンや前方の自動車を撮影した画像を取得し、そのドローンや自動車との距離を検出し、あるいはそのドローンや自動車が基準距離よりも手前にあるか、それとも奥にあるかを判定する。制御信号生成部672は、この検出結果あるいは判定結果に基づいて、その周囲のドローンや前方の自動車との距離が一定になるように、ドローンの推力や自動車の速度を制御するための制御信号を生成する。駆動機構674が、この制御信号に基づいてドローンや自動車を動作させることにより、ドローンの連携飛行や自動車の連隊走行を容易に行うことができる。   Further, when the moving body 670 is a drone or a car, the imaging device 502 acquires an image of a surrounding drone or a car in front of the drone or a car during a cooperative flight of the drone or a car regime, and The distance is detected, or it is determined whether the drone or the car is in front of or behind the reference distance. Based on the detection result or the determination result, the control signal generation unit 672 generates a control signal for controlling the drone thrust and the vehicle speed so that the distance from the surrounding drone and the vehicle ahead is constant. Generate. The drive mechanism 674 operates the drone or the automobile based on the control signal, so that the drone can perform the cooperative flight or the automobile regime run easily.

図48は障害物を回避できるドローンの移動制御の一例のブロック図を示す。撮像装置502の出力が図31の撮影画像取得部562と距離画像取得部564の両方の機能を含む処理装置680に入力される。処理装置680から出力された撮影画像と画素毎の距離情報は、障害物認識部682に入力される。ドローンの移動ルートは移動先と現在地が分ると自動的に決定される。ドローンはGPS686を備え、移動先情報と現在地情報が移動ルート計算部684に入力される。移動ルート計算部684から出力される移動ルート情報が障害物認識部682と、飛行制御部688に入力される。飛行制御部688はローターの回転、操舵を行う。   FIG. 48 is a block diagram showing an example of drone movement control that can avoid an obstacle. The output of the imaging device 502 is input to the processing device 680 including the functions of both the captured image acquisition unit 562 and the distance image acquisition unit 564 of FIG. The captured image output from the processing device 680 and the distance information for each pixel are input to the obstacle recognition unit 682. The drone's travel route is automatically determined once the destination and current location are known. The drone includes a GPS 686, and the destination information and the current location information are input to the movement route calculation unit 684. The travel route information output from the travel route calculation unit 684 is input to the obstacle recognition unit 682 and the flight control unit 688. The flight control unit 688 rotates and steers the rotor.

障害物認識部682は、撮影画像と距離情報に基づいて、ドローンから一定距離以内の物体を抽出する。検出結果は、移動ルート計算部684に供給される。移動ルート計算部684は障害物が検知されると、移動先と現在地から決定された移動ルートを、障害物を回避できる滑らかな軌道の移動ルートに修正する。   The obstacle recognition unit 682 extracts an object within a certain distance from the drone based on the captured image and the distance information. The detection result is supplied to the movement route calculation unit 684. When an obstacle is detected, the movement route calculation unit 684 corrects the movement route determined from the destination and the current location to a movement route having a smooth trajectory that can avoid the obstacle.

これにより、空中に予期せぬ障害物が出現した場合でも、自動的に障害物を避けて目的地までドローンを安全に飛行させることができる。図48は、ドローンに限らず、移動ルートが決まっている移動ロボット(Automated Guided Vehicle)、掃除ロボット等にも同様に応用可能である。なお、掃除ロボットの場合、ルート自体が決まっているのではなく、障害物が検知されたら、曲がる、後退する等のルールが決まっている場合もある。この場合でも、障害物の検知、回避に図48の構成が応用できる。   Thereby, even when an unexpected obstacle appears in the air, it is possible to automatically avoid the obstacle and safely fly the drone to the destination. FIG. 48 is applicable not only to drones but also to mobile robots (Automated Guided Vehicles), cleaning robots, and the like whose traveling routes are determined. In the case of a cleaning robot, the route itself is not determined, and rules such as turning and retreating may be determined when an obstacle is detected. Even in this case, the configuration of FIG. 48 can be applied to the detection and avoidance of obstacles.

図49は、実施形態を自動車に応用した場合のシステム構成の一例を示す。撮像装置502の出力が図31の撮影画像取得部562と距離画像取得部564の両方の機能を含む処理装置692に入力される。処理装置692は、撮影画像と画素毎の距離情報を出力する。撮影画像と距離情報は、歩行者/車両検出部694に入力される。歩行者/車両検出部694は、撮影画像と距離情報に基づいて、撮影画像内に道路に対して垂直な物体を歩行者/車両の候補領域として設定する。歩行者/車両検出部694は、各候補領域に対して特徴量を計算し、この特徴量を大量のサンプル画像データから予め求めておいた多数の基準データと比較することにより、歩行者/車両を検出することができる。歩行者/車両を検出すると、ドライバに警告698が出されてもよいし、自動ブレーキ696が作動され、自動車が減速あるいは停止されてもよい。   FIG. 49 shows an example of a system configuration when the embodiment is applied to an automobile. The output of the imaging device 502 is input to the processing device 692 including the functions of both the captured image acquisition unit 562 and the distance image acquisition unit 564 of FIG. The processing device 692 outputs the captured image and distance information for each pixel. The captured image and distance information are input to the pedestrian / vehicle detection unit 694. The pedestrian / vehicle detection unit 694 sets an object perpendicular to the road in the captured image as a pedestrian / vehicle candidate area based on the captured image and the distance information. The pedestrian / vehicle detection unit 694 calculates a feature amount for each candidate region, and compares the feature amount with a large number of reference data obtained in advance from a large amount of sample image data, thereby obtaining a pedestrian / vehicle. Can be detected. When a pedestrian / vehicle is detected, a warning 698 may be issued to the driver, or the automatic brake 696 may be activated to decelerate or stop the automobile.

撮像装置502は運転席のフロントカメラに限らず、サイドミラーに取り付けるサイドカメラ、リアガラスに取り付けられるリアカメラでもよい。サイドカメラ、リアカメラの場合は、歩行者/車両の検出の代わりに、後進して駐車する際の障害物を検出してもよい。フロントカメラの場合、近年、自動車のフロントガラスに取り付けられたカメラで撮影された自動車前方の風景をSDカード等に記録するドライブレコーダが開発されている。このドライブレコーダのカメラに実施形態のカメラを応用することにより、車内に別途カメラを設けることなく、自動車の前方の撮影画像に加えて距離情報を得ることができる。   The imaging device 502 is not limited to the front camera in the driver's seat, but may be a side camera attached to the side mirror or a rear camera attached to the rear glass. In the case of a side camera and a rear camera, instead of detecting a pedestrian / vehicle, an obstacle when moving backward and parking may be detected. In the case of a front camera, in recent years, a drive recorder has been developed that records on the SD card or the like a scene in front of the automobile taken by a camera attached to the windshield of the automobile. By applying the camera of the embodiment to the camera of this drive recorder, it is possible to obtain distance information in addition to a captured image in front of the automobile without providing a separate camera in the vehicle.

移動体ではなく静止しているが、移動部を備えるもの、例えば製造ロボット等にも応用可能である。部品を掴む、移す、部品を加工するアームからの距離に応じて障害物を検出すると、アームの移動を制限するようにしてもよい。   Although it is not a moving body but is stationary, it can also be applied to a device provided with a moving unit, such as a manufacturing robot. If an obstacle is detected according to the distance from the arm that grips, moves, or processes the part, the movement of the arm may be limited.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

10…フィルタ、11…第1のフィルタ領域、12…第2のフィルタ領域、20…レンズ、30…イメージセンサ、40…CPU、41…画像処理部、50…RAM、60…メモリカードスロット、70…ディスプレイ、80…通信部、90…不揮発性メモリ、100…撮像装置、110…バス、200…ロボット、201…制御部、202…駆動機構、203…回転機構、300…移動体、301…制御部、302…駆動機構、400…監視システム、401…制御部、402…ユーザインタフェース部、411…画像取得部、412…距離算出部、413…信頼度算出部、414…出力部、502…撮像装置、504…カラー開口。   DESCRIPTION OF SYMBOLS 10 ... Filter, 11 ... 1st filter area | region, 12 ... 2nd filter area | region, 20 ... Lens, 30 ... Image sensor, 40 ... CPU, 41 ... Image processing part, 50 ... RAM, 60 ... Memory card slot, 70 DESCRIPTION OF SYMBOLS ... Display, 80 ... Communication part, 90 ... Non-volatile memory, 100 ... Imaging device, 110 ... Bus, 200 ... Robot, 201 ... Control part, 202 ... Drive mechanism, 203 ... Rotation mechanism, 300 ... Moving body, 301 ... Control , 302 ... Drive mechanism, 400 ... Monitoring system, 401 ... Control unit, 402 ... User interface unit, 411 ... Image acquisition unit, 412 ... Distance calculation unit, 413 ... Reliability calculation unit, 414 ... Output unit, 502 ... Imaging Device, 504 ... Color opening.

本発明の実施形態は、処理装置、撮像装置および自動制御システムに関する。 Embodiments of the present invention, the processing unit relates to an imaging apparatus and an automatic control system.

本発明が解決しようとする課題は、画像から得た被写体までの距離の信頼度に関する出力や制御を行うことができる処理装置、撮像装置および自動制御システムを提供することである。 An object of the present invention is to provide is to provide a processing apparatus, an imaging apparatus and an automatic control system that can be output and control over the reliability of the distance obtained from the image.

特開2015−194486号公報JP-A-2015-194486 特開2004−340714号公報JP 2004-340714 A 特許第4979525号公報Japanese Patent No. 4997525 実用新案登録第3179836号公報Utility Model Registration No. 3179836 特開2016−102733号公報JP 2006-102733 A

Claims (26)

対称な第1のぼけ関数で示される形状のぼけを含む被写体の第1の画像と、非対称な第2のぼけ関数で示される形状のぼけを含む前記被写体の第2の画像とを取得する取得部と、
前記第1のぼけ関数と前記第2のぼけ関数との相関に基づき、前記被写体までの距離を算出する距離算出部と、
前記相関の度合いに基づき前記距離の信頼度を算出する信頼度算出部と、
を具備する処理装置。
Acquisition of a first image of a subject including a blur of a shape indicated by a symmetric first blur function and a second image of the subject including a blur of a shape indicated by an asymmetric second blur function And
A distance calculating unit that calculates a distance to the subject based on a correlation between the first blur function and the second blur function;
A reliability calculation unit that calculates the reliability of the distance based on the degree of correlation;
A processing apparatus comprising:
前記距離算出部は、前記第2の画像と複数のぼけ補正フィルタそれぞれとにより生成される複数の補正画像それぞれと、前記第1の画像と、の相関により前記距離を算出し、
前記信頼度算出部は、前記複数の補正画像それぞれと前記第1の画像との相関関数の曲率に基づき、前記距離の信頼度を算出する、
請求項1に記載の処理装置。
The distance calculation unit calculates the distance based on a correlation between each of a plurality of correction images generated by the second image and each of a plurality of blur correction filters, and the first image,
The reliability calculation unit calculates the reliability of the distance based on a curvature of a correlation function between each of the plurality of corrected images and the first image;
The processing apparatus according to claim 1.
前記信頼度算出部は、前記複数の補正画像それぞれと前記第1の画像との相関関数の曲率、および、被写体像のエッジ方向または前記被写体像のエッジ強度に基づき、前記距離の信頼度を算出する請求項2に記載の処理装置。   The reliability calculation unit calculates the reliability of the distance based on a curvature of a correlation function between each of the plurality of corrected images and the first image, and an edge direction of the subject image or an edge strength of the subject image. The processing apparatus according to claim 2. 前記処理装置はさらにマップを出力する出力部を備え、前記マップは、前記第1の画像または前記第2の画像のいずれかにおける複数の第1点と対応する複数の第2点において、前記複数の第1点の前記距離と前記距離の信頼度とを示す、請求項1に記載の処理装置。   The processing apparatus further includes an output unit that outputs a map, and the map includes the plurality of second points corresponding to the plurality of first points in either the first image or the second image. The processing apparatus according to claim 1, wherein the distance of the first point and the reliability of the distance are indicated. 前記処理装置はさらにリストを出力する出力部を備え、前記リストは、前記第1の画像または前記第2の画像の座標と、前記座標における前記距離と、前記距離の信頼度とを示す、請求項1に記載の処理装置。   The processing apparatus further includes an output unit for outputting a list, and the list indicates the coordinates of the first image or the second image, the distance at the coordinates, and the reliability of the distance. Item 2. The processing apparatus according to Item 1. 前記処理装置はさらに出力データを出力する出力部を備え、
前記出力データは、前記取得部により取得されるカラー画像データと、前記カラー画像データで示される画像上の複数の点の前記距離を含む距離データと、前記複数の点の前記距離の信頼度を含む信頼度データとを含む、請求項1に記載の処理装置。
The processing device further includes an output unit for outputting output data,
The output data includes color image data acquired by the acquisition unit, distance data including the distances of a plurality of points on the image indicated by the color image data, and reliability of the distances of the plurality of points. The processing apparatus according to claim 1, further comprising reliability data that includes the data.
請求項1乃至6のいずれか1項に記載の処理装置と、
前記第1の画像と前記第2の画像とを撮像する撮像部と、
を具備する撮像装置。
The processing apparatus according to any one of claims 1 to 6,
An imaging unit that captures the first image and the second image;
An imaging apparatus comprising:
前記第1の画像と前記第2の画像は、一の撮像装置により同時刻に撮像された画像である、請求項7に記載の撮像装置。   The imaging device according to claim 7, wherein the first image and the second image are images captured by the same imaging device at the same time. 前記第1の画像上または前記第2の画像上の位置に対応する前記距離と前記距離の信頼度とを含む表示画像を表示可能な表示部を具備する請求項7または8のいずれか1項に記載の撮像装置。   9. The display unit according to claim 7, further comprising a display unit capable of displaying a display image including the distance corresponding to the position on the first image or the second image and the reliability of the distance. The imaging device described in 1. 前記表示画像上の位置の指定を受け付ける入力部をさらに具備し、
前記表示部は、前記入力部により指定された表示画像上の位置に対応する前記第1の画像上または前記第2の画像上における位置の前記距離と前記距離の信頼度を表示する、
請求項9に記載の撮像装置。
An input unit for receiving a designation of a position on the display image;
The display unit displays the distance of the position on the first image or the second image corresponding to the position on the display image designated by the input unit and the reliability of the distance;
The imaging device according to claim 9.
前記表示部は、前記距離の信頼度が閾値以下の場合、前記撮像装置を回転させることを促すメッセージを出力する請求項9または10のいずれか1項に記載の撮像装置。   11. The imaging device according to claim 9, wherein the display unit outputs a message prompting the user to rotate the imaging device when the reliability of the distance is equal to or less than a threshold value. 請求項7乃至11のいずれか1項に記載の撮像装置と、
前記距離と前記距離の信頼度とに基づき、移動体の駆動機構を制御する制御部と、
を具備する移動体の自動制御システム。
The imaging device according to any one of claims 7 to 11,
Based on the distance and the reliability of the distance, a control unit that controls the driving mechanism of the moving body;
An automatic control system for a moving body.
前記制御部は、前記距離と前記距離の信頼度とから算出される前記距離の下方限界値を用いて前記駆動機構を制御する請求項12に記載の自動制御システム。   The automatic control system according to claim 12, wherein the control unit controls the drive mechanism using a lower limit value of the distance calculated from the distance and the reliability of the distance. 前記制御部は、前記下方限界値に基づいて前記駆動機構を制御することにより移動体を停止、減速、加速または移動開始させる、請求項13に記載の自動制御システム。   The automatic control system according to claim 13, wherein the control unit stops, decelerates, accelerates, or starts moving by controlling the drive mechanism based on the lower limit value. 前記撮像装置は、回転機構に取り付けられ、
前記制御部は、前記撮像装置から得られる前記距離の信頼度がより高くなるように前記回転機構を制御する請求項12に記載の自動制御システム。
The imaging device is attached to a rotation mechanism,
The automatic control system according to claim 12, wherein the control unit controls the rotation mechanism so that reliability of the distance obtained from the imaging device is higher.
少なくとも第1フィルタ領域と第2フィルタ領域とを含むフィルタを開口部に備えたカメラと、
鉛直方向を表す直線を前記フィルタに射影した第1直線と、前記フィルタの第1フィルタ領域と第2フィルタ領域との分割方向を表す第2直線と、が非平行であるように前記カメラを設置する手段と、
を具備する撮像装置。
A camera including at least an opening including a filter including a first filter region and a second filter region;
The camera is installed such that a first straight line obtained by projecting a straight line representing a vertical direction onto the filter and a second straight line representing a dividing direction of the first filter region and the second filter region of the filter are not parallel to each other. Means to
An imaging apparatus comprising:
前記第1直線と前記第2直線のなす角度に基づいて撮影画像を回転させる処理部をさらに具備する請求項16記載の撮像装置。   The imaging apparatus according to claim 16, further comprising a processing unit that rotates a captured image based on an angle formed by the first straight line and the second straight line. 請求項17に記載の撮像装置と、
前記回転された撮影画像を表示する表示部と、を具備する撮像システム。
An imaging device according to claim 17,
A display unit for displaying the rotated photographed image.
少なくとも第1フィルタ領域と第2フィルタ領域とを含むフィルタを開口部に備えたカメラであって、鉛直方向を表す直線を前記フィルタに射影した第1直線と、前記フィルタの第1フィルタ領域と第2フィルタ領域の分割方向を表す第2直線と、が非平行であるカメラを用いて被写体を撮影することと、
前記被写体の撮影画像から前記フィルタから前記被写体までの距離情報を取得することと、
を具備する距離情報取得方法。
A camera including at least a filter including at least a first filter region and a second filter region in an opening, wherein a first straight line obtained by projecting a straight line representing a vertical direction onto the filter, a first filter region of the filter, Photographing a subject using a camera in which the second straight line representing the division direction of the two filter areas is non-parallel,
Obtaining distance information from the filter to the subject from a captured image of the subject;
A distance information acquisition method comprising:
前記第1直線と前記第2直線のなす角度に基づいて撮影画像を回転させることをさらに具備する請求項19記載の距離情報取得方法。   The distance information acquisition method according to claim 19, further comprising rotating a captured image based on an angle formed by the first straight line and the second straight line. 前記回転された撮影画像を表示することをさらに具備する請求項20記載の距離情報取得方法。   The distance information acquisition method according to claim 20, further comprising displaying the rotated photographed image. 少なくとも第1フィルタ領域と第2フィルタ領域とを含むフィルタを開口部に備えたカメラと、
前記カメラから出力される撮影画像に含まれる第1主軸を表す直線を前記フィルタに射影した第1直線と、前記撮影画像に含まれる前記第1主軸と直交する第2主軸を表す直線を前記フィルタに射影した第2直線と、前記フィルタの第1フィルタ領域と第2フィルタ領域の分割方向を表す第3直線と、が非平行であるように前記カメラを設置する手段と、
を具備する撮像装置。
A camera including at least an opening including a filter including a first filter region and a second filter region;
A first straight line obtained by projecting a straight line representing a first principal axis included in a photographed image output from the camera onto the filter, and a straight line representing a second principal axis perpendicular to the first principal axis included in the photographed image are used as the filter. Means for installing the camera so that a second straight line projected onto the first straight line and a third straight line representing the dividing direction of the first filter region and the second filter region of the filter are non-parallel,
An imaging apparatus comprising:
前記第1主軸と前記第2主軸は、撮像範囲に含まれる部屋の床又は壁の直交する2辺に沿う請求項22記載の撮像装置。   The imaging device according to claim 22, wherein the first main axis and the second main axis are along two orthogonal sides of a floor or wall of a room included in the imaging range. 前記第1主軸又は前記第2主軸は、撮像範囲に含まれる道路の延在方向又は車の進行方向に沿う請求項22記載の撮像装置。   The imaging apparatus according to claim 22, wherein the first main axis or the second main axis is along an extending direction of a road or a traveling direction of a vehicle included in an imaging range. 前記第1直線と前記第2直線のなす角度に基づいて前記撮影画像を回転させる処理部をさらに具備する請求項22乃至請求項24のいずれか一項記載の撮像装置。   The imaging device according to any one of claims 22 to 24, further comprising a processing unit that rotates the captured image based on an angle formed by the first straight line and the second straight line. 前記回転された撮影画像を表示する表示部をさらに具備する請求項25記載の撮像装置。   26. The imaging apparatus according to claim 25, further comprising a display unit that displays the rotated photographed image.
JP2017139402A 2016-11-11 2017-07-18 Processing device, imaging device, and automatic control system Abandoned JP2018084571A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201710801514.0A CN108076267A (en) 2016-11-11 2017-08-31 Photographic device, camera system and range information acquisition methods
CN201710771177.5A CN108076266A (en) 2016-11-11 2017-08-31 Processing unit and photographic device
US15/701,340 US20180137629A1 (en) 2016-11-11 2017-09-11 Processing apparatus, imaging apparatus and automatic control system
US15/704,025 US20180137607A1 (en) 2016-11-11 2017-09-14 Processing apparatus, imaging apparatus and automatic control system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016220642 2016-11-11
JP2016220642 2016-11-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017149237A Division JP2018084802A (en) 2016-11-11 2017-08-01 Imaging device, imaging system, and distance information acquisition method

Publications (1)

Publication Number Publication Date
JP2018084571A true JP2018084571A (en) 2018-05-31

Family

ID=62237623

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017139402A Abandoned JP2018084571A (en) 2016-11-11 2017-07-18 Processing device, imaging device, and automatic control system
JP2017149237A Pending JP2018084802A (en) 2016-11-11 2017-08-01 Imaging device, imaging system, and distance information acquisition method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2017149237A Pending JP2018084802A (en) 2016-11-11 2017-08-01 Imaging device, imaging system, and distance information acquisition method

Country Status (1)

Country Link
JP (2) JP2018084571A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219208A (en) * 2018-06-18 2019-12-26 オムロン株式会社 Image processing system and image processing method
JP2020041973A (en) * 2018-09-13 2020-03-19 株式会社東芝 Image processing device and distance measuring device
JP2020048034A (en) * 2018-09-18 2020-03-26 株式会社東芝 Electronic device and notification method
WO2021085560A1 (en) * 2019-10-31 2021-05-06 ミネベアミツミ株式会社 Image processing device and image processing method
JP2022031300A (en) * 2018-09-18 2022-02-18 株式会社東芝 Electronic apparatus and notification method
WO2022244311A1 (en) * 2021-05-20 2022-11-24 ソニーグループ株式会社 Imaging device, image processing method, and program
US11587261B2 (en) 2017-09-08 2023-02-21 Kabushiki Kaisha Toshiba Image processing apparatus and ranging apparatus
WO2023127337A1 (en) * 2021-12-28 2023-07-06 ソニーグループ株式会社 Information processing device, information processing method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047804A1 (en) * 2021-09-27 2023-03-30 株式会社Jvcケンウッド Imaging device, imaging system, imaging method, and program
WO2023176562A1 (en) * 2022-03-17 2023-09-21 ソニーグループ株式会社 Information processing apparatus, information processing method, and information processing program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002354325A (en) * 2001-05-29 2002-12-06 Canon Inc Imaging device and imaging system having the same
JP2010011177A (en) * 2008-06-27 2010-01-14 Nikon Corp Digital camera
JP2013044806A (en) * 2011-08-22 2013-03-04 Olympus Corp Imaging apparatus
JP2013057761A (en) * 2011-09-07 2013-03-28 Olympus Corp Distance measuring device, imaging device, and distance measuring method
JP2015026914A (en) * 2013-07-24 2015-02-05 株式会社リコー Program, information processing device, and system
JP6223196B2 (en) * 2014-01-17 2017-11-01 日本放送協会 Camera boom
JP2016102733A (en) * 2014-11-28 2016-06-02 株式会社東芝 Lens and image capturing device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11587261B2 (en) 2017-09-08 2023-02-21 Kabushiki Kaisha Toshiba Image processing apparatus and ranging apparatus
JP2019219208A (en) * 2018-06-18 2019-12-26 オムロン株式会社 Image processing system and image processing method
US11967095B2 (en) 2018-06-18 2024-04-23 Omron Corporation Image processing system and image processing method
JP2020041973A (en) * 2018-09-13 2020-03-19 株式会社東芝 Image processing device and distance measuring device
JP2020048034A (en) * 2018-09-18 2020-03-26 株式会社東芝 Electronic device and notification method
JP7021036B2 (en) 2018-09-18 2022-02-16 株式会社東芝 Electronic devices and notification methods
JP2022031300A (en) * 2018-09-18 2022-02-18 株式会社東芝 Electronic apparatus and notification method
US11418707B2 (en) 2018-09-18 2022-08-16 Kabushiki Kaisha Toshiba Electronic device and notification method
JP7263493B2 (en) 2018-09-18 2023-04-24 株式会社東芝 Electronic devices and notification methods
WO2021085560A1 (en) * 2019-10-31 2021-05-06 ミネベアミツミ株式会社 Image processing device and image processing method
WO2022244311A1 (en) * 2021-05-20 2022-11-24 ソニーグループ株式会社 Imaging device, image processing method, and program
WO2023127337A1 (en) * 2021-12-28 2023-07-06 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2018084802A (en) 2018-05-31

Similar Documents

Publication Publication Date Title
JP2018084571A (en) Processing device, imaging device, and automatic control system
US20180137607A1 (en) Processing apparatus, imaging apparatus and automatic control system
JP2018077190A (en) Imaging apparatus and automatic control system
JP6699898B2 (en) Processing device, imaging device, and automatic control system
JP6699897B2 (en) Imaging device, automatic control system and system
EP3493179B1 (en) Driving assisting method and driving assisting device using the same
JP2019011971A (en) Estimation system and automobile
CN107122770B (en) Multi-camera system, intelligent driving system, automobile, method and storage medium
JP2018160228A (en) Route generation device, route control system, and route generation method
KR102118066B1 (en) Vehicle control method for safety driving
CN109313021A (en) Imaging control apparatus and method and vehicle
JP2020026990A (en) Image processing device
JP7163748B2 (en) Vehicle display control device
US20180268225A1 (en) Processing apparatus and processing system
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
JP6971933B2 (en) Image processing equipment and imaging equipment
US11827148B2 (en) Display control device, display control method, moving body, and storage medium
US11176397B2 (en) Object recognition device
JP6668975B2 (en) Electronics and vehicles
JP2012022646A (en) Visual line direction detector, visual line direction detection method and safe driving evaluation system
WO2020129398A1 (en) Observation apparatus
JP2020106986A (en) Information processing device, information processing method, and mobile
KR20210003856A (en) Camera with scanning optical path folding elements for automotive or surveillance applications
JP2021170385A (en) Processing device and processing system
CN211880472U (en) Image acquisition device and camera

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170801

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190815

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200811

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20200831