JP2020056627A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2020056627A
JP2020056627A JP2018186009A JP2018186009A JP2020056627A JP 2020056627 A JP2020056627 A JP 2020056627A JP 2018186009 A JP2018186009 A JP 2018186009A JP 2018186009 A JP2018186009 A JP 2018186009A JP 2020056627 A JP2020056627 A JP 2020056627A
Authority
JP
Japan
Prior art keywords
unit
image
imaging
distance
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2018186009A
Other languages
Japanese (ja)
Inventor
祥 永井
Sho Nagai
祥 永井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2018186009A priority Critical patent/JP2020056627A/en
Publication of JP2020056627A publication Critical patent/JP2020056627A/en
Withdrawn legal-status Critical Current

Links

Abstract

To enable a far distance to be measured.SOLUTION: An imaging device of the present invention comprises: a first imaging unit having a plurality of pixels for capturing an image; a second imaging unit having a plurality of pixels for capturing an image; and a processing unit for processing a first image captured by the first imaging unit and a second image captured by the second imaging unit and acquiring distance information pertaining to a subject. The base line length B (in m), focus distance F (in mm) and pixel pitch p (in mm) of the first and second imaging units satisfy the relationship B×F/p>700.SELECTED DRAWING: Figure 5

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging device.

従来、ステレオカメラ等の複眼カメラを用いて被写体を測距する技術がある。   2. Description of the Related Art Conventionally, there is a technique for measuring a distance to a subject using a compound eye camera such as a stereo camera.

例えば、飛行体に搭載されたステレオカメラで撮像した一対の撮像画像を処理して下方風景に対する距離情報と、当該距離情報に基づく飛行体の姿勢角とを算出する技術がある(例えば、特許文献1参照)。特許文献1の技術では、複数の計測点の距離情報に基づいて平面が求められ、当該平面に対する傾きが飛行体の姿勢角として算出される。   For example, there is a technology that processes a pair of captured images captured by a stereo camera mounted on an air vehicle to calculate distance information with respect to a lower scenery and an attitude angle of the air vehicle based on the distance information (for example, Patent Document 1). 1). In the technique of Patent Literature 1, a plane is determined based on distance information of a plurality of measurement points, and a tilt with respect to the plane is calculated as an attitude angle of the flying object.

特許文献1の技術では、飛行体から下方風景までの距離情報がステレオカメラの撮像画像を用いて算出される。飛行体と下方風景との距離は、数百mに至ることがある。しかしながら、従来のステレオカメラはこのような距離の被写体を測距することが難しい。   In the technique of Patent Literature 1, distance information from a flying object to a landscape below is calculated using an image captured by a stereo camera. The distance between the flying vehicle and the lower landscape can be several hundred meters. However, it is difficult for a conventional stereo camera to measure a subject at such a distance.

そこで、本開示の撮像装置は、遠方の測距を可能にすることを目的とする。   Therefore, it is an object of the imaging device of the present disclosure to enable remote distance measurement.

本発明の一実施形態による撮像装置は、画像を撮像する複数の画素を有する第一撮像部と、画像を撮像する複数の画素を有する第二撮像部と、前記第一撮像部により撮像された第一画像及び前記第二撮像部により撮像された第二画像を処理して被写体の距離情報を取得する処理部とを備え、前記第一撮像部及び前記第二撮像部の基線長B(単位:m)、焦点距離F(単位:mm)及び画素ピッチp(単位:mm)は、B×F/p>700の関係を満たす。   An imaging device according to an embodiment of the present invention includes a first imaging unit having a plurality of pixels for capturing an image, a second imaging unit having a plurality of pixels for capturing an image, and an image captured by the first imaging unit. A processing unit configured to process the first image and the second image captured by the second imaging unit to obtain distance information of the subject, wherein a base line length B (unit) of the first imaging unit and the second imaging unit : M), focal length F (unit: mm) and pixel pitch p (unit: mm) satisfy the relationship of B × F / p> 700.

本開示の撮像装置によれば、遠方の測距をすることが可能になる。   According to the imaging device of the present disclosure, it is possible to measure a far distance.

実施の形態1に係る撮像装置の構成の一例を示す斜視図FIG. 2 is a perspective view illustrating an example of a configuration of an imaging device according to Embodiment 1. 実施の形態1に係る撮像装置の構成の一例を示す平面図FIG. 2 is a plan view illustrating an example of a configuration of an imaging device according to Embodiment 1. 実施の形態1に係る撮像装置の機能的な構成の一例を示すブロック図FIG. 2 is a block diagram illustrating an example of a functional configuration of the imaging device according to Embodiment 1. 実施の形態1に係る撮像装置のハードウェア構成の一例を示すブロック図FIG. 2 is a block diagram illustrating an example of a hardware configuration of the imaging apparatus according to Embodiment 1. 実施の形態1に係る撮像装置の構成要素の配置の一例を示す平面図FIG. 2 is a plan view showing an example of an arrangement of components of the imaging device according to the first embodiment. 実施の形態1に係る撮像装置の動作の一例を示すフローチャート5 is a flowchart illustrating an example of the operation of the imaging device according to Embodiment 1. 実施の形態1に係る撮像装置によって生成される距離画像の一例を示す図FIG. 4 is a diagram showing an example of a distance image generated by the imaging device according to the first embodiment. 実施の形態2に係る撮像装置の機能的な構成の一例を示すブロック図FIG. 4 is a block diagram showing an example of a functional configuration of an imaging device according to Embodiment 2. 実施の形態2に係る撮像装置の動作の一例を示すフローチャート11 is a flowchart illustrating an example of the operation of the imaging device according to Embodiment 2. 実施の形態3に係る撮像装置の機能的な構成の一例を示すブロック図FIG. 9 is a block diagram showing an example of a functional configuration of an imaging device according to Embodiment 3. 実施の形態3に係る撮像装置の動作の一例を示すフローチャート11 is a flowchart illustrating an example of the operation of the imaging device according to Embodiment 3. 実施の形態4に係る撮像装置の機能的な構成の一例を示すブロック図FIG. 14 is a block diagram illustrating an example of a functional configuration of an imaging device according to Embodiment 4.

近年、ステレオカメラを用いた測距技術を、車両、ロボット及び監視カメラ等での被写体の検出に適用することが検討されている。例えば、ステレオカメラは、車両では自動運転技術及び運転支援技術に利用され、ロボットでは物体の認識に利用され、監視カメラでは人の検出に利用される。現状のステレオカメラが用いられる環境では、100m程度までの距離情報であれば、その距離情報は実用的に十分に活用可能である。   In recent years, it has been studied to apply a distance measurement technique using a stereo camera to detection of a subject in a vehicle, a robot, a monitoring camera, or the like. For example, a stereo camera is used in a vehicle for automatic driving technology and driving support technology, a robot is used for object recognition, and a surveillance camera is used for human detection. In an environment where a current stereo camera is used, if the distance information is up to about 100 m, the distance information can be sufficiently utilized practically.

例えば、特許文献2は、複数のカメラを備えた撮像システムを開示している。撮像システムは、単眼カメラとして処理(以下、「単眼処理」とも呼ぶ)することによって推定された距離と、ステレオカメラとして処理(以下、「ステレオ処理」とも呼ぶ)することによって推定された距離とを併用する。推定距離が50mよりも近く且つ画像のボケ量が小さい場合、ステレオ処理によって安定して対象物までの距離を算出できることが記載され、このため、ステレオ処理での推定距離が採用される。推定距離が50mよりも近く且つ画像のボケ量が大きい場合、単眼処理での推定距離が採用される。推定距離が50mよりも遠い場合、ステレオ処理での距離算出は視差値が小さく困難であることが記載され、このため、単眼処理での推定距離が採用される。   For example, Patent Document 2 discloses an imaging system including a plurality of cameras. The imaging system calculates a distance estimated by processing as a monocular camera (hereinafter, also referred to as “monocular processing”) and a distance estimated by processing as a stereo camera (hereinafter, also referred to as “stereo processing”). Combined. When the estimated distance is shorter than 50 m and the blur amount of the image is small, it is described that the distance to the target object can be stably calculated by the stereo processing. Therefore, the estimated distance in the stereo processing is adopted. When the estimated distance is shorter than 50 m and the blur amount of the image is large, the estimated distance in the monocular processing is adopted. When the estimated distance is longer than 50 m, it is described that the distance calculation in the stereo processing is difficult because the parallax value is small, and therefore, the estimated distance in the monocular processing is adopted.

特許文献2では、推定距離が100m程度までの50mよりも遠い場合にステレオ処理での推定距離を用いるケースも記載されている。この場合、予め用意された車両等の対象物のテンプレートとのパターンマッチングによって、2つの画像から対象物が探索される。さらに、2つの画像間での当該対象物の視差から当該対象物までの距離が算出される。   Patent Literature 2 also describes a case where the estimated distance in stereo processing is used when the estimated distance is longer than 50 m up to about 100 m. In this case, the object is searched from the two images by pattern matching with a template of the object such as a vehicle prepared in advance. Further, the distance to the object is calculated from the parallax of the object between the two images.

このように、従来のステレオカメラは、50m程度までの距離の算出が可能であり、予め形状等が既知である対象物については、100m程度までの距離の算出が可能である。このため、従来のステレオカメラを特許文献1の技術に適用した場合、対象物までの距離が100mよりも長くなり得るため、所望の距離情報が得られない可能性がある。   As described above, the conventional stereo camera can calculate a distance up to about 50 m, and can calculate a distance up to about 100 m for an object whose shape or the like is known in advance. For this reason, when the conventional stereo camera is applied to the technique of Patent Literature 1, the distance to the target object may be longer than 100 m, and desired distance information may not be obtained.

また、航空機にステレオカメラが搭載される場合、飛行中の航空機から滑走路及び障害物等の飛行場の対象物までの測距が、ステレオカメラに要求される。これにより、操縦士の眼に代わって、飛行場の対象物の認識が可能である。より安全な航空機の航行のためには、操縦士の眼の代わりを務めるステレオカメラの測距能力は、人間の眼の能力以上であることが望ましい。具体的には、ステレオカメラの測定可能な距離は、人間の両眼が奥行きを感じることができる距離の限界値と同等以上であることが望ましい。   When a stereo camera is mounted on an aircraft, the stereo camera is required to measure a distance from a flying aircraft to an object on an airfield such as a runway and an obstacle. Thereby, it is possible to recognize the object at the airfield instead of the pilot's eyes. For safer navigation of the aircraft, it is desirable that the stereo camera acting as a substitute for the pilot's eye has a distance measuring capability equal to or greater than that of the human eye. Specifically, it is desirable that the distance measurable by the stereo camera is equal to or greater than the limit value of the distance at which both human eyes can sense the depth.

例えば、非特許文献1によると、人間の両眼の視差に関して、奥行きを感じる奥行感度は、視点から目標物までの距離である視距離が長くなると小さくなり、視距離700〜750mの間で最小値に収束する。よって、人間の両眼は、上記距離以上にある2つの像の奥行きの違いを識別することができない。   For example, according to Non-Patent Document 1, regarding parallax between two human eyes, the depth sensitivity at which depth is perceived decreases as the viewing distance, which is the distance from the viewpoint to the target, decreases, and the depth sensitivity decreases between 700 to 750 m. Converge to a value. Therefore, both eyes of a human cannot distinguish a difference in depth between two images that are longer than the distance.

このため、航空機に搭載されるステレオカメラは、700m以上離れた対象物を測距する能力を備えることが望ましい。しかしながら、従来のステレオカメラは、人が奥行感度を十分に感じ取ることができる距離よりも大幅に短い距離の測定能力しか有さない。従来のステレオカメラにおいて、700m以上のような遠距離の測定を可能にするステレオカメラは、存在しない。   For this reason, it is desirable that the stereo camera mounted on the aircraft has the ability to measure the distance of an object that is 700 m or more away. However, conventional stereo cameras only have the ability to measure distances that are significantly shorter than the distance at which a person can fully perceive depth sensitivity. In conventional stereo cameras, there is no stereo camera capable of measuring a long distance such as 700 m or more.

そこで、本開示の技術は、例えば700m以上のような、遠方の測距を可能にする撮像装置を提供する。   Therefore, the technology of the present disclosure provides an imaging device that enables a long distance measurement such as 700 m or more.

以下、本発明の実施の形態について添付の図面を参照しつつ説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することによって重複した説明を省く。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are denoted by the same reference numerals, and redundant description is omitted.

(実施の形態1)
<撮像装置1の構成>
実施の形態1に係る撮像装置1の構成を説明する。図1は、実施の形態1に係る撮像装置1の構成の一例を示す斜視図である。図2は、実施の形態1に係る撮像装置1の構成の一例を示す平面図である。図1及び図2に示すように、本実施の形態では、撮像装置1は、2つの撮像部10及び20を備えるとして説明する。なお、撮像装置1は、2つ以上の撮像部を備えればよく、例えば3つ以上の撮像部を備えてもよい。また、撮像装置1は、1つ以上の装置で構成されてもよい。撮像装置1が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書及び特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
(Embodiment 1)
<Configuration of imaging device 1>
The configuration of the imaging device 1 according to the first embodiment will be described. FIG. 1 is a perspective view showing an example of the configuration of the imaging device 1 according to the first embodiment. FIG. 2 is a plan view illustrating an example of a configuration of the imaging device 1 according to Embodiment 1. As shown in FIGS. 1 and 2, in the present embodiment, the imaging device 1 will be described as including two imaging units 10 and 20. Note that the imaging device 1 may include two or more imaging units, and may include, for example, three or more imaging units. Further, the imaging device 1 may be configured by one or more devices. When the imaging device 1 is configured by two or more devices, the two or more devices may be arranged in one device, or may be separately arranged in two or more separated devices. . In this specification and in the claims, the term “device” may mean not only one device, but also a system including a plurality of devices.

撮像装置1は、第一撮像部10と第二撮像部20と筐体30と制御装置40とを備える。筐体30は、第一撮像部10、第二撮像部20及び制御装置40を収容する。制御装置40は、撮像装置1全体の動作を制御する。制御装置40の詳細は後述する。   The imaging device 1 includes a first imaging unit 10, a second imaging unit 20, a housing 30, and a control device 40. The housing 30 houses the first imaging unit 10, the second imaging unit 20, and the control device 40. The control device 40 controls the operation of the entire imaging device 1. Details of the control device 40 will be described later.

第一撮像部10及び第二撮像部20はそれぞれ、視野内の画像を撮像して2つのデジタル画像を出力する。第一撮像部10及び第二撮像部20の例は、静止画及び/又は動画を撮像するカメラである。第一撮像部10及び第二撮像部20は、本実施の形態のように、1つの筐体30内に一緒に収容され1つの複眼カメラ、具体的には2眼カメラを形成してもよく、2つの筐体に別々に収容され2つの単眼カメラを形成してもよい。第一撮像部10及び第二撮像部20は、同期して撮像動作をするように制御装置40によって制御される。つまり、第一撮像部10及び第二撮像部20は同時に撮像する。第一撮像部10及び第二撮像部20は、撮像した画像を制御装置40に出力する。なお、本明細書及び特許請求の範囲において、「画像」とは、画像そのものを意味するだけでなく、画像を示すデータである画像データ及び画像を示す信号である画像信号をも意味し得る。   Each of the first imaging unit 10 and the second imaging unit 20 captures an image in the field of view and outputs two digital images. Examples of the first imaging unit 10 and the second imaging unit 20 are cameras that capture a still image and / or a moving image. The first imaging unit 10 and the second imaging unit 20 may be housed together in one housing 30 and form one compound eye camera, specifically, a two-lens camera, as in the present embodiment. Alternatively, two monocular cameras may be separately housed in two housings. The first imaging unit 10 and the second imaging unit 20 are controlled by the control device 40 to perform an imaging operation in synchronization. That is, the first imaging unit 10 and the second imaging unit 20 capture images simultaneously. The first imaging unit 10 and the second imaging unit 20 output the captured image to the control device 40. In the present specification and claims, the term “image” means not only the image itself but also image data that is data indicating an image and an image signal that is a signal indicating an image.

第一撮像部10は、第一レンズ11と第一撮像素子12とを備える。第二撮像部20は、第二レンズ21と第二撮像素子22とを備える。第一レンズ11及び第二レンズ21は、同様の方向に向いて離れて配置され、筐体30の外部に露出している。本実施の形態では、第一レンズ11の光軸である光軸中心LA1と第二レンズ21の光軸である光軸中心LA2とが平行であるが、これに限定されない。光軸中心LA1及びLA2間の距離である基線長は、「B」である。基線長Bは、第一レンズ11の中心と第二レンズ21の中心との距離である。   The first imaging unit 10 includes a first lens 11 and a first imaging device 12. The second imaging unit 20 includes a second lens 21 and a second imaging device 22. The first lens 11 and the second lens 21 are spaced apart in the same direction, and are exposed outside the housing 30. In the present embodiment, the optical axis center LA1 that is the optical axis of the first lens 11 and the optical axis center LA2 that is the optical axis of the second lens 21 are parallel, but the present invention is not limited to this. The base line length, which is the distance between the optical axis centers LA1 and LA2, is “B”. The base line length B is the distance between the center of the first lens 11 and the center of the second lens 21.

ここで、光軸中心LA1及びLA2に平行な方向をz軸方向と定義し、光軸中心LA1及びLA2が並ぶ方向をx軸方向と定義する。さらに、x軸方向及びz軸方向に垂直である方向をy軸方向と定義する。xz平面は、光軸中心LA1及びLA2を含む。基線長は、x軸方向の光軸中心LA1及びLA2間の距離である。   Here, a direction parallel to the optical axis centers LA1 and LA2 is defined as a z-axis direction, and a direction in which the optical axis centers LA1 and LA2 are arranged is defined as an x-axis direction. Further, a direction perpendicular to the x-axis direction and the z-axis direction is defined as a y-axis direction. The xz plane includes the optical axis centers LA1 and LA2. The base length is the distance between the optical axis centers LA1 and LA2 in the x-axis direction.

第一撮像素子12は、第一レンズ11の光軸中心LA1上に配置されている。第一撮像素子12は、第一レンズ11を通って入射する光を受光し、当該光が表す画像を出力する。第二撮像素子22は、第二レンズ21の光軸中心LA2上に配置されている。第二撮像素子22は、第二レンズ21を通って入射する光を受光し、当該光が表す画像を出力する。本実施の形態では、第一レンズ11と第一撮像素子12との焦点距離f1は、第二レンズ21と第二撮像素子22との焦点距離f2と同じであり、さらに、第一レンズ11及び第二レンズ21は、同じ特性及び能力を有するが、これらに限定されない。   The first imaging element 12 is arranged on the optical axis center LA1 of the first lens 11. The first imaging element 12 receives light incident through the first lens 11 and outputs an image represented by the light. The second imaging element 22 is arranged on the optical axis center LA2 of the second lens 21. The second imaging element 22 receives light incident through the second lens 21 and outputs an image represented by the light. In the present embodiment, the focal length f1 between the first lens 11 and the first image sensor 12 is the same as the focal length f2 between the second lens 21 and the second image sensor 22. The second lens 21 has the same characteristics and capabilities, but is not limited thereto.

第一撮像素子12及び第二撮像素子22はそれぞれ、アレイ状に配置された複数の受光素子を含む。受光素子は、受光する光の強度を示す画素値を出力する。画素値の例は、輝度値である。受光素子は、第一撮像素子12及び第二撮像素子22それぞれにおける画像を撮像する複数の画素を構成する。本実施の形態では、第一撮像素子12の受光素子間の間隔である画素ピッチp1は、第二撮像素子22の受光素子の画素ピッチp2と同じであるが、これに限定されない。第一撮像素子12及び第二撮像素子22の例は、CCD(Charge Coupled Device)イメージセンサ及びCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等である。本実施の形態では、第一撮像素子12及び第二撮像素子22は、解像度及び撮像素子寸法が同じである同じイメージセンサであるが、これに限定されない。   Each of the first imaging element 12 and the second imaging element 22 includes a plurality of light receiving elements arranged in an array. The light receiving element outputs a pixel value indicating the intensity of the received light. An example of a pixel value is a luminance value. The light receiving elements constitute a plurality of pixels that capture images in each of the first imaging element 12 and the second imaging element 22. In the present embodiment, the pixel pitch p1, which is the interval between the light receiving elements of the first imaging element 12, is the same as the pixel pitch p2 of the light receiving elements of the second imaging element 22, but is not limited to this. Examples of the first image sensor 12 and the second image sensor 22 include a charge coupled device (CCD) image sensor and a complementary metal oxide semiconductor (CMOS) image sensor. In the present embodiment, the first image sensor 12 and the second image sensor 22 are the same image sensor having the same resolution and the same image sensor dimensions, but are not limited thereto.

制御装置40の機能的な構成を説明する。図3は、実施の形態1に係る撮像装置1の機能的な構成の一例を示すブロック図である。図3に示すように、撮像装置1は、入力部2と、出力部3と、第一撮像部10と、第二撮像部20と、制御装置40とを備える。制御装置40は、メイン制御部41と、撮像制御部42と、画像処理部43とを含む。画像処理部43は、取得部431と、距離算出部432と、画像生成部433と、パラメタ格納部434と、記憶部435とを含む。   The functional configuration of the control device 40 will be described. FIG. 3 is a block diagram illustrating an example of a functional configuration of the imaging device 1 according to the first embodiment. As illustrated in FIG. 3, the imaging device 1 includes an input unit 2, an output unit 3, a first imaging unit 10, a second imaging unit 20, and a control device 40. The control device 40 includes a main control unit 41, an imaging control unit 42, and an image processing unit 43. The image processing unit 43 includes an acquisition unit 431, a distance calculation unit 432, an image generation unit 433, a parameter storage unit 434, and a storage unit 435.

入力部2は、撮像装置1の操作入力装置及び撮像装置1の入力I/F(インタフェース)に接続された外部装置等から入力される操作、情報及び指令等を取得する。   The input unit 2 acquires operations, information, commands, and the like input from an operation input device of the imaging device 1 and an external device connected to an input I / F (interface) of the imaging device 1.

出力部3は、第一撮像素子12及び第二撮像素子22によって撮像された画像、当該画像から算出された距離画像等の情報を、撮像装置1のディスプレイ及び撮像装置1の出力I/Fに接続された外部装置等に出力する。   The output unit 3 outputs information such as an image captured by the first imaging element 12 and the second imaging element 22 and a distance image calculated from the images to a display of the imaging device 1 and an output I / F of the imaging device 1. Output to the connected external device.

メイン制御部41は、撮像装置1全体の動作を制御する。メイン制御部41は、入力部2を介して取得される操作、情報及び指令等に従って、撮像装置1の各部位の動作を制御する。   The main control unit 41 controls the operation of the entire imaging device 1. The main control unit 41 controls the operation of each part of the imaging device 1 according to the operation, information, instructions, and the like obtained via the input unit 2.

撮像制御部42は、同期した撮像動作等の第一撮像部10及び第二撮像部20の撮像動作を制御する。撮像制御部42は、第一撮像部10及び第二撮像部20によって撮像された画像を画像処理部43に出力する。   The imaging control unit 42 controls an imaging operation of the first imaging unit 10 and the second imaging unit 20 such as a synchronized imaging operation. The imaging control unit 42 outputs the images captured by the first imaging unit 10 and the second imaging unit 20 to the image processing unit 43.

画像処理部43は、第一撮像部10及び第二撮像部20によって撮像された画像である第一画像及び第二画像を用いて、撮像装置1から被写体までの距離を示す距離画像を生成し出力する。つまり、画像処理部43は、第一画像及び第二画像を処理して被写体の距離情報を取得する。第一画像及び第二画像は、第一撮像部10及び第二撮像部20によって同時刻に撮像された画像である。距離画像は、各画素の画素値が撮像装置1から当該画素が写し出す被写体までの距離である画像である。距離情報は、撮像装置1から被写体までの距離を示す情報を含み、例えば、各画素が写し出す被写体と撮像装置1との距離値、及び距離画像等を含む。ここで、画像処理部43は、処理部の一例である。   The image processing unit 43 generates a distance image indicating a distance from the imaging device 1 to a subject using the first image and the second image that are images captured by the first imaging unit 10 and the second imaging unit 20. Output. That is, the image processing unit 43 processes the first image and the second image to acquire distance information of the subject. The first image and the second image are images captured by the first imaging unit 10 and the second imaging unit 20 at the same time. The distance image is an image in which the pixel value of each pixel is the distance from the imaging device 1 to the subject projected by the pixel. The distance information includes information indicating a distance from the imaging device 1 to the subject, and includes, for example, a distance value between the subject and the imaging device 1 projected by each pixel, a distance image, and the like. Here, the image processing unit 43 is an example of a processing unit.

パラメタ格納部434は、第一撮像部10及び第二撮像部20に関するパラメタを記憶する。上記パラメタは、第一撮像部10及び第二撮像部20のカメラパラメタであり、外部パラメタと内部パラメタとを含む。外部パラメタの例は、第一撮像部10及び第二撮像部20の位置及び向き等を示すパラメタである。内部パラメタの例は、レンズの歪み、焦点距離、撮像素子の1画素のサイズ及び光軸中心の画素座標等を示すパラメタである。画素座標は、画素を単位とする座標であり、画像上での2次元座標である。   The parameter storage unit 434 stores parameters related to the first imaging unit 10 and the second imaging unit 20. The above parameters are camera parameters of the first imaging unit 10 and the second imaging unit 20, and include external parameters and internal parameters. Examples of the external parameters are parameters indicating the positions and orientations of the first imaging unit 10 and the second imaging unit 20, and the like. Examples of the internal parameters are parameters indicating the distortion of the lens, the focal length, the size of one pixel of the image sensor, the pixel coordinates of the center of the optical axis, and the like. The pixel coordinates are coordinates in units of pixels, and are two-dimensional coordinates on an image.

取得部431は、撮像制御部42を介して、第一撮像部10及び第二撮像部20それぞれによって撮像された第一画像及び第二画像を取得し、記憶部435に記憶させる。例えば、取得部431は、第一画像及び第二画像を示す画像信号を取得し、取得された信号強度に応じて利得制御してA/D変換し、デジタル画像化された第一画像及び第二画像を記憶部435に出力する。   The acquisition unit 431 acquires the first image and the second image captured by the first imaging unit 10 and the second imaging unit 20 via the imaging control unit 42, and causes the storage unit 435 to store the first image and the second image. For example, the acquisition unit 431 acquires an image signal indicating the first image and the second image, performs gain control in accordance with the acquired signal intensity, performs A / D conversion, and converts the first image and the The two images are output to the storage unit 435.

記憶部435は、種々の情報を記憶し、記憶した情報を取り出すことができる。記憶部435は、第一撮像部10及び第二撮像部20によって撮像された第一画像及び第二画像を記憶する。第一画像及び第二画像は、各画素の画素値等の画像を表す情報と、当該画像の撮像時刻と、当該画像を取得した撮像部の識別情報とを含む。   The storage unit 435 stores various types of information and can retrieve the stored information. The storage unit 435 stores the first image and the second image captured by the first imaging unit 10 and the second imaging unit 20. The first image and the second image include information indicating an image such as a pixel value of each pixel, an imaging time of the image, and identification information of an imaging unit that has acquired the image.

距離算出部432は、記憶部435から第一画像及び第二画像を取得し、当該第一画像及び当該第二画像と、パラメタ格納部434のカメラパラメタとを用いて、各画素が写し出す被写体の3次元位置を算出する。つまり、距離算出部432は、各画素について、被写体から撮像装置1までの距離を算出する。被写体から撮像装置1までの距離は、当該被写体と第一撮像部10及び第二撮像部20との距離でもある。距離算出部432は、第一画像及び第二画像の各画素の位置での距離値を、画像生成部433に出力する。   The distance calculation unit 432 acquires the first image and the second image from the storage unit 435, and uses the first image and the second image and the camera parameters of the parameter storage unit 434 to determine the subject of each pixel to be projected. Calculate the three-dimensional position. That is, the distance calculation unit 432 calculates the distance from the subject to the imaging device 1 for each pixel. The distance from the subject to the imaging device 1 is also the distance between the subject and the first imaging unit 10 and the second imaging unit 20. The distance calculation unit 432 outputs the distance value at the position of each pixel of the first image and the second image to the image generation unit 433.

具体的には、距離算出部432は、第一画像及び第二画像それぞれについて、第一レンズ11及び第二レンズ21のレンズ歪みを補正する。さらに、距離算出部432は、第一画像と第二画像との間で、小領域毎にステレオマッチング処理を行う。これにより、距離算出部432は、各画素について、被写体までの距離に応じて生じる視差を算出し、当該視差を用いて被写体と撮像装置1との距離を算出する。視差は、第一画像と第二画像との間における同一の被写体を写し出す画素の位置のずれに対応する。   Specifically, the distance calculation unit 432 corrects the lens distortion of the first lens 11 and the second lens 21 for each of the first image and the second image. Further, the distance calculation unit 432 performs a stereo matching process for each small area between the first image and the second image. Accordingly, the distance calculation unit 432 calculates, for each pixel, a parallax generated according to the distance to the subject, and calculates the distance between the subject and the imaging device 1 using the parallax. The parallax corresponds to a shift in the position of a pixel that projects the same subject between the first image and the second image.

例えば、距離算出部432は、第一画像上の画素について、当該画素の画素座標である第一画素座標と、当該画素に表されている被写体と同じ被写体が表されている第二画像上の対応点の画素座標である第二画素座標とを検出する。第一画素座標と第二画素座標との画素位置の差異が視差である。距離算出部432は、第一画素座標と第二画素座標とカメラパラメタとを用いたステレオ視により、第一画素座標及び第二画素座標に対応する画素に表されている被写体と撮像装置1との距離を算出する。そして、距離算出部432は、第一画像上の全ての画素について上記処理を行う。これにより、距離算出部432は、各画素の位置での距離値を算出する。   For example, for the pixel on the first image, the distance calculation unit 432 calculates the first pixel coordinates that are the pixel coordinates of the pixel and the second image on the second image in which the same subject as the subject represented by the pixel is displayed. A second pixel coordinate which is a pixel coordinate of the corresponding point is detected. The difference between the pixel positions of the first pixel coordinates and the second pixel coordinates is the parallax. The distance calculation unit 432 performs the stereoscopic view using the first pixel coordinates, the second pixel coordinates, and the camera parameters, and the object represented by the pixel corresponding to the first pixel coordinates and the second pixel coordinates, and the imaging device 1 Is calculated. Then, the distance calculation unit 432 performs the above processing for all pixels on the first image. Thereby, the distance calculation unit 432 calculates the distance value at the position of each pixel.

画像生成部433は、例えば、第一画像の各画素について、当該画素の画素値が当該画素の位置に対応する距離値である画像、つまり距離画像を生成する。なお、上記では、第一画像を基準として、各画素の位置での距離値と距離画像とが算出されたが、第二画像が基準とされてもよい。画像生成部433は、距離画像を出力部3及び/又は記憶部435に出力する。例えば、画像生成部433は、メイン制御部41を介して、距離画像を出力部3に出力する。   For example, for each pixel of the first image, the image generation unit 433 generates an image in which the pixel value of the pixel is a distance value corresponding to the position of the pixel, that is, a distance image. In the above description, the distance value and the distance image at the position of each pixel are calculated based on the first image, but the second image may be used as the reference. The image generation unit 433 outputs the distance image to the output unit 3 and / or the storage unit 435. For example, the image generation unit 433 outputs the distance image to the output unit 3 via the main control unit 41.

制御装置40のハードウェア構成を説明する。図4は、実施の形態1に係る撮像装置1のハードウェア構成の一例を示すブロック図である。図4に示すように、撮像装置1は、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、メモリ104と、操作入力装置105と、入力I/F106と、出力I/F107と、第一撮像部10と、第二撮像部20とを構成要素として含む。上記構成要素はそれぞれ、例えばバスを介して互いに接続されている。なお、上記構成要素は、有線通信及び無線通信のいずれを介して接続されてもよい。   The hardware configuration of the control device 40 will be described. FIG. 4 is a block diagram illustrating an example of a hardware configuration of the imaging device 1 according to the first embodiment. As illustrated in FIG. 4, the imaging apparatus 1 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, a memory 104, an operation input device 105, It includes an I / F 106, an output I / F 107, a first imaging unit 10, and a second imaging unit 20 as constituent elements. The above components are connected to each other, for example, via a bus. The above components may be connected via any of wired communication and wireless communication.

操作入力装置105は、ユーザによる操作入力を受け付け、ボタン、ダイヤル、タッチパネル及び音声入力のためのマイク等の入力装置で構成される。   The operation input device 105 receives an operation input by a user, and includes input devices such as a button, a dial, a touch panel, and a microphone for voice input.

入力I/F106は、撮像装置1の外部装置と接続され、外部装置からの情報及び指令等の入力を受け付ける。   The input I / F 106 is connected to an external device of the imaging device 1 and receives inputs of information, commands, and the like from the external device.

出力I/F107は、撮像装置1の外部装置と接続され外部装置へ情報等を出力する。入力I/F106及び出力I/F107は、別々に配置されてもよく、一体化されて配置されてもよい。入力I/F106及び出力I/F107は、別々の装置に接続されてもよく、同じ装置に接続されてもよい。入力I/F106及び出力I/F107は、外部ネットワークと接続される通信I/Fの機能を備え、外部ネットワークを介して情報等の受け付け及び出力を行ってもよい。   The output I / F 107 is connected to an external device of the imaging device 1 and outputs information and the like to the external device. The input I / F 106 and the output I / F 107 may be arranged separately or may be arranged integrally. The input I / F 106 and the output I / F 107 may be connected to different devices or may be connected to the same device. The input I / F 106 and the output I / F 107 have a function of a communication I / F connected to an external network, and may receive and output information and the like via the external network.

CPU101は、入力部2、出力部3及び制御装置40の機能を実現する。制御装置40に関して、CPU101は、メイン制御部41、撮像制御部42、並びに、画像処理部43の取得部431、距離算出部432及び画像生成部433の機能を実現する。   The CPU 101 implements the functions of the input unit 2, the output unit 3, and the control device 40. Regarding the control device 40, the CPU 101 implements the functions of the main control unit 41, the imaging control unit 42, and the acquisition unit 431, the distance calculation unit 432, and the image generation unit 433 of the image processing unit 43.

メモリ104は、画像処理部43のパラメタ格納部434及び記憶部435の機能を実現する。メモリ104は、半導体メモリ、HDD(Hard Disk Drive)又はSSD(Solid State Drive)等の記憶装置で構成される。なお、メモリ104が、ROM102及び/又はRAM103を含んでもよい。   The memory 104 implements the functions of the parameter storage unit 434 and the storage unit 435 of the image processing unit 43. The memory 104 is configured by a storage device such as a semiconductor memory, a hard disk drive (HDD), or a solid state drive (SSD). Note that the memory 104 may include the ROM 102 and / or the RAM 103.

CPU101はプロセッサ等で構成され、ROM102は不揮発性半導体記憶装置等で構成され、RAM103は揮発性半導体記憶装置等で構成される。各構成要素を動作させるプログラムは、ROM102又はメモリ104等に予め保持されている。プログラムは、CPU101によって、ROM102又はメモリ104等からRAM103に読み出されて展開される。CPU101は、RAM103に展開されたプログラム中のコード化された各命令を実行することによって、その機能を実現する。なお、プログラムは、ROM102及びメモリ104に限らず、例えば記録ディスク等の記録媒体に格納されていてもよい。また、プログラムは、有線ネットワーク、無線ネットワーク又は放送等を介して伝送され、RAM103に取り込まれてもよい。   The CPU 101 is configured by a processor or the like, the ROM 102 is configured by a nonvolatile semiconductor storage device or the like, and the RAM 103 is configured by a volatile semiconductor storage device or the like. A program for operating each component is stored in the ROM 102 or the memory 104 in advance. The program is read from the ROM 102 or the memory 104 or the like to the RAM 103 and expanded by the CPU 101. The CPU 101 realizes its function by executing each coded instruction in the program developed on the RAM 103. The program is not limited to the ROM 102 and the memory 104, and may be stored in a recording medium such as a recording disk. In addition, the program may be transmitted via a wired network, a wireless network, a broadcast, or the like, and may be loaded into the RAM 103.

なお、CPU101によって機能が実現されると上述した各構成要素は、CPU101等のプログラム実行部によって実現されてもよく、回路によって実現されてもよく、プログラム実行部及び回路の組み合わせによって実現されてもよい。例えば、これらの構成要素は、集積回路であるLSI(大規模集積回路:Large Scale Integration)として実現されてもよい。これらの構成要素は個別に1チップ化されてもよく、一部又は全てを含むように1チップ化されてもよい。LSIとして、LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、LSI内部の回路セルの接続及び/又は設定を再構成可能なリコンフィギュラブル・プロセッサ、又は、特定用途向けに複数の機能の回路が1つにまとめられたASIC(Application Specific Integrated Circuit)等が利用されてもよい。   Note that when the functions are realized by the CPU 101, the above-described components may be realized by a program execution unit such as the CPU 101, may be realized by a circuit, or may be realized by a combination of the program execution unit and the circuit. Good. For example, these components may be realized as an LSI (Large Scale Integration) which is an integrated circuit. These components may be individually formed into one chip, or may be formed into one chip so as to include some or all of them. As the LSI, an FPGA (Field Programmable Gate Array) that can be programmed after the LSI is manufactured, a reconfigurable processor that can reconfigure the connection and / or setting of circuit cells inside the LSI, or a plurality of specific applications. An ASIC (Application Specific Integrated Circuit) in which functional circuits are integrated into one may be used.

<第一撮像部10及び第二撮像部20の配置>
さらに、第一撮像部10及び第二撮像部20の配置を説明する。図5は、実施の形態1に係る撮像装置1の構成要素の配置の一例を示す平面図である。図5に示すように、第一撮像部10及び第二撮像部20について、第一レンズ11及び第二レンズ21と被写体Aとの距離Z(単位:m)と、基線長B(単位:m)と、焦点距離f1及びf2(単位:mm)と、第一撮像素子12及び第二撮像素子22の画素ピッチp1及びp2(単位:mm)とは、下記の式1を満たす。
Z=B×F/D=B×F/p|pc1−pc2| (式1)
距離Zは、第一レンズ11及び第二レンズ21のレンズ中心を通り且つ光軸中心LA1及びLA2に垂直である平面と被写体Aとの距離であり、第一撮像部10及び第二撮像部20と被写体Aとの距離でもあり、撮像装置1と被写体Aとの距離でもある。また、F=f1=f2であり、p=p1=p2である。さらに、第一撮像素子12及び第二撮像素子22における視差D=p|pc1−pc2|である。「pc1」は、第一撮像部10によって撮像された第一画像上での被写体Aのx軸方向の画素座標であり、「pc2」は、第二撮像部20によって撮像された第二画像上での被写体Aのx軸方向の画素座標である。|pc1−pc2|は、視差に対応する画素数(以下、「画素視差」とも呼ぶ)である。
<Arrangement of first imaging unit 10 and second imaging unit 20>
Further, the arrangement of the first imaging unit 10 and the second imaging unit 20 will be described. FIG. 5 is a plan view illustrating an example of an arrangement of components of the imaging device 1 according to the first embodiment. As shown in FIG. 5, for the first imaging unit 10 and the second imaging unit 20, the distance Z (unit: m) between the first lens 11 and the second lens 21 and the subject A, and the base line length B (unit: m) ), The focal lengths f1 and f2 (unit: mm), and the pixel pitches p1 and p2 (unit: mm) of the first image sensor 12 and the second image sensor 22 satisfy the following equation 1.
Z = B × F / D = B × F / p | pc1-pc2 | (formula 1)
The distance Z is the distance between the subject A and a plane that passes through the lens centers of the first lens 11 and the second lens 21 and is perpendicular to the optical axis centers LA1 and LA2, and the first imaging unit 10 and the second imaging unit 20 The distance between the image capturing apparatus 1 and the subject A. Also, F = f1 = f2 and p = p1 = p2. Further, the parallax D in the first image sensor 12 and the second image sensor 22 is D = p | pc1-pc2 |. “Pc1” is a pixel coordinate of the subject A in the x-axis direction on the first image captured by the first imaging unit 10, and “pc2” is a pixel coordinate on the second image captured by the second imaging unit 20. Are the pixel coordinates of the subject A in the x-axis direction. | Pc1-pc2 | is the number of pixels corresponding to parallax (hereinafter, also referred to as “pixel parallax”).

本実施の形態では、撮像装置1は、700m以上の距離の被写体の測距を可能にするため、Z≧700mである。さらに、上記測距を実現するためには、700m以上の距離の被写体の測距において、1画素以上の画素視差が必要である。つまり、画素視差|pc1−pc2|≧1である。式1に基づくと、これらの条件を満たすためには、下記の式2の関係を満たすことが必要である。
700<B×F/p (式2)
よって、本実施の形態では、第一撮像部10及び第二撮像部20の第一レンズ11、第二レンズ21、第一撮像素子12及び第二撮像素子22は、式2を満たすように構成される。
In the present embodiment, the imaging apparatus 1 satisfies Z ≧ 700 m in order to enable distance measurement of a subject at a distance of 700 m or more. Further, in order to realize the above-described distance measurement, one or more pixel parallax is required in the distance measurement of a subject at a distance of 700 m or more. That is, pixel parallax | pc1−pc2 | ≧ 1. Based on Equation 1, it is necessary to satisfy the following Equation 2 in order to satisfy these conditions.
700 <B × F / p (Equation 2)
Therefore, in the present embodiment, the first lens 11, the second lens 21, the first imaging device 12, and the second imaging device 22 of the first imaging unit 10 and the second imaging unit 20 are configured to satisfy Expression 2. Is done.

<撮像装置1の動作>
実施の形態1に係る撮像装置1の動作を説明する。具体的には、撮像装置1の距離画像の生成動作を説明する。図6は、実施の形態1に係る撮像装置1の動作の一例を示すフローチャートである。図6に示すように、まず、第一撮像部10及び第二撮像部20は、同じ被写体を同時に撮像し、同時に撮像された2つの画像である第一画像及び第二画像を画像処理部43に出力する(ステップS1)。つまり、第一撮像部10及び第二撮像部20の撮像画像が取得される。
<Operation of imaging apparatus 1>
The operation of the imaging device 1 according to the first embodiment will be described. Specifically, an operation of generating a distance image by the imaging device 1 will be described. FIG. 6 is a flowchart illustrating an example of an operation of the imaging device 1 according to the first embodiment. As shown in FIG. 6, first, the first imaging unit 10 and the second imaging unit 20 simultaneously image the same subject, and convert the two images, the first image and the second image, which are simultaneously imaged, into the image processing unit 43. (Step S1). That is, the captured images of the first imaging unit 10 and the second imaging unit 20 are obtained.

次いで、画像処理部43において、取得部431は、第一画像及び第二画像を取得してデジタル化処理し、記憶部435に出力する(ステップS2)。   Next, in the image processing unit 43, the obtaining unit 431 obtains the first image and the second image, performs digitization processing, and outputs the digital image to the storage unit 435 (Step S2).

次いで、距離算出部432は、第一画像及び第二画像に対してステレオ処理する(ステップS3)。つまり、距離算出部432は、第一画像及び第二画像の各画素について、当該画素の被写体と撮像装置1との距離を算出する。   Next, the distance calculation unit 432 performs stereo processing on the first image and the second image (Step S3). That is, for each pixel of the first image and the second image, the distance calculation unit 432 calculates the distance between the subject of the pixel and the imaging device 1.

次いで、画像生成部433は、算出された各画素の距離値を、当該画素の位置に対応する位置の画素の画素値とする距離画像を生成し、出力部3及び/又は記憶部435に出力する(ステップS4)。   Next, the image generation unit 433 generates a distance image in which the calculated distance value of each pixel is set as a pixel value of a pixel at a position corresponding to the position of the pixel, and outputs the distance image to the output unit 3 and / or the storage unit 435. (Step S4).

ステップS1〜S4の処理を行うことによって、撮像装置1は、第一撮像部10及び第二撮像部20によって同時刻に撮像された2つの画像に写し出される被写体までの距離情報を含む距離画像を生成する。   By performing the processing of steps S1 to S4, the imaging device 1 generates the distance image including the distance information to the subject, which is displayed in the two images captured by the first imaging unit 10 and the second imaging unit 20 at the same time. Generate.

<実施例>
実施の形態1に係る撮像装置1の実施例を説明する。実施例の撮像装置1は、各パラメタが式2を満たすように構成されている。式2を満たす場合において、パラメタのうちの基線長B及び焦点距離Fは、より長い方が望ましい。しかしながら、焦点距離が長くなると、画角が小さくなる。このため、実施例では、撮像装置1に要求される画角を維持しつつ、焦点距離はより長くなるように設定された。基線長は、撮像装置1が搭載される対象物の大きさによって制限を受ける。実施例では、撮像装置1は、翼長5m以内の小型無人航空機又はマルチコプターに搭載される。このため、実施例では、小型無人航空機及びマルチコプターへの搭載を可能としつつ、基線長はより長くなるように設定された。
<Example>
An example of the imaging device 1 according to the first embodiment will be described. The imaging apparatus 1 according to the embodiment is configured so that each parameter satisfies Expression 2. When Expression 2 is satisfied, it is desirable that the base line length B and the focal length F of the parameters be longer. However, as the focal length increases, the angle of view decreases. For this reason, in the embodiment, the focal length is set to be longer while maintaining the angle of view required for the imaging device 1. The base line length is limited by the size of the target on which the imaging device 1 is mounted. In the embodiment, the imaging device 1 is mounted on a small unmanned aerial vehicle or a multicopter having a wing length of 5 m or less. For this reason, in the example, the base line length was set to be longer while enabling mounting on a small unmanned aerial vehicle and a multicopter.

また、パラメタのうちの第一撮像素子12及び第二撮像素子22の画素ピッチpは、より大きい方が望ましい。画素ピッチは、画素サイズに対応する。画素サイズが大きい程、撮像された画像におけるノイズが少ないため、ステレオマッチングの精度が向上する。実施例では、画素ピッチはより大きくなるように設定された。   Further, it is desirable that the pixel pitch p of the first image sensor 12 and the second image sensor 22 among the parameters is larger. The pixel pitch corresponds to the pixel size. The larger the pixel size, the smaller the noise in the captured image, and the higher the accuracy of stereo matching. In the embodiment, the pixel pitch is set to be larger.

パラメタのうちの第一撮像部10及び第二撮像部20によって撮像された画像間の視差は、より大きい方が望ましい。視差が大きい程、被写体と撮像装置1との距離の誤差が小さくなる。実施例では、式2を満たす基線長B、焦点距離F及び画素ピッチpを式1に適用した場合に算出される画素視差|pc1−pc2|がより大きくなるように、各パラメタが設定された。   It is desirable that the parallax between the images captured by the first imaging unit 10 and the second imaging unit 20 among the parameters is larger. As the parallax increases, the error in the distance between the subject and the imaging device 1 decreases. In the embodiment, each parameter is set such that the pixel parallax | pc1-pc2 | calculated when the base line length B, the focal length F, and the pixel pitch p that satisfy Expression 2 are applied to Expression 1, becomes larger. .

上述より、実施例では、基線長Bは0.4m、焦点距離Fは35mm、画素ピッチpは0.00586mmに設定された。さらに、第一撮像素子12及び第二撮像素子22には、1920画素×1080画素の2,073,600画素の解像度、いわゆる2Kの解像度のCMOSイメージセンサが用いられた。なお、第一撮像素子12及び第二撮像素子22には、4K以上の解像度のイメージセンサが用いられてもよい。これにより、各画素の画素値の検出精度を向上し、且つ画素視差を大きくすることができる。   As described above, in the example, the base line length B was set to 0.4 m, the focal length F was set to 35 mm, and the pixel pitch p was set to 0.00586 mm. Further, as the first image sensor 12 and the second image sensor 22, a CMOS image sensor having a resolution of 2,073,600 pixels of 1920 pixels × 1080 pixels, that is, a so-called 2K resolution was used. Note that an image sensor having a resolution of 4K or more may be used for the first image sensor 12 and the second image sensor 22. Thereby, the detection accuracy of the pixel value of each pixel can be improved, and the pixel parallax can be increased.

基線長B=0.4(m)、焦点距離F=35(mm)、画素ピッチp=0.00586(mm)を式2の左辺「B×F/p」に適用すると、B×F/p=2389(m)が得られる。さらに、式1において、B×F/p=2389(m)を適用し、距離Z=700(m)を適用すると、画素視差|pc1−pc2|=3.4(画素)が得られる。実施例では、式1及び式2に基づき、画素視差が3画素以上であるように、各パラメタが設定された。よって、700m以上の所定距離での画素視差は、1画素以上であることが好ましく、3画素以上であることがより好ましい。   When the base line length B = 0.4 (m), the focal length F = 35 (mm), and the pixel pitch p = 0.00586 (mm) are applied to the left side “B × F / p” of Expression 2, B × F / p = 2389 (m) is obtained. Further, in Expression 1, when B × F / p = 2389 (m) is applied and the distance Z is applied 700 (m), a pixel parallax | pc1−pc2 | = 3.4 (pixel) is obtained. In the embodiment, each parameter is set based on Expressions 1 and 2 so that the pixel parallax is 3 pixels or more. Therefore, the pixel parallax at a predetermined distance of 700 m or more is preferably one pixel or more, and more preferably three pixels or more.

上述のように構成された実施例の撮像装置1によって生成された距離画像の例が、図7に示されている。図7によると、距離700m以上の被写体までの距離が表されている。   FIG. 7 shows an example of a distance image generated by the imaging apparatus 1 according to the embodiment configured as described above. According to FIG. 7, the distance to a subject having a distance of 700 m or more is shown.

なお、遠距離の測距が可能である撮像装置1には、車両、ロボット、並びに、航空機、マルチコプター及びドローンなどの飛行体等の移動体、建物外部の監視装置等への搭載が想定される。   The imaging device 1 capable of measuring a long distance can be assumed to be mounted on vehicles, robots, moving objects such as aircraft, multicopters and drones, and monitoring devices outside buildings. You.

<効果等>
上述のような実施の形態1に係る撮像装置1は、画像を撮像する複数の画素を有する第一撮像部10と、画像を撮像する複数の画素を有する第二撮像部20と、第一撮像部10により撮像された第一画像及び第二撮像部20により撮像された第二画像を処理して被写体の距離情報を取得する画像処理部43とを備え、第一撮像部10及び第二撮像部20の基線長B(単位:m)、焦点距離F(単位:mm)及び画素ピッチp(単位:mm)は、B×F/p>700の関係を満たす。
<Effects>
As described above, the imaging apparatus 1 according to the first embodiment includes a first imaging unit 10 having a plurality of pixels for capturing an image, a second imaging unit 20 having a plurality of pixels for capturing an image, and a first imaging unit. An image processing unit 43 that processes the first image captured by the unit 10 and the second image captured by the second imaging unit 20 to obtain distance information of the subject; The base line length B (unit: m), focal length F (unit: mm), and pixel pitch p (unit: mm) of the unit 20 satisfy the relationship of B × F / p> 700.

上記構成によると、第一撮像部10及び第二撮像部20が、第一撮像部10及び第二撮像部20から700mの距離の被写体、つまり視程700mの被写体を撮像した場合、第一画像及び第二画像の間における当該被写体の視差は、1画素以上である。よって、撮像装置1は、視程700m以上において視差が1画素以上である2つの画像を用いて距離情報を取得することができる。このような距離情報は、遠方の被写体に対して高い精度を有する。従って、撮像装置1は、従来のステレオカメラで不可能である遠方の測距を可能にする。   According to the above configuration, when the first imaging unit 10 and the second imaging unit 20 image a subject at a distance of 700 m from the first imaging unit 10 and the second imaging unit 20, that is, a subject with a visibility of 700 m, the first image The parallax of the subject between the second images is one pixel or more. Therefore, the imaging device 1 can acquire distance information using two images having a parallax of one pixel or more in a visibility of 700 m or more. Such distance information has high accuracy for a distant subject. Therefore, the imaging device 1 enables a far distance measurement that is impossible with a conventional stereo camera.

また、実施の形態1に係る撮像装置1において、第一撮像部10及び第二撮像部20は、第一画像に写し出される700mの距離の被写体である第一被写体と第二画像に写し出される上記第一被写体との視差が3画素以上であるように構成されてもよい。上記構成によると、2つの画像間の同一の被写体の視差が大きくなるため、当該被写体の距離情報の精度が向上する。特に、視差が3画素以上であるため、同一の点等の同一の被写体が第一画像及び第二画像の同一の位置つまり画素座標の画素に写し出されることを、より確実に防ぐことができる。これにより、距離情報の精度が向上する。   Further, in the imaging apparatus 1 according to Embodiment 1, the first imaging unit 10 and the second imaging unit 20 include the first subject, which is a subject at a distance of 700 m shown in the first image, and the second subject, which is shown in the second image. The parallax with the first subject may be configured to be 3 pixels or more. According to the above configuration, the parallax of the same subject between the two images is increased, so that the accuracy of the distance information of the subject is improved. In particular, since the parallax is three or more pixels, it is possible to more reliably prevent the same subject, such as the same point, from being displayed at the same position in the first image and the second image, that is, the pixel at the pixel coordinates. Thereby, the accuracy of the distance information is improved.

(実施の形態2)
実施の形態2に係る撮像装置1Aは、距離画像を用いて、撮像装置1Aが搭載される飛行体の姿勢を検出する点で、実施の形態1と異なる。以下、実施の形態2について、実施の形態1と異なる点を中心に説明し、実施の形態1と同様の点の説明を適宜省略する。
(Embodiment 2)
The imaging apparatus 1A according to the second embodiment differs from the first embodiment in that the attitude of a flying object on which the imaging apparatus 1A is mounted is detected using a distance image. Hereinafter, the second embodiment will be described focusing on the points different from the first embodiment, and the description of the same points as the first embodiment will be appropriately omitted.

実施の形態2に係る撮像装置1Aは、飛行体に搭載される。飛行体の例は、操縦士が搭乗する航空機、及び無人航空機などのドローン等であり、本実施の形態では、無人小型航空機である。撮像装置1Aは、無人小型航空機の先端付近に配置され、例えば、第一撮像部10及び第二撮像部20の視野は、無人小型航空機の前方及び前方下方である。   Imaging device 1A according to Embodiment 2 is mounted on a flying object. Examples of the flying object are an aircraft on which a pilot is boarded, a drone such as an unmanned aerial vehicle, and the like, and in the present embodiment, an unmanned small aircraft. The imaging device 1A is arranged near the tip of the small unmanned aerial vehicle. For example, the fields of view of the first imaging unit 10 and the second imaging unit 20 are in front of and below the front of the small unmanned aerial vehicle.

撮像装置1Aの構成を説明する。図8は、実施の形態2に係る撮像装置1Aの機能的な構成の一例を示すブロック図である。図8に示すように、撮像装置1Aは、制御装置40Aを備える。制御装置40Aは、画像処理部43Aを含む。画像処理部43Aは、取得部431と、距離算出部432と、画像生成部433と、パラメタ格納部434と、記憶部435と、目標点算出部436と、自己位置算出部437と、自己姿勢算出部438とを含む。撮像装置1Aのハードウェア構成は、実施の形態1と同様である。目標点算出部436、自己位置算出部437及び自己姿勢算出部438の機能は、他の構成要素と同様にCPU101等によって実現される。ここで、目標点算出部436、自己位置算出部437、自己姿勢算出部438及び画像処理部43Aは、演算部の一例である。   The configuration of the imaging device 1A will be described. FIG. 8 is a block diagram illustrating an example of a functional configuration of an imaging device 1A according to Embodiment 2. As shown in FIG. 8, the imaging device 1A includes a control device 40A. The control device 40A includes an image processing unit 43A. The image processing unit 43A includes an acquisition unit 431, a distance calculation unit 432, an image generation unit 433, a parameter storage unit 434, a storage unit 435, a target point calculation unit 436, a self-position calculation unit 437, and a self-posture. And a calculation unit 438. The hardware configuration of the imaging device 1A is the same as that of the first embodiment. The functions of the target point calculation unit 436, the self-position calculation unit 437, and the self-posture calculation unit 438 are realized by the CPU 101 and the like, like the other components. Here, the target point calculation unit 436, the self-position calculation unit 437, the self-posture calculation unit 438, and the image processing unit 43A are examples of a calculation unit.

目標点算出部436は、地上の目標点を決定し、決定された目標点の座標を算出する。本実施の形態では、目標点は着陸地点であるが、これに限定されない。目標点算出部436は、第一画像及び第二画像の一方(以下、「輝度画像」とも呼ぶ)と、これらの画像の距離画像とを用いる。目標点算出部436は、輝度画像として、第一画像及び第二画像のいずれを用いてもよい。   The target point calculation unit 436 determines a target point on the ground, and calculates coordinates of the determined target point. In the present embodiment, the target point is the landing point, but is not limited to this. The target point calculation unit 436 uses one of the first image and the second image (hereinafter also referred to as a “luminance image”) and a distance image of these images. The target point calculation unit 436 may use any of the first image and the second image as the luminance image.

目標点算出部436は、輝度画像と距離画像とから、平面の被写体を形成していない画素を除去し、所定の範囲以上の平面の領域の被写体を形成する画素群を抽出する。例えば、目標点算出部436は、特許文献1と同様にして、上記画素群を抽出してもよい。   The target point calculation unit 436 removes, from the luminance image and the distance image, pixels that do not form a planar subject, and extracts a pixel group that forms a subject in a planar area equal to or larger than a predetermined range. For example, the target point calculation unit 436 may extract the pixel group in the same manner as in Patent Document 1.

具体的には、目標点算出部436は、x軸及びy軸の画素座標で画素の位置が定義される距離画像において、x軸に平行な横軸上の各画素のx座標及び距離値zを成分とするデータからなるデータ系列を生成する。目標点算出部436は、データ系列に最小二乗法を適用することによって、xz座標上で回帰直線を近似する。目標点算出部436は、xz座標上において、回帰直線からの所定の範囲の外に位置するデータをデータ系列から除去する。除去されたデータに対応する画素は、平面の被写体を形成していない画素であるため、目標点算出部436は、除去されたデータに対応する画素を距離画像から除去する。   Specifically, in the distance image in which the pixel position is defined by the x-axis and y-axis pixel coordinates, the target point calculation unit 436 calculates the x-coordinate and distance value z of each pixel on the horizontal axis parallel to the x-axis. Is generated. The target point calculation unit 436 approximates the regression line on the xz coordinate by applying the least squares method to the data series. The target point calculation unit 436 removes data located outside the predetermined range from the regression line on the xz coordinates from the data series. Since the pixel corresponding to the removed data is a pixel that does not form a planar subject, the target point calculation unit 436 removes the pixel corresponding to the removed data from the distance image.

さらに、目標点算出部436は、上記処理を距離画像のy軸方向に走査して行う。つまり、目標点算出部436は、距離画像の各y座標を通る横軸についてデータ系列を生成し、当該データ系列に最小二乗法を適用することによって回帰直線を近似し、回帰直線からの所定の範囲の外に位置するデータを当該データ系列から除去する。これにより、距離画像から、平面の被写体を形成していない画素が除去される。さらに、目標点算出部436は、距離画像から除去された画素に対応する画素を輝度画像から除去する。距離画像及び輝度画像にはそれぞれ、1つ以上の平面領域の被写体を形成する画素群が形成され得る。   Further, the target point calculation unit 436 performs the above processing by scanning the distance image in the y-axis direction. That is, the target point calculation unit 436 generates a data series on the horizontal axis passing through each y coordinate of the distance image, approximates the regression line by applying the least squares method to the data series, and obtains a predetermined value from the regression line. Data located outside the range is removed from the data series. Thus, pixels that do not form a planar subject are removed from the distance image. Further, the target point calculation unit 436 removes a pixel corresponding to the pixel removed from the distance image from the luminance image. In each of the distance image and the luminance image, a pixel group that forms a subject in one or more planar regions can be formed.

記憶部435には、着陸地点を含む地上の平面領域である着陸領域の輪郭が記憶されている。着陸領域の例は、滑走路、道路、ヘリポート及びドローンポートなどである。   The storage unit 435 stores the outline of the landing area that is a plane area on the ground including the landing point. Examples of landing areas are runways, roads, heliports and drone ports.

目標点算出部436は、除去後の輝度画像において、各平面領域のエッジを抽出する。さらに、目標点算出部436は、記憶部435から着陸領域の輪郭を取得し、当該輪郭と平面領域のエッジとのパターンマッチングを行い、着陸領域に対応する平面領域を特定する。   The target point calculation unit 436 extracts an edge of each plane area in the luminance image after the removal. Further, the target point calculation unit 436 acquires the contour of the landing area from the storage unit 435, performs pattern matching between the contour and the edge of the plane area, and specifies the plane area corresponding to the landing area.

さらに、目標点算出部436は、除去後の輝度画像において、着陸領域の中に含まれる着陸地点を示す指標を探索する。指標が見つかった場合、目標点算出部436は、当該指標を目標点に決定する。指標が見つからない場合、目標点算出部436は、距離画像の着陸領域を探索し、距離値が最も小さい画素の位置を目標点に決定する。目標点算出部436は、輝度画像及び距離画像における目標点の画素座標を自己位置算出部437に出力する。   Further, the target point calculation unit 436 searches for an index indicating a landing point included in the landing area in the luminance image after removal. When an index is found, the target point calculation unit 436 determines the index as a target point. If no index is found, the target point calculation unit 436 searches for a landing area in the distance image, and determines the position of the pixel with the smallest distance value as the target point. The target point calculation unit 436 outputs the pixel coordinates of the target point in the luminance image and the distance image to the self-position calculation unit 437.

自己位置算出部437は、距離画像における目標点の画素座標での画素値から、撮像装置1Aから目標点までの距離値を取得する。自己位置算出部437は、輝度画像における目標点の画素座標と、撮像装置1Aから目標点までの距離値とから、第一撮像部10又は第二撮像部20の光軸中心に対する目標点の位置を算出する。目標点の位置は、光軸中心に垂直な方向の位置である。自己位置算出部437は、目標点の距離及び位置から、目標点に対する撮像装置1Aの位置を算出する。なお、本実施の形態では、自己位置算出部437は、目標点に対する撮像装置1Aの位置を、第一撮像部10又は第二撮像部20を原点とするカメラ座標を用いて算出する。カメラ座標では、第一撮像部10又は第二撮像部20の光軸中心がZ軸であり、Z軸に垂直であり且つ互いに垂直である2つの軸がX軸及びY軸である。X軸及びY軸は、第一撮像素子12又は第二撮像素子22の受光面に平行である。なお、自己位置算出部437は、目標点に対する撮像装置1Aの位置を、目標点に設定される座標を用いて算出してもよい。   The self-position calculating unit 437 acquires a distance value from the imaging device 1A to the target point from the pixel value at the pixel coordinates of the target point in the distance image. The self-position calculating unit 437 calculates the position of the target point with respect to the optical axis center of the first imaging unit 10 or the second imaging unit 20 from the pixel coordinates of the target point in the luminance image and the distance value from the imaging device 1A to the target point. Is calculated. The position of the target point is a position in a direction perpendicular to the center of the optical axis. The self-position calculating unit 437 calculates the position of the imaging device 1A with respect to the target point from the distance and the position of the target point. In the present embodiment, the self-position calculation unit 437 calculates the position of the imaging device 1A with respect to the target point using camera coordinates having the first imaging unit 10 or the second imaging unit 20 as the origin. In the camera coordinates, the center of the optical axis of the first imaging unit 10 or the second imaging unit 20 is the Z axis, and two axes perpendicular to the Z axis and perpendicular to each other are the X axis and the Y axis. The X axis and the Y axis are parallel to the light receiving surface of the first image sensor 12 or the second image sensor 22. Note that the self-position calculation unit 437 may calculate the position of the imaging device 1A with respect to the target point using the coordinates set for the target point.

自己姿勢算出部438は、着陸領域の平面に対する撮像装置1Aの姿勢を算出し、出力部3及び/又は記憶部435に出力する。具体的には、自己姿勢算出部438は、輝度画像及び距離画像を用いて、以下の式3に示す関数を算出する。式3の関数は、第一撮像部10又は第二撮像部20のカメラ座標での着陸領域の平面を示す。
aX+bY+cZ=1 (式3)
このとき、自己姿勢算出部438は、着陸領域に含まれる少なくとも3つの画素が写し出す3つの被写体の3次元位置の座標を、カメラ座標を用いて算出する。自己姿勢算出部438は、3つの3次元位置の座標を用いて連立方程式を解くことによって、式3の係数a、b及びcを算出する。例えば、X=0としてときの式3におけるY軸及びZ軸に対する傾きは、撮像装置1Aのピッチ角を示し得る。Y=0としてときの式3におけるX軸及びZ軸に対する傾きは、撮像装置1Aのロール角を示し得る。自己姿勢算出部438は、式3を用いて、着陸領域の平面に対する撮像装置1Aの姿勢角を算出する。
The self-posture calculation unit 438 calculates the posture of the imaging device 1A with respect to the plane of the landing area, and outputs the calculated posture to the output unit 3 and / or the storage unit 435. Specifically, the self-posture calculation unit 438 calculates a function represented by the following Expression 3 using the luminance image and the distance image. The function of Equation 3 indicates the plane of the landing area at the camera coordinates of the first imaging unit 10 or the second imaging unit 20.
aX + bY + cZ = 1 (Equation 3)
At this time, the self-posture calculation unit 438 calculates the coordinates of the three-dimensional positions of the three subjects projected by at least three pixels included in the landing area using the camera coordinates. The self-posture calculation unit 438 calculates the coefficients a, b, and c of Expression 3 by solving a simultaneous equation using the coordinates of the three three-dimensional positions. For example, the inclination with respect to the Y axis and the Z axis in Expression 3 when X = 0 can indicate the pitch angle of the imaging device 1A. The inclination with respect to the X axis and the Z axis in Expression 3 when Y = 0 may indicate the roll angle of the imaging device 1A. The self-posture calculation unit 438 calculates the posture angle of the imaging device 1A with respect to the plane of the landing area using Expression 3.

撮像装置1Aの動作を説明する。図9は、実施の形態2に係る撮像装置1Aの動作の一例を示すフローチャートである。図9に示すように、まず、画像処理部43Aは、実施の形態1と同様にステップS1〜S4の処理を行うことによって、第一撮像部10の第一画像及び第二撮像部20の第二画像を用いて距離画像を生成する。   The operation of the imaging device 1A will be described. FIG. 9 is a flowchart illustrating an example of the operation of the imaging device 1A according to the second embodiment. As illustrated in FIG. 9, first, the image processing unit 43A performs the processing of steps S1 to S4 in the same manner as in the first embodiment, thereby obtaining the first image of the first imaging unit 10 and the second image of the second imaging unit 20. A distance image is generated using the two images.

次いで、画像処理部43Aにおいて、目標点算出部436は、第一画像又は第二画像である輝度画像と距離画像とを用いて、着陸領域が形成する平面領域、つまり着陸領域に対応する平面領域を特定する(ステップS21)。具体的には、目標点算出部436は、平面の被写体を形成しない画素を除去することによって、輝度画像及び距離画像において、平面領域の被写体を特定する。さらに、目標点算出部436は、輝度画像において、平面領域のエッジと着陸領域の輪郭とのパターンマッチングを行うことによって、着陸領域を特定する。   Next, in the image processing unit 43A, the target point calculation unit 436 uses the luminance image as the first image or the second image and the distance image to generate a plane area formed by the landing area, that is, a plane area corresponding to the landing area. Is specified (step S21). More specifically, the target point calculation unit 436 specifies a subject in a planar area in the luminance image and the distance image by removing pixels that do not form a planar subject. Further, the target point calculation unit 436 specifies the landing area by performing pattern matching between the edge of the plane area and the contour of the landing area in the luminance image.

次いで、目標点算出部436は、着陸領域内の目標点の座標を算出する(ステップS22)。具体的には、目標点算出部436は、輝度画像又は距離画像を用いて、着陸領域内の目標点を特定する。さらに、目標点算出部436は、輝度画像及び距離画像での目標点の画素座標を算出する。   Next, the target point calculation unit 436 calculates the coordinates of the target point in the landing area (Step S22). Specifically, the target point calculation unit 436 specifies a target point in the landing area using the luminance image or the distance image. Further, the target point calculation unit 436 calculates the pixel coordinates of the target point in the luminance image and the distance image.

次いで、自己位置算出部437は、目標点に対する撮像装置1Aの位置を算出する(ステップS23)。具体的には、自己位置算出部437は、輝度画像及び距離画像での目標点の画素座標及び距離値を用いて、目標点のカメラ座標を算出する。カメラ座標は、輝度画像を撮像した第一撮像部10又は第二撮像部20のカメラ座標である。自己位置算出部437は、目標点のカメラ座標から、目標点に対する撮像装置1Aの位置を算出する。   Next, the self-position calculating unit 437 calculates the position of the imaging device 1A with respect to the target point (Step S23). Specifically, the self-position calculating unit 437 calculates the camera coordinates of the target point using the pixel coordinates and the distance value of the target point in the luminance image and the distance image. The camera coordinates are the camera coordinates of the first imaging unit 10 or the second imaging unit 20 that has captured the luminance image. The self-position calculator 437 calculates the position of the imaging device 1A with respect to the target point from the camera coordinates of the target point.

次いで、自己姿勢算出部438は、着陸領域の平面に対する撮像装置1Aの姿勢を算出する(ステップS24)。具体的には、自己姿勢算出部438は、輝度画像及び距離画像を用いて、着陸領域の平面を示す関数をカメラ座標上で算出する。さらに、自己姿勢算出部438は、カメラ座標上での着陸領域の平面の傾きを算出することによって、着陸領域の平面に対する撮像装置1Aの姿勢角を算出し、出力部3及び/又は記憶部435に出力する。撮像装置1Aの姿勢角は、撮像装置1Aを搭載する飛行体の姿勢角に対応する。   Next, the self-posture calculation unit 438 calculates the posture of the imaging device 1A with respect to the plane of the landing area (Step S24). Specifically, the self-posture calculation unit 438 calculates a function indicating the plane of the landing area on the camera coordinates using the luminance image and the distance image. Further, the self-posture calculating unit 438 calculates the posture angle of the imaging device 1A with respect to the plane of the landing region by calculating the inclination of the plane of the landing region on the camera coordinates, and outputs the output unit 3 and / or the storage unit 435. Output to The attitude angle of the imaging device 1A corresponds to the attitude angle of the flying object on which the imaging device 1A is mounted.

実施の形態2に係る撮像装置1Aのその他の構成及び動作は、実施の形態1と同様であるため、その説明を省略する。そして、上述のような実施の形態2に係る撮像装置1Aによると、実施の形態1と同様の効果が得られる。   Other configurations and operations of the imaging device 1A according to the second embodiment are the same as those of the first embodiment, and thus description thereof will be omitted. According to the imaging apparatus 1A according to the second embodiment as described above, the same effects as those of the first embodiment can be obtained.

さらに、実施の形態2に係る撮像装置1Aは、撮像装置1Aが搭載される飛行体の位置及び姿勢を、第一画像及び第二画像を処理して取得される距離情報を用いて取得する、目標点算出部436、自己位置算出部437及び自己姿勢算出部438を含む画像処理部43Aを備えてもよい。さらに、画像処理部43Aは、目標地点に対する飛行体の位置及び姿勢を取得してもよい。   Furthermore, the imaging device 1A according to Embodiment 2 acquires the position and orientation of the flying object on which the imaging device 1A is mounted, using distance information acquired by processing the first image and the second image. An image processing unit 43A including a target point calculation unit 436, a self-position calculation unit 437, and a self-posture calculation unit 438 may be provided. Further, the image processing unit 43A may acquire the position and the attitude of the flying object with respect to the target point.

上記構成によると、撮像装置1Aは、遠方の測距が可能であるため、遠方の目標地点に対する飛行体の位置及び姿勢を算出することができる。このため、撮像装置1Aによって算出される飛行体の位置及び姿勢は、飛行体を飛行させる制御に利用可能である。例えば、目標地点が着陸地点である場合、上記位置及び姿勢は、自動着陸制御等の飛行体の着陸制御に活用可能である。例えば、飛行体に搭載されるGPS(Global Positioning System)は、大気の電離層によって電波障害を受け得る。このような場合、撮像装置1Aは、GPSに代わって、飛行体の位置及び姿勢の検出に活用可能である。よって、飛行体の飛行の安全性の向上が可能である。   According to the above configuration, the imaging device 1A can calculate the position and attitude of the flying object with respect to the distant target point because the distance measurement can be performed in a distant place. For this reason, the position and attitude of the flying object calculated by the imaging device 1A can be used for control of flying the flying object. For example, when the target point is a landing point, the position and attitude can be used for landing control of the flying object such as automatic landing control. For example, a GPS (Global Positioning System) mounted on an air vehicle may be subject to radio interference due to the ionosphere in the atmosphere. In such a case, the imaging device 1A can be used for detecting the position and attitude of the flying object instead of the GPS. Therefore, the flight safety of the flying object can be improved.

(実施の形態3)
実施の形態3に係る撮像装置1Bは、距離画像を用いて物体を検出する点で、実施の形態1及び2と異なる。以下、実施の形態3について、実施の形態1及び2と異なる点を中心に説明し、実施の形態1及び2と同様の点の説明を適宜省略する。
(Embodiment 3)
The imaging device 1B according to the third embodiment differs from the first and second embodiments in that an object is detected using a range image. Hereinafter, the third embodiment will be described focusing on the differences from the first and second embodiments, and the description of the same points as the first and second embodiments will be appropriately omitted.

実施の形態3に係る撮像装置1Bの構成を説明する。図10は、実施の形態3に係る撮像装置1Bの機能的な構成の一例を示すブロック図である。図10に示すように、撮像装置1Bは、制御装置40Bを備える。制御装置40Bは、画像処理部43Bを含む。画像処理部43Bは、取得部431と、距離算出部432と、画像生成部433と、パラメタ格納部434と、記憶部435と、クラスタリング部439と、判定部440と、位置算出部441とを含む。撮像装置1Bのハードウェア構成は、実施の形態1と同様である。クラスタリング部439、判定部440及び位置算出部441の機能は、他の構成要素と同様にCPU101等によって実現される。ここで、クラスタリング部439、判定部440、位置算出部441及び画像処理部43Bは、第一検出部の一例である。   The configuration of the imaging device 1B according to the third embodiment will be described. FIG. 10 is a block diagram illustrating an example of a functional configuration of an imaging device 1B according to Embodiment 3. As shown in FIG. 10, the imaging device 1B includes a control device 40B. The control device 40B includes an image processing unit 43B. The image processing unit 43B includes an acquisition unit 431, a distance calculation unit 432, an image generation unit 433, a parameter storage unit 434, a storage unit 435, a clustering unit 439, a determination unit 440, and a position calculation unit 441. Including. The hardware configuration of the imaging device 1B is the same as that of the first embodiment. The functions of the clustering unit 439, the determination unit 440, and the position calculation unit 441 are realized by the CPU 101 and the like, like the other components. Here, the clustering unit 439, the determination unit 440, the position calculation unit 441, and the image processing unit 43B are examples of a first detection unit.

クラスタリング部439は、距離画像を局所領域に分割し、局所領域の距離ヒストグラムを算出する。さらに、クラスタリング部439は、局所領域間において距離ヒストグラムの類似度を算出し、類似すると見なされ且つ互いに近傍に位置する複数の局所領域を1つの塊として分類する。そして、クラスタリング部439は、分類された1つの塊に含まれる全ての局所領域に写し出される被写体は1つの物体を構成すると決定する。   The clustering unit 439 divides the range image into local regions, and calculates a distance histogram of the local region. Further, the clustering unit 439 calculates the similarity of the distance histogram between the local regions, and classifies a plurality of local regions regarded as similar and located close to each other as one block. Then, the clustering unit 439 determines that the subjects projected to all the local regions included in the classified one lump constitute one object.

例えば、クラスタリング部439は、8画素×8画素の領域を局所領域に設定する。第一撮像素子12及び第二撮像素子22の解像度は1920画素×1080画素であるため、32400箇所の局所領域が形成される。クラスタリング部439は、各局所領域において、64画素の距離値から、距離値毎の頻度を示す距離ヒストグラムを算出する。さらに、クラスタリング部439は、頻度の合計が1になるように距離ヒストグラムを正規化する。クラスタリング部439は、正規化された距離ヒストグラム(「距離ヒストグラム特徴量」とも呼ばれる)の類似度を、2つの局所領域の間で算出し、全ての局所領域の組み合わせについて類似度を算出する。距離ヒストグラムの類似度の算出方法の詳細は、例えば、特許文献3に開示されているため、その説明を省略する。   For example, the clustering unit 439 sets an area of 8 pixels × 8 pixels as a local area. Since the resolution of the first image sensor 12 and the second image sensor 22 is 1920 pixels × 1080 pixels, 32400 local regions are formed. The clustering unit 439 calculates a distance histogram indicating the frequency of each distance value from the distance values of 64 pixels in each local region. Further, the clustering unit 439 normalizes the distance histogram so that the sum of the frequencies becomes 1. The clustering unit 439 calculates the similarity of the normalized distance histogram (also referred to as “distance histogram feature amount”) between the two local regions, and calculates the similarity for all combinations of the local regions. The details of the method of calculating the similarity of the distance histogram are disclosed in, for example, Japanese Patent Application Laid-Open No. H10-157, and thus the description thereof is omitted.

クラスタリング部439は、類似度が閾値以上である局所領域を分類する。つまり、クラスタリング部439は、類似度が閾値以上である局所領域で構成されるグループ毎に、局所領域をグループ分けする。閾値は、予め設定され、記憶部435に記憶される。さらに、クラスタリング部439は、1つのグループ内の局所領域について、距離画像上で互いに隣り合う局所領域によって形成される局所領域の集合を、1つの塊として抽出する。この塊は、撮像装置1Bからの距離が類似する画素で構成される。1つの塊に含まれる画素が写し出す被写体は、1つの物体等の対象物を構成すると見なすことができる。さらに、クラスタリング部439は、距離画像上において、各塊に含まれる画素の座標、つまり各塊の画素座標を算出し、判定部440及び/又は記憶部435に出力する。   The clustering unit 439 classifies the local regions whose similarity is equal to or larger than the threshold. That is, the clustering unit 439 divides the local area into groups each including a local area whose similarity is equal to or larger than the threshold. The threshold is set in advance and stored in the storage unit 435. Further, the clustering unit 439 extracts a set of local regions formed by local regions adjacent to each other on the range image as one lump for local regions in one group. This block is composed of pixels having a similar distance from the imaging device 1B. A subject projected by a pixel included in one lump can be regarded as constituting an object such as one object. Further, the clustering unit 439 calculates the coordinates of the pixels included in each chunk on the distance image, that is, the pixel coordinates of each chunk, and outputs the calculated coordinates to the determination unit 440 and / or the storage unit 435.

判定部440は、各塊の実寸法を推定し、当該実寸法が寸法閾値範囲内に含まれるか否かに基づき、当該塊が対象物体であるか否かを判定する。閾値範囲は、上限の閾値と下限の閾値との間の範囲である。対象物体は、撮像装置1Bが検出する対象の物体である。撮像装置1Bが飛行体に搭載される場合、例えば、対象物体は、飛行又は着陸の妨げとなる障害物等である。対象物体は、その種類に基づき定義されてもよく、単にその寸法に基づき定義されてもよい。例えば、所定の寸法範囲内の物体が対象物体とされてもよい。   The determination unit 440 estimates the actual size of each chunk, and determines whether the chunk is a target object based on whether or not the actual dimension falls within the dimension threshold range. The threshold range is a range between the upper threshold and the lower threshold. The target object is an object to be detected by the imaging device 1B. When the imaging device 1B is mounted on a flying object, for example, the target object is an obstacle or the like that hinders flight or landing. The target object may be defined based on its type, or simply based on its dimensions. For example, an object within a predetermined size range may be set as a target object.

判定部440は、距離画像での各塊の画素座標から、第一画像又は第二画像である輝度画像での各塊の画素座標を算出する。さらに、判定部440は、輝度画像上において、各塊の周囲のエッジを抽出し、エッジに含まれる画素の座標、つまりエッジの画素座標を算出する。そして、判定部440は、距離画像を用いて、エッジの画素座標での距離値を取得する。   The determination unit 440 calculates the pixel coordinates of each block in the luminance image that is the first image or the second image from the pixel coordinates of each block in the distance image. Further, the determination unit 440 extracts edges around each block on the luminance image, and calculates the coordinates of the pixels included in the edges, that is, the pixel coordinates of the edges. Then, the determination unit 440 obtains a distance value at the pixel coordinates of the edge using the distance image.

さらに、判定部440は、エッジの画素座標と、エッジの画素座標での距離値とを用いて、エッジの画素座標をカメラ座標に変換する。変換後の座標は、塊の被写体の縁のカメラ座標である。さらに、判定部440は、塊の被写体の縁のカメラ座標を用いて、第一撮像部10又は第二撮像部20の光軸中心に垂直な方向での塊の幅を算出する。算出される幅は、塊の被写体の幅の実寸法の推定値である。算出される幅は、最大幅又は複数の幅の平均等であってもよい。   Further, the determination unit 440 converts the pixel coordinates of the edge into camera coordinates using the pixel coordinates of the edge and the distance value at the pixel coordinates of the edge. The coordinates after the conversion are the camera coordinates of the edge of the block object. Furthermore, the determination unit 440 calculates the width of the lump in a direction perpendicular to the optical axis center of the first imaging unit 10 or the second imaging unit 20 using the camera coordinates of the edge of the lump subject. The calculated width is an estimated value of the actual dimension of the width of the block subject. The calculated width may be a maximum width or an average of a plurality of widths.

また、判定部440は、距離画像において、エッジの内側の各画素の距離値を探索し、最小距離値を抽出する。さらに、判定部440は、抽出された最小距離値とエッジの画素座標での距離値との差異を算出する。算出される差異は、塊の被写体の高さの実寸法の推定値である。エッジの画素座標での距離値は、最大値、最小値又は平均値等であってもよい。   Further, the determination unit 440 searches for the distance value of each pixel inside the edge in the distance image, and extracts the minimum distance value. Further, the determination unit 440 calculates a difference between the extracted minimum distance value and the distance value at the pixel coordinates of the edge. The calculated difference is an estimated value of the actual size of the height of the block subject. The distance value at the pixel coordinates of the edge may be a maximum value, a minimum value, an average value, or the like.

判定部440は、塊の被写体の幅及び高さの実寸法の推定値のいずれもが、幅寸法閾値範囲内及び高さ寸法閾値範囲内である場合、当該被写体は対象物体であると判定し、上記以外の場合、当該被写体は対象物体でないと判定する。幅寸法閾値範囲及び高さ寸法閾値範囲は、設定される対象物体に応じて予め決定され、記憶部435に記憶される。判定部440は、各塊に対して、上述のように実寸法の推定値を算出し、対象物体であるか否かを判定する。判定部440は、判定結果と、対象物体の距離値、カメラ座標及び画素座標等の情報を位置算出部441に出力する。   The determination unit 440 determines that the subject is a target object when both the estimated values of the actual dimensions of the width and the height of the lump subject are within the width dimension threshold range and the height dimension threshold range. Otherwise, it is determined that the subject is not a target object. The width dimension threshold range and the height dimension threshold range are determined in advance according to the target object to be set, and are stored in the storage unit 435. The determination unit 440 calculates the estimated value of the actual size for each block as described above, and determines whether or not the block is a target object. The determination unit 440 outputs the determination result and information such as the distance value of the target object, camera coordinates, pixel coordinates, and the like to the position calculation unit 441.

位置算出部441は、対象物体の情報を受け取ると、当該対象物体の位置を算出し、出力部3及び/又は記憶部435に出力する。具体的には、位置算出部441は、判定部440から取得された対象物体の距離値、対象物体の縁のカメラ座標及び画素座標を用いて、対象物体の位置を示す位置情報を生成する。例えば、位置算出部441は、位置情報として、撮像装置1Bから対象物体までの距離及び方向を算出してもよい。例えば、位置算出部441は、位置情報として、第一撮像部10又は第二撮像部20によって撮像される画像上に強調された対象物体のエッジを重畳表示する画像を生成してもよい。   Upon receiving the information on the target object, the position calculation unit 441 calculates the position of the target object and outputs the calculated position to the output unit 3 and / or the storage unit 435. Specifically, the position calculation unit 441 generates position information indicating the position of the target object using the distance value of the target object, the camera coordinates of the edge of the target object, and the pixel coordinates acquired from the determination unit 440. For example, the position calculation unit 441 may calculate the distance and the direction from the imaging device 1B to the target object as the position information. For example, the position calculation unit 441 may generate, as the position information, an image in which the edge of the emphasized target object is superimposed and displayed on the image captured by the first imaging unit 10 or the second imaging unit 20.

撮像装置1Bの動作を説明する。図11は、実施の形態3に係る撮像装置1Bの動作の一例を示すフローチャートである。図11に示すように、画像処理部43Bは、実施の形態1と同様にステップS1〜S4の処理を行うことによって、距離画像を生成する。   The operation of the imaging device 1B will be described. FIG. 11 is a flowchart illustrating an example of the operation of the imaging device 1B according to Embodiment 3. As shown in FIG. 11, the image processing unit 43B generates a distance image by performing the processing of steps S1 to S4 in the same manner as in the first embodiment.

次いで、画像処理部43Bのクラスタリング部439は、距離画像において、撮像装置1Bからの距離が類似する画素で構成される画素の塊を分類して抽出する(ステップS31)。つまり、クラスタリング部439は、距離が類似する画素で構成される画素の塊をクラスタリングする。   Next, the clustering unit 439 of the image processing unit 43B classifies and extracts clusters of pixels composed of pixels having similar distances from the imaging device 1B in the distance image (step S31). That is, the clustering unit 439 clusters a cluster of pixels formed of pixels having similar distances.

次いで、判定部440は、各塊の実寸法を推定する(ステップS32)。具体的には、判定部440は、距離画像、輝度画像及び各塊の画素座標を用いて、各塊の被写体の幅及び高さの実寸法を推定する。   Next, the determination unit 440 estimates the actual size of each block (Step S32). Specifically, the determination unit 440 estimates the actual dimensions of the width and height of the subject in each block using the distance image, the luminance image, and the pixel coordinates of each block.

次いで、判定部440は、塊の実寸法の推定値が寸法閾値範囲内であるか否かを判定する(ステップS33)。つまり、判定部440は、塊の被写体の幅及び高さの実寸法の推定値の両方が、幅寸法閾値範囲及び高さ寸法閾値範囲に含まれるか否かを判定する。判定部440は、幅及び高さの実寸法の推定値の両方がそれぞれの寸法閾値範囲内である場合(ステップS33でYes)、ステップS34に進み、そうでない場合(ステップS33でNo)、一連の処理を終了する。   Next, the determination unit 440 determines whether or not the estimated value of the actual size of the block is within the size threshold range (step S33). That is, the determination unit 440 determines whether both the estimated values of the actual width and height of the block object are included in the width dimension threshold range and the height dimension threshold range. When both the estimated values of the actual dimensions of the width and the height are within the respective dimension threshold ranges (Yes in step S33), the determination unit 440 proceeds to step S34. Otherwise (No in step S33), Is completed.

ステップS34において、判定部440は、ステップS33で判定された塊を対象物体に決定し、当該対象物体に関する情報を位置算出部441に出力する。   In step S34, the determination unit 440 determines the lump determined in step S33 as the target object, and outputs information on the target object to the position calculation unit 441.

次いで、位置算出部441は、対象物体の情報を用いて、対象物体の位置を示す位置情報を生成する(ステップS35)。位置算出部441は、対象物体の位置情報を出力部3及び/又は記憶部435に出力する。   Next, the position calculation unit 441 generates position information indicating the position of the target object using the information of the target object (Step S35). The position calculation unit 441 outputs the position information of the target object to the output unit 3 and / or the storage unit 435.

実施の形態3に係る撮像装置1Bのその他の構成及び動作は、実施の形態1と同様であるため、その説明を省略する。そして、上述のような実施の形態3に係る撮像装置1Bによると、実施の形態1と同様の効果が得られる。   Other configurations and operations of the imaging device 1B according to the third embodiment are the same as those of the first embodiment, and thus description thereof will be omitted. According to the imaging apparatus 1B according to the third embodiment, the same effects as those of the first embodiment can be obtained.

さらに、実施の形態3に係る撮像装置1Bは、第一画像及び第二画像を処理して取得される距離情報を用いて物体を検出する、クラスタリング部439、判定部440及び位置算出部441を含む画像処理部43Bを備えてもよい。さらに、画像処理部43Bは、検出された物体の位置情報を、上記距離情報を用いて取得してもよい。   Further, the imaging device 1B according to Embodiment 3 includes a clustering unit 439, a determination unit 440, and a position calculation unit 441 that detect an object using distance information acquired by processing the first image and the second image. An image processing unit 43B may be provided. Further, the image processing unit 43B may acquire position information of the detected object using the distance information.

上記構成によると、撮像装置1Bは、遠方の測距が可能であるため、遠方の物体及びその位置を検出することができる。このため、撮像装置1Bは、高速鉄道及び航空機等の移動体に搭載される場合、移動体の進行方向に存在する物体を、移動体が物体に接近又は接触する前に検出することができる。よって、移動体の安全な運行が可能である。   According to the above configuration, since the imaging device 1B can perform distance measurement in a distant place, it can detect a distant object and its position. Therefore, when the imaging device 1B is mounted on a moving object such as a high-speed railway and an aircraft, the imaging device 1B can detect an object existing in the traveling direction of the moving object before the moving object approaches or contacts the object. Therefore, safe operation of the moving body is possible.

(実施の形態4)
実施の形態4に係る撮像装置1Cは、距離画像を用いて撮像装置1Cに対して移動する被写体を検出する点で実施の形態3と異なる。以下、実施の形態4について、実施の形態1〜3と異なる点を中心に説明し、実施の形態1〜3と同様の点の説明を適宜省略する。
(Embodiment 4)
The imaging device 1C according to the fourth embodiment differs from the third embodiment in that a moving subject is detected with respect to the imaging device 1C using the distance image. Hereinafter, the fourth embodiment will be described focusing on the differences from the first to third embodiments, and the description of the same points as the first to third embodiments will be omitted as appropriate.

実施の形態4に係る撮像装置1Cの構成を説明する。図12は、実施の形態4に係る撮像装置1Cの機能的な構成の一例を示すブロック図である。図12に示すように、撮像装置1Cは、制御装置40Cを備える。制御装置40Cは、画像処理部43Cを含む。画像処理部43Cは、取得部431と、距離算出部432と、画像生成部433と、パラメタ格納部434と、記憶部435と、クラスタリング部439と、判定部440と、位置算出部441と、移動検出部442とを含む。撮像装置1Cのハードウェア構成は、実施の形態1と同様である。移動検出部442の機能は、他の構成要素と同様にCPU101等によって実現される。ここで、移動検出部442及び画像処理部43Cは、第二検出部の一例である。   The configuration of an imaging device 1C according to Embodiment 4 will be described. FIG. 12 is a block diagram illustrating an example of a functional configuration of an imaging device 1C according to Embodiment 4. As shown in FIG. 12, the imaging device 1C includes a control device 40C. The control device 40C includes an image processing unit 43C. The image processing unit 43C includes an acquisition unit 431, a distance calculation unit 432, an image generation unit 433, a parameter storage unit 434, a storage unit 435, a clustering unit 439, a determination unit 440, a position calculation unit 441, And a movement detection unit 442. The hardware configuration of the imaging device 1C is the same as that of the first embodiment. The function of the movement detection unit 442 is realized by the CPU 101 and the like, like the other components. Here, the movement detection unit 442 and the image processing unit 43C are examples of a second detection unit.

移動検出部442は、判定部440によって決定された対象物体の中から、撮像装置1Cに対して移動する対象物体を、移動被写体として検出する。   The movement detection unit 442 detects, as a moving subject, a target object that moves with respect to the imaging device 1C from among the target objects determined by the determination unit 440.

移動検出部442は、撮像時刻が異なる2つの距離画像間において、これらの距離画像から抽出された同一の対象物体の画素座標を比較する。撮像時刻が異なる2つの距離画像は、第一撮像部10及び第二撮像部20によって異なる撮像時刻で撮像された2組の第一画像及び第二画像から生成される。2つの距離画像が同じ対象物体を含むように、2つの距離画像の撮像時刻は、近い方が望ましい。例えば、一方の距離画像は、他方の距離画像の直前に撮像された距離画像である。   The movement detection unit 442 compares pixel coordinates of the same target object extracted from these distance images between two distance images having different imaging times. Two distance images having different imaging times are generated from two sets of the first image and the second image captured by the first imaging unit 10 and the second imaging unit 20 at different imaging times. It is desirable that the imaging times of the two distance images be closer so that the two distance images include the same target object. For example, one distance image is a distance image captured immediately before the other distance image.

移動検出部442は、対象物体の画素座標の変位に基づき、2つの距離画像間における当該対象物体の移動距離を算出する。具体的には、移動検出部442は、当該対象物体の2つの画素座標それぞれをカメラ座標に変換し、2つのカメラ座標を用いて移動距離を算出する。移動検出部442は、移動距離が移動閾値以上である場合、当該対象物体は移動被写体であると決定し、移動距離が移動閾値未満である場合、当該対象物体は移動しない被写体であると決定する。移動閾値は、対象物体の画素座標の比較に用いられる2つの距離画像の撮像時刻の差異に応じて、予め決定され、記憶部435に記憶される。例えば、移動閾値は、第一撮像部10及び第二撮像部20のフレームレートに応じて決定されてもよい。   The movement detection unit 442 calculates the movement distance of the target object between the two range images based on the displacement of the pixel coordinates of the target object. Specifically, the movement detection unit 442 converts each of the two pixel coordinates of the target object into camera coordinates, and calculates the movement distance using the two camera coordinates. The movement detection unit 442 determines that the target object is a moving subject when the movement distance is equal to or greater than the movement threshold, and determines that the target object is a non-moving subject when the movement distance is less than the movement threshold. . The movement threshold is determined in advance according to the difference between the imaging times of the two distance images used for comparing the pixel coordinates of the target object, and is stored in the storage unit 435. For example, the movement threshold may be determined according to the frame rates of the first imaging unit 10 and the second imaging unit 20.

移動検出部442は、上述のように検出された移動被写体の距離値、カメラ座標及び画素座標等の情報を位置算出部441に出力する。   The movement detection unit 442 outputs information such as the distance value, the camera coordinates, and the pixel coordinates of the moving subject detected as described above to the position calculation unit 441.

位置算出部441は、移動被写体の情報を受け取ると、当該移動被写体の位置を算出し、出力部3及び/又は記憶部435に出力する。また、位置算出部441は、撮像装置1Cに対する移動被写体の速度及び移動方向を算出し出力してもよい。   When receiving the information of the moving subject, the position calculating unit 441 calculates the position of the moving subject and outputs the calculated position to the output unit 3 and / or the storage unit 435. Further, the position calculating unit 441 may calculate and output the speed and the moving direction of the moving subject with respect to the imaging device 1C.

実施の形態4に係る撮像装置1Cのその他の構成及び動作は、実施の形態3と同様であるため、その説明を省略する。そして、上述のような実施の形態4に係る撮像装置1Cによると、実施の形態3と同様の効果が得られる。   Other configurations and operations of the imaging device 1C according to the fourth embodiment are the same as those of the third embodiment, and thus description thereof will be omitted. Then, according to the imaging apparatus 1C according to the fourth embodiment described above, the same effect as that of the third embodiment can be obtained.

さらに、実施の形態4に係る撮像装置1Cは、第一撮像部10及び第二撮像部20の視野内で移動する移動体を、第一画像及び第二画像を処理して取得される距離情報を用いて検出する、移動検出部442を含む画像処理部43Cを備えてもよい。さらに、画像処理部43Cは、検出された移動体の位置情報を、上記距離情報を用いて取得してもよい。   Further, the imaging apparatus 1C according to Embodiment 4 uses the distance information acquired by processing the first image and the second image for the moving object that moves within the field of view of the first imaging unit 10 and the second imaging unit 20. The image processing unit 43 </ b> C including the movement detection unit 442 that detects using the method may be provided. Further, the image processing unit 43C may acquire the position information of the detected moving body using the distance information.

上記構成によると、撮像装置1Cは、遠方の測距が可能であるため、遠方の移動体及びその位置を検出することができる。さらに、撮像装置1Cによって検出される移動体及びその位置の情報は、撮像装置1Cが静止物及び移動物のいずれに搭載される場合でも活用可能である。さらに、撮像装置1Cは、画像の撮像時刻が異なる複数の距離情報に対応する移動体の位置情報を用いて、移動体の移動方向及び速度を検出することができる。   According to the above configuration, the imaging device 1C can detect a distant moving object and its position because the distance can be measured in a distant place. Further, information on the moving body and its position detected by the imaging device 1C can be used regardless of whether the imaging device 1C is mounted on a stationary object or a moving object. Furthermore, the imaging device 1C can detect the moving direction and speed of the moving object using the position information of the moving object corresponding to a plurality of pieces of distance information having different image capturing times.

例えば、撮像装置1Cが高速鉄道等の高速で移動する移動物に搭載される場合、撮像装置1Cの検出結果は、移動体が移動物の進行に支障となり得る否かの事前の判定に利用されることができる。撮像装置1Cが静止物に搭載される場合、撮像装置1Cの検出結果は、遠方の移動体の監視に活用可能である。例えば、地上に配置された撮像装置1Cは、地上からのドローン等の飛行体の監視用のセンサの1つとして活用できる。例えば、撮像装置1Cは、海上又は国境警備等において、不審物体を遠方から監視するセンサの1つとして活用することができる。   For example, when the imaging device 1C is mounted on a moving object that moves at a high speed such as a high-speed railway, the detection result of the imaging device 1C is used to determine in advance whether the moving object may hinder the progress of the moving object. Can be When the imaging device 1C is mounted on a stationary object, the detection result of the imaging device 1C can be used for monitoring a distant moving body. For example, the imaging device 1C disposed on the ground can be used as one of sensors for monitoring a flying object such as a drone from the ground. For example, the imaging device 1C can be used as one of sensors for monitoring a suspicious object from a distance at sea or at a border guard.

また、実施の形態4に係る撮像装置1Cは、2つの距離画像間で変位する対象物体の移動距離に基づき、当該対象物体が移動被写体であるか否かを検出しているが、これに限定されない。撮像装置1Cは、3つ以上の距離画像間で変位する対象物体の移動距離に基づき、当該対象物体が移動被写体であるか否かを検出してもよい。この場合、3つ以上の距離画像間での対象物体の移動距離の合計と移動閾値とが比較されてもよい。又は、3つ以上の距離画像のうちの距離画像の各ペア間での対象物体の移動距離と移動閾値とが比較されてもよい。   The imaging device 1C according to Embodiment 4 detects whether or not the target object is a moving subject based on the moving distance of the target object displaced between the two range images, but is not limited thereto. Not done. The imaging device 1C may detect whether or not the target object is a moving subject based on the moving distance of the target object that is displaced between three or more range images. In this case, the sum of the moving distances of the target object among the three or more range images may be compared with the moving threshold. Alternatively, the moving distance of the target object and the moving threshold between each pair of the distance images among the three or more distance images may be compared.

(その他の実施の形態)
以上、本発明の実施の形態の例について説明したが、本発明は、上記実施の形態及び変形例に限定されない。すなわち、本発明の範囲内で種々の変形及び改良が可能である。例えば、各種変形を実施の形態又は変形例に施したもの、及び、異なる実施の形態及び変形例における構成要素を組み合わせて構築される形態も、本発明の範囲内に含まれる。
(Other embodiments)
As mentioned above, although the example of the embodiment of the present invention was explained, the present invention is not limited to the above-mentioned embodiment and the modification. That is, various modifications and improvements are possible within the scope of the present invention. For example, various modifications made to the embodiment or the modified example, and forms constructed by combining components in different embodiments and modified examples are also included in the scope of the present invention.

例えば、実施の形態に係る撮像装置は、2つの撮像部を備えるが、3つ以上の撮像部を備えてもよい。この場合、撮像装置は、3つ以上の撮像部によって撮像された画像の中の2つの画像を用いて距離画像を生成してもよい。又は、撮像装置は、3つ以上の撮像部によって撮像された画像の中の各ペアの画像を用いて、複数の距離画像を生成してもよい。さらに、撮像装置は、例えば測定誤差を低減するために、複数の距離画像を合成して1つの距離画像を生成してもよい。   For example, the imaging device according to the embodiment includes two imaging units, but may include three or more imaging units. In this case, the imaging device may generate the distance image by using two of the images captured by the three or more imaging units. Alternatively, the imaging device may generate a plurality of distance images by using images of each pair in images captured by three or more imaging units. Further, the imaging device may generate one distance image by combining a plurality of distance images, for example, to reduce a measurement error.

また、実施の形態に係る撮像装置において、第一撮像部10及び第二撮像部20の焦点距離f1及びf2は同一であり、第一撮像素子12及び第二撮像素子22の画素ピッチp1及びp2は同一であるが、これに限定されない。焦点距離f1及びf2は異なっていてもよい。この場合、例えば、焦点距離f1及びf2のうちのより短い方が、式2を満たすように決定されてもよい。また、画素ピッチp1及びp2は異なっていてもよい。この場合、例えば、画素ピッチp1及びp2のうちのより大きい方が、式2を満たすように決定されてもよい。   In the imaging device according to the embodiment, the first imaging unit 10 and the second imaging unit 20 have the same focal length f1 and f2, and the pixel pitches p1 and p2 of the first imaging device 12 and the second imaging device 22. Are the same, but are not limited thereto. The focal lengths f1 and f2 may be different. In this case, for example, the shorter one of the focal lengths f1 and f2 may be determined so as to satisfy Expression 2. Further, the pixel pitches p1 and p2 may be different. In this case, for example, the larger one of the pixel pitches p1 and p2 may be determined so as to satisfy Expression 2.

また、実施の形態に係る撮像装置において、第一撮像部10及び第二撮像部20の光軸は平行であるが、これに限定されない。光軸が平行である場合と光軸が平行でない場合との間において、被写体の3次元位置が同じであっても、第一画像及び第二画像上での当該被写体の画像座標は異なり、当該被写体の視差も異なる。このため、2つの場合の視差の差異を組み込むために、式2を満たす要素に補正係数等が適用されてもよい。例えば、補正係数が「α」である場合、式2を満たす画素ピッチ「p」を補正した補正後画素ピッチ「p'(=α×p)」を、光軸が平行でない場合の画素ピッチとしてもよい。   In the imaging device according to the embodiment, the optical axes of the first imaging unit 10 and the second imaging unit 20 are parallel, but are not limited to this. Between the case where the optical axis is parallel and the case where the optical axis is not parallel, even if the three-dimensional position of the subject is the same, the image coordinates of the subject on the first image and the second image are different, and The parallax of the subject is also different. Therefore, a correction coefficient or the like may be applied to an element that satisfies Expression 2 in order to incorporate the difference in parallax between the two cases. For example, when the correction coefficient is “α”, the corrected pixel pitch “p ′ (= α × p)” obtained by correcting the pixel pitch “p” that satisfies Equation 2 is used as the pixel pitch when the optical axis is not parallel. Is also good.

また、上記で用いた序数、数量等の数字は、全て本発明の技術を具体的に説明するために例示するものであり、本発明は例示された数字に制限されない。また、構成要素間の接続関係は、本発明の技術を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。   Further, the numbers such as the ordinal numbers and the quantities used above are all examples for specifically explaining the technology of the present invention, and the present invention is not limited to the illustrated numbers. Further, the connection relation between the constituent elements is illustrated for specifically explaining the technology of the present invention, and the connection relation for realizing the function of the present invention is not limited to this.

また、機能ブロック図におけるブロックの分割は一例であり、複数のブロックを一つのブロックとして実現する、一つのブロックを複数に分割する、及び/又は、一部の機能を他のブロックに移してもよい。また、類似する機能を有する複数のブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。   The division of blocks in the functional block diagram is merely an example, and a plurality of blocks may be implemented as one block, one block may be divided into a plurality of blocks, and / or some functions may be moved to another block. Good. Also, a single piece of hardware or software may process functions of a plurality of blocks having similar functions in parallel or in a time-division manner.

1,1A,1B,1C 撮像装置
10 第一撮像部
20 第二撮像部
43,43A,43B,43C 画像処理部(処理部,演算部,第一検出部,第二検出部)
436 目標点算出部(演算部)
437 自己位置算出部(演算部)
438 自己姿勢算出部(演算部)
439 クラスタリング部(第一検出部)
440 判定部(第一検出部)
441 位置算出部(第一検出部)
442 移動検出部(第二検出部)
1, 1A, 1B, 1C Imaging device 10 First imaging unit 20 Second imaging unit 43, 43A, 43B, 43C Image processing unit (processing unit, calculation unit, first detection unit, second detection unit)
436 Target point calculation unit (calculation unit)
437 Self position calculation unit (calculation unit)
438 Self-posture calculation unit (calculation unit)
439 Clustering unit (first detection unit)
440 Judgment unit (first detection unit)
441 Position Calculator (First Detector)
442 Movement detection unit (second detection unit)

特開2002−188917号公報JP 2002-188917 A 特開2014−238409号公報JP 2014-238409 A 国際公開第2010/140613号International Publication No. 2010/140613

長田昌次郎、「視覚の奥行距離情報とその奥行感度」、テレビジョン、一般社団法人 映像情報メディア学会、1977年8月、第31巻、第8号、p.649−655Shojiro Osada, "Visual depth distance information and its depth sensitivity", Television, The Institute of Image Information and Television Engineers, August 1977, Vol. 31, No. 8, p. 649-655

Claims (5)

画像を撮像する複数の画素を有する第一撮像部と、
画像を撮像する複数の画素を有する第二撮像部と、
前記第一撮像部により撮像された第一画像及び前記第二撮像部により撮像された第二画像を処理して被写体の距離情報を取得する処理部とを備え、
前記第一撮像部及び前記第二撮像部の基線長B(単位:m)、焦点距離F(単位:mm)及び画素ピッチp(単位:mm)は、
B×F/p>700
の関係を満たす、撮像装置。
A first imaging unit having a plurality of pixels for capturing an image,
A second imaging unit having a plurality of pixels for capturing an image,
A processing unit that processes the first image captured by the first imaging unit and the second image captured by the second imaging unit to obtain distance information of the subject,
Base line length B (unit: m), focal length F (unit: mm), and pixel pitch p (unit: mm) of the first imaging unit and the second imaging unit are:
B × F / p> 700
An imaging device that satisfies the following relationship.
前記第一撮像部及び前記第二撮像部はさらに、前記第一画像に写し出される700mの距離の被写体である第一被写体と前記第二画像に写し出される前記第一被写体との視差が3画素以上であるように構成される
請求項1に記載の撮像装置。
The first imaging unit and the second imaging unit may further have a parallax between the first subject, which is a subject at a distance of 700 m, projected on the first image, and the first subject, projected on the second image, is 3 pixels or more. The imaging device according to claim 1, wherein:
前記撮像装置が搭載される飛行体の位置及び姿勢を、前記距離情報を用いて取得する演算部をさらに備え、
前記演算部は、目標地点に対する前記飛行体の位置及び姿勢を取得する
請求項1または2に記載の撮像装置。
The image processing apparatus further includes a calculation unit that obtains the position and attitude of the flying object on which the imaging device is mounted using the distance information,
The imaging device according to claim 1, wherein the calculation unit acquires a position and a posture of the flying object with respect to a target point.
前記距離情報を用いて物体を検出する第一検出部をさらに備え、
前記第一検出部はさらに、検出された前記物体の位置情報を、前記距離情報を用いて取得する
請求項1〜3のいずれか一項に記載の撮像装置。
Further comprising a first detection unit for detecting an object using the distance information,
The imaging device according to any one of claims 1 to 3, wherein the first detection unit further obtains position information of the detected object using the distance information.
前記第一撮像部及び前記第二撮像部の視野内で移動する移動体を、前記距離情報を用いて検出する第二検出部をさらに備え、
前記第二検出部はさらに、検出された前記移動体の位置情報を、前記距離情報を用いて取得する
請求項1〜4のいずれか一項に記載の撮像装置。
The moving body moving within the field of view of the first imaging unit and the second imaging unit, further comprising a second detection unit that detects using the distance information,
The imaging device according to any one of claims 1 to 4, wherein the second detection unit further acquires position information of the detected moving body using the distance information.
JP2018186009A 2018-09-28 2018-09-28 Imaging device Withdrawn JP2020056627A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018186009A JP2020056627A (en) 2018-09-28 2018-09-28 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018186009A JP2020056627A (en) 2018-09-28 2018-09-28 Imaging device

Publications (1)

Publication Number Publication Date
JP2020056627A true JP2020056627A (en) 2020-04-09

Family

ID=70107033

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018186009A Withdrawn JP2020056627A (en) 2018-09-28 2018-09-28 Imaging device

Country Status (1)

Country Link
JP (1) JP2020056627A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100174A (en) * 2009-11-03 2011-05-19 Tokyo Institute Of Technology Apparatus and method for detecting vehicle on lane
WO2017138049A1 (en) * 2016-02-10 2017-08-17 パナソニックIpマネジメント株式会社 Flying body and control system therefor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011100174A (en) * 2009-11-03 2011-05-19 Tokyo Institute Of Technology Apparatus and method for detecting vehicle on lane
WO2017138049A1 (en) * 2016-02-10 2017-08-17 パナソニックIpマネジメント株式会社 Flying body and control system therefor

Similar Documents

Publication Publication Date Title
US20210012520A1 (en) Distance measuring method and device
US10891500B2 (en) Method and apparatus for acquiring traffic sign information
CN111436216B (en) Method and system for color point cloud generation
CA3027921C (en) Integrated sensor calibration in natural scenes
US20180108150A1 (en) Systems and methods for in-field stereocamera calibration
CN109470158B (en) Image processing device and distance measuring device
CN106960454B (en) Depth of field obstacle avoidance method and equipment and unmanned aerial vehicle
WO2017080108A1 (en) Flying device, flying control system and method
CN111670419A (en) Active supplemental exposure settings for autonomous navigation
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
WO2018227576A1 (en) Method and system for detecting ground shape, method for drone landing, and drone
JP2016085602A (en) Sensor information integrating method, and apparatus for implementing the same
CN114761997A (en) Target detection method, terminal device and medium
US11509813B2 (en) Image processing device
CN114812558A (en) Monocular vision unmanned aerial vehicle autonomous positioning method combined with laser ranging
JP2018009918A (en) Self-position detection device, moving body device, and self-position detection method
JP7437930B2 (en) Mobile objects and imaging systems
JP2020056627A (en) Imaging device
CN111684784B (en) Image processing method and device
JPWO2018235256A1 (en) Stereo measuring device and system
JP6861592B2 (en) Data thinning device, surveying device, surveying system and data thinning method
JP5409451B2 (en) 3D change detector
JP7317684B2 (en) Mobile object, information processing device, and imaging system
CN110892354A (en) Image processing method and unmanned aerial vehicle
JP7448029B2 (en) Processing equipment, processing system, processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20220708