JP2024053855A - Stereo adapter, stereo camera and stereo camera system - Google Patents

Stereo adapter, stereo camera and stereo camera system Download PDF

Info

Publication number
JP2024053855A
JP2024053855A JP2022160317A JP2022160317A JP2024053855A JP 2024053855 A JP2024053855 A JP 2024053855A JP 2022160317 A JP2022160317 A JP 2022160317A JP 2022160317 A JP2022160317 A JP 2022160317A JP 2024053855 A JP2024053855 A JP 2024053855A
Authority
JP
Japan
Prior art keywords
light ray
region
conversion unit
light
angle conversion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022160317A
Other languages
Japanese (ja)
Inventor
和良 山崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022160317A priority Critical patent/JP2024053855A/en
Priority to PCT/JP2023/033928 priority patent/WO2024075515A1/en
Publication of JP2024053855A publication Critical patent/JP2024053855A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/04Prisms
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/56Accessories
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B30/00Camera modules comprising integrated lens units and imaging units, specially adapted for being embedded in other devices, e.g. mobile phones or vehicles
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Optical Distance (AREA)
  • Optical Elements Other Than Lenses (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Accessories Of Cameras (AREA)

Abstract

【課題】ステレオカメラの小型化を図ることを課題とする。【解決手段】対象物から伝搬した光線の角度を変更するプリズムP10及びプリズムP20、を有し、対象物から伝搬した光線Lは、プリズムP10とプリズムP20との内部を伝搬し、プリズムP10とプリズムP20は、光軸方向に距離dを有して配置されていることを特徴とする。さらに、プリズムP10は、内側に光線Lを屈折させ、プリズムP20は、外側に光線Lを屈折される。また、プリズムP10の屈折率は、プリズムP20の屈折率より大きい。【選択図】図1[Problem] The problem is to miniaturize a stereo camera. [Solution] The present invention is characterized in that it has prisms P10 and P20 that change the angle of a light ray propagating from an object, and the light ray L propagating from the object propagates inside the prisms P10 and P20, and the prisms P10 and P20 are arranged at a distance d in the optical axis direction. Furthermore, the prism P10 refracts the light ray L inward, and the prism P20 refracts the light ray L outward. Also, the refractive index of the prism P10 is greater than that of the prism P20. [Selected Figure] Figure 1

Description

本発明は、ステレオアダプタ、ステレオカメラ及びステレオカメラシステムに関する。 The present invention relates to a stereo adapter, a stereo camera, and a stereo camera system.

3次元的に物体を認識するための装置として、ステレオ画像処理装置(以下、ステレオカメラと呼ぶ)が知られている。ステレオカメラは、異なる位置に配置した複数のカメラの画像の写り方の違いを利用して、三角法に基づき複数の画像間の視差を検出する。そして、ステレオカメラは、その視差を用いて物体の奥行きや位置を検出するものである。ステレオカメラを用いることにより、対象物の位置を正確に検出することができる。 A stereo image processing device (hereafter referred to as a stereo camera) is known as a device for recognizing objects three-dimensionally. A stereo camera uses the differences in how images are captured by multiple cameras placed in different positions to detect the parallax between multiple images based on trigonometry. The stereo camera then uses this parallax to detect the depth and position of an object. By using a stereo camera, the position of an object can be detected accurately.

一方で、ステレオカメラはレンズやセンサを搭載したカメラモジュールを2つ用いる必要があるため、小型化やコストの課題がある。このような課題に対して、特許文献1、特許文献2、特許文献3が提案されている。 On the other hand, stereo cameras require the use of two camera modules equipped with lenses and sensors, which poses issues in terms of miniaturization and cost. To address these issues, Patent Documents 1, 2, and 3 have been proposed.

特許文献1には、従来と比べて少ない部品数で構成できる距離測定装置を提供する、という課題に対して、「プリズム、レンズ、撮像素子を備える。プリズムには、被写体からの光が異なる2方向から入射する。また、プリズムは、異なる2方向から入射した第1光及び第2光をそれぞれレンズに送る。レンズは、プリズムから送られる第1光及び第2光を、撮像素子の撮像面に結像させる。撮像面は、この撮像面を等分した領域として、隣り合う右側領域と左側領域を含む。そして、右側領域には、レンズから送られる第1光が結像され、左側領域には、レンズから送られる第2光が結像される。撮像素子は、第1光が結像された右側画像、及び第2光が結像された左側画像を制御部に送る。制御部は、撮像素子から送られる右側画像及び左側画像に基づいて、被写体と当該距離測定装置との間の距離を測定する」距離測定装置が開示されている(要約参照)。 In response to the problem of providing a distance measuring device that can be constructed with fewer parts than conventional devices, Patent Document 1 discloses a distance measuring device that "includes a prism, a lens, and an image sensor. Light from a subject enters the prism from two different directions. The prism sends the first light and second light that enter from the two different directions to the lens. The lens focuses the first light and second light sent from the prism on the imaging surface of the image sensor. The imaging surface includes adjacent right and left regions that are equal divisions of the imaging surface. The first light sent from the lens is focused on the right region, and the second light sent from the lens is focused on the left region. The image sensor sends to a control unit a right image formed by the first light, and a left image formed by the second light. The control unit measures the distance between the subject and the distance measuring device based on the right and left images sent from the image sensor" (see abstract).

また、特許文献2には、プリズムに起因する画質劣化及び擬似立体情報を解消し、プリズム式ステレオアダプタの本来の利点を生かした小型軽量安価で高画質なステレオアダプタ立体撮像を行なう、という課題に対して、「多眼式ステレオ画像を撮影するための撮像装置において、撮像光学系101により結像された被写体像を光電変換して被写体画像信号を得るカラー撮像素子105と、撮像光学系101の前段に配置され、視差に応じた異なる位置で被写体からの光を受光して、撮像素子105の異なる領域に導くためのプリズム式ステレオアダプタ200と、被写体画像信号に対しプリズム式ステレオアダプタに起因して生じる被写体画像信号の複数の色成分毎の像位置のずれに対応して、各色成分毎に相対的な像位置ずらしを与えることによって色収差の補正を行なう色収差補正回路とを備えた」撮像装置及び立体画像撮影方法が開示されている(要約参照)。 In addition, Patent Document 2 discloses an imaging device and a stereoscopic imaging method for capturing stereoscopic images using a stereo adapter that is small, lightweight, inexpensive, and of high image quality, eliminating the degradation in image quality and pseudo-stereoscopic information caused by prisms and taking advantage of the inherent advantages of a prism-type stereo adapter (see abstract), which is "an imaging device for capturing multi-eye stereoscopic images, which includes a color imaging element 105 that photoelectrically converts the subject image formed by the imaging optical system 101 to obtain a subject image signal, a prism-type stereo adapter 200 that is placed in front of the imaging optical system 101 and receives light from the subject at different positions according to the parallax and directs it to different areas of the imaging element 105, and a chromatic aberration correction circuit that corrects chromatic aberration by shifting the image position of each color component relative to the subject image signal in response to the shift in image position of each of the multiple color components of the subject image signal caused by the prism-type stereo adapter" to address the issue of capturing stereoscopic images using a small, lightweight, inexpensive, and high image quality stereoscopic image by taking advantage of the inherent advantages of a prism-type stereo adapter.

さらに、特許文献3には、1台のカメラで3次元の撮影を可能とする、立体映像撮影用光学部品及びそれを用いた立体映像撮影装置に関する。特に、頂角固定である鏃型複合色消しプリズムからなる立体映像撮影用光学部品と、かかる光学部品を備えたスチルカメラ、内視鏡等の3次元の映像を立体で撮影する装置に関する、という課題に対し、「固定された頂角の稜線が垂直画角を基準に計算されたr1の円弧で、かつ、谷側も半径r2の前記円弧と同心円である円弧をもつ鏃型複合色消しプリズムの頂角を被写体側に向けて先端に備え、明るさ絞りと近接してスリット絞りを設けた立体映像撮影用光学レンズとそれを用いた」立体映像撮影用光学部品及びそれを用いた立体映像撮影装置が開示されている(要約参照)。 Furthermore, Patent Document 3 relates to an optical component for stereoscopic imaging that enables three-dimensional imaging with a single camera, and a stereoscopic imaging device using the same. In particular, in response to the issue of an optical component for stereoscopic imaging consisting of an arrowhead-shaped composite achromatic prism with a fixed apex angle, and a device for stereoscopically capturing three-dimensional images, such as a still camera equipped with such an optical component, an endoscope, etc., which is equipped with such an optical component, the optical component discloses an optical lens for stereoscopic imaging that is equipped with a slit aperture close to the aperture stop and that uses the same, and the optical lens is equipped with the same (see abstract).

特開2020-91154号公報JP 2020-91154 A 特開2003-47028号公報JP 2003-47028 A 特開2000-193883号公報JP 2000-193883 A

特許文献1に記載の技術は、小型化、低コスト化を実現するためにプリズムを用いることで、1つのレンズと撮像素子のみでステレオカメラを実現している。一方で、プリズムを用いるとプリズムを透過した光の色が分離されるため、これが視差に影響する。 The technology described in Patent Document 1 uses a prism to achieve compactness and low cost, and realizes a stereo camera with only one lens and image sensor. However, when a prism is used, the colors of the light that passes through the prism are separated, which affects parallax.

これに対し、特許文献2、特許文献3に記載の技術では、2つのプリズムを用いることで色収差を抑制している。また、特許文献1、特許文献2、特許文献3には、ステレオカメラを小型化できることが記載されている。しかしながら、この技術で小型ステレオカメラを実現するためには以下の重大な課題がある。つまり、ステレオカメラは、2つの視点の画像を検出するが、この2つの視点間の距離(以降、基線長と呼ぶ)が大きい程、高精度な検出が可能となる。そして、基線長が大きくなると、遠方の検出も可能となる。しかしながら特許文献1、特許文献2、特許文献3に記載の技術の場合、基線長を大きくするには、プリズムとレンズ間距離を大きくしなければならなく、それに伴いステレオカメラが大きくなってしまう課題がある。この課題については、特許文献1、特許文献2、特許文献3には記載されておらず、当然ながらその解決法に関する内容も記載されていない。 In contrast, the technology described in Patent Documents 2 and 3 uses two prisms to suppress chromatic aberration. Patent Documents 1, 2, and 3 also state that the stereo camera can be made smaller. However, there are serious problems to be solved in order to realize a small stereo camera using this technology. That is, the stereo camera detects images from two viewpoints, and the greater the distance between these two viewpoints (hereinafter referred to as the baseline length), the higher the detection accuracy becomes. And, as the baseline length increases, detection at a greater distance becomes possible. However, in the case of the technology described in Patent Documents 1, 2, and 3, in order to increase the baseline length, the distance between the prism and the lens must be increased, which leads to a problem that the stereo camera becomes larger. This problem is not described in Patent Documents 1, 2, and 3, and naturally, there is no description of a solution to this problem.

このような背景に鑑みて本発明がなされたのであり、本発明は、ステレオカメラの測距精度向上を図ることを課題とする。 The present invention was made in light of this background, and aims to improve the distance measurement accuracy of stereo cameras.

前記した課題を解決するため、本発明は、対象物から伝搬した光線の角度を変更する第1の光線角度変換部及び第2の光線角度変換部、を有し、対象物から伝搬した前記光線は、前記第1の光線角度変換部と前記第2の光線角度変換部の内部を伝搬し、前記第1の光線角度変換部と前記第2の光線角度変換部は、光軸に対し所定距離を有して配置されていることを特徴とする。
その他の解決手段は実施形態中において適宜記載する。
In order to solve the above-mentioned problems, the present invention is characterized in that it has a first ray angle conversion unit and a second ray angle conversion unit that change the angle of a ray propagating from an object, the ray propagating from the object propagates inside the first ray angle conversion unit and the second ray angle conversion unit, and the first ray angle conversion unit and the second ray angle conversion unit are arranged at a predetermined distance from the optical axis.
Other solutions will be described in the embodiments as appropriate.

本発明によれば、ステレオカメラの測距精度向上を図ることができる。 The present invention can improve the distance measurement accuracy of a stereo camera.

第1実施形態に係るステレオカメラの光学系の構成図である。FIG. 2 is a configuration diagram of an optical system of the stereo camera according to the first embodiment. 比較例におけるステレオカメラの光学系の構成図である。FIG. 11 is a configuration diagram of an optical system of a stereo camera in a comparative example. 比較例におけるステレオカメラで人を検出した場合のセンサ面上の像のイメージを示す図である。13 is a diagram showing an image of an image on a sensor plane when a person is detected by a stereo camera in a comparative example. FIG. 本実施形態によるカメラモジュール入射角とステレオカメラ入射角との関係を示す図である。11 is a diagram showing the relationship between the camera module incidence angle and the stereo camera incidence angle according to the present embodiment. FIG. 比較例によるカメラモジュール入射角とステレオカメラ入射角との関係を示す図である。11 is a diagram showing the relationship between the camera module incidence angle and the stereo camera incidence angle according to the comparative example. FIG. 第1実施形態で示される構成によって光の分散を示す図である。FIG. 4 is a diagram showing dispersion of light by the configuration shown in the first embodiment. 比較例の構成によって得られる光の分散を示す図である。FIG. 13 is a diagram showing the dispersion of light obtained by a configuration of a comparative example. モジュール距離と基線長との関係を示す図である。FIG. 13 is a diagram showing the relationship between module distance and base line length. ステレオカメラ入射角に対する基線長を示す図である。FIG. 13 is a diagram showing a baseline length relative to a stereo camera incident angle. ステレオカメラシステムの構成を示す図である。FIG. 1 is a diagram illustrating a configuration of a stereo camera system. ステレオ視差画像生成部の詳細な構成を示す図である。FIG. 2 is a diagram illustrating a detailed configuration of a stereo parallax image generating unit. 画像処理装置のハードウェア構成を示す図である。FIG. 1 is a diagram illustrating a hardware configuration of an image processing device. 第1実施形態に係るステレオカメラの変形例を示す図である。FIG. 11 is a diagram showing a modified example of the stereo camera according to the first embodiment. センサの配置例を示す図(その1)である。FIG. 1 is a diagram showing an example of sensor arrangement (part 1). センサの配置例を示す図(その2)である。FIG. 2 is a diagram showing an example of sensor arrangement (part 2). センサの配置例を示す図(その3)である。FIG. 3 is a diagram showing an example of sensor arrangement (part 3). 比較例のプリズムの屈折率を大きくした場合における光路図である。FIG. 11 is a light path diagram in a comparative example in which the refractive index of a prism is increased. 比較例のプリズムの屈折率を大きくした構成においてセンサに結像する像の例を示す図である。13A and 13B are diagrams showing examples of images formed on a sensor in a comparative example in which the refractive index of a prism is increased; 本実施形態によるステレオカメラの光路図である。FIG. 2 is a diagram showing optical paths of a stereo camera according to the present embodiment. 本実施形態の構成によってセンサに結像する像の例を示す図である。5A and 5B are diagrams illustrating examples of images formed on a sensor by the configuration of this embodiment. 第2実施形態に係るステレオカメラの光学系の構成図である。FIG. 11 is a diagram illustrating the configuration of an optical system of a stereo camera according to a second embodiment. 第2実施形態に係るステレオカメラの変形例を示す図である。FIG. 13 is a diagram showing a modified example of the stereo camera according to the second embodiment. 第3実施形態に係るステレオカメラの光学系の構成図である。FIG. 11 is a configuration diagram of an optical system of a stereo camera according to a third embodiment. 第3実施形態係るステレオカメラの別の例を示す図である。FIG. 13 is a diagram illustrating another example of the stereo camera according to the third embodiment.

以下、添付図面を参照して本実施形態について説明する。添付図面では、機能的に同じ要素は同じ番号で表示される場合もある。なお、添付図面は本開示の原理に則った実施形態を示しているが、これらは本開示の理解のためのものであり、決して本開示を限定的に解釈するために用いられるものではない。本明細書の記述は典型的な例示に過ぎず、本開示の特許請求の範囲又は適用例を如何なる意味においても限定するものではない。 Hereinafter, the present embodiment will be described with reference to the attached drawings. In the attached drawings, functionally identical elements may be indicated by the same numbers. Note that the attached drawings show an embodiment according to the principles of the present disclosure, but these are for the purpose of understanding the present disclosure and are in no way used to interpret the present disclosure in a restrictive manner. The descriptions in this specification are merely typical examples and do not limit the scope or application examples of the present disclosure in any sense.

本実施形態では、当業者が本開示を実施するのに十分詳細にその説明がなされているが、他の形態も可能である。そして、本開示の技術的思想の範囲と精神を逸脱することなく構成・構造の変更や多様な要素の置き換えが可能であることを理解する必要がある。従って、以降の記述をこれに限定して解釈してはならない。 In this embodiment, the disclosure has been described in sufficient detail for a person skilled in the art to implement the disclosure, but other embodiments are possible. It should be understood that configuration and structure can be changed and various elements can be replaced without departing from the scope and spirit of the technical ideas of the disclosure. Therefore, the following description should not be interpreted as being limited to this.

[第1実施形態]
図1は、第1実施形態に係るステレオカメラ1の光学系の構成図である。
ステレオカメラ1は、レンズ11及びセンサ12から構成されるカメラモジュール10と、プリズムP10及びプリズムP20によって構成されるステレオアダプタ13と、を有する。なお、本実施形態において、センサ12とは撮像素子を示す。なお、平面Tについては後記する。また、α10,α20,β10,β20についても後記する。
[First embodiment]
FIG. 1 is a diagram showing the configuration of an optical system of a stereo camera 1 according to the first embodiment.
The stereo camera 1 includes a camera module 10 including a lens 11 and a sensor 12, and a stereo adapter 13 including a prism P10 and a prism P20. In this embodiment, the sensor 12 refers to an image sensor. The plane T will be described later. α10, α20, β10, and β20 will also be described later.

[比較例]
ここで、まず比較例の課題について図2を参照して説明する。
図2は、比較例として、特許文献1に記載されているステレオカメラ1zの光学系の構成図である。
本構成は、プリズムP10及びプリズムP20を透過した光による像を結像する集光部であるレンズ11、結像した像を検出する受光部であるセンサ12に加えて1つのプリズムP0を用いることが特徴である。なお、図2のプリズムP0の向きが特許文献1に示されている図とは逆向きとなっているが、結果は同じである。撮影対象物(以下、対象物と称する:不図示)から伝搬した光線L00~光線L02、光線L10~光線L12は、プリズムP0の面S000、面S010、面S011のそれぞれで屈折する。その後、光線L00~L02、光線L10~L12は、レンズ11とセンサ12から構成されるカメラモジュール10に入射する。なお、本実施形態では、光線L00~L02,L10~L12を、まとめて光線Lと適宜称する。このとき、例えば光線L00と光線L10のように、同じ方向から向かう光線Lは、面S000→面S010と、面S000→面S011とでそれぞれ屈折した2つの光となる。そして、2つの光のそれぞれは、カメラモジュール10に対して異なる入射角で入射する。ちなみに、符号N1はレンズ11の光軸である。
[Comparative Example]
First, the problem in the comparative example will be described with reference to FIG.
FIG. 2 is a diagram showing the configuration of an optical system of a stereo camera 1z described in Patent Document 1 as a comparative example.
This configuration is characterized by using one prism P0 in addition to the lens 11, which is a light collecting unit that forms an image by the light transmitted through the prism P10 and the prism P20, and the sensor 12, which is a light receiving unit that detects the formed image. Note that the orientation of the prism P0 in FIG. 2 is opposite to that shown in the figure of Patent Document 1, but the result is the same. The light rays L00 to L02 and the light rays L10 to L12 propagated from the photographing object (hereinafter referred to as the object: not shown) are refracted at the surfaces S000, S010, and S011 of the prism P0. Thereafter, the light rays L00 to L02 and the light rays L10 to L12 are incident on the camera module 10 composed of the lens 11 and the sensor 12. Note that in this embodiment, the light rays L00 to L02 and L10 to L12 are collectively referred to as the light rays L as appropriate. At this time, for example, light ray L00 and light ray L10 traveling in the same direction are refracted at surface S000→surface S010 and surface S000→surface S011, respectively, to become two beams of light. Then, each of the two beams of light is incident on the camera module 10 at a different angle of incidence. Incidentally, reference symbol N1 denotes the optical axis of the lens 11.

図2では、カメラモジュール10に入射する光線Lのうち、プリズムP0に向かう光線Lを延長した線が一点鎖線で示されている。つまり、プリズムP0に入射する光線Lをそのまま延長した線が一点鎖線で示されている。そして、一点鎖線の略交わる点が仮想視点VP1、仮想視点VP2として定義されるものとする。この仮想視点VP1、仮想視点VP2は実効的なカメラモジュール10の位置を示している。つまり、仮想視点VP1、仮想視点VP2は、プリズムP0を使用しないステレオカメラにおいて、2つのカメラモジュール10が設置される場所である。図2に示す構成では、光線LはプリズムP0の面S000及び面S010と、面S010及び面S011で屈折する。屈折した光線Lがカメラモジュール10に入射する。そのため、カメラモジュール10では、仮想視点VP1と仮想視点VP2から、それぞれ検出していることと同様となる。つまり、カメラモジュール10のセンサ12では、仮想視点VP1と仮想視点VP2とで検出されるイメージが検出される。厳密には仮想視点VP1、仮想視点VP2は、プリズムP0を用いないステレオカメラ1における、カメラモジュール10のレンズ11の瞳位置相当となる。本構成(図2に示す構成)のステレオカメラ1zは、仮想視点VP1と仮想視点VP2の間隔が基線長Bとなる。なお、平面Tについては後記する。なお、図2のα20,β20については後記する。 In FIG. 2, the light ray L incident on the camera module 10, which is directed toward the prism P0, is shown by a dashed line. In other words, the light ray L incident on the prism P0 is shown by a dashed line. The approximate intersection of the dashed line is defined as the virtual viewpoint VP1 and the virtual viewpoint VP2. The virtual viewpoint VP1 and the virtual viewpoint VP2 indicate the effective position of the camera module 10. In other words, the virtual viewpoint VP1 and the virtual viewpoint VP2 are the locations where the two camera modules 10 are installed in a stereo camera that does not use the prism P0. In the configuration shown in FIG. 2, the light ray L is refracted at the surfaces S000 and S010 of the prism P0, and at the surfaces S010 and S011. The refracted light ray L is incident on the camera module 10. Therefore, in the camera module 10, it is the same as detecting the light from the virtual viewpoint VP1 and the virtual viewpoint VP2, respectively. That is, the sensor 12 of the camera module 10 detects images detected at the virtual viewpoints VP1 and VP2. Strictly speaking, the virtual viewpoints VP1 and VP2 correspond to the pupil positions of the lens 11 of the camera module 10 in a stereo camera 1 that does not use the prism P0. In the stereo camera 1z of this configuration (the configuration shown in FIG. 2), the distance between the virtual viewpoints VP1 and VP2 is the base length B. The plane T will be described later. The α20 and β20 in FIG. 2 will be described later.

図3は、図2に示すステレオカメラ1zで人を検出した場合のセンサ面上の像のイメージを示す図である。
ここでは、図2の光線L00、光線L10に相当する人からの光線Lが検出されていると仮定する。この場合、センサ面上には、仮想視点VP1、仮想視点VP2から見た2つのセンサ領域12A、センサ領域12Bにそれぞれ人の像が結像される。なお、センサ領域12A及びセンサ領域12Bは、1つのセンサ12を2つに分けた領域それぞれを示す。センサ領域12Aは第1の受光領域であり、センサ領域12Bは第2の受光領域である。センサ面上に像が結像することで画像が検出される。次にセンサ12で検出した画像に対して、歪補正や輝度補正等のキャリブレーション処理が行われる。そして、その画像をセンサ領域12A、センサ領域12Bで検出されている2つの画像に分け、2つの画像の視差を検出することで、対象物までの距離を測定することができる。次に、比較例の2つの課題について説明する。
FIG. 3 is a diagram showing an image on the sensor plane when a person is detected by the stereo camera 1z shown in FIG.
Here, it is assumed that light rays L from a person corresponding to light rays L00 and L10 in FIG. 2 are detected. In this case, on the sensor surface, images of a person are formed in two sensor areas 12A and 12B as viewed from virtual viewpoints VP1 and VP2. The sensor area 12A and the sensor area 12B respectively indicate areas obtained by dividing one sensor 12 into two. The sensor area 12A is a first light receiving area, and the sensor area 12B is a second light receiving area. An image is detected by forming an image on the sensor surface. Next, a calibration process such as distortion correction and brightness correction is performed on the image detected by the sensor 12. Then, the image is divided into two images detected by the sensor area 12A and the sensor area 12B, and the distance to the object can be measured by detecting the parallax between the two images. Next, two problems of the comparative example will be described.

1つ目の課題は、光の分散の影響である。プリズムP0に用いられている硝材は波長(色)ごとに異なる屈折率のため、入射した光線Lは、色に応じて異なる角度で出射する。そして、異なる角度でレンズ11に入射した光は色に応じてセンサ12面上の異なる位置に入射する。ここで、プリズムP0の面S000及び面S010と、面S000及び面S011とにおける光線Lの屈折方向が略反対のため、2つの画像の色が分離する方向が異なる。例えば、青色の場合、他の色に比べ、プリズムP0による屈折が大きいため、2つの画像の青色成分は、センサ12中央側に入射する。これは、視差が小さく検出されることになる。それに対し、赤色の場合、他の色に比べ、プリズムP0による屈折が小さいため、2つの画像の赤色成分は、センサ12の比較的外側に入射する。これは、視差が大きく検出されることになる。このような現象を、本実施形態では、光の分散と称する。つまり、同じ対象物までの距離にも関わらず、色によって異なる測距結果が出力される。これが1つ目の課題である。対象物の色に応じて、測距結果を変えるのは非常に複雑な処理となるため、簡素な構成で対応することが求められている。これに対して、特許文献2,3では、互いに接している屈折率の異なる2つのプリズムを用いることで、光の分散の影響を抑制している。 The first problem is the effect of light dispersion. Since the glass material used in the prism P0 has a different refractive index for each wavelength (color), the incident light ray L is emitted at a different angle depending on the color. Then, the light incident on the lens 11 at different angles is incident on different positions on the sensor 12 surface depending on the color. Here, the refraction direction of the light ray L on the surfaces S000 and S010 of the prism P0 and the surfaces S000 and S011 are approximately opposite, so the directions in which the colors of the two images are separated are different. For example, in the case of blue, the refraction by the prism P0 is larger than that of other colors, so the blue components of the two images are incident on the center side of the sensor 12. This results in a small parallax being detected. On the other hand, in the case of red, the refraction by the prism P0 is smaller than that of other colors, so the red components of the two images are incident on the relatively outer side of the sensor 12. This results in a large parallax being detected. In this embodiment, such a phenomenon is called light dispersion. In other words, even if the distance to the same object is the same, different distance measurement results are output depending on the color. This is the first issue. Changing the distance measurement results depending on the color of the target object requires very complicated processing, so there is a need to address this with a simple configuration. In response to this, Patent Documents 2 and 3 use two prisms with different refractive indices that are in contact with each other to suppress the effects of light dispersion.

2つ目の課題は、測距の高精度化である。ステレオカメラ1zでは、焦点距離、基線長B、センサ画素ピッチに依存して測距精度が決まる。この測距精度が高ければ高いほど遠方まで検出できる。そのため、測距の遠距離化にも影響する。特許文献1、特許文献2、特許文献3に記載されている技術で測距の高精度化を実現するためには、基線長Bの課題がある。特許文献1、特許文献2、特許文献3に記載されている技術で基線長Bを大きくするためには、ステレオカメラ1zのサイズを大きくしなければならない。図2の場合に、仮想視点VP1と仮想視点VP2の間隔である基線長Bを大きくするためには、カメラモジュール10とプリズムP0の間隔Dを大きくする必要がある。しかしながら、これに伴い、ステレオカメラ1zのサイズが大きくなってしまう課題がある。この課題については、特許文献1、特許文献2、特許文献3には記載されておらず、当然ながらその解決法に関する内容も記載されていない。 The second issue is to improve the accuracy of distance measurement. In the stereo camera 1z, the accuracy of distance measurement is determined depending on the focal length, the baseline length B, and the sensor pixel pitch. The higher the accuracy of distance measurement, the farther the object can be detected. Therefore, it also affects the distance measurement. In order to achieve high accuracy of distance measurement using the technology described in Patent Document 1, Patent Document 2, and Patent Document 3, there is an issue of the baseline length B. In order to increase the baseline length B using the technology described in Patent Document 1, Patent Document 2, and Patent Document 3, the size of the stereo camera 1z must be increased. In the case of FIG. 2, in order to increase the baseline length B, which is the distance between the virtual viewpoint VP1 and the virtual viewpoint VP2, it is necessary to increase the distance D between the camera module 10 and the prism P0. However, there is an issue that the size of the stereo camera 1z increases accordingly. This issue is not described in Patent Document 1, Patent Document 2, and Patent Document 3, and naturally there is no description of a solution to this issue.

これに対して、図1に示す第1実施形態のステレオカメラ1は、光の分散の影響及び基線長の課題を解決することができる。このことを、図1を参照しつつ、以下で詳細に説明する。なお、カメラモジュール10の構成は図2と同様であるため、同一の符号を付して説明を省略する。 In contrast, the stereo camera 1 of the first embodiment shown in FIG. 1 can solve the problems of the effects of light dispersion and the baseline length. This will be described in detail below with reference to FIG. 1. Note that the configuration of the camera module 10 is the same as that in FIG. 2, so the same reference numerals are used and the description will be omitted.

図1に示すように、ステレオカメラ1は、プリズムP10、プリズムP20から構成されており、2つのプリズムP10,P20の間隔が前後方向に、所定距離である距離dだけ離れていることが特徴である。なお、本実施形態では、光線Lの入射側を前段とし、センサ12の側を後段とする。つまり、プリズムP10及びプリズムP20は、光軸N1に対し距離dを有して、直列に配置されている。なお、プリズムP10は、対象物から伝搬した光線Lの角度を変更する第1の光線角度変換部であり、第1のプリズムである。また、プリズムP20は、対象物から伝搬した光線Lの角度を変更する第2の光線角度変換部であり、プリズムP10とは異なるプリズムである第2のプリズムである。本実施形態において、光線Lの角度とは、光軸N1と光線Lの進行方向がなす角度である。また、本実施形態において、単に「角度」と記載されている場合、角度とは、光軸N1と光線Lの進行方向がなす角度である。 As shown in FIG. 1, the stereo camera 1 is composed of a prism P10 and a prism P20, and is characterized in that the two prisms P10 and P20 are spaced apart from each other by a predetermined distance d in the front-rear direction. In this embodiment, the incident side of the light ray L is the front stage, and the side of the sensor 12 is the rear stage. In other words, the prisms P10 and P20 are arranged in series with a distance d from the optical axis N1. The prism P10 is a first light ray angle conversion unit that changes the angle of the light ray L propagated from the object, and is the first prism. The prism P20 is a second light ray angle conversion unit that changes the angle of the light ray L propagated from the object, and is a second prism that is different from the prism P10. In this embodiment, the angle of the light ray L is the angle between the optical axis N1 and the traveling direction of the light ray L. Also, in this embodiment, when the term "angle" is used, the angle is the angle between the optical axis N1 and the traveling direction of the light ray L.

プリズムP10は、面S110、面S111、面S100を有する。面S100は、面S110と対向する面S100aと、面S111と対向する面S100bとに分けることができる。面S110と面S100aとで第1の領域が構成され、面S111と面S100bとで第2の領域が構成される。 Prism P10 has surfaces S110, S111, and S100. Surface S100 can be divided into surface S100a, which faces surface S110, and surface S100b, which faces surface S111. Surfaces S110 and S100a form a first region, and surfaces S111 and S100b form a second region.

プリズムP20は、面S210、面S211、面S200を有する。面S200は、面S210と対向する面S200aと、面S211と対向する面S200bとに分けることができる。面S210と面S200aとで第3の領域が構成され、面S211と面S200bとで第4の領域が構成される。 Prism P20 has surfaces S210, S211, and S200. Surface S200 can be divided into surface S200a that faces surface S210, and surface S200b that faces surface S211. Surfaces S210 and S200a form a third region, and surfaces S211 and S200b form a fourth region.

対象物から伝搬した光線L00~L02は、プリズムP10の面S110→面S100a→プリズムP20の面S200a→面S210のそれぞれで屈折する。同様に、光線L10~L12は、プリズムP10の面S111→面S100b→プリズムP20の面S200b→面S211のそれぞれで屈折する。その後、光線L00~L02、光線L10~L12は、レンズ11とセンサ12から構成されるカメラモジュール10に入射する。このように、対象物から伝搬した光線Lは、プリズムP10とプリズムP20の内部を伝搬する。 Light rays L00 to L02 propagating from the object are refracted at surface S110 of prism P10, then surface S100a, then surface S200a of prism P20, then surface S210. Similarly, light rays L10 to L12 are refracted at surface S111 of prism P10, then surface S100b, then surface S200b of prism P20, then surface S211. After that, light rays L00 to L02 and light rays L10 to L12 are incident on camera module 10, which is composed of lens 11 and sensor 12. In this way, light ray L propagating from the object propagates inside prism P10 and prism P20.

このとき、例えば光線L00と光線L10のように、同じ方向から照射される光線Lが面S110→面S100a→面S200a→面S210、及び、面S111→面S100b→面S200b→面S211をそれぞれ屈折する。そして、光線L00及び光線L10のように同じ方向からの光線Lは、カメラモジュール10に対して異なる入射角で入射する。 At this time, light rays L irradiated from the same direction, such as light rays L00 and L10, are refracted from surface S110 to surface S100a to surface S200a to surface S210, and from surface S111 to surface S100b to surface S200b to surface S211. Light rays L irradiated from the same direction, such as light rays L00 and L10, are incident on the camera module 10 at different angles of incidence.

ここで、図2と同様にカメラモジュール10に入射する光線Lのうち、プリズムP10に向かう光線Lを延長した線が一点鎖線で示されている。そして、一点鎖線の略交わる点が仮想視点VP1、仮想視点VP2として定義される。この仮想視点VP1、仮想視点VP2は実効的なカメラモジュール10の位置を示している。前記したように、仮想視点VP1、仮想視点VP2のそれぞれは、プリズムを使用しないステレオカメラにおける2つのカメラモジュールが配置される位置である。これは、光線Lは複数の面を屈折した後、カメラモジュール10に入射するため、センサ12で検出される画像は、仮想視点VP1と仮想視点VP2とにおいて、それぞれ検出されるであろう画像が検出される。 Here, as in FIG. 2, of the light rays L incident on the camera module 10, the light rays L directed toward the prism P10 are extended and shown by dashed lines. The approximate intersection points of the dashed lines are defined as virtual viewpoints VP1 and VP2. These virtual viewpoints VP1 and VP2 indicate the effective positions of the camera module 10. As described above, each of the virtual viewpoints VP1 and VP2 is the position where two camera modules are located in a stereo camera that does not use a prism. This is because the light rays L are refracted by multiple surfaces before entering the camera module 10, and therefore the images detected by the sensor 12 are the images that would be detected at the virtual viewpoints VP1 and VP2, respectively.

上述したように、第1実施形態に示すステレオカメラ1の特徴は2つのプリズムP10,P20が光軸N1に対し直列に配置されている。さらに、2つのプリズムP10,P20の間隔が、前後方向に距離dだけ離れている。このような構成により、プリズムを用いないステレオカメラと比較して、カメラモジュール10を1つにすることができるため、ステレオカメラ1の部品点数を少なくすることができる。従って、ステレオカメラ1の小型化、かつ、低コスト化が可能となる。 As described above, the stereo camera 1 shown in the first embodiment is characterized in that the two prisms P10, P20 are arranged in series with respect to the optical axis N1. Furthermore, the two prisms P10, P20 are spaced apart in the front-to-rear direction by a distance d. With this configuration, compared to a stereo camera that does not use prisms, the camera module 10 can be reduced to one, and the number of parts in the stereo camera 1 can be reduced. This makes it possible to reduce the size and cost of the stereo camera 1.

また、この2つのプリズムP10,P20は、それぞれ屈折率、屈折角が異なっている。この2つのプリズムP10,P20には、大きく2つの効果がある。1つ目の効果は、光の分散補償である。これについては特許文献2、特許文献3と同様の効果である。2つのプリズムP10,P20の屈折率と屈折角を最適化することで、光の分散の影響を小さくすることができる。なお、屈折角とは、プリズムP10,P20に入射した光線Lと、出射した光線Lとがなす角度であり、プリズムP10,P20において変更された光線Lの角度である。 The two prisms P10 and P20 have different refractive indices and refraction angles. The two prisms P10 and P20 have two major effects. The first effect is dispersion compensation of light. This effect is the same as that of Patent Documents 2 and 3. By optimizing the refractive indices and refraction angles of the two prisms P10 and P20, the effect of dispersion of light can be reduced. The refraction angle is the angle between the light ray L incident on the prisms P10 and P20 and the light ray L emitted from them, and is the angle of the light ray L changed in the prisms P10 and P20.

2つ目の効果は、測距の高精度化である。第1実施形態に示すステレオカメラ1では、測定対象物からの光線LがプリズムP10を用いて大きく屈折する。つまり、プリズムP10の屈折率は、図2に示すプリズムP0より大きい。また、プリズムP10では、面S110及び面S100aと、面S111及び面S100bとを屈折した光が交わる方向に、プリズムP10に入射した光を屈折させる。同様に、プリズムP20では、面S210及び面S200aと、面S211及び面S200bとを屈折した光が交わる方向に、プリズムP20に入射した光を屈折させる。この結果、図1に示す構成においてもセンサ12には図3に示すような画像が表示される。 The second effect is the improvement of the accuracy of distance measurement. In the stereo camera 1 shown in the first embodiment, the light ray L from the measurement object is largely refracted by the prism P10. In other words, the refractive index of the prism P10 is larger than that of the prism P0 shown in FIG. 2. In addition, the prism P10 refracts the light incident on the prism P10 in the direction where the light refracted by the surfaces S110 and S100a and the surfaces S111 and S100b intersect. Similarly, the prism P20 refracts the light incident on the prism P20 in the direction where the light refracted by the surfaces S210 and S200a and the surfaces S211 and S200b intersect. As a result, even in the configuration shown in FIG. 1, the sensor 12 displays an image as shown in FIG. 3.

つまり、図1に示すように、プリズムP10の面S110及び面S100aと、面S111及び面S100bとにおいて、入射する光線Lの角度を変更する方向は略反対である。さらに、プリズムP20の面S210及び面S200aと、面S211及び面S200bとにおいて、入射する光線Lの角度を変更する方向は略反対である。 In other words, as shown in FIG. 1, the direction in which the angle of the incident light ray L is changed is substantially opposite between the surfaces S110 and S100a of the prism P10 and between the surfaces S111 and S100b. Furthermore, the direction in which the angle of the incident light ray L is changed is substantially opposite between the surfaces S210 and S200a of the prism P20 and between the surfaces S211 and S200b.

そして、その光線Lは、プリズムP20によってプリズムP10と反対方向に屈折する。つまり、プリズムP10と、プリズムP20とでは、互いに逆方向に光が屈折する。つまり、プリズムP10の面S110及び面S100aに入射した光線Lと、プリズムP20の面S200a及び面S210に入射した光線Lとは、逆方向に角度が変更される。同様に、プリズムP10の面S111及び面S100bに入射した光線Lと、プリズムP20の面S200b及び面S211に入射した光線Lとは、逆方向に角度が変更される。なお、図1においてプリズムP10,P20は断面を示しており、光軸N1に関して線対称となっている(実際には、プリズムP10,P20は光軸N1に対して線対称の形状を有している)。図2以降の図面でも同様である。 Then, the light ray L is refracted by the prism P20 in the opposite direction to the prism P10. That is, the light is refracted in the opposite directions between the prism P10 and the prism P20. That is, the angle of the light ray L incident on the surface S110 and the surface S100a of the prism P10 and the light ray L incident on the surface S200a and the surface S210 of the prism P20 is changed in the opposite direction. Similarly, the angle of the light ray L incident on the surface S111 and the surface S100b of the prism P10 and the light ray L incident on the surface S200b and the surface S211 of the prism P20 is changed in the opposite direction. Note that in FIG. 1, the prisms P10 and P20 are shown in cross section and are line-symmetrical with respect to the optical axis N1 (in reality, the prisms P10 and P20 have a shape line-symmetrical with respect to the optical axis N1). The same is true in the figures from FIG. 2 onwards.

さらに、プリズムP10では、入射した光線Lが光軸N1の方向に向かうよう角度が変換され、プリズムP20では、入射した光線LがプリズムP10とは、逆方向に光線Lが向かうよう角度が変換される。 Furthermore, in prism P10, the angle of the incident light ray L is changed so that it is directed in the direction of optical axis N1, and in prism P20, the angle of the incident light ray L is changed so that it is directed in the opposite direction to prism P10.

また、プリズムP10の面S110,S100a、及び、プリズムP20の面S200a,S210を透過した光線Lは、レンズ11によりセンサ12のセンサ領域12A(図3参照)に入射する。同様に、プリズムP10の面S100b,S111、及び、面S200b,S211を透過した光線Lは、レンズ11によりセンサ12のセンサ領域12B(図3参照)に入射する。 In addition, light ray L transmitted through surfaces S110, S100a of prism P10 and surfaces S200a, S210 of prism P20 is incident on sensor area 12A of sensor 12 (see FIG. 3) by lens 11. Similarly, light ray L transmitted through surfaces S100b, S111 and surfaces S200b, S211 of prism P10 is incident on sensor area 12B of sensor 12 (see FIG. 3) by lens 11.

このような構成とすることにより、2つのプリズムP10とプリズムP20との距離dを大きくすることなく仮想視点VP1と仮想視点VP2の間隔の基線長Bを大きくすることができる。つまり、図1と図2とを比較すると明らかなようにステレオカメラ1は、プリズムP10の屈折率を大きくする。このようにすることで、比較例に比べて、仮想視点VP1と、仮想視点VP2との間の距離(すなわち、基線長B)を大きくすることができる。なお、単に図2の構成でプリズムP0の屈折率を大きくしただけでは、センサ12で取得される画像のうち、測距に使用できる画像が減ってしまう。この課題については、図12~図15を参照して後記する。 By using this configuration, it is possible to increase the baseline length B between the virtual viewpoints VP1 and VP2 without increasing the distance d between the two prisms P10 and P20. In other words, as is clear from a comparison between FIG. 1 and FIG. 2, the stereo camera 1 increases the refractive index of the prism P10. In this way, it is possible to increase the distance between the virtual viewpoints VP1 and VP2 (i.e., the baseline length B) compared to the comparative example. However, simply increasing the refractive index of the prism P0 in the configuration of FIG. 2 would result in fewer images captured by the sensor 12 that can be used for distance measurement. This issue will be discussed later with reference to FIG. 12 to FIG. 15.

なお、第1実施形態に使用されている2つのプリズムP10,P20は、屈折率、プリズム角度ともにプリズムP10の方がプリズムP20よりも大きい。このような構成とすることで、上述した効果を得ることができる。なお、プリズムP20を設ける利点については後記する。また、プリズムP20をカメラモジュール10に近づけることも可能である。例えば、プリズムP20をレンズ11と組み合わせることもできる。これにより、プリズムの材料費低減及び小型化を実現することができる。 Note that of the two prisms P10 and P20 used in the first embodiment, prism P10 has a larger refractive index and prism angle than prism P20. This configuration can provide the above-mentioned effects. The advantages of providing prism P20 will be described later. It is also possible to place prism P20 closer to camera module 10. For example, prism P20 can be combined with lens 11. This can reduce the material cost of the prism and make it smaller.

図4A及び図4Bは、図1と図2に示した構成によるカメラモジュール入射角とステレオカメラ入射角との関係を示す図である。
図4Aは、本実施形態によるカメラモジュール入射角とステレオカメラ入射角とを示している。また、図4Bは図2に示す比較例の構成によるカメラモジュール入射角とステレオカメラ入射角とを示している。図4A及び図4Bにおいて、横軸はカメラモジュール10に対する光線Lの入射角であるカメラモジュール入射角を示し、縦軸はステレオカメラ1,1zに対する入射角であるステレオカメラ入射角を示している。ステレオカメラ入射角とは、プリズムP10の面S110,S111に入射する光線Lの角度である。そして、ステレオカメラ入射角は、光軸N1に対して垂直な平面T(図1及び図2参照)への光線Lの入射角を示している。なお、ここではカメラモジュール入射角幅が略40度のカメラモジュール10を用いており、左右それぞれについて±20度の入射角幅を有するステレオカメラ1,1zを構成することを制約条件とした。
4A and 4B are diagrams showing the relationship between the camera module incidence angle and the stereo camera incidence angle in the configurations shown in FIGS.
FIG. 4A shows the camera module incidence angle and the stereo camera incidence angle according to this embodiment. FIG. 4B shows the camera module incidence angle and the stereo camera incidence angle according to the configuration of the comparative example shown in FIG. 2. In FIG. 4A and FIG. 4B, the horizontal axis shows the camera module incidence angle, which is the incidence angle of the light ray L to the camera module 10, and the vertical axis shows the stereo camera incidence angle, which is the incidence angle to the stereo cameras 1 and 1z. The stereo camera incidence angle is the angle of the light ray L incident on the surfaces S110 and S111 of the prism P10. The stereo camera incidence angle indicates the incidence angle of the light ray L to the plane T (see FIG. 1 and FIG. 2) perpendicular to the optical axis N1. Note that, in this example, the camera module 10 with a camera module incidence angle width of approximately 40 degrees is used, and the constraint is to configure the stereo cameras 1 and 1z with an incidence angle width of ±20 degrees on each of the left and right.

以下に、図4A及び図4Bに示す結果を計測した際のプリズムP0,P10,P20、カメラモジュール10の条件を以下に示す。なお、以下におけるプリズム角度α10,β10,α20,β20は図1に記載されており、プリズム角度α0,β0は図2に記載されている。 The conditions of the prisms P0, P10, and P20 and the camera module 10 when the results shown in Figures 4A and 4B were measured are shown below. Note that the prism angles α10, β10, α20, and β20 below are shown in Figure 1, and the prism angles α0 and β0 are shown in Figure 2.

・プリズムP10,P20,P0
(図4A)図1構成(第1実施形態)
プリズムP10 プリズム角度α10=44度、プリズム角度β10=90度、硝材:BK7
プリズムP20 プリズム角度α20=25、3度、プリズム角度β20=90度、硝材:BaF10
Prisms P10, P20, P0
(FIG. 4A) FIG. 1 configuration (first embodiment)
Prism P10, prism angle α10 = 44 degrees, prism angle β10 = 90 degrees, glass material: BK7
Prism P20: Prism angle α20 = 25.3 degrees, Prism angle β20 = 90 degrees, Glass material: BaF10

(図4B)図2構成(特許文献1)
プリズムP0 プリズム角度α0=18度、プリズム角度β0=90度、硝材:BK7
(FIG. 4B) FIG. 2 configuration (Patent Document 1)
Prism P0 Prism angle α0 = 18 degrees, prism angle β0 = 90 degrees, glass material: BK7

・カメラモジュール10(図4A、図4B共通)
レンズ11 焦点距離6.0mm、中心射影
センサ12 画素ピッチ2.25μm
Camera module 10 (common to FIGS. 4A and 4B )
Lens 11: focal length 6.0 mm, central projection Sensor 12: pixel pitch 2.25 μm

なお、プリズム角度α10は、プリズムP10を構成する傾斜部(面S110,S111,S100)のうち、光軸N1に対する傾斜が最も小さい傾斜部(面S110,S111)の角度である。また、図1のプリズム角度α21は、90度-α20である。そしてプリズム角度α21は、プリズムP20を構成する傾斜部(面S210,S211,S200)のうち、光軸N1に対する傾斜が最も小さい傾斜部(面S210,S211)のプリズム角度である。このように、プリズム角度α10はプリズム角度α21よりも小さい。これによって、前記したように、プリズムP20の屈折率よりもプリズムP10の屈折率が大きくなる。プリズムP20の屈折率よりもプリズムP10の屈折率が大きくすることにより、プリズムP10で光軸N1の側に屈折した光線LがプリズムP20で散乱することなくカメラモジュール10に入射する。 The prism angle α10 is the angle of the inclined portion (surfaces S110, S111, S100) that constitutes the prism P10, which has the smallest inclination with respect to the optical axis N1. The prism angle α21 in FIG. 1 is 90 degrees minus α20. The prism angle α21 is the prism angle of the inclined portion (surfaces S210, S211, S200) that constitutes the prism P20, which has the smallest inclination with respect to the optical axis N1. Thus, the prism angle α10 is smaller than the prism angle α21. As a result, as described above, the refractive index of the prism P10 is greater than that of the prism P20. By making the refractive index of the prism P10 greater than that of the prism P20, the light ray L refracted by the prism P10 toward the optical axis N1 enters the camera module 10 without being scattered by the prism P20.

なお、カメラモジュール入射角0度は、センサ12の中央に相当する。また、カメラモジュール入射角-20度から0度は、図3に示すセンサ領域12Aに相当する。さらに、カメラモジュール入射角0度から+20度は、図3に示すセンサ領域12Bに相当する。 The camera module incidence angle of 0 degrees corresponds to the center of the sensor 12. The camera module incidence angle of -20 degrees to 0 degrees corresponds to the sensor area 12A shown in FIG. 3. The camera module incidence angle of 0 degrees to +20 degrees corresponds to the sensor area 12B shown in FIG. 3.

図4Bでは、カメラモジュール入射角が-20度から0度、0度から+20度でステレオカメラ入射角が、おおよそ-10度から+10度となっていることがわかる。このため、カメラモジュール入射角が-20度から0度の画像と0度から+20度の画像をステレオ処理することで、視差の検出が可能であることがわかる。また、図4Aでは、カメラモジュール入射角が-17度から0度、0度から+17度でステレオカメラ入射角が、おおよそ-10度から+10度となっていることがわかる。このため、カメラモジュール入射角が-17度から0度の画像と0度から+17度の画像をステレオ処理することで、視差の検出が可能であることがわかる。 In FIG. 4B, it can be seen that the camera module incidence angles are -20 degrees to 0 degrees and 0 degrees to +20 degrees, and the stereo camera incidence angles are approximately -10 degrees to +10 degrees. Therefore, it can be seen that parallax can be detected by stereo processing images with camera module incidence angles of -20 degrees to 0 degrees and images with 0 degrees to +20 degrees. Also, in FIG. 4A, it can be seen that the camera module incidence angles are -17 degrees to 0 degrees and 0 degrees to +17 degrees, and the stereo camera incidence angles are approximately -10 degrees to +10 degrees. Therefore, it can be seen that parallax can be detected by stereo processing images with camera module incidence angles of -17 degrees to 0 degrees and images with 0 degrees to +17 degrees.

次に、図5A及び図5Bを参照して光の分散に対する影響について説明する。
図5Aは第1実施形態で示される構成によって光の分散を示す図である。また、図5Bは図2で示される比較例の構成によって得られる光の分散を示す図である。ここで、横軸はカメラモジュール入射角、縦軸は青色(435.8nm)と赤色(656.3nm)でのセンサ入射位置の違い、を示している。青色と赤色のセンサ入射位置の違いとは、青色に関するセンサ12への入射位置(センサ入射位置)と、赤色に関するセンサ12への入射位置の差である。この値が大きければ大きいほど、光の分散度が大きいことを示している。なお、図5A、図5Bの結果を得る際におけるプリズムP0,P10,P20、及び、カメラモジュール10の構成は図4A、図4Bと同様である。
Next, the effect on light dispersion will be described with reference to Figures 5A and 5B.
FIG. 5A is a diagram showing the dispersion of light by the configuration shown in the first embodiment. FIG. 5B is a diagram showing the dispersion of light obtained by the configuration of the comparative example shown in FIG. 2. Here, the horizontal axis shows the camera module incident angle, and the vertical axis shows the difference in the sensor incident position between blue (435.8 nm) and red (656.3 nm). The difference in the sensor incident position between blue and red is the difference between the incident position (sensor incident position) on the sensor 12 for blue and the incident position on the sensor 12 for red. The larger this value is, the greater the degree of dispersion of light is. Note that the configurations of the prisms P0, P10, and P20 and the camera module 10 when obtaining the results of FIG. 5A and FIG. 5B are the same as those of FIG. 4A and FIG. 4B.

比較例の結果である図5Bでは、カメラモジュール入射角について、-20度から0度と、0度から+20度とでセンサ入射位置の違いが反転していることがわかる。これは、上述したようにプリズムP0の面S000→面S010と、面S000→面S011とで入射する光線Lの屈折方向が略反対のため、2つの画像の色が分離する方向が異なるためである。このため、比較例の構成では、同じ対象物であるにもかかわらず色によって異なる測距結果が出力される。図5Bに示される結果では、カメラモジュール入射角が-20度から0度、0度から+20度でセンサ入射位置の違いは±10画素となっている。つまり、カメラモジュール入射角が-20度から0度の場合と、0度から+20度の場合について、20画素の差が生じている。これにより、例えば、青色の対象物を検出した場合と赤色の対象物を検出した場合とで、左右20画素の視差の違いが発生する。通常のステレオカメラは、1画素以下の精度で視差を検出する。このため、20画素の視差の違いは大きな測距誤差を発生する。なお、通常のステレオカメラとは、プリズムが用いられていないステレオカメラである。 In FIG. 5B, which shows the results of the comparative example, it can be seen that the difference in the sensor incident position is reversed for the camera module incident angle from -20 degrees to 0 degrees and from 0 degrees to +20 degrees. This is because, as described above, the refraction direction of the light ray L incident on the surface S000 → surface S010 of the prism P0 and the surface S000 → surface S011 are approximately opposite, so the directions in which the colors of the two images are separated are different. For this reason, in the configuration of the comparative example, different distance measurement results are output depending on the color even though the object is the same. In the results shown in FIG. 5B, the difference in the sensor incident position is ±10 pixels when the camera module incident angle is from -20 degrees to 0 degrees and from 0 degrees to +20 degrees. In other words, a difference of 20 pixels occurs when the camera module incident angle is from -20 degrees to 0 degrees and when it is from 0 degrees to +20 degrees. As a result, for example, a difference in parallax of 20 pixels occurs between the case where a blue object is detected and the case where a red object is detected. A normal stereo camera detects parallax with an accuracy of one pixel or less. For this reason, a difference in parallax of 20 pixels will cause a large distance measurement error. Note that a normal stereo camera is one that does not use a prism.

それに対し、図5Aに示す本実施形態で示される構成の場合、図5Bに示す比較例の構成の場合に対してセンサ入射位置の違いが小さいことがわかる。また、紙面左右のプロット群のそれぞれにおいて微小に発生しているセンサ入射位置の違いは、カメラモジュール入射角が±10度を中心として略対称(分離方向が一致)となっている。なお、前記したように、カメラモジュール入射角-17度から0度はセンサ領域12Aに該当し、カメラモジュール入射角-0度から+17度はセンサ領域12Bに該当する。つまり、図5A、図5Bの横軸は、センサ領域12Aとセンサ領域12Bの並ぶ方向に対応する。つまり、センサ領域12Aとセンサ領域12Bの並ぶ方向に対して、同一の方向では、赤色と青色を入射したときの分離方向がセンサ領域12Aとセンサ領域12Bとで一致している。ちなみに、図5Aで紙面左側のプロット群はセンサ領域12Aの画像におけるセンサ入射位置の違いを示している。また、紙面右側のプロット群はセンサ領域12Bにおけるセンサ入射位置の違いを示している。 In contrast, in the case of the configuration shown in this embodiment in FIG. 5A, it can be seen that the difference in the sensor incident position is small compared to the configuration of the comparative example shown in FIG. 5B. Also, the minute differences in the sensor incident position occurring in each of the plot groups on the left and right sides of the paper are approximately symmetrical (separation directions are the same) with the camera module incident angle of ±10 degrees as the center. As described above, the camera module incident angle of -17 degrees to 0 degrees corresponds to the sensor area 12A, and the camera module incident angle of -0 degrees to +17 degrees corresponds to the sensor area 12B. That is, the horizontal axis of FIG. 5A and FIG. 5B corresponds to the direction in which the sensor area 12A and the sensor area 12B are lined up. That is, in the same direction with respect to the direction in which the sensor area 12A and the sensor area 12B are lined up, the separation direction when red and blue light are incident is the same for the sensor area 12A and the sensor area 12B. Incidentally, the plot group on the left side of the paper in FIG. 5A shows the difference in the sensor incident position in the image of the sensor area 12A. Also, the plot group on the right side of the paper shows the difference in the sensor incident position in the sensor area 12B.

図4Aを参照して、ステレオカメラ入射角+10度方向の対象物を検出する場合を考える。この場合、画像処理部210(図8参照)は、図4Aの横軸のカメラモジュール入射角について0度と+17度を見ればよい。つまり、図4Aにおいて、ステレオカメラ入射角+10度はカメラモジュール入射角では0度と+17度に対応している。従って、ステレオカメラ入射角+10度の方向から来た光線Lは、カメラモジュール入射角0度及び+17度に対応している画像ということになる。その上で、図5Aを参照すると、カメラモジュール入射角が0度のプロット(2つのプロットのうち、上のプロット)と、+17度のプロットでは、略同じ値となっている。つまり、センサ領域12Aの画像と、センサ領域12Bの画像とにおいて、同じステレオ入射角で入射した光線Lによる画像は、略同じような色の分散を生じている。従って、視差演算を行うにあたって、それぞれのカメラモジュール入射角に対応したセンサ入射位置の違いに応じたキャンセル処理を行うことができる。つまり、図5Aに示すように、センサ12上における2つの画像のセンサ入射位置の違いが同じ方向に発生するため、視差演算によって色の分散をキャンセルすることが可能である。これは、図4Aに示すステレオカメラ入射角が-10度から+10度でも、同じセンサ入射位置の違いの傾向を有している。図4Aに示すステレオカメラ入射角が-10度から+10度は、図5Aの横軸のカメラモジュール入射角について-17度から0度、及び、0度から+17度に相当する。従って、これらのステレオ入射角でも同様の処理によって色の分散のキャンセルが可能である。 With reference to FIG. 4A, consider the case where an object is detected in the direction of a stereo camera incidence angle of +10 degrees. In this case, the image processing unit 210 (see FIG. 8) only needs to look at 0 degrees and +17 degrees for the camera module incidence angle on the horizontal axis of FIG. 4A. That is, in FIG. 4A, the stereo camera incidence angle of +10 degrees corresponds to 0 degrees and +17 degrees in terms of the camera module incidence angle. Therefore, the light ray L coming from the direction of the stereo camera incidence angle of +10 degrees is an image corresponding to the camera module incidence angles of 0 degrees and +17 degrees. Then, with reference to FIG. 5A, the plot with the camera module incidence angle of 0 degrees (the upper plot of the two plots) and the plot with +17 degrees have approximately the same value. In other words, in the image of the sensor area 12A and the image of the sensor area 12B, the images due to the light ray L incident at the same stereo incidence angle have approximately the same color dispersion. Therefore, when performing parallax calculation, cancellation processing can be performed according to the difference in the sensor incidence position corresponding to each camera module incidence angle. That is, as shown in FIG. 5A, the difference in the sensor incident position of the two images on the sensor 12 occurs in the same direction, so it is possible to cancel color dispersion by parallax calculation. This is because the same tendency of difference in the sensor incident position exists even when the stereo camera incident angle shown in FIG. 4A is from -10 degrees to +10 degrees. The stereo camera incident angle shown in FIG. 4A from -10 degrees to +10 degrees corresponds to the camera module incident angle on the horizontal axis of FIG. 5A from -17 degrees to 0 degrees and 0 degrees to +17 degrees. Therefore, color dispersion can be canceled by similar processing even at these stereo incident angles.

これに対し、図5Bに示す比較例の結果によれば、カメラモジュール入射角-20度から0度、0度から+20で値が反転しているため、視差演算における色の分散のキャンセルが困難である。 In contrast, according to the results of the comparative example shown in Figure 5B, the values are inverted when the camera module incidence angle is from -20 degrees to 0 degrees and from 0 degrees to +20 degrees, making it difficult to cancel color dispersion in the parallax calculation.

以上のように、本実施形態の構成によれば、光の分散に対して、波長ごとのセンサ入射位置の違いの絶対値を小さくすることができる。従って、本実施形態によれば、高精度な測距が可能となる。また、本実施形態の構成では、図5Bに示すように、ステレオカメラ入射角に対して、同じ方向にセンサ入射位置の違いを発生することができる。このようにすることで高精度な測距が可能となる。これは、2つの画像のセンサ12上の並ぶ方向と同じ方向に対して、赤色と青色を入射したときの分離方向が2つの画像で一致することを示している。これらは、プリズムP10,P20の屈折率とプリズム角度を最適化することで実現できる。 As described above, the configuration of this embodiment makes it possible to reduce the absolute value of the difference in the sensor incident position for each wavelength with respect to the dispersion of light. Therefore, this embodiment enables highly accurate distance measurement. Furthermore, with the configuration of this embodiment, as shown in FIG. 5B, it is possible to generate differences in the sensor incident position in the same direction with respect to the stereo camera incident angle. In this way, highly accurate distance measurement is possible. This indicates that the separation direction when red and blue light are incident in the same direction as the arrangement direction on the sensor 12 of the two images is the same in the two images. This can be achieved by optimizing the refractive index and prism angle of the prisms P10 and P20.

図6は、第1実施形態の構成(図1の構成)と、図2で示される比較例の構成とにおけるモジュール距離と基線長B(図1、図2参照)との関係を示す図である。
モジュール距離とは、対象物側のプリズム表面からカメラモジュール10までの距離である。
図6において、符号C1は第1実施形態の構成(図1の構成)による結果であり、符号C2は比較例の構成(図2の構成)による結果である。また、図6で、横軸は基線長B、縦軸はモジュール距離、を示している。図6より、比較例(符号C2)は基線長Bが大きくなるに従い、モジュール距離が大きくなる。つまり、基線長Bが大きくなるに従って、ステレオカメラ1が大型化していくことがわかる。それに対して、本実施形態の構成(符号C1)は、基線長Bの変化に対するモジュール距離の変化が、比較例(符号C2)より小さい。つまり、本実施形態は、色の分散を抑えることができるため測距精度の向上が可能となる。
FIG. 6 is a diagram showing the relationship between the module distance and the base line length B (see FIGS. 1 and 2) in the configuration of the first embodiment (the configuration of FIG. 1) and the configuration of the comparative example shown in FIG.
The module distance is the distance from the prism surface on the object side to the camera module 10 .
In Fig. 6, symbol C1 indicates the results for the configuration of the first embodiment (the configuration of Fig. 1), and symbol C2 indicates the results for the configuration of the comparative example (the configuration of Fig. 2). In Fig. 6, the horizontal axis indicates the baseline length B, and the vertical axis indicates the module distance. From Fig. 6, it can be seen that in the comparative example (symbol C2), the module distance increases as the baseline length B increases. In other words, it can be seen that the stereo camera 1 becomes larger as the baseline length B increases. In contrast, in the configuration of this embodiment (symbol C1), the change in module distance relative to the change in baseline length B is smaller than that of the comparative example (symbol C2). In other words, in this embodiment, color dispersion can be suppressed, thereby improving distance measurement accuracy.

第1実施形態の構成(図1のステレオカメラ1)の場合、プリズムP10の屈折角を大きくすることで、比較例(図2のステレオカメラ1z)よりも小型化を実現できる。一方で、プリズムP10の屈折角を大きくするには、プリズムP10における入射面と出射面のプリズム角度を大きくする必要がある。そして、それに伴って、ステレオカメラ入射角によって、プリズムP10に入射した光線Lが仮想視点VP1と仮想視点VP2からずれる特徴がある。このことを、図7を参照して説明する。 In the case of the configuration of the first embodiment (stereo camera 1 in FIG. 1), by increasing the refraction angle of the prism P10, it is possible to achieve a smaller size than the comparative example (stereo camera 1z in FIG. 2). On the other hand, in order to increase the refraction angle of the prism P10, it is necessary to increase the prism angle of the entrance surface and the exit surface of the prism P10. As a result, there is a characteristic that the light ray L incident on the prism P10 is shifted from the virtual viewpoint VP1 and the virtual viewpoint VP2 depending on the stereo camera entrance angle. This will be explained with reference to FIG. 7.

図7は、ステレオカメラ入射角に対する基線長Bを示す図である。
ここで、横軸はステレオカメラ入射角、縦軸は基線長Bを示している。なお、図7は、図1に示すステレオカメラ1による結果が示されており、プリズムP10,P20、カメラモジュール10の構成は図4Aと同様である。図7によれば、ステレオカメラ入射角が0度の基線長Bよりも±10度の基線長Bが大きくなることがわかる。図7によれば、入射角に応じて、基線長が変化したように見える。これに対して、第1実施形態ではステレオカメラ入射角や、センサ12上の対象物の位置に応じて基線長Bを変えて対象物までの距離を計算する。これにより、より正確な測距が可能となる。
FIG. 7 is a diagram showing the base line length B versus the stereo camera incident angle.
Here, the horizontal axis indicates the stereo camera incidence angle, and the vertical axis indicates the base line length B. Note that FIG. 7 shows the results of the stereo camera 1 shown in FIG. 1, and the configurations of the prisms P10, P20, and the camera module 10 are the same as those in FIG. 4A. According to FIG. 7, it can be seen that the base line length B of ±10 degrees is larger than the base line length B when the stereo camera incidence angle is 0 degrees. According to FIG. 7, the base line length appears to change depending on the incidence angle. In contrast, in the first embodiment, the base line length B is changed depending on the stereo camera incidence angle and the position of the object on the sensor 12 to calculate the distance to the object. This allows for more accurate distance measurement.

(ステレオカメラシステムZ)
図8A及び図8Bを参照して、ステレオカメラシステムZの処理方法を説明する。
図8Aは、ステレオカメラシステムZの構成を示す図であり、図8Bは、ステレオ視差画像生成部220の詳細な構成を示す図である。
ステレオカメラシステムZは、ステレオカメラ1、及び、ステレオ画像処理装置である画像処理装置2を備え、カメラモジュール10により得られた画像M0に基づき、周囲の立体物を検知する。
(Stereo Camera System Z)
A processing method of the stereo camera system Z will be described with reference to FIGS. 8A and 8B.
FIG. 8A is a diagram showing the configuration of the stereo camera system Z, and FIG. 8B is a diagram showing the detailed configuration of the stereo parallax image generating unit 220. As shown in FIG.
The stereo camera system Z includes a stereo camera 1 and an image processing device 2 that is a stereo image processing device, and detects surrounding three-dimensional objects based on an image M0 obtained by a camera module 10.

まず、図8Aを参照する。
画像処理装置2は、一例として、画像処理部210、ステレオ視差画像生成部220、ステレオ視立体物検知部230、を備えて構成される。
First, refer to FIG. 8A.
The image processing device 2 is configured to include, for example, an image processing unit 210, a stereo parallax image generating unit 220, and a stereoscopic object detecting unit 230.

画像処理部210は、画像M1及び画像M2に所定の画像処理を適用し、ステレオ視差画像生成部220に供給する。そして、画像処理部210は、画像分離部211、アフィン処理部212a,212b、輝度補正部213a,213b、画素補間部214a,214b、輝度情報生成部215a,215bを備えて構成される。 The image processing unit 210 applies a predetermined image processing to the image M1 and the image M2, and supplies the images to the stereo parallax image generating unit 220. The image processing unit 210 is configured with an image separating unit 211, affine processing units 212a and 212b, luminance correction units 213a and 213b, pixel interpolation units 214a and 214b, and luminance information generating units 215a and 215b.

ステレオカメラ1は、カメラモジュール10内のセンサ12の画像M0を図3のように検出する。そして、画像M0は画像分離部211により仮想視点VP1、仮想視点VP2に応じて、2つの画像M1(第1の検出画像)と画像M2(第2の検出画像)に分離される。例えば、画像M1は図3のセンサ領域12Aで検出される画像であり、画像M2は図3のセンサ領域12Bで検出される画像である。つまり、画像M1は、第1の受光領域(センサ領域12A)の出力信号であり、画像M2は、第2の受光領域(センサ領域12B)の出力信号の出力信号である。 The stereo camera 1 detects an image M0 of the sensor 12 in the camera module 10 as shown in FIG. 3. Then, the image M0 is separated by the image separation unit 211 into two images M1 (first detected image) and M2 (second detected image) according to the virtual viewpoints VP1 and VP2. For example, the image M1 is an image detected by the sensor area 12A in FIG. 3, and the image M2 is an image detected by the sensor area 12B in FIG. 3. In other words, the image M1 is the output signal of the first light receiving area (sensor area 12A), and the image M2 is the output signal of the output signal of the second light receiving area (sensor area 12B).

アフィン処理部212aは、画像M1に対してアフィン処理を適用する。アフィン処理は、例えば線形の座標変換処理であるが、非線形の演算を含むものであってもよい。このアフィン処理を行った結果として、アフィン処理部212aは画像M3(第3の画像)を出力する。同様に、アフィン処理部212bは、画像M2にアフィン処理を適用して画像M4(第4の画像)を出力する。 The affine processing unit 212a applies affine processing to image M1. The affine processing is, for example, a linear coordinate transformation process, but may also include non-linear calculations. As a result of performing this affine processing, the affine processing unit 212a outputs image M3 (third image). Similarly, the affine processing unit 212b applies affine processing to image M2 and outputs image M4 (fourth image).

輝度補正部213aは、画像M3の各画素の輝度を補正する。例えば、画像M3内の各画素のゲインの違い等に基づいて、画像M3における各画素の輝度の補正が行われる。同様に、輝度補正部213bは画像M4における各画素の輝度を補正する。 The luminance correction unit 213a corrects the luminance of each pixel in image M3. For example, the luminance of each pixel in image M3 is corrected based on the difference in gain of each pixel in image M3. Similarly, the luminance correction unit 213b corrects the luminance of each pixel in image M4.

画素補間部214aは、画像M3に対してデモザイキング処理を行う。例えば、RAW画像(Bayer配列の画像)からカラー画像への変換が行われる。同様に、画素補間部214bは、画像M4に対してデモザイキング処理を行う。 The pixel interpolation unit 214a performs demosaicing processing on image M3. For example, a raw image (Bayer array image) is converted into a color image. Similarly, the pixel interpolation unit 214b performs demosaicing processing on image M4.

輝度情報生成部215aは、画像M3の輝度情報を生成する。例えば、輝度情報生成部215aは、カラー画像を表す情報を、視差画像を生成するための輝度情報に変換する。同様に、輝度情報生成部215bは、画像M4の輝度情報を生成する。生成された画像M3,N4は、ステレオ視差画像生成部220に入力される。 The luminance information generating unit 215a generates luminance information for image M3. For example, the luminance information generating unit 215a converts information representing a color image into luminance information for generating a parallax image. Similarly, the luminance information generating unit 215b generates luminance information for image M4. The generated images M3 and N4 are input to the stereo parallax image generating unit 220.

ステレオ視差画像生成部220は得られた画像M3,M4を用いて、ステレオ視差画像を生成する。 The stereo disparity image generating unit 220 generates a stereo disparity image using the obtained images M3 and M4.

ステレオ視差画像生成部220の詳細を図8Bに示す。
図8Bに示すように、ステレオ視差画像生成部220は、露光調整部221、感度調整部222、幾何補正部223、マッチング部224、ノイズ除去部225、画素シフト量演算部226を備える。露光調整部221及び感度調整部222のそれぞれは、カメラモジュール10の露光量、感度等についてのカメラモジュール10へのフィードバック制御を実行する。また、幾何補正部223は、2つの画像M3,M4の幾何補正を行い、マッチング部224は、左右の画像(画像M3,M4)のマッチング処理を行う。また、ノイズ除去部225は、平滑化処理等を用いることでノイズの除去を行い、画素シフト量演算部226は画素シフト量を演算する。
The details of the stereo parallax image generating unit 220 are shown in FIG. 8B.
As shown in FIG. 8B, the stereo parallax image generating unit 220 includes an exposure adjustment unit 221, a sensitivity adjustment unit 222, a geometric correction unit 223, a matching unit 224, a noise removal unit 225, and a pixel shift amount calculation unit 226. Each of the exposure adjustment unit 221 and the sensitivity adjustment unit 222 executes feedback control to the camera module 10 regarding the exposure amount, sensitivity, and the like of the camera module 10. In addition, the geometric correction unit 223 performs geometric correction of the two images M3 and M4, and the matching unit 224 performs matching processing of the left and right images (images M3 and M4). In addition, the noise removal unit 225 removes noise by using a smoothing process or the like, and the pixel shift amount calculation unit 226 calculates the pixel shift amount.

図8Aの説明に戻る。
ステレオ視立体物検知部230は、ステレオ視差画像生成部220で生成されたステレオ視差画像に従い、ステレオ視領域における立体物の検知を行う。このとき、ステレオ視立体物検知部230は、図7に示すように、ステレオカメラ入射角に応じて基線長B(図1参照)を変更する。そして、ステレオ視立体物検知部230は、変更した基線長Bに基づいて立体物の距離を測ることもできる。つまり、また、ステレオ視立体物検知部230は、検知された立体物に対し、ステレオマッチングを適用して視差を検出すると共に、立体物の種別(歩行者、自転車、車両、建物等)を識別する。このようにして、画像処理装置2は、センサ領域12Aとセンサ領域12Bとの出力信号(画像M1,M2)を基に視差を検出する。
Returning to the explanation of FIG. 8A.
The stereoscopic three-dimensional object detection unit 230 detects a three-dimensional object in the stereoscopic region according to the stereoscopic parallax image generated by the stereoscopic parallax image generation unit 220. At this time, the stereoscopic three-dimensional object detection unit 230 changes the base line length B (see FIG. 1) according to the stereoscopic camera incident angle, as shown in FIG. 7. The stereoscopic three-dimensional object detection unit 230 can also measure the distance of the three-dimensional object based on the changed base line length B. In other words, the stereoscopic three-dimensional object detection unit 230 also applies stereo matching to the detected three-dimensional object to detect parallax and identify the type of the three-dimensional object (pedestrian, bicycle, vehicle, building, etc.). In this way, the image processing device 2 detects parallax based on the output signals (images M1 and M2) of the sensor area 12A and the sensor area 12B.

(ハードウェア構成)
図9は、画像処理装置2のハードウェア構成を示す図である。
画像処理装置2は、メモリ21、CPU(Central Processing Unit)や、GPU(Graphic Processing Unit)等で構成される演算装置22を備える。また、画像処理装置2は、HD(Hard Disk)や、SSD(Solid State Drive)等の記憶装置23を備える。さらに、画像処理装置2は、入力装置24、出力装置25、カメラモジュール10と通信を行う通信装置26を備える。
(Hardware configuration)
FIG. 9 is a diagram showing the hardware configuration of the image processing device 2. As shown in FIG.
The image processing device 2 includes a memory 21, and a calculation device 22 including a central processing unit (CPU), a graphic processing unit (GPU), etc. The image processing device 2 also includes a storage device 23 such as a hard disk (HD) or a solid state drive (SSD). The image processing device 2 also includes an input device 24, an output device 25, and a communication device 26 that communicates with the camera module 10.

記憶装置23には、プログラムが格納されており、このプログラムがメモリ21にロードされる。そして、ロードされたプログラムが演算装置22によって実行される。これによって、図8A及び図8Bに示す各部210,211~215b,220,221~226,230が具現化する。 A program is stored in the storage device 23, and this program is loaded into the memory 21. The loaded program is then executed by the calculation device 22. This embodies the units 210, 211 to 215b, 220, 221 to 226, and 230 shown in Figures 8A and 8B.

以上のような光学系、処理方法により、1つのカメラモジュール10と2つのプリズムのみでステレオカメラ1を実現することができる。これにより、小型、低コストという課題を解決することができる。 By using the optical system and processing method described above, the stereo camera 1 can be realized with only one camera module 10 and two prisms. This solves the problem of small size and low cost.

ここで、第1実施形態で示されるステレオカメラ1における距離検出方式は原理的にレンズ11の射影方式には依存しない。例えば、魚眼レンズの射影である正射影(fsinθ)、等距離射影(fθ)、等立体射影(2fsin(θ/2))、立体射影(2ftan(θ/2))であってもよい。なお、fはレンズ11の焦点距離を示し、θはカメラモジュール入射角である。 Here, the distance detection method in the stereo camera 1 shown in the first embodiment does not depend in principle on the projection method of the lens 11. For example, it may be orthogonal projection (f sin θ), equidistant projection (f θ), equistereographic projection (2f sin(θ/2)), or stereoscopic projection (2f tan(θ/2)), which are projections of a fisheye lens. Note that f indicates the focal length of the lens 11, and θ is the angle of incidence on the camera module.

そして、第1実施形態では、図1に示すように、プリズムP10の面S100、プリズムP20の面S200のプリズム角度β10,β20を90度としている。しかし、それには限定されず、どのようなプリズム角度でもよい。
図10は、第1実施形態に係るステレオカメラ1の変形例を示す図である。
例えば、図10のようなプリズムP10A,P20Aが用いられたステレオカメラ1aが構成されてもよい。なお、図10において、ステレオアダプタ13aはプリズムP10A及びプリズムP20Aによって構成されている。この場合、プリズムP10Aは、プリズム領域P10Bと、プリズム領域P10Cとを含むと考えることができる。プリズム領域P10Bは第1の領域であり、面S110及び面S100Bを含む。また、プリズム領域P10Cは第2の領域であり、面S111及び面S100Cを含む。
1, the prism angles β10 and β20 of the surface S100 of the prism P10 and the surface S200 of the prism P20 are set to 90 degrees. However, the present invention is not limited to this and any prism angle may be used.
FIG. 10 is a diagram showing a modified example of the stereo camera 1 according to the first embodiment.
For example, a stereo camera 1a may be configured using prisms P10A and P20A as shown in Fig. 10. In Fig. 10, the stereo adapter 13a is configured by prisms P10A and P20A. In this case, the prism P10A can be considered to include a prism region P10B and a prism region P10C. The prism region P10B is a first region and includes a surface S110 and a surface S100B. The prism region P10C is a second region and includes a surface S111 and a surface S100C.

また、プリズムP20Aは、同様にしてプリズム領域P20Bと、プリズム領域P20Cとを含むと考えることができる。プリズム領域P20Bは第3の領域であり、面S200B及び面S210を含む。また、プリズム領域P20Cは第4の領域であり、面S200C及び面S211を含む。 Similarly, prism P20A can be considered to include prism region P20B and prism region P20C. Prism region P20B is a third region and includes surfaces S200B and S210. Prism region P20C is a fourth region and includes surfaces S200C and S211.

そして、本実施形態では、プリズムP10,P20は、光軸N1に関して線対称となっていると説明したが、これには限定されず、紙面に対して上下で異なるプリズム形状であってもよい。このようにすることで、片側視点の検出方向を意図的にずらすことができる。また、図1のプリズムP10,P20をカメラモジュール10に対して、紙面に対して上下方向にずらしてもよい。つまり、プリズムP10及びプリズムP20は、光軸N1に対して(紙面横方向に)距離dを有している状態で、紙面に対して上下方向にずらした状態で配置されてもよい。このようにすることで、片側視点の検出方向を意図的にずらすことができる。 In this embodiment, the prisms P10 and P20 are described as being line-symmetrical with respect to the optical axis N1, but this is not limited thereto, and the prism shapes may be different above and below the paper. In this way, the detection direction of the one-sided viewpoint can be intentionally shifted. Furthermore, the prisms P10 and P20 in FIG. 1 may be shifted in the vertical direction with respect to the paper with respect to the camera module 10. In other words, the prisms P10 and P20 may be arranged in a state where they are shifted in the vertical direction with respect to the paper, with a distance d from the optical axis N1 (in the horizontal direction of the paper). In this way, the detection direction of the one-sided viewpoint can be intentionally shifted.

図11A~図11Bはセンサ12の配置例を示す図である。
第1実施形態において横長のセンサ12は、横方向が長手方向となるように配置されているが、図11Aのようにセンサ12を縦方向が長手方向となるように配置してもよい。つまり、図11Aに示す例では、センサ12の長手方向が仮想視点VP1と仮想視点VP2の並ぶ方向に対して垂直方向となっている。この場合には、垂直方向(地面に対して垂直方向)のステレオカメラ入射角を広角化できる利点がある。そして、図11Aに示すセンサ12を有するステレオカメラ1を奥行の軸に対して、例えば、図1に示すプリズムP10,P20、レンズ11を90度回転させてもよい。その場合には、図11Bのような画像が得られる。さらに、横方向が長手方向となるよう配置されているセンサ12を有する図1に示すステレオカメラ1で、カメラモジュール10は回転させず、プリズムP10,P20のみを90度回転させることもできる。この場合、図11Cのような画像が得られる。
11A and 11B are diagrams showing examples of the arrangement of the sensor 12. FIG.
In the first embodiment, the horizontally elongated sensor 12 is arranged so that the horizontal direction is the longitudinal direction, but the sensor 12 may be arranged so that the vertical direction is the longitudinal direction as shown in FIG. 11A. That is, in the example shown in FIG. 11A, the longitudinal direction of the sensor 12 is perpendicular to the direction in which the virtual viewpoints VP1 and VP2 are arranged. In this case, there is an advantage that the stereo camera incidence angle in the vertical direction (perpendicular to the ground) can be made wider. In addition, the stereo camera 1 having the sensor 12 shown in FIG. 11A may be rotated, for example, by 90 degrees with respect to the depth axis, with the prisms P10 and P20 and the lens 11 shown in FIG. 1. In that case, an image as shown in FIG. 11B is obtained. Furthermore, in the stereo camera 1 shown in FIG. 1 having the sensor 12 arranged so that the horizontal direction is the longitudinal direction, the camera module 10 is not rotated, and only the prisms P10 and P20 can be rotated by 90 degrees. In this case, an image as shown in FIG. 11C is obtained.

図3及び図11Aの場合には、水平方向(地面に対して水平方向)の視差が検出されるが、図11B、図11Cの場合には、垂直方向の視差を検出することができる。さらに、図11Bは、図11Aと同様、垂直方向のステレオカメラ入射角を広角化できる利点がある。また、図11Cは水平方向のステレオカメラ入射角を広角化できる利点がある。 In the cases of Fig. 3 and Fig. 11A, parallax is detected in the horizontal direction (horizontal with respect to the ground), but in the cases of Fig. 11B and Fig. 11C, parallax in the vertical direction can be detected. Furthermore, Fig. 11B has the advantage that the incidence angle of the stereo camera in the vertical direction can be made wider, just like Fig. 11A. Also, Fig. 11C has the advantage that the incidence angle of the stereo camera in the horizontal direction can be made wider.

ここで、プリズムP20の効果について、図12~図15を参照して補足する。
図12は、比較例のプリズムP10の屈折率を大きくした場合における光路図であり、図13は、図12に示す構成によってセンサ12に結像する像の例を示す図である。
図12に示すステレオカメラ1z1は、特許文献1に記載の構成において、特許文献1で使用されているプリズムP10の屈折率を大きくした例である。なお、プリズムP10の向きが図2に示すプリズムP0と異なるが、結果としては同じものとなる。
なお、図12、及び、後記する図13では、わかりやすさを優先するため光路の屈折を誇張して示している。また、図12及び図13において、図1と同様の構成については同一の符号を付して説明を省略する。
図12において、光軸N1付近からプリズムP10に入射する光線L32は面S110に入射した後、屈折してセンサ領域12Bに到達する。同様に、光軸N1付近からプリズムP10に入射する光線L31は面S111に入射した後、屈折してセンサ領域12Aに到達する。
The effect of the prism P20 will now be further described with reference to FIGS.
FIG. 12 is a diagram showing optical paths when the refractive index of the prism P10 of the comparative example is increased, and FIG. 13 is a diagram showing an example of an image formed on the sensor 12 by the configuration shown in FIG.
The stereo camera 1z1 shown in Fig. 12 is an example in which the refractive index of the prism P10 used in Patent Document 1 is increased in the configuration described in Patent Document 1. Note that the orientation of the prism P10 is different from that of the prism P0 shown in Fig. 2, but the result is the same.
In addition, in Fig. 12 and Fig. 13 described later, the refraction of the optical path is exaggerated for ease of understanding. In Fig. 12 and Fig. 13, the same components as those in Fig. 1 are denoted by the same reference numerals and the description thereof will be omitted.
12, a light ray L32 incident on the prism P10 from near the optical axis N1 is incident on a surface S110, and then refracts to reach the sensor area 12B. Similarly, a light ray L31 incident on the prism P10 from near the optical axis N1 is incident on a surface S111, and then refracts to reach the sensor area 12A.

ところで、面S110に入射した光線L32がプリズムP10で屈折しないとすると、光線L32は破線で示す光路を通り、仮想視点VP1に到達する。同様に、面S111に入射した光線L31がプリズムP10で屈折しないとすると、光線L31は破線で示す光路を通り、仮想視点VP2に到達する。仮想視点VP1で仮想的に検出される光線L32は、センサ領域12Aで検出されるのが望ましい。同様に、仮想視点VP2で仮想的に検出される光線L31は、センサ領域12Bで検出されるのが望ましい。 If light ray L32 incident on surface S110 is not refracted by prism P10, light ray L32 will travel along the optical path shown by the dashed line and reach virtual viewpoint VP1. Similarly, if light ray L31 incident on surface S111 is not refracted by prism P10, light ray L31 will travel along the optical path shown by the dashed line and reach virtual viewpoint VP2. It is desirable that light ray L32 virtually detected at virtual viewpoint VP1 be detected by sensor area 12A. Similarly, it is desirable that light ray L31 virtually detected at virtual viewpoint VP2 be detected by sensor area 12B.

しかしながら、図12に示す構成では、面S110に入射した光線L32はセンサ領域12Bに到達し、面S111に入射した光線L31はセンサ領域12Aに到達する。図13のドットで示す領域121は、このように、面S110に入射した後、センサ領域12Bに到達したり、面S111に入射した後、センサ領域12Aに到達したりした光による画像領域である。 However, in the configuration shown in FIG. 12, light ray L32 incident on surface S110 reaches sensor area 12B, and light ray L31 incident on surface S111 reaches sensor area 12A. The area 121 indicated by dots in FIG. 13 is an image area formed by light that thus reaches sensor area 12B after incident on surface S110, or reaches sensor area 12A after incident on surface S111.

図13の領域121のセンサ12の面上の像のイメージは物体の位置検出に使用することができない。従って、単にプリズムP10の屈折率を大きくしただけでは、センサ12の面上の像のイメージのうち、物体の位置検出に使用できる範囲が狭くなってしまう。 The image of the image on the surface of the sensor 12 in region 121 in Figure 13 cannot be used to detect the position of an object. Therefore, simply increasing the refractive index of the prism P10 narrows the range of the image on the surface of the sensor 12 that can be used to detect the position of an object.

図14は、図1に示す本実施形態によるステレオカメラ1の光路図であり、図15は、図12に示す構成によってセンサ12に結像する像の例を示す図である。
図14に示すステレオカメラ1では、プリズムP10とは逆方向に光が屈折するプリズムP20が、プリズムP10の後段に設けられている。このようにすることで、面S110に入射した光線L32は、プリズムP20による屈折によりセンサ領域12Aに到達する。同様に、面S111に入射した光線L31は、プリズムP20による屈折によりセンサ領域12Bに到達する。これにより、図15に示すセンサ12の面上の像のイメージのように、図13における領域121が検出されることを防ぐことができる。従って、図14に示す構成によれば、図12に示す構成よりも、物体の位置検出に使用できる像の範囲を広げることができる。
FIG. 14 is a diagram showing optical paths of the stereo camera 1 according to the present embodiment shown in FIG. 1, and FIG. 15 is a diagram showing an example of an image formed on the sensor 12 by the configuration shown in FIG.
In the stereo camera 1 shown in FIG. 14, a prism P20 that refracts light in the opposite direction to the prism P10 is provided behind the prism P10. In this way, the light ray L32 incident on the surface S110 reaches the sensor area 12A by refraction by the prism P20. Similarly, the light ray L31 incident on the surface S111 reaches the sensor area 12B by refraction by the prism P20. This makes it possible to prevent the area 121 in FIG. 13 from being detected, as in the image on the surface of the sensor 12 shown in FIG. 15. Therefore, according to the configuration shown in FIG. 14, the range of images that can be used to detect the position of an object can be expanded more than the configuration shown in FIG. 12.

また、本実施形態によればプリズムP10とプリズムP20とを光軸N1の方向に距離dだけ直列に離間させていることにより、色分散を抑えることができ、測距精度向上を図ることができる。 In addition, according to this embodiment, prisms P10 and P20 are spaced apart in series by a distance d in the direction of optical axis N1, which makes it possible to suppress chromatic dispersion and improve distance measurement accuracy.

[第2実施形態]
図16は、第2実施形態に係るステレオカメラ1bの光学系の構成図である。
図16のように、図10に示すプリズムP10Aを空間的に2つに分離したプリズムP10D,P10Eを備えるステレオカメラ1bとしても、第1実施形態と同様の効果が得られる。なお、図16において、ステレオアダプタ13bはプリズムP10D,P10E及びプリズムP20Aによって構成されている。図16に示すプリズムP10Dは面S110と面S100Bとを含み、プリズムP10Eは面S111と面S100Cとを含む。図16において、面S110及び面S100Bを含むプリズムP10Dは第1の領域である。そして、面S111及び面100Cを含むプリズムP10Eは第2の領域である。そして、プリズムP10DとプリズムP10Eとは空間的に分離している。
[Second embodiment]
FIG. 16 is a diagram showing the configuration of an optical system of a stereo camera 1b according to the second embodiment.
As shown in Fig. 16, the stereo camera 1b includes prisms P10D and P10E, which are obtained by spatially separating the prism P10A shown in Fig. 10 into two prisms, and the same effect as that of the first embodiment can be obtained. In Fig. 16, the stereo adapter 13b is composed of the prisms P10D, P10E, and the prism P20A. The prism P10D shown in Fig. 16 includes the surface S110 and the surface S100B, and the prism P10E includes the surface S111 and the surface S100C. In Fig. 16, the prism P10D including the surface S110 and the surface S100B is the first region. And the prism P10E including the surface S111 and the surface S100C is the second region. And the prism P10D and the prism P10E are spatially separated.

このようにすることで光線Lの透過する領域のみをプリズムP10D,P10EとすることができるためプリズムP10D,P10Eの大型化を防ぐことができる。つまり、図16に示すようなプリズムP10D,P10Eが用いられることにより、センサ12における画像の検出に寄与しない光線Lが通る箇所に相当するプリズム部分を削除することができる。センサ12における画像の検出に寄与しない光線Lが通る箇所とは、光軸N1近傍を通る光線Lである。これにより、コストの増大、ステレオカメラサイズの拡大を避けることができる。換言すれば、図1と同様、ステレオカメラサイズの拡大を防止しつつ、不要なプリズム部分を削除するため、コストを低減することができる。 By doing this, only the area through which the light ray L passes can be the prisms P10D and P10E, preventing the prisms P10D and P10E from becoming larger. In other words, by using the prisms P10D and P10E as shown in FIG. 16, it is possible to eliminate the prism portion corresponding to the portion through which the light ray L that does not contribute to the detection of an image in the sensor 12 passes. The portion through which the light ray L that does not contribute to the detection of an image in the sensor 12 passes is the light ray L that passes near the optical axis N1. This makes it possible to avoid an increase in cost and an increase in the size of the stereo camera. In other words, as in FIG. 1, the unnecessary prism portion is eliminated while preventing the stereo camera size from increasing, thereby reducing costs.

図17は、第2実施形態におけるプリズムP20の別の例を示す図である。
また、図17に示すように図10に示すプリズムP20Aを空間的に2つに分離してもよい。この場合、図17に示すようにプリズムP20D,P20Eが存在することになる。プリズムP20Dは面S200B及び面S210を含み、プリズムP20Eは面S200Cと面S211を含む。図17において、面S200B及び面S210を含むプリズムP20Dは第3の領域であり、面S200C及び面S211を含むプリズムP20Eは第4の領域である。そして、プリズムP20DとプリズムP20Eとは空間的に分離している。図17に示すプリズムP20D,P20Eによれば図16に示すプリズムP10D,P10Eと同様の効果を奏することができる。
FIG. 17 is a diagram showing another example of the prism P20 in the second embodiment.
Also, as shown in FIG. 17, the prism P20A shown in FIG. 10 may be spatially separated into two. In this case, prisms P20D and P20E are present as shown in FIG. 17. The prism P20D includes the surface S200B and the surface S210, and the prism P20E includes the surface S200C and the surface S211. In FIG. 17, the prism P20D including the surface S200B and the surface S210 is the third region, and the prism P20E including the surface S200C and the surface S211 is the fourth region. The prisms P20D and P20E are spatially separated. The prisms P20D and P20E shown in FIG. 17 can achieve the same effect as the prisms P10D and P10E shown in FIG. 16.

なお、図10に示すプリズムP10A及びプリズムP20Aは、どちらか一方が空間的に分離されていればよい。つまり、図16のプリズムP10D,P10Eのセット、及び、図17のプリズムP20D,P20Eのセットのうち、いずれか一方のセットが配置されていればよい。 It is sufficient that either one of the prisms P10A and P20A shown in FIG. 10 is spatially separated. In other words, it is sufficient that either one of the set of prisms P10D and P10E in FIG. 16 and the set of prisms P20D and P20E in FIG. 17 is arranged.

また、図16に示すプリズムP10D,P10Eは図10示すプリズムP10Aを空間的に分離した構成となっている。しかし、これに限らず、例えば、図1に示すプリズムP10を空間的に分離した構成としてもよい。また、図17に示すプリズムP20D,P20Eは図10示すプリズムP20Aを空間的に分離した構成となっている。しかし、これに限らず、例えば、図1に示すプリズムP20を空間的に分離した構成としてもよい。 Furthermore, the prisms P10D and P10E shown in FIG. 16 are configured by spatially separating the prism P10A shown in FIG. 10. However, this is not limited to the above, and for example, the prism P10 shown in FIG. 1 may be configured by spatially separating it. Furthermore, the prisms P20D and P20E shown in FIG. 17 are configured by spatially separating the prism P20A shown in FIG. 10. However, this is not limited to the above, and for example, the prism P20 shown in FIG. 1 may be configured by spatially separating it.

また、プリズムP10とプリズムP20の硝材は限定されない。 Furthermore, the glass material of prisms P10 and P20 is not limited.

[第3実施形態]
図18は、本発明の第3実施形態に係るステレオカメラ1cの光学系の構成図である。図18に示すステレオカメラ1cにおいて、第1実施形態と異なる点は、図1に示すプリズムP10、プリズムP20が分割回折格子G10、分割回折格子G20に置き換わっている点である。その他の構成は図1と同様の構成であるため、図1と同じ符号を付して、説明を省略する。なお、ステレオアダプタ13cは、分割回折格子G10及び分割回折格子G20によって構成されている。分割回折格子G10,G20に入射した光線Lは、分割回折格子G10,G20の内部を透過する。
[Third embodiment]
18 is a diagram showing the configuration of an optical system of a stereo camera 1c according to a third embodiment of the present invention. In the stereo camera 1c shown in FIG. 18, the difference from the first embodiment is that the prism P10 and the prism P20 shown in FIG. 1 are replaced with a split diffraction grating G10 and a split diffraction grating G20. Since the other configurations are the same as those in FIG. 1, the same reference numerals as in FIG. 1 are used and the description is omitted. The stereo adapter 13c is composed of a split diffraction grating G10 and a split diffraction grating G20. The light beam L incident on the split diffraction gratings G10 and G20 passes through the split diffraction gratings G10 and G20.

ステレオカメラ1cは、少なくとも領域R60、領域R61を有する分割回折格子G10、及び、少なくとも領域R70、領域R71を有する回折素子である分割回折格子G20を有している。なお、領域R60が第1の領域に相当し、領域R61が第2の領域に相当する。そして、領域R70が第3の領域に相当し、領域R31が第4の領域に相当する。また、ステレオカメラ1cにおいて、2つの分割回折格子G10,G20の間隔が前後方向に距離dだけ離れていることが特徴である。なお、分割回折格子G10は、領域60及び領域61で、光が回折する回折領域が分割されている。同様に、分割回折格子G20は、領域70及び領域71で、光が回折する回折領域が分割されている。また、分割回折格子G10,G20において白色で示されている箇所は、ガラスや水晶等、光を透過する部材で構成されている。 The stereo camera 1c has a split diffraction grating G10 having at least regions R60 and R61, and a split diffraction grating G20 which is a diffraction element having at least regions R70 and R71. The region R60 corresponds to the first region, the region R61 corresponds to the second region. The region R70 corresponds to the third region, and the region R31 corresponds to the fourth region. The stereo camera 1c is characterized in that the two split diffraction gratings G10 and G20 are spaced apart by a distance d in the front-rear direction. The split diffraction grating G10 has a diffraction region in which light is diffracted divided into regions 60 and 61. Similarly, the split diffraction grating G20 has a diffraction region in which light is diffracted divided into regions 70 and 71. The white parts of the split diffraction gratings G10 and G20 are made of a material that transmits light, such as glass or quartz.

対象物から伝搬した光線L00~L02は、分割回折格子G10の領域R60、分割回折格子G20の領域R70で回折する。その後、光線L00~L02は、レンズ11とセンサ12から構成されるカメラモジュール10に入射する。同様に、対象物から伝搬した光線L10~L12は、分割回折格子G10の領域R61、分割回折格子G20の領域R71で回折する。そして、光線L10~L12は、レンズ11とセンサ12から構成されるカメラモジュール10に入射する。このとき、例えば光線L60と光線L61のように、同じ対象物からの光が領域R60→領域R70、領域R61→領域R71のそれぞれで回折する。その後、回折した光線Lは、カメラモジュール10に対して異なる入射角で入射する。 The light rays L00 to L02 propagating from the object are diffracted in the region R60 of the split diffraction grating G10 and the region R70 of the split diffraction grating G20. The light rays L00 to L02 then enter the camera module 10, which is composed of the lens 11 and the sensor 12. Similarly, the light rays L10 to L12 propagating from the object are diffracted in the region R61 of the split diffraction grating G10 and the region R71 of the split diffraction grating G20. The light rays L10 to L12 then enter the camera module 10, which is composed of the lens 11 and the sensor 12. At this time, for example, the light rays L60 and L61 from the same object are diffracted from the region R60 to the region R70 and from the region R61 to the region R71. The diffracted light rays L then enter the camera module 10 at different angles of incidence.

ここで、領域60は図1に示す面S110,S100aと同様の光学的特徴を示し、領域R61は図1に示す面S111,S100bと同様の光学的特徴を示す。同様に、領域70は図1に示す面S210,S200aと同様の光学的特徴を示し、領域71は図1に示す面S211,S200bと同様の光学的特徴を示す。 Here, region 60 exhibits optical characteristics similar to those of surfaces S110 and S100a shown in FIG. 1, and region R61 exhibits optical characteristics similar to those of surfaces S111 and S100b shown in FIG. 1. Similarly, region 70 exhibits optical characteristics similar to those of surfaces S210 and S200a shown in FIG. 1, and region 71 exhibits optical characteristics similar to those of surfaces S211 and S200b shown in FIG. 1.

ここで、図1同様にカメラモジュール10に入射する光線Lのうち、分割回折格子G10に向かう光線Lについて延長した線が一点鎖線で示されている。そして、一点鎖線の略交わる点が仮想視点VP1、仮想視点VP2として定義されている。この仮想視点VP1、仮想視点VP2は実効的なカメラモジュール10の位置を示している。光線Lが複数の面を回折するため、センサ12で検出される画像は、仮想視点VP1と仮想視点VP2のそれぞれで検出される画像と同様の画像となる。 Here, as in FIG. 1, of the light rays L incident on the camera module 10, the extended lines of the light rays L heading toward the divided diffraction grating G10 are shown as dashed lines. The approximate intersecting points of the dashed lines are defined as virtual viewpoints VP1 and VP2. These virtual viewpoints VP1 and VP2 indicate the effective positions of the camera module 10. Because the light rays L are diffracted by multiple surfaces, the images detected by the sensor 12 are similar to the images detected at the virtual viewpoints VP1 and VP2, respectively.

上述したように、第2実施形態の特徴は2つの分割回折格子G10,G20の間隔が前後に距離dだけ離れていることである。この2つの分割回折格子G10,G20は、分割回折格子G20の回折角度よりも分割回折格子G10の回折角度が大きいことが特徴である。このような構成であれば、第1実施形態と同様の理由により、基線長Bを大きくしても、小型化を実現できる。 As described above, the second embodiment is characterized in that the two split diffraction gratings G10, G20 are spaced apart by a distance d in the front-to-back direction. These two split diffraction gratings G10, G20 are characterized in that the diffraction angle of split diffraction grating G10 is greater than the diffraction angle of split diffraction grating G20. With this configuration, for the same reasons as in the first embodiment, miniaturization can be achieved even if the baseline length B is increased.

図19は、第2実施形態係るステレオカメラ1cの別の例を示す図である。
なお、図18で使用する分割回折格子G10,G20は、ホログラフィック素子のような回折素子であってもよい。また、本実施形態の構成では、1つ目の素子(プリズムP10、分割回折格子G10)で光線Lが中心方向に曲げられる。また、2つ目の素子(プリズムP20、分割回折格子G20)で光線Lは1つ目の素子と反対側に曲げられる。このような構成のため、例えば、図19のように1つ目が分割回折格子G10、2つ目をプリズムP20として構成されるステレオカメラ1dが構成されてもよい。なお、ステレオアダプタ13dは、分割回折格子G10及びプリズムP20によって構成されている。また、図1に示すプリズムP10,P20の面上を格子構造としてもよい。このようにすることで、色による分散を低減できる利点がある。また、第1実施形態と同様に、第2実施形態において、センサ12の配置方向は限定されない。センサ12の長手方向が仮想視点VP1と仮想視点VP2の並ぶ方向であってもよい。あるいは、図11A、図11Bに示すように、センサ12の長手方向が仮想視点VP1と仮想視点VP2の並ぶ方向に対して垂直方向であってもよいし、斜め方向であってもよい。ただし、センサ12に入射する光線Lは、センサ12の撮像面に対して垂直に入射することが必要である。
FIG. 19 is a diagram showing another example of the stereo camera 1c according to the second embodiment.
The split diffraction gratings G10 and G20 used in FIG. 18 may be diffraction elements such as holographic elements. In addition, in the configuration of this embodiment, the first element (prism P10, split diffraction grating G10) bends the light ray L toward the center. In addition, the second element (prism P20, split diffraction grating G20) bends the light ray L to the opposite side of the first element. Due to this configuration, for example, a stereo camera 1d may be configured in which the first element is a split diffraction grating G10 and the second element is a prism P20, as shown in FIG. 19. The stereo adapter 13d is configured by the split diffraction grating G10 and the prism P20. In addition, the surfaces of the prisms P10 and P20 shown in FIG. 1 may be formed into a grating structure. By doing so, there is an advantage that the dispersion due to color can be reduced. In addition, as in the first embodiment, in the second embodiment, the arrangement direction of the sensor 12 is not limited. The longitudinal direction of the sensor 12 may be the direction in which the virtual viewpoint VP1 and the virtual viewpoint VP2 are arranged. 11A and 11B, the longitudinal direction of the sensor 12 may be perpendicular to the direction in which the virtual viewpoints VP1 and VP2 are arranged, or may be oblique to the direction in which the virtual viewpoints VP1 and VP2 are arranged. However, it is necessary that the light ray L incident on the sensor 12 is perpendicular to the imaging surface of the sensor 12.

なお、図19では、図1の構成におけるプリズムP10のみが分割回折格子G10で置き換えられ、図1の構成におけるプリズムP20のみが分割回折格子G20で置き換えられてもよい。つまり、図1の構成におけるプリズムP10及びプリズムP20の少なくとも一方が分割回折格子G10,G20であればよい。 In FIG. 19, only the prism P10 in the configuration of FIG. 1 may be replaced with a split diffraction grating G10, and only the prism P20 in the configuration of FIG. 1 may be replaced with a split diffraction grating G20. In other words, at least one of the prisms P10 and P20 in the configuration of FIG. 1 may be a split diffraction grating G10, G20.

<変形例>
本発明は上記した実施形態に限定されるものではなく、上記以外の様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
<Modification>
The present invention is not limited to the above-described embodiment, and includes various modified examples other than those described above. For example, the above-described embodiment has been described in detail to clearly explain the present invention, and is not necessarily limited to those having all of the configurations described. In addition, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. In addition, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.

本実施形態におけるカメラモジュール10は、どのようなものでもよい。例えば、携帯電話のカメラや、パソコンのカメラ等がカメラモジュール10として用いられてもよい。このような場合、携帯電話のカメラや、パソコンのカメラ等に、例えば、図1のプリズムP10,P20が後付けで備えられればよい。 The camera module 10 in this embodiment may be any type. For example, a mobile phone camera, a computer camera, or the like may be used as the camera module 10. In such a case, for example, the prisms P10 and P20 in FIG. 1 may be added to the mobile phone camera, computer camera, or the like.

また、前記した各構成、機能、各部210,211~215b,220,221~226,230、記憶装置23等は、それらの一部又はすべてを、例えば集積回路で設計すること等によりハードウェアで実現してもよい。また、図9に示すように、前記した各構成、機能等は、CPU等の演算装置22がそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、HDに格納すること以外に、メモリ21や、SSD等の記録装置、又は、IC(Integrated Circuit)カードや、SD(Secure Digital)カード、DVD(Digital Versatile Disc)等の記録媒体に格納することができる。
また、各実施形態において、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には、ほとんどすべての構成が相互に接続されていると考えてよい。
In addition, the above-mentioned configurations, functions, each unit 210, 211 to 215b, 220, 221 to 226, 230, storage device 23, etc. may be realized in hardware by designing some or all of them as an integrated circuit, for example. In addition, as shown in FIG. 9, the above-mentioned configurations, functions, etc. may be realized in software by a calculation device 22 such as a CPU interpreting and executing a program that realizes each function. Information such as a program, table, file, etc. that realizes each function can be stored in a memory 21, a recording device such as an SSD, or a recording medium such as an IC (Integrated Circuit) card, an SD (Secure Digital) card, or a DVD (Digital Versatile Disc), in addition to being stored in a HD.
In addition, in each embodiment, the control lines and information lines are those that are considered necessary for the explanation, and not all control lines and information lines in the product are necessarily shown. In reality, it can be considered that almost all components are connected to each other.

1,1a~1d、1z、1z1 ステレオカメラ
2 画像処理装置(ステレオ画像処理装置)
10 カメラモジュール
11 レンズ(集光部)
12 センサ(受光部)
12A センサ領域(第1の受光領域)
12B センサ領域(第2の受光領域)
13,13a~13d ステレオアダプタ
220 ステレオ視差画像生成部
230 ステレオ視立体物検知部
d 距離(所定距離)
G10,G20 分割回折格子(回折素子)
R60 領域(第1の領域)
R61 領域(第2の領域)
R70 領域(第3の領域)
R71 領域(第4の領域)
L,L00~L02,L10~L12,L31,L32 光線
N1 光軸
M0 画像
M1 画像(第1の受光領域の出力信号)
M2 画像(第2の受光領域の出力信号)
P0 プリズム
P10 プリズム(第1の光線角度変換部)
P10A プリズム
P10B プリズム領域(第1の領域)
P10C プリズム領域(第2の領域)
P10D プリズム(第1の光線角度変換部、第1の領域)
P10E プリズム(第1の光線角度変換部、第2の領域)
P20 プリズム(第2の光線角度変換部)
P20A プリズム
P20B プリズム領域(第3の領域)
P20C プリズム領域(第4の領域)
P20D プリズム(第2の光線角度変換部、第3の領域)
P20E プリズム(第2の光線角度変換部、第4の領域)
S100 面
S100a 面(第1の領域)
S100b 面(第2の領域)
S100B 面(第1の領域)
S100C 面(第2の領域)
S110 面(第1の領域)
S111 面(第2の領域)
S200 面
S200a 面(第3の領域)
S200b 面(第4の領域)
S200B 面(第2の領域)
S200C 面(第4の領域)
S210 面(第3の領域)
S211 面(第4の領域)
T 平面
Z ステレオカメラシステム
α10 プリズム角度(第1のプリズムを構成する傾斜部のうち、光軸に対する傾斜が最も小さい傾斜部の角度)
α21 プリズム角度(第2のプリズムを構成する傾斜部のうち、光軸に対する傾斜が最も小さい傾斜部の角度)
1, 1a to 1d, 1z, 1z1 Stereo camera 2 Image processing device (stereo image processing device)
10 camera module 11 lens (light collecting part)
12 Sensor (light receiving part)
12A Sensor area (first light receiving area)
12B Sensor area (second light receiving area)
13, 13a to 13d Stereo adapter 220 Stereo parallax image generating unit 230 Stereo vision three-dimensional object detecting unit d Distance (predetermined distance)
G10, G20 split diffraction grating (diffraction element)
R60 Region (First Region)
R61 Region (Second Region)
R70 Region (Third Region)
R71 region (fourth region)
L, L00 to L02, L10 to L12, L31, L32: Light ray N1: Optical axis M0: Image M1: Image (output signal of the first light receiving region)
M2 Image (output signal of the second light receiving region)
P0 Prism P10 Prism (first light ray angle conversion unit)
P10A Prism P10B Prism area (first area)
P10C Prism region (second region)
P10D Prism (first light ray angle conversion part, first region)
P10E Prism (first light ray angle conversion part, second region)
P20 Prism (second light ray angle conversion unit)
P20A Prism P20B Prism area (third area)
P20C Prism area (fourth area)
P20D Prism (second light ray angle conversion section, third region)
P20E Prism (Second light ray angle conversion part, fourth region)
S100 surface S100a surface (first region)
S100b surface (second region)
S100B surface (first region)
S100C surface (second region)
S110 surface (first region)
S111 surface (second region)
S200 surface S200a surface (third region)
S200b surface (fourth region)
S200B surface (second region)
S200C surface (fourth region)
S210 surface (third region)
S211 surface (fourth region)
T plane Z stereo camera system α10 prism angle (the angle of the inclined portion that is the smallest inclination with respect to the optical axis among the inclined portions that configure the first prism)
α21 Prism angle (the angle of the inclined portion that is the smallest inclination with respect to the optical axis among the inclined portions that constitute the second prism)

Claims (16)

対象物から伝搬した光線の角度を変更する第1の光線角度変換部及び第2の光線角度変換部、を有し、
対象物から伝搬した前記光線は、前記第1の光線角度変換部と前記第2の光線角度変換部の内部を伝搬し、
前記第1の光線角度変換部と前記第2の光線角度変換部は、光軸に対し所定距離を有して配置されている
ことを特徴とするステレオアダプタ。
A first light ray angle conversion unit and a second light ray angle conversion unit that change the angle of a light ray propagated from an object,
The light ray propagated from an object propagates through the first light ray angle conversion unit and the second light ray angle conversion unit,
The stereo adapter according to claim 1, wherein the first light ray angle conversion unit and the second light ray angle conversion unit are disposed at a predetermined distance from an optical axis.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部は、
少なくとも第1の領域及び第2の領域を有しており、
前記第2の光線角度変換部は、
少なくとも第3の領域及び第4の領域を有しており、
前記第1の光線角度変換部の前記第1の領域と前記第2の領域とにおいて、入射する前記光線の角度を変更する方向は略反対であり、
前記第2の光線角度変換部の前記第3の領域と前記第4の領域とにおいて、入射する前記光線の角度を変更する方向は略反対である
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
The first light ray angle conversion unit is
having at least a first region and a second region;
The second light ray angle conversion unit is
having at least a third region and a fourth region;
a direction in which the angle of the incident light is changed in the first region and the second region of the first light ray angle conversion unit is substantially opposite to each other;
a direction in which the angle of the incident light is changed in the third region and the fourth region of the second light ray angle conversion portion is substantially opposite to each other.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部は、
少なくとも第1の領域及び第2の領域を有しており、
前記第2の光線角度変換部は、
少なくとも第3の領域及び第4の領域を有しており、
前記第1の光線角度変換部の前記第1の領域に入射した光線と、前記第2の光線角度変換部の前記第3の領域に入射した光線とは、逆方向に角度が変更され、
前記第1の光線角度変換部の前記第2の領域に入射した光線と、前記第2の光線角度変換部の前記第4の領域に入射した光線とは、逆方向に角度が変更される
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
The first light ray angle conversion unit is
having at least a first region and a second region;
The second light ray angle conversion unit is
having at least a third region and a fourth region;
the angles of the light beam incident on the first region of the first light ray angle conversion unit and the light beam incident on the third region of the second light ray angle conversion unit are changed in opposite directions,
a light ray incident on the second region of the first light ray angle conversion unit and a light ray incident on the fourth region of the second light ray angle conversion unit are changed in angles in opposite directions.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部は、前記光線の入射側である前段に設置され、前記第2の光線角度変換部は、後段に設置され、
前記第1の光線角度変換部では、入射した前記光線が光軸の方向に向かうよう角度が変換され、前記第2の光線角度変換部では、入射した前記光線が前記第1の光線角度変換部とは、逆方向に前記光線が向かうよう角度が変換される
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
The first light ray angle conversion unit is provided at a front stage on the incident side of the light ray, and the second light ray angle conversion unit is provided at a rear stage,
a stereo adapter, wherein the first light ray angle conversion unit converts the angle of the incident light ray so that it is directed in the direction of an optical axis, and the second light ray angle conversion unit converts the angle of the incident light ray so that the light ray is directed in the opposite direction to that of the first light ray angle conversion unit.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部は、
少なくとも第1の領域及び第2の領域を有しており、
前記第1の光線角度変換部の前記第1の領域と、前記第2の領域とが空間的に分離されている
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
The first light ray angle conversion unit is
having at least a first region and a second region;
A stereo adapter, wherein the first region and the second region of the first light ray angle conversion portion are spatially separated from each other.
請求項1に記載のステレオアダプタにおいて、
前記第2の光線角度変換部は、
少なくとも第3の領域及び第4の領域を有しており、
前記第2の光線角度変換部の前記第3の領域と、前記第4の領域とが空間的に分離されている
ことを特徴とする請求項1に記載のステレオアダプタ。
2. The stereo adapter according to claim 1,
The second light ray angle conversion unit is
having at least a third region and a fourth region;
2. The stereo adapter according to claim 1, wherein the third region and the fourth region of the second light ray angle conversion portion are spatially separated from each other.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部はプリズムである第1のプリズムで構成され、
前記第2の光線角度変換部は、前記第1のプリズムとは異なるプリズムである第2のプリズムで構成されている
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
the first light ray angle conversion unit is constituted by a first prism,
The stereo adapter according to claim 1, wherein the second light ray angle conversion unit is configured with a second prism that is different from the first prism.
請求項7に記載のステレオアダプタにおいて、
前記第2のプリズムの屈折率よりも前記第1のプリズムの屈折率が大きい
ことを特徴とするステレオアダプタ。
8. The stereo adapter according to claim 7,
A stereo adapter, wherein the refractive index of the first prism is greater than the refractive index of the second prism.
請求項8に記載のステレオアダプタにおいて、
前記第1のプリズムを構成する傾斜部のうち、光軸に対する傾斜が最も小さい傾斜部の角度は、前記第2のプリズムを構成する傾斜部のうち、光軸に対する傾斜が最も小さい傾斜部の角度より小さい
ことを特徴とするステレオアダプタ。
9. The stereo adapter according to claim 8,
a tilt angle of the inclined portion constituting the first prism that is least tilted with respect to the optical axis is smaller than a tilt angle of the inclined portion constituting the second prism that is least tilted with respect to the optical axis.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部及び前記第2の光線角度変換部の少なくとも一方が回折素子であること
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
The stereo adapter, wherein at least one of the first light ray angle conversion unit and the second light ray angle conversion unit is a diffraction element.
請求項1に記載のステレオアダプタにおいて、
前記第1の光線角度変換部と前記第2の光線角度変換部は、光軸に対し直列に配置されている
ことを特徴とするステレオアダプタ。
2. The stereo adapter according to claim 1,
The stereo adapter according to claim 1, wherein the first light ray angle conversion unit and the second light ray angle conversion unit are arranged in series with respect to an optical axis.
対象物から伝搬した光線の角度を変更する第1の光線角度変換部及び第2の光線角度変換部と、
前記第1の光線角度変換部及び前記第2の光線角度変換部を透過した光による像を結像する集光部と、
結像した前記像を検出する受光部と、
を有し、
対象物から伝搬した前記光線は、前記第1の光線角度変換部と前記第2の光線角度変換部の内部を伝搬し、
前記第1の光線角度変換部と前記第2の光線角度変換部は、光軸に対し所定距離を有して配置されている
ことを特徴とするステレオカメラ。
a first light ray angle conversion unit and a second light ray angle conversion unit that change the angle of a light ray propagated from an object;
a light collecting unit that forms an image using light transmitted through the first light ray angle conversion unit and the second light ray angle conversion unit;
A light receiving unit that detects the formed image;
having
The light ray propagated from an object propagates through the first light ray angle conversion unit and the second light ray angle conversion unit,
The stereo camera according to claim 1, wherein the first light ray angle conversion unit and the second light ray angle conversion unit are disposed at a predetermined distance from an optical axis.
請求項12に記載のステレオカメラにおいて、
前記第1の光線角度変換部は、
少なくとも第1の領域及び第2の領域を有しており、
前記第1の光線角度変換部は、
少なくとも第3の領域及び第4の領域を有しており、
前記受光部は第1の受光領域、及び、第2の受光領域を有しており、
前記第1の光線角度変換部の前記第1の領域、及び、前記第2の光線角度変換部の前記第3の領域を透過した光線は、前記集光部により前記第1の受光領域に入射し、
前記第1の光線角度変換部の前記第2の領域、及び、前記第2の光線角度変換部の前記第4の領域を透過した光線は、前記集光部により前記第2の受光領域に入射する
ことを特徴とするステレオカメラ。
The stereo camera according to claim 12,
The first light ray angle conversion unit is
having at least a first region and a second region;
The first light ray angle conversion unit is
having at least a third region and a fourth region;
The light receiving section has a first light receiving region and a second light receiving region,
a light beam transmitted through the first region of the first light ray angle conversion unit and the third region of the second light ray angle conversion unit is incident on the first light receiving region by the light collecting unit,
a light beam passing through the second region of the first light ray angle conversion unit and the fourth region of the second light ray angle conversion unit is incident on the second light receiving region by the light collecting unit.
請求項13に記載のステレオカメラにおいて、
前記第1の受光領域と前記第2の受光領域の並ぶ方向に対して、同一の方向では、赤色と青色を入射したときの分離方向が前記第1の受光領域と前記第2の受光領域とで一致している
ことを特徴とするステレオカメラ。
The stereo camera according to claim 13,
A stereo camera characterized in that, with respect to a direction in which the first light receiving area and the second light receiving area are arranged, in the same direction, a separation direction when red and blue light are incident is the same in the first light receiving area and the second light receiving area.
対象物から伝搬した光線の角度を変更する第1の光線角度変換部及び第2の光線角度変換部と、
前記第1の光線角度変換部及び前記第2の光線角度変換部を透過した前記光線による像を結像する集光部と、
結像した前記像を検出する受光部と、
ステレオ画像処理装置と、
を有し、
前記第1の光線角度変換部は、
少なくとも第1の領域及び第2の領域を有しており、
前記第1の光線角度変換部は、
少なくとも第3の領域及び第4の領域を有しており、
対象物から伝搬した前記光線は、前記第1の光線角度変換部と前記第2の光線角度変換部の内部を伝搬し、
前記第1の光線角度変換部と前記第2の光線角度変換部は、光軸に対し所定距離を有して配置されており、
前記受光部は第1の受光領域、及び、第2の受光領域を有し、
前記第1の光線角度変換部の前記第1の領域、及び、前記第2の光線角度変換部の前記第3の領域を透過した光線は、前記集光部により前記第1の受光領域に入射し、
前記第1の光線角度変換部の前記第2の領域、及び、前記第2の光線角度変換部の前記第4の領域を透過した光線は、前記集光部により前記第2の受光領域に入射し、
前記ステレオ画像処理装置は、
前記第1の受光領域と前記第2の受光領域との出力信号を基に視差を検出する
ことを特徴とするステレオカメラシステム。
a first light ray angle conversion unit and a second light ray angle conversion unit that change the angle of a light ray propagated from an object;
a light collecting unit that forms an image by the light rays that have passed through the first light ray angle conversion unit and the second light ray angle conversion unit;
A light receiving unit that detects the formed image;
A stereo image processing device;
having
The first light ray angle conversion unit is
having at least a first region and a second region;
The first light ray angle conversion unit is
having at least a third region and a fourth region;
The light ray propagated from an object propagates through the first light ray angle conversion unit and the second light ray angle conversion unit,
the first light ray angle conversion unit and the second light ray angle conversion unit are disposed at a predetermined distance from an optical axis,
the light receiving section has a first light receiving region and a second light receiving region,
a light beam transmitted through the first region of the first light ray angle conversion unit and the third region of the second light ray angle conversion unit is incident on the first light receiving region by the light collecting unit,
a light beam transmitted through the second region of the first light beam angle conversion unit and the fourth region of the second light beam angle conversion unit is incident on the second light receiving region by the light collecting unit,
The stereo image processing device includes:
A stereo camera system comprising: a first light receiving region and a second light receiving region; and a second light receiving region, the second light receiving region and a second light receiving region, and a parallax detection region.
請求項15に記載のステレオカメラシステムにおいて、
前記視差を基に距離を推定し、
当該視差を推定する際に、前記第1の光線角度変換部に入射する前記光線の角度であり、光軸に対して垂直な平面への当該光線の入射角であるステレオカメラ入射角に応じて、基線長を変更する
ことを特徴とするステレオカメラシステム。
The stereo camera system according to claim 15,
A distance is estimated based on the parallax.
a stereo camera system characterized in that, when estimating the disparity, a baseline length is changed according to a stereo camera incidence angle, which is an angle of the light ray incident on the first light ray angle conversion unit and is an incidence angle of the light ray on a plane perpendicular to an optical axis.
JP2022160317A 2022-10-04 2022-10-04 Stereo adapter, stereo camera and stereo camera system Pending JP2024053855A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022160317A JP2024053855A (en) 2022-10-04 2022-10-04 Stereo adapter, stereo camera and stereo camera system
PCT/JP2023/033928 WO2024075515A1 (en) 2022-10-04 2023-09-19 Stereo adapter, stereo camera, and stereo camera system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022160317A JP2024053855A (en) 2022-10-04 2022-10-04 Stereo adapter, stereo camera and stereo camera system

Publications (1)

Publication Number Publication Date
JP2024053855A true JP2024053855A (en) 2024-04-16

Family

ID=90608010

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022160317A Pending JP2024053855A (en) 2022-10-04 2022-10-04 Stereo adapter, stereo camera and stereo camera system

Country Status (2)

Country Link
JP (1) JP2024053855A (en)
WO (1) WO2024075515A1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000193883A (en) * 1998-12-25 2000-07-14 Sanyu Seni:Kk Optical part for photographing stereoimage and stereoimage photographing device using it
JP4646459B2 (en) * 2001-08-01 2011-03-09 オリンパス株式会社 Solid-state imaging device
US9983384B2 (en) * 2014-04-20 2018-05-29 Lenny Lipton Stereoscopic lens for digital cameras

Also Published As

Publication number Publication date
WO2024075515A1 (en) 2024-04-11

Similar Documents

Publication Publication Date Title
US9414045B2 (en) Stereo camera
JP5440927B2 (en) Distance camera device
JP4102854B2 (en) Imaging device
CN115190256A (en) Solid-state imaging device and electronic apparatus
JP5273356B2 (en) Compound eye image input device and distance measuring device using the same
US7742087B2 (en) Image pickup device
WO2012176355A1 (en) Imaging device
WO2013001709A1 (en) Image pickup apparatus
US20140071247A1 (en) Image pick-up device and distance measuring device
WO2012039093A1 (en) Three-dimensional imaging device
JP5995084B2 (en) Three-dimensional imaging device, imaging device, light transmission unit, and image processing device
US8520125B2 (en) Imaging device and distance-measuring device using same
JP6353233B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2024075515A1 (en) Stereo adapter, stereo camera, and stereo camera system
JP5945338B2 (en) Imaging
JP5634801B2 (en) Imaging module and imaging apparatus
KR100485442B1 (en) Single lens stereo camera and stereo image system using the same
JP6234024B2 (en) Imaging device and imaging apparatus
JP2017219791A (en) Control device, imaging device, control method, program, and storage medium
US20240020865A1 (en) Calibration method for distance measurement device, distance measurement device, and storage medium
JP2011182041A (en) Imaging apparatus
JP6082212B2 (en) Image sensor and distance measuring apparatus using the same
US7898591B2 (en) Method and apparatus for imaging using sensitivity coefficients
JP5549564B2 (en) Stereo camera
WO2023166813A1 (en) Stereo image processing device