JP7414090B2 - Imaging device and method of controlling the imaging device - Google Patents

Imaging device and method of controlling the imaging device Download PDF

Info

Publication number
JP7414090B2
JP7414090B2 JP2022073733A JP2022073733A JP7414090B2 JP 7414090 B2 JP7414090 B2 JP 7414090B2 JP 2022073733 A JP2022073733 A JP 2022073733A JP 2022073733 A JP2022073733 A JP 2022073733A JP 7414090 B2 JP7414090 B2 JP 7414090B2
Authority
JP
Japan
Prior art keywords
image
optical systems
imaging
captured
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022073733A
Other languages
Japanese (ja)
Other versions
JP2022106868A5 (en
JP2022106868A (en
Inventor
多聞 貞末
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022073733A priority Critical patent/JP7414090B2/en
Publication of JP2022106868A publication Critical patent/JP2022106868A/en
Publication of JP2022106868A5 publication Critical patent/JP2022106868A5/ja
Application granted granted Critical
Publication of JP7414090B2 publication Critical patent/JP7414090B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras In General (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Studio Devices (AREA)
  • Stroboscope Apparatuses (AREA)

Description

本発明は、撮像装置および撮像装置の制御方法に関する。 The present invention relates to an imaging device and a method of controlling the imaging device.

実在する物体、建築物、それらを含む空間全体を、カメラによる撮像やレーザ光の照射などを利用して計測し、計測結果に基づき電子データとして3次元情報を復元する、3次元復元モデルの技術が知られている。近年では、例えば橋梁の検査や建築現場といった様々な場面で、この3次元復元モデルの利用が検討されている。例えば、ビルディングなどの大規模な施設の建設において、設計時のCAD(Computer-Aided Design)による図面と、建設現場で計測して作成した3次元復元モデルとの比較を行うことが考えられる。また、建設後の検査などにおいて、3次元復元モデルを作成して状況を確認する、といった適用も考えられる。 3D reconstruction model technology that measures real objects, buildings, and the entire space that contains them using camera imaging and laser light irradiation, and restores 3D information as electronic data based on the measurement results. It has been known. In recent years, the use of this three-dimensional reconstruction model has been considered in a variety of situations, such as bridge inspections and construction sites. For example, in the construction of a large-scale facility such as a building, a comparison may be made between CAD (Computer-Aided Design) drawings at the time of design and a three-dimensional reconstruction model created by measuring at the construction site. Another possible application is to create a three-dimensional reconstruction model and check the situation during post-construction inspections.

特許文献1に開示される、全周囲を全天球画像として撮像可能とした撮像システムを用いて、視点の異なる複数の撮像画像を取得し、取得した複数の撮像画像を比較することで深度情報を得て、より広範囲について、3次元復元モデルを作成することが可能である。しかしながら、特許文献1に記載の技術では、単色の壁のような、画像的な特徴やテクスチャに乏しい領域に対しては撮像画像間での比較が難しく、高精度に深度情報を取得することが困難であった。 Depth information is obtained by acquiring multiple captured images from different viewpoints using the imaging system disclosed in Patent Document 1 that is capable of capturing the entire surrounding area as a spherical image, and by comparing the acquired multiple captured images. It is possible to create a three-dimensional reconstruction model for a wider range of areas. However, with the technology described in Patent Document 1, it is difficult to compare captured images for areas with poor image characteristics and textures, such as monochrome walls, and it is difficult to obtain depth information with high accuracy. It was difficult.

これに対して、特許文献2には、既知のパターンの光を空間に照射し、照射したパターンと、ステレオカメラにより撮像したパターンとに基づくステレオマッチングにより深度情報を取得する技術が開示されている。 On the other hand, Patent Document 2 discloses a technique of irradiating a space with a known pattern of light and acquiring depth information through stereo matching based on the irradiated pattern and a pattern imaged by a stereo camera. .

しかしながら、特許文献2では、深度情報のみを取得することが目的であって、物体の色情報を深度情報と重ねて同時に取得することが考慮されていなかった。また、特許文献2では、既知のパターンと撮像したパターンとに基づきマッチングを行うため、パターン光の照射装置と、撮像装置と、マッチング処理を行うための計算装置とが連携して動作する必要があり、装置の配置や小型化が制限されてしまうという問題点もあった。 However, in Patent Document 2, the purpose is to acquire only depth information, and it is not considered to overlap and simultaneously acquire color information of an object with depth information. Furthermore, in Patent Document 2, since matching is performed based on a known pattern and an imaged pattern, a pattern light irradiation device, an imaging device, and a calculation device for performing matching processing need to work together. However, there were also problems in that the arrangement and miniaturization of the device were restricted.

本発明は、上記に鑑みてなされたもので、より高精度な3次元復元モデルをより簡易な構成で作成可能とすることを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to enable creation of a more accurate three-dimensional reconstruction model with a simpler configuration.

上述した課題を解決し、目的を達成するために、本発明は、互いに異なる方向を向く複数の第1光学系と、前記複数の第1光学系の各々を介して照射された可視光をそれぞれ撮像する数の第1撮像素子と、互いに異なる方向を向く複数の第2光学系と、前記複数の第2光学系の各々を介して照射された非可視光をそれぞれ撮像する数の第2撮像素子と、互いに異なる方向を向く複数の第3光学系と、前記複数の第3光学系の各々を介して照射された非可視光をそれぞれ撮像する数の第3撮像素子と、前記複数の第1光学系、前記数の第1撮像素子、前記複数の第2光学系、前記数の第2撮像素子、前記複数の第3光学系および前記数の第3撮像素子が設けられる筐体と、を備え、前記第1撮像素子により色情報を含む第1画像を、前記第2撮像素子および前記第3撮像素子により深度情報を算出するための第2画像および第3画像を、それぞれ出力し、前記筐体は、第1方向に長い形状であり、前記長い形状の一端側に底面を有し、前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系の中で前記第2光学系が前記底面に最も近く、前記第2光学系と前記底面との間に光学系の配置されない領域が存在し、撮像される空間の床面に対して垂直な方向に前記第1方向が向き、前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系が前記光学系の配置されない領域よりも上側になるように、前記床面に前記底面を向けて撮像され、前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系は、前記第1方向において異なる位置に配置され、前記筐体の前記第1方向に関する周囲360°を撮像可能である。 In order to solve the above-mentioned problems and achieve the objects, the present invention provides a plurality of first optical systems facing in mutually different directions, and a plurality of visible light irradiated through each of the plurality of first optical systems. A plurality of first image sensors that capture images, a plurality of second optical systems facing different directions from each other, and a plurality of second optical systems that capture images of invisible light irradiated through each of the plurality of second optical systems. 2 image sensors, a plurality of third optical systems facing in different directions from each other, and a plurality of third image sensors that respectively image the invisible light irradiated through each of the plurality of third optical systems; The plurality of first optical systems, the plurality of first image sensors, the plurality of second optical systems, the plurality of second image sensors, the plurality of third optical systems, and the plurality of third image sensors a casing provided therein, a first image including color information is calculated by the first image sensor, and a second image and a third image are used to calculate depth information by the second image sensor and the third image sensor. The casing has an elongated shape in a first direction and has a bottom surface on one end side of the elongated shape, and the plurality of first optical systems, the plurality of second optical systems, and the plurality of Among the third optical systems, the second optical system is closest to the bottom surface, and there is an area between the second optical system and the bottom surface where no optical system is disposed, and the second optical system is located on the floor surface of the space to be imaged. The first direction is oriented in a direction perpendicular to the first optical system, and the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged above an area where the optical systems are not arranged. The image is taken with the bottom surface facing the floor surface , and the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged at different positions in the first direction, It is possible to image a 360° circumference of the housing in the first direction.

本発明によれば、より高精度な3次元復元モデルをより簡易な構成で作成可能となるという効果を奏する。 According to the present invention, it is possible to create a more accurate three-dimensional reconstructed model with a simpler configuration.

図1は、各実施形態による3次元復元モデルの作成方法を概略的に説明するための図である。FIG. 1 is a diagram for schematically explaining a method for creating a three-dimensional reconstructed model according to each embodiment. 図2は、各実施形態に適用可能な、全天球画像を撮像可能な撮像装置を用いた場合の例を示す図である。FIG. 2 is a diagram illustrating an example of a case where an imaging device capable of capturing omnidirectional images is used, which is applicable to each embodiment. 図3は、第1の実施形態に係る撮像装置の一例の外観を示す図である。FIG. 3 is a diagram showing the appearance of an example of the imaging device according to the first embodiment. 図4は、第1の実施形態に係る撮像装置の内部構造を概略的に示す図である。FIG. 4 is a diagram schematically showing the internal structure of the imaging device according to the first embodiment. 図5は、第1の実施形態に適用可能な撮像体の一例の構造を示す図である。FIG. 5 is a diagram showing the structure of an example of an imaging body applicable to the first embodiment. 図6は、第1の実施形態に係る撮像装置の外観を概略的に示す3面図である。FIG. 6 is a three-sided view schematically showing the appearance of the imaging device according to the first embodiment. 図7は、第1の実施形態に係る各撮像体により撮像可能な撮像範囲の例を示す図である。FIG. 7 is a diagram illustrating an example of an imaging range that can be imaged by each imaging body according to the first embodiment. 図8は、第1の実施形態に適用可能な、画像処理装置と撮像装置との接続を示す図である。FIG. 8 is a diagram showing a connection between an image processing device and an imaging device, which is applicable to the first embodiment. 図9は、第1の実施形態に係る撮像装置の一例の構成を示すブロック図である。FIG. 9 is a block diagram showing the configuration of an example of an imaging device according to the first embodiment. 図10は、第1の実施形態に係る撮像装置における制御部およびメモリの一例の構成を示すブロック図である。FIG. 10 is a block diagram illustrating an example configuration of a control unit and a memory in the imaging device according to the first embodiment. 図11は、第1の実施形態に適用可能な画像処理装置の一例の構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an example of an image processing device applicable to the first embodiment. 図12は、第1の実施形態に係る画像処理装置の機能を説明するための一例の機能ブロック図である。FIG. 12 is an example functional block diagram for explaining the functions of the image processing apparatus according to the first embodiment. 図13は、第1の実施形態に適用可能な3次元復元モデルの作成処理を示す一例のフローチャートである。FIG. 13 is a flowchart of an example of a three-dimensional reconstruction model creation process applicable to the first embodiment. 図14は、第1の実施形態に係る撮像画像の探索方法を、一般的な探索方法と比較して示す図である。FIG. 14 is a diagram illustrating the captured image search method according to the first embodiment in comparison with a general search method. 図15は、第1の実施形態に適用可能な三角法を説明するための図である。FIG. 15 is a diagram for explaining trigonometry applicable to the first embodiment. 図16は、第1の実施形態に係る再投影処理について説明するための図である。FIG. 16 is a diagram for explaining reprojection processing according to the first embodiment. 図17は、第2の実施形態に係る撮像装置の内部構造を概略的に示す図である。FIG. 17 is a diagram schematically showing the internal structure of an imaging device according to the second embodiment. 図18は、第2の実施形態に適用可能な、複数のステレオペアによる画素の探索処理の例を示す図である。FIG. 18 is a diagram illustrating an example of pixel search processing using a plurality of stereo pairs, which is applicable to the second embodiment.

以下に添付図面を参照して、撮像装置および撮像装置の制御方法の実施形態を詳細に説明する。 Embodiments of an imaging device and a method of controlling the imaging device will be described in detail below with reference to the accompanying drawings.

図1は、各実施形態による3次元復元モデルの作成方法を概略的に説明するための図である。撮像装置50aは、可視光領域および非可視光領域の光のうち可視光領域を撮像可能な1以上の第1の撮像体と、可視光領域および非可視光領域の光のうち、少なくとも非可視光領域の光を撮像可能な、2以上の第2の撮像体と、を含む。ここでは、説明のため、撮像装置50aは、1の第1の撮像体と、2の第2の撮像体と、を含むものとする。 FIG. 1 is a diagram for schematically explaining a method for creating a three-dimensional reconstructed model according to each embodiment. The imaging device 50a includes one or more first imaging bodies capable of capturing visible light in the visible light region and non-visible light region, and at least non-visible light in the visible light region and non-visible light region. Two or more second imaging bodies capable of imaging light in the optical region are included. Here, for the sake of explanation, it is assumed that the imaging device 50a includes one first imaging body and two second imaging bodies.

被写体60、60、…に対して、非可視光領域の光80を射出する光源51による所定のパターン81を投影する。撮像装置50aが含む2の第2の撮像体により当該パターン81を撮像する。2の第2の撮像体それぞれで撮像された非可視光領域の光80によるパターン81に基づきマッチング処理を行い、マッチング処理結果に基づき深度情報(奥行き情報)を求めて3次元の点群情報(以下、3次元点群情報)を生成する。 A predetermined pattern 81 is projected onto objects 60, 60, . . . by a light source 51 that emits light 80 in an invisible light region. The pattern 81 is imaged by two second imaging bodies included in the imaging device 50a. Matching processing is performed based on the pattern 81 of the light 80 in the invisible light region captured by each of the second imaging bodies of 2, depth information is obtained based on the matching processing result, and three-dimensional point cloud information ( Hereinafter, three-dimensional point cloud information) is generated.

また、上述の第2の撮像体による撮像と同期させて、撮像装置50aが含む1の第1の撮像体により、被写体60、60、…を撮像する。第1の撮像体により撮像された撮像画像は、可視光領域による色情報を含む画像となる。また、第1の撮像体は、フィルタなどを用いて非可視光領域の光が撮像されないように構成され、当該第1の撮像体により撮像された撮像画像は、非可視光領域の光によるパターン81を含まない画像となる。 Further, in synchronization with the imaging by the above-described second imaging body, the objects 60, 60, . . . are imaged by one first imaging body included in the imaging device 50a. The captured image captured by the first imaging body is an image including color information in the visible light region. Further, the first imaging body is configured to prevent light in the non-visible light region from being imaged using a filter or the like, and the captured image captured by the first imaging body is a pattern of light in the non-visible light region. The image does not include 81.

第2の撮像体により撮像された撮像画像に基づき生成した3次元点群情報を、第1の撮像体により撮像された撮像画像に再投影することで、3次元点群情報に色情報が付加され、3次元復元モデルが生成される。 Color information is added to the 3D point cloud information by reprojecting the 3D point cloud information generated based on the captured image captured by the second imaging body onto the captured image captured by the first imaging body. A three-dimensional reconstructed model is generated.

このように、実施形態では、非可視光領域の光によるパターン81を撮像した撮像画像に基づき深度情報を求めて3次元点群情報を生成し、生成した3次元点群情報を、当該撮像と同期して撮像された可視光領域の光による撮像画像に再投影している。そのため、より高精度な3次元復元モデルを、より簡易な構成で作成可能となる。 In this way, in the embodiment, depth information is obtained based on a captured image of the pattern 81 formed by light in the invisible light region, three-dimensional point cloud information is generated, and the generated three-dimensional point cloud information is combined with the captured image. The image is reprojected using light in the visible light range that was captured synchronously. Therefore, a more accurate three-dimensional reconstruction model can be created with a simpler configuration.

図1では、撮像装置50aが1方向側(前面側とする)を、180°未満の画角70で撮像するように示しているが、これはこの例に限定されず、全周囲を全天球画像として撮像可能な撮像装置を用いることもできる。図2は、各実施形態に適用可能な、全天球画像を撮像可能な撮像装置50bを用いた場合の例を示す図である。撮像装置50bは、上述の撮像装置50aと同様に、可視光領域および非可視光領域のうち可視光領域の光を撮像する1以上の第1の撮像体と、可視光領域および非可視光領域のうち少なくとも非可視光領域の光を撮像する2以上の撮像体と、を含む。ここで、各撮像体は、それぞれ180°以上の画角を有する2つの魚眼レンズを、光軸の方向を一致させ、且つ、互いに逆方向を撮像するように配置され、全天球画像の撮像が可能なように構成される。 In FIG. 1, the imaging device 50a is shown to capture an image in one direction (the front side) at an angle of view 70 of less than 180°, but this is not limited to this example; An imaging device capable of capturing a spherical image can also be used. FIG. 2 is a diagram illustrating an example of a case where an imaging device 50b capable of capturing omnidirectional images is used, which is applicable to each embodiment. Like the imaging device 50a described above, the imaging device 50b includes one or more first imaging bodies that capture light in the visible light region of the visible light region and the non-visible light region; and two or more imaging bodies that capture images of at least light in the non-visible light region. Here, each image pickup body has two fisheye lenses each having an angle of view of 180° or more, and is arranged so that the directions of the optical axes are the same and images are taken in opposite directions, so that a spherical image can be taken. configured as possible.

なお、ここでも、説明のため、撮像装置50bは、1の第1の撮像体と、2の第2の撮像体と、を含むものとする。 Note that, also here, for the sake of explanation, it is assumed that the imaging device 50b includes one first imaging body and two second imaging bodies.

図2において、平面40は、垂直方向をZ軸で表した場合の、Z軸に直交するX軸およびY軸により表される平面である。平面40の例としては、水平な土地や床面が挙げられる。例えば、平面40上のZ軸の位置に撮像装置50bを配置し、それぞれ非可視光領域の光80によるパターン81を射出する複数の光源51、51、…を、Z軸を中心とした全周にパターン81、81、…を照射可能に、平面40上に配置する。また、例えば屋内など、Z軸の正方向(撮像装置50bの上方向)に被写体が存在する場合は、Z軸正方向にもパターン81が照射されるように、光源51を配置する。 In FIG. 2, a plane 40 is a plane represented by an X-axis and a Y-axis perpendicular to the Z-axis, when the vertical direction is represented by the Z-axis. Examples of the plane 40 include a horizontal piece of land or a floor surface. For example, the imaging device 50b is placed at the Z-axis position on the plane 40, and a plurality of light sources 51, 51, . The patterns 81, 81, . . . are arranged on the plane 40 so that they can be irradiated. Further, when a subject exists in the positive direction of the Z-axis (above the imaging device 50b), such as indoors, the light source 51 is arranged so that the pattern 81 is also irradiated in the positive direction of the Z-axis.

各光源51、51、…によるパターン81、81、…を、撮像装置50bの全周に存在する被写体60、60、…に投影させた状態で、撮像装置50bにおいて、1の第1の撮像体による撮像と、2の第2の撮像体による撮像とを同期させて実行する。これにより、可視光領域の光により撮像された1つの全天球画像と、非可視光領域の光を含んで撮像された2つの全天球画像が取得される。2の第2の撮像体それぞれで撮像された非可視光領域の光80による、全天球画像に含まれるパターン81、81、…に基づきマッチング処理を行い、マッチング処理結果に基づき深度情報を求めて3次元点群情報を生成する。 In the imaging device 50b, the patterns 81, 81, . . . generated by the respective light sources 51, 51, . The imaging by the second imaging body and the imaging by the second imaging body are executed in synchronization. As a result, one spherical image captured using light in the visible light range and two spherical images captured including light in the non-visible light range are obtained. Matching processing is performed based on patterns 81, 81, ... included in the spherical image by light 80 in the invisible light region captured by each of the second imaging bodies of 2, and depth information is obtained based on the matching processing result. 3D point cloud information is generated.

また、第1の撮像体により撮像された全天球画像は、可視光領域による色情報を含む画像となる。第2の撮像体により撮像された全天球画像に基づき生成した3次元点群情報を、第1の撮像体により撮像された全天球画像に再投影することで、3次元点群情報に色情報が付加され、3次元復元モデルが生成される。この場合、撮像装置50bの周囲360°について、1度の撮像により3次元復元モデルを生成できるため、3次元復元モデルの生成をより効率的に実行可能となる。 Furthermore, the spherical image captured by the first imaging body is an image that includes color information in the visible light region. By reprojecting the 3D point cloud information generated based on the spherical image captured by the second imaging body onto the spherical image captured by the first imaging body, the 3D point cloud information is converted into 3D point cloud information. Color information is added and a three-dimensional reconstructed model is generated. In this case, since a three-dimensional reconstructed model can be generated by one-time imaging for 360 degrees around the imaging device 50b, the three-dimensional reconstructed model can be generated more efficiently.

なお、光源51により射出される非可視光領域の光80によるパターン81は、繰り返し要素の少ないパターン(例えばランダムパターン)とすると、マッチング処理が容易となり、好ましい。 Note that it is preferable that the pattern 81 formed by the light 80 in the non-visible light region emitted by the light source 51 be a pattern with few repeating elements (for example, a random pattern) because this facilitates the matching process.

以下では、撮像装置として、図2に示した全天球画像の撮像が可能な撮像装置50bを適用した場合について説明を行う。 In the following, a case will be described in which the imaging device 50b shown in FIG. 2, which is capable of capturing a spherical image, is used as the imaging device.

[第1の実施形態]
第1の実施形態について説明する。図3は、第1の実施形態に係る撮像装置の一例の外観を示す図である。図3において、撮像装置1は、図2に示した撮像装置50bに対応するもので、略直方体の筐体10の第1の面に、複数(この例では3個)の撮像レンズ20IRa1、20VLaおよび20IRa2と、シャッタボタン30とが設けられる。筐体10内には、各20IRa1、20VLaおよび20IRa2にそれぞれ対応して撮像素子が設けられる。
[First embodiment]
A first embodiment will be described. FIG. 3 is a diagram showing the appearance of an example of the imaging device according to the first embodiment. In FIG. 3, the imaging device 1 corresponds to the imaging device 50b shown in FIG. 2, and has a plurality of (three in this example) imaging lenses 20IRa1 , 20VL a and 20IR a2 and a shutter button 30 are provided. In the housing 10, image sensors are provided corresponding to each of 20IR a1 , 20VL a and 20IR a2 .

各撮像レンズ20IRa1、20VLaおよび20IRa2に入射した光は、筐体10に設けられる、それぞれ撮像レンズ20IRa1、20VLaおよび20IRa2を含む結像光学系を介して、それぞれ対応する撮像素子に照射される。撮像素子は、例えばCCD(Charge Coupled Device)であって、照射された光を電荷に変換する受光素子である。撮像素子は、これに限らず、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサであってもよい。 The light incident on each of the imaging lenses 20IR a1 , 20VL a and 20IR a2 is transmitted to the corresponding imaging element via an imaging optical system including the imaging lenses 20IR a1 , 20VL a and 20IR a2 provided in the housing 10, respectively. is irradiated. The image sensor is, for example, a CCD (Charge Coupled Device), and is a light receiving element that converts irradiated light into electric charge. The image sensor is not limited to this, and may be a CMOS (Complementary Metal Oxide Semiconductor) image sensor.

また、筐体10の、第1の面の背面側の第2の面に、第1の面の各撮像レンズ20IRa1、20VLaおよび20IRa2と対応して、複数の撮像レンズ20IRb1、20VLbおよび20IRb2が設けられる。これら撮像レンズ20IRb1、20VLbおよび20IRb2も、上述の各撮像レンズ20IRa1、20VLaおよび20IRa2と同様に、筐体10内にそれぞれ対応した撮像素子が設けられる。各撮像レンズ20IRb1、20VLbおよび20IRb2に入射された光は、各撮像レンズ20IRb1、20VLbおよび20IRb2を含む各結像光学系を介して、それぞれ対応する撮像素子に照射される。各撮像素子は、照射された光を電荷に変換する。 Further, a plurality of imaging lenses 20IR b1 , 20VL are provided on a second surface of the housing 10 on the back side of the first surface, corresponding to the respective imaging lenses 20IR a1 , 20VL a and 20IR a2 on the first surface. b and 20IR b2 are provided. These imaging lenses 20IR b1 , 20VL b and 20IR b2 are also provided with corresponding imaging elements in the housing 10, similarly to the above-mentioned imaging lenses 20IR a1 , 20VL a and 20IR a2 . The light incident on each imaging lens 20IR b1 , 20VL b and 20IR b2 is irradiated onto the corresponding imaging element via each imaging optical system including each imaging lens 20IR b1 , 20VL b and 20IR b2 . Each image sensor converts the irradiated light into electric charge.

詳細は後述するが、各撮像素子を駆動する各駆動部は、トリガ信号に応じて、各撮像素子に対してシャッタ制御を行うと共に、各撮像素子から光が変換された電荷を読み出す。各駆動部は、各撮像素子から読み出した電荷をそれぞれ電気信号に変換し、この電気信号をディジタルデータとしての撮像画像に変換して出力する。各駆動部から出力された各撮像画像は、例えばメモリに記憶される。以下では、例えば、トリガ信号に応じて撮像レンズ20IRa1に入射された光に基づく撮像画像を出力する動作を、便宜上、撮像レンズ20IRa1による撮像、などと記述する。 Although the details will be described later, each drive unit that drives each image sensor performs shutter control on each image sensor according to a trigger signal, and reads out the charge from which light is converted from each image sensor. Each drive section converts the charge read from each image sensor into an electrical signal, converts the electrical signal into a captured image as digital data, and outputs the captured image. Each captured image output from each drive unit is stored in a memory, for example. Hereinafter, for convenience, the operation of outputting a captured image based on light incident on the imaging lens 20IR a1 in response to a trigger signal will be described as "imaging by the imaging lens 20IR a1 ," for example.

なお、筐体10を直方体と見做した場合に、撮像レンズ20IRa1、20VLaおよび20IRa2が整列する方向に沿った辺(長辺)に接する面を側面、第1面、第2面および2つの側面それぞれの上端に接する面を上面、下端に接する面を底面とする。図3の例では、撮像レンズ20IRa1および20IRb1が配置される側の上端に接する面が上面、シャッタボタン30が配置される側の下端に接する面が底面となる。 Note that when the housing 10 is regarded as a rectangular parallelepiped, the surfaces in contact with the sides (long sides) along the direction in which the imaging lenses 20IR a1 , 20VL a and 20IR a2 are aligned are referred to as side surfaces, first surfaces, second surfaces, and The surface touching the upper end of each of the two side surfaces is the upper surface, and the surface touching the lower end is the bottom surface. In the example of FIG. 3, the surface in contact with the upper end on the side where the imaging lenses 20IR a1 and 20IR b1 are arranged is the top surface, and the surface in contact with the lower end on the side where the shutter button 30 is arranged is the bottom surface.

また、図3の例では、各撮像レンズ20IRa1、20VLaおよび20IRa2において、撮像レンズ20IRa1および20IRa2は、間の距離を距離dとして配置される。一方、撮像レンズVLaは、撮像レンズ20IRa1および20IRa2それぞれとの間の距離を距離dv1およびdv2として配置される。距離dv1と距離dv2は、等しい値であると好ましいが、これに限られるものではない。また、撮像レンズ20IRa1および20IRb1、撮像レンズ20VLaおよび20VLb、撮像レンズ20IRa2および20IRb2は、それぞれ、筐体10の例えば底面からの高さが一致するように、筐体10に配置される。 Further, in the example of FIG. 3, the imaging lenses 20IR a1 , 20VL a and 20IR a2 are arranged with the distance between them being the distance d . On the other hand, the imaging lens VL a is arranged with distances dv 1 and dv 2 from the imaging lenses 20IR a1 and 20IR a2 , respectively. The distance dv 1 and the distance dv 2 are preferably equal values, but are not limited to this. Furthermore, the imaging lenses 20IR a1 and 20IR b1 , the imaging lenses 20VL a and 20VL b , and the imaging lenses 20IR a2 and 20IR b2 are arranged in the housing 10 such that their heights from, for example, the bottom of the housing 10 are the same. be done.

各撮像レンズ20IRa1、20VLaおよび20IRa2と、各撮像レンズ20IRb1、20VLbおよび20IRb2とにおいて、筐体10の底面からの高さが一致する撮像レンズの組と、当該撮像レンズの組に対応する各結像光学系および各撮像素子と、を含めて、撮像体と呼ぶ。図3の例では、撮像レンズ20IRa1および20IRb1の組が、対応する各結像光学系および各撮像素子を含めて撮像体21IR1とされている。撮像体21VLおよび21IR2も同様に、それぞれ対応する各結像光学系および各撮像素子を含めて、それぞれ撮像体21VLおよび21IR2と呼ぶ。 In each imaging lens 20IR a1 , 20VL a and 20IR a2 and each imaging lens 20IR b1 , 20VL b and 20IR b2 , there is a set of imaging lenses whose heights from the bottom of the housing 10 match, and a set of the imaging lens. Each imaging optical system and each image sensor corresponding to the image forming apparatus are collectively referred to as an imaging body. In the example of FIG. 3, the set of imaging lenses 20IRa1 and 20IRb1 , including each corresponding imaging optical system and each imaging element, is set as an imaging body 21IR1 . Similarly, the imaging bodies 21VL and 21IR 2 including the corresponding imaging optical systems and imaging elements are respectively referred to as imaging bodies 21VL and 21IR 2 .

シャッタボタン30は、操作に応じて、各撮像レンズ20IRa1、20VLaおよび20IRa2と、各撮像レンズ20IRb1、20VLbおよび20IRb2とによる撮像を指示するためのボタンである。シャッタボタン30が操作されると、各撮像レンズ20IRb1、20VLbおよび20IRb2、および、各撮像レンズ20IRb1、20VLbおよび20IRb2による撮像が同期して行われる。 The shutter button 30 is a button for instructing imaging by each of the imaging lenses 20IR a1 , 20VL a and 20IR a2 and each of the imaging lenses 20IR b1 , 20VL b and 20IR b2 in response to an operation. When the shutter button 30 is operated, imaging by each imaging lens 20IR b1 , 20VL b and 20IR b2 and each imaging lens 20IR b1 , 20VL b and 20IR b2 is performed synchronously.

なお、以下では、例えば「撮像体21IR1において撮像レンズ20IRa1および20IRb1による撮像が行われる」ことを、適宜、「撮像体21R1による撮像が行われる」などのように記述する。 Note that, hereinafter, for example, "imaging is performed by the imaging lenses 20IR a1 and 20IR b1 in the imaging body 21IR 1 " will be appropriately described as "imaging is performed by the imaging body 21R 1 ".

図4は、第1の実施形態に係る撮像装置1の内部構造を概略的に示す図である。図4では、撮像装置1の筐体10を側面からの断面図として示し、図において左側が第1面(正面方向とする)、右側が第2面(背面方向とする)となっている。撮像体21IR1は、撮像素子200a1を含む第1面側の撮像レンズ20IRa1と、撮像素子200b1を含む第2面側の撮像レンズ20IRb1と、を含む。 FIG. 4 is a diagram schematically showing the internal structure of the imaging device 1 according to the first embodiment. In FIG. 4, the casing 10 of the imaging device 1 is shown as a cross-sectional view from the side, with the left side being the first surface (the front direction) and the right side being the second surface (the back direction). The imaging body 21IR 1 includes an imaging lens 20IR a1 on the first surface side including the imaging element 200a 1 and an imaging lens 20IR b1 on the second surface side including the imaging element 200b 1 .

なお、図4では、撮像素子200a1および200b1が、それぞれ受光面を正面方向および背面方向に向けるように配置されているが、実際には、撮像素子200a1および200b1は、撮像装置1の筐体10の上下方向に、受光面を互いに内側に向けて配置される。正面方向および背面方向から入射された光は、それぞれプリズムなどにより方向を変換されて、撮像素子200a1および200b1に入射される。この構成に関する詳細は、後述する。 In FIG. 4, the image sensors 200 a1 and 200 b1 are arranged with their light-receiving surfaces facing the front direction and the back direction, respectively, but in reality, the image sensors 200 a1 and 200 b1 are are arranged in the vertical direction of the casing 10 with their light-receiving surfaces facing inward. The light incident from the front direction and the back direction is respectively converted in direction by a prism or the like, and then enters the image pickup elements 200 a1 and 200 b1 . Details regarding this configuration will be described later.

撮像体21VLおよび21IR2も、撮像体21IR1と同様に構成される。すなわち、撮像体21VLは、撮像素子200a2を含む第1面側の撮像レンズ20VLaと、撮像素子200b2を含む第2面側の撮像レンズ20VLbと、を含む。また、撮像体21IR2は、撮像素子200a3を含む第1面側の撮像レンズ20IRa2と、撮像素子200b3を含む第2面側の撮像レンズ20IRb2と、を含む。 The imaging bodies 21VL and 21IR2 are also configured similarly to the imaging body 21IR1 . That is, the imaging body 21VL includes an imaging lens 20VL a on the first surface side that includes the imaging device 200a 2 and an imaging lens 20VL b on the second surface side that includes the imaging device 200b 2 . Further, the imaging body 21IR 2 includes an imaging lens 20IR a2 on the first surface side including the imaging element 200a 3 and an imaging lens 20IR b2 on the second surface side including the imaging element 200b 3 .

さらに、第1の実施形態に係る撮像装置1において、撮像体21IR1および21IR2は、可視光領域の光および非可視光領域の光のうち、少なくとも非可視光領域の光を撮像可能に構成されている。一方、撮像体21VLは、可視光領域の光および非可視光領域の光のうち、可視光領域の光を選択的に撮像可能とされ、非可視光領域の光を撮像しないように構成されている。 Furthermore, in the imaging device 1 according to the first embodiment, the imaging bodies 21IR 1 and 21IR 2 are configured to be able to image at least light in the non-visible light region of light in the visible light region and light in the non-visible light region. has been done. On the other hand, the imaging body 21VL is configured to be able to selectively image light in the visible light region out of light in the visible light region and light in the non-visible light region, and not to image light in the non-visible light region. There is.

例えば、撮像体21IR1および21IR2は、非可視光領域の光を選択的に透過させるフィルタ22IRが、撮像レンズ20IRa1および20IRb1と、撮像レンズ20IRa2および20IRb2に、それぞれ設けられる。例えば、撮像体21IR1において、撮像レンズ20IRa1および20IRb1に入射された光は、各フィルタ22IRにより非可視光領域の光が選択的に透過されて、撮像素子200a1および200b1に照射される。これは、撮像体21IR2においても同様である。 For example, in the imaging bodies 21IR 1 and 21IR 2 , filters 22IR that selectively transmit light in the non-visible light region are provided in the imaging lenses 20IR a1 and 20IR b1 and the imaging lenses 20IR a2 and 20IR b2 , respectively. For example, in the imaging body 21IR 1 , the light incident on the imaging lenses 20IR a1 and 20IR b1 is selectively transmitted by each filter 22IR in the non-visible light region, and is irradiated onto the imaging elements 200a 1 and 200b 1 . Ru. This also applies to the imaging body 21IR2 .

また、撮像体21VLは、可視光領域の光を選択的に透過させるフィルタ22VLが、撮像レンズ20VLaおよび20VLbにそれぞれ設けられる。撮像レンズ20VLaおよびVLbに入射された光は、各フィルタ22VLにより可視光領域の光を選択的に透過されて、撮像素子200a2および200b2に照射される。したがって、撮像素子200a2および200b2により撮像された撮像画像は、色情報を持つ画像となる。 Further, in the imaging body 21VL, filters 22VL that selectively transmit light in the visible light range are provided on the imaging lenses 20VL a and 20VL b , respectively. The light incident on the imaging lenses 20VL a and VL b is selectively transmitted in the visible light range by each filter 22VL, and is irradiated onto the imaging elements 200a 2 and 200b 2 . Therefore, the images captured by the image sensors 200a 2 and 200b 2 have color information.

第1の実施形態では、非可視光領域は、赤外光領域であるものとする。ここでは、赤外光領域を波長が780nm以上の領域であるものとし、フィルタ22IRは、例えば波長が780nm以下の光をカットする特性を持つ。また、フィルタ22VLは、波長が780nm以上の光をカットする特性を持つ。 In the first embodiment, it is assumed that the non-visible light region is an infrared light region. Here, the infrared light region is defined as a region with a wavelength of 780 nm or more, and the filter 22IR has a characteristic of cutting off light with a wavelength of 780 nm or less, for example. Further, the filter 22VL has a characteristic of cutting light having a wavelength of 780 nm or more.

これに限らず、撮像レンズ20IRa1および20IRb1と、撮像レンズ20IRa2および20IRb2とにフィルタ22IRを設けずに、非可視光領域および可視光領域の光を共に透過可能としてもよい。すなわち、撮像体21IR1および21IR2において非可視光領域の光および可視光領域の光のうち少なくとも非可視光領域の光を撮像可能とし、撮像体21VLにおいて非可視光領域の光および可視光領域の光のうち可視光領域の光を選択的に撮像可能、非可視光領域の光を選択的に撮像不可とするような構成であればよい。 However, the present invention is not limited to this, and the imaging lenses 20IR a1 and 20IR b1 and the imaging lenses 20IR a2 and 20IR b2 may be configured to be able to transmit both light in the non-visible light region and visible light region without providing the filter 22IR. That is, the imaging bodies 21IR 1 and 21IR 2 can capture at least the light in the non-visible light region and the light in the visible light region, and the imaging body 21VL can capture the light in the non-visible light region and the visible light region. Any configuration may be used as long as it is possible to selectively image light in the visible light region and selectively disable image capturing of light in the non-visible light region.

また、フィルタ22IRは、例えば撮像レンズ20IRa1の場合、撮像レンズ20IRa1に含まれるレンズに対して設けてもよいし、撮像素子200a1に対して設けてもよい。これは、フィルタ22VLにおいても同様である。さらに、フィルタ22IRおよび22VLを設けずに、撮像体21IR1、21VLおよび21IR2では非可視光領域および可視光領域の光をそれぞれ撮像可能とし、その後の画像処理において、撮像体21VLにより撮像された撮像画像データの非可視光領域成分をカットすることも考えられる。 Furthermore, in the case of the imaging lens 20IR a1 , for example, the filter 22IR may be provided for a lens included in the imaging lens 20IR a1 , or may be provided for the imaging element 200a 1 . This also applies to the filter 22VL. Furthermore, without providing the filters 22IR and 22VL, the imaging bodies 21IR 1 , 21VL and 21IR 2 can image light in the non-visible light region and the visible light region, respectively, and in subsequent image processing, the images captured by the imaging body 21VL. It is also conceivable to cut off the non-visible light region components of the captured image data.

図4において、処理回路基板31は、各撮像素子200a1~a3、200b1~200b3を駆動するための駆動制御回路が搭載される。処理回路基板31に搭載される駆動制御回路は、ユーザによるシャッタボタン30の操作に応じて、各撮像素子200a1~a3、200b1~200b3による撮像を同期して実行させるためのトリガ信号である同期撮像指示信号32を出力する。 In FIG. 4, a processing circuit board 31 is equipped with a drive control circuit for driving each image sensor 200a 1 to a 3 and 200b 1 to 200b 3 . A drive control circuit mounted on the processing circuit board 31 generates a trigger signal for synchronously executing imaging by each of the image sensors 200a 1 to a 3 and 200b 1 to 200b 3 in response to the user's operation of the shutter button 30. A synchronous imaging instruction signal 32 is output.

図5は、第1の実施形態に適用可能な、撮像体21IR1、21VLおよび21IR2の一例の構造を示す図である。なお、以下では、各撮像体21IR1、21VLおよび21IR2を区別する必要が無い場合には、これら撮像体21IR1、21VLおよび21IR2を、撮像体21として纏めて記述する。 FIG. 5 is a diagram showing an example of the structure of the imaging bodies 21IR 1 , 21VL, and 21IR 2 applicable to the first embodiment. Note that, in the following, when there is no need to distinguish between the imaging bodies 21IR 1 , 21VL, and 21IR 2 , these imaging bodies 21IR 1 , 21VL, and 21IR 2 will be collectively described as the imaging body 21.

図5において、撮像体21は、それぞれ撮像レンズ20aおよび20bを含む結像光学系201aおよび201bと、CCDまたはCMOSセンサによる撮像素子200aおよび200bとを含み構成される。各結像光学系201aおよび201bは、例えば6群7枚の魚眼レンズとして構成されている。この魚眼レンズは、180°(=360度/n、nは光学系数=2)より大きい全画角を有し、好適には、185°以上の画角を有し、より好適には、190°以上の画角を有する。 In FIG. 5, the imaging body 21 includes imaging optical systems 201a and 201b including imaging lenses 20a and 20b, respectively, and imaging elements 200a and 200b using CCD or CMOS sensors. Each of the imaging optical systems 201a and 201b is configured, for example, as a fisheye lens with seven lenses in six groups. This fisheye lens has a total angle of view larger than 180° (=360 degrees/n, where n is the number of optical systems=2), preferably has an angle of view of 185° or more, and more preferably 190°. The angle of view is as follows.

各結像光学系201aおよび201bは、それぞれ、光路を90°変更するプリズム202aおよび202bを含む。各結像光学系201aおよび201bにそれぞれ含まれる6群7枚の魚眼レンズは、プリズム202aおよび202bより入射側のグループと、出射側(撮像素子200aおよび200b側)のグループとに分けることができる。例えば、結像光学系201aにおいて、撮像レンズ20aに入射された光は、プリズム202aより入射側のグループに属する各レンズを介してプリズム202aに入射される。プリズム202aに入射された光は、光路を90°変換されて、プリズム202aより出射側のグループに属する各レンズ、開口絞り、フィルタを介して撮像素子200aに照射される。 Each imaging optical system 201a and 201b includes prisms 202a and 202b that change the optical path by 90°, respectively. The seven fisheye lenses in six groups included in each of the imaging optical systems 201a and 201b can be divided into a group on the entrance side of the prisms 202a and 202b, and a group on the exit side (on the imaging elements 200a and 200b side). For example, in the imaging optical system 201a, light incident on the imaging lens 20a is incident on the prism 202a via each lens belonging to a group on the incident side of the prism 202a. The light incident on the prism 202a has its optical path converted by 90 degrees and is irradiated onto the image sensor 200a through each lens, aperture stop, and filter belonging to the group on the exit side of the prism 202a.

2つの結像光学系201aおよび201bの光学素子(レンズ、プリズム202aおよび202b、フィルタおよび開口絞り)は、撮像素子200aおよび200bに対して位置関係が定められる。より具体的には、結像光学系201aおよび201bの光学素子の光軸が、対応する撮像素子200aおよび200bの受光領域の中心部に直交して位置するように、かつ、受光領域が、対応する魚眼レンズの結像面となるように、位置決めが行われる。また、撮像体21では、結像光学系201aおよび201bは、同一仕様のものであり、それぞれの光軸が合致するようにして、互いに逆向きに組み合わせられる。 The optical elements (lenses, prisms 202a and 202b, filters, and aperture stops) of the two imaging optical systems 201a and 201b have a positional relationship with respect to the imaging elements 200a and 200b. More specifically, the optical axes of the optical elements of the imaging optical systems 201a and 201b are positioned perpendicular to the centers of the light receiving areas of the corresponding image sensors 200a and 200b, and the light receiving areas are Positioning is performed so that the image forming plane of the fisheye lens becomes the image plane of the fisheye lens. Furthermore, in the imaging body 21, the imaging optical systems 201a and 201b have the same specifications and are combined in opposite directions so that their respective optical axes match.

図6は、第1の実施形態に係る撮像装置1の外観を概略的に示す3面図である。図6(a)、図6(b)および図6(c)は、それぞれ撮像装置1の上面図、前面図および側面図の例である。図6(b)において、撮像レンズ20IRa2は、レンズ中心が筐体10の底面から高さhに位置するように配置される。この撮像レンズ20IRa2に対して距離dだけ上面側に撮像レンズ20IRa1が配置され、撮像レンズ20IRa2から上面側に距離dv2の位置に、撮像レンズ20VLaが配置される。各撮像レンズ20IRa1、20VLおよび20IRa2は、筐体10の長辺方向の中心線Cにレンズ中心を整列させて配置される。 FIG. 6 is a three-sided view schematically showing the appearance of the imaging device 1 according to the first embodiment. FIGS. 6A, 6B, and 6C are examples of a top view, a front view, and a side view of the imaging device 1, respectively. In FIG. 6B, the imaging lens 20IR a2 is arranged such that the center of the lens is located at a height h from the bottom surface of the housing 10. An imaging lens 20IR a1 is arranged above the imaging lens 20IR a2 by a distance d, and an imaging lens 20VL a is arranged at a distance dv 2 from the imaging lens 20IR a2 towards the upper surface. Each of the imaging lenses 20IR a1 , 20VL, and 20IR a2 is arranged with the lens center aligned with the center line C in the long side direction of the housing 10 .

図6(c)に示されるように、各撮像レンズ20IRa1、20VLaおよび20IRa2の背面側には、各撮像レンズ20IRb1、20VLbおよび20IRb2が、それぞれ各撮像レンズ20IRa1、20VLaおよび20IRa2と対応する位置に配置される。すなわち、これら撮像レンズ20IRb1、20VLbおよび20IRb2も、上述の中心線Cにレンズ中心を整列させて配置される。また、上述したように、各撮像レンズ20IRa1、20VLaおよび20IRa2、ならびに、各撮像レンズ20IRb1、20VLbおよび20IRb2のうち、高さが一致する2つの撮像レンズ(例えば撮像レンズ20IRa1および20IRb1)が1つの撮像体(例えば撮像体21IR1)に含まれる。 As shown in FIG. 6(c), on the back side of each imaging lens 20IRa1 , 20VLa , and 20IRa2 , each imaging lens 20IRb1 , 20VLb , and 20IRb2 is provided , respectively . and 20IR a2 . That is, these imaging lenses 20IR b1 , 20VL b and 20IR b2 are also arranged with their lens centers aligned with the above-mentioned center line C. Furthermore, as described above, among the imaging lenses 20IR a1 , 20VL a and 20IR a2 and the imaging lenses 20IR b1 , 20VL b and 20IR b2 , two imaging lenses having the same height (for example, the imaging lens 20IR a1 and 20IR b1 ) are included in one imaging body (for example, imaging body 21IR 1 ).

なお、図6(a)および図6(c)において、角度αは、撮像レンズ20IRa1および20IRb1の画角(撮像範囲)の例を示している。 Note that in FIGS. 6(a) and 6(c), the angle α indicates an example of the angle of view (imaging range) of the imaging lenses 20IR a1 and 20IR b1 .

図7は、第1の実施形態に係る各撮像体21IR1、21VLおよび21IR2により撮像可能な撮像範囲の例を示す図である。各撮像体21IR1、21VLおよび21IR2は、同様の撮像範囲を有する。図7では、撮像体21IR1、21VLおよび21IR2による各撮像範囲を、撮像体21IR1の撮像範囲で代表して示している。 FIG. 7 is a diagram showing an example of an imaging range that can be imaged by each of the imaging bodies 21IR 1 , 21VL, and 21IR 2 according to the first embodiment. Each imaging body 21IR 1 , 21VL and 21IR 2 has a similar imaging range. In FIG. 7, the imaging ranges of the imaging bodies 21IR 1 , 21VL, and 21IR 2 are represented by the imaging range of the imaging body 21IR 1 .

なお、以下では、図7に示されるように、例えば撮像レンズ20IRa1、20VLaおよび20IRa2が整列する方向をZ軸と対応させ、撮像レンズ20IRa1および20IRb1の光軸の方向にX軸を対応させるものとする。 In the following, as shown in FIG. 7, for example, the direction in which the imaging lenses 20IR a1 , 20VL a and 20IR a2 are aligned corresponds to the Z axis, and the direction of the optical axis of the imaging lenses 20IR a1 and 20IR b1 corresponds to the X axis. shall correspond.

撮像体21IR1は、撮像レンズ20IRa1および20IRb1の組み合わせにより、撮像体21IR1の中心部を中心とした全天球を撮像範囲とする。すなわち、上述したように、撮像レンズ20IRa1および20IRb1は、それぞれ画角が180°を超え、より好適には185°以上とされている。したがって、これら撮像レンズ20IRa1および20IRb1の組み合わせにより、XY平面上の撮像範囲AおよびXZ平面上の撮像範囲Bをそれぞれ360°とすることができ、これらの組み合わせにより、全天球の撮像範囲が実現される。 The imaging body 21IR 1 has an imaging range that covers the entire celestial sphere centered on the center of the imaging body 21IR 1 by a combination of the imaging lenses 20IR a1 and 20IR b1 . That is, as described above, the imaging lenses 20IR a1 and 20IR b1 each have an angle of view of more than 180°, more preferably 185° or more. Therefore, by combining these imaging lenses 20IR a1 and 20IR b1 , the imaging range A on the XY plane and the imaging range B on the is realized.

換言すれば、撮像体21IR1は、撮像レンズ20IRa1の光軸を中心とした、光軸の第1の方向に向けた半球を含む範囲と、撮像レンズ20IRa1の光軸と共通する撮像レンズ20IRb1の光軸を中心とした、光軸の第1の方向と逆方向の第2の方向に向けた半球を含む範囲と、を撮像可能である。 In other words, the imaging body 21IR 1 includes a range including a hemisphere centered on the optical axis of the imaging lens 20IR a1 and oriented in the first direction of the optical axis, and an imaging lens that is common to the optical axis of the imaging lens 20IR a1 . It is possible to image a range including a hemisphere centered on the optical axis of 20IR b1 and directed in a second direction opposite to the first direction of the optical axis.

また、撮像体21IR1および21IR2は、Z軸方向に距離dの間隔を開けて配置されている。したがって、撮像体21IR1および21IR2により全天球を撮像範囲として撮像された各撮像画像は、Z軸方向に距離dだけ視点の異なる画像となる。 Furthermore, the imaging bodies 21IR 1 and 21IR 2 are arranged with a distance d apart in the Z-axis direction. Therefore, each captured image captured by the imaging bodies 21IR 1 and 21IR 2 with the entire celestial sphere as the imaging range becomes an image with a different viewpoint by the distance d in the Z-axis direction.

このとき、第1の実施形態では、各撮像レンズ20IRa1、20VLaおよび20IRa2、ならびに、各撮像レンズ20IRb1、20VLbおよび20IRb2における撮像が、シャッタボタン30の操作に応じて同期して行われる。そのため、第1の実施形態に係る撮像装置1を用いることで、筐体10の第1面および第2面それぞれについて、Z軸方向に距離dだけ視点が異なり、且つ、非可視光領域の光を撮像した2枚の撮像画像と、当該2枚の撮像画像の撮像位置の間を撮像位置として可視光領域の光を撮像した1枚の撮像画像を取得することができる。 At this time, in the first embodiment, imaging in each imaging lens 20IR a1 , 20VL a and 20IR a2 and each imaging lens 20IR b1 , 20VL b and 20IR b2 is synchronized according to the operation of the shutter button 30. It will be done. Therefore, by using the imaging device 1 according to the first embodiment, the viewpoints differ by the distance d in the Z-axis direction for each of the first and second surfaces of the housing 10, and the light in the non-visible light region is It is possible to obtain two captured images in which light in the visible light region is captured and one captured image in which light in the visible light region is captured with the imaging position set between the imaging positions of the two captured images.

[第1の実施形態に適用可能な3次元復元モデル作成処理]
次に、第1の実施形態に適用可能な3次元復元モデル作成処理について、概略的に説明する。第1の実施形態では、例えば、図8に示されるように、撮像装置1に接続した画像処理装置100により、3次元復元モデルの作成処理を実行する。画像処理装置100は、例えば、パーソナルコンピュータ(PC)上で画像処理プログラムを実行させることで構成できる。これに限らず、画像処理装置100は、3次元復元モデル作成処理を実行するための専用のハードウェアであってもよい。
[3D restoration model creation process applicable to the first embodiment]
Next, a three-dimensional reconstruction model creation process applicable to the first embodiment will be schematically described. In the first embodiment, for example, as shown in FIG. 8, the image processing device 100 connected to the imaging device 1 executes a three-dimensional reconstruction model creation process. The image processing apparatus 100 can be configured by, for example, running an image processing program on a personal computer (PC). The image processing device 100 is not limited to this, and may be dedicated hardware for executing the three-dimensional restoration model creation process.

例えば、画像処理装置100は、撮像装置1のメモリから、撮像装置1により各撮像体21IR1、21VLおよび21IR2により同期して撮像されメモリに記憶された複数(この例では、第1の面および第2の面を合計して6枚)の撮像画像を読み出す。画像処理装置100は、撮像装置1のメモリから読み出した6枚の画像のうち、各撮像体21IR1、21VLおよび21IR2においてそれぞれ2枚ずつ撮像された撮像画像を、撮像体21IR1、21VLおよび21IR2毎にそれぞれ合成する。これにより、Z軸方向に距離dだけ視点が異なる、2枚の非可視光領域の光を含んで撮像された2枚の全天球画像と、当該2枚の全天球画像の略それぞれに対して距離dv1およびdv2だけ視点が異なる、1枚の可視光領域の光を選択的に含んで撮像された1枚の全天球画像と、を作成する。 For example , the image processing device 100 selects from the memory of the imaging device 1 a plurality of images (in this example, a first surface and the second surface (6 images in total) are read out. The image processing device 100 converts two captured images of the six images read from the memory of the image capturing device 1 into the image capturing bodies 21IR 1 , 21VL and 21IR 2 into the image capturing bodies 21IR 1 , 21VL and 21IR 2 . Each of 21IR 2 is synthesized. As a result, two omnidirectional images captured including light in the non-visible light region, whose viewpoints differ by a distance d in the Z-axis direction, and approximately each of the two omnidirectional images, On the other hand, one spherical image that is taken selectively including light in the visible light region and whose viewpoints differ by distances dv 1 and dv 2 is created.

次に、第1の実施形態に係る撮像装置1および画像処理装置100の信号処理に関する構成について説明する。図9は、第1の実施形態に係る撮像装置1の一例の構成を示すブロック図である。なお、図9において、上述した図4および図5と対応する部分には同一の符号を付して、詳細な説明を省略する。 Next, the configuration regarding signal processing of the imaging device 1 and the image processing device 100 according to the first embodiment will be described. FIG. 9 is a block diagram showing the configuration of an example of the imaging device 1 according to the first embodiment. Note that in FIG. 9, parts corresponding to those in FIGS. 4 and 5 described above are designated by the same reference numerals, and detailed description thereof will be omitted.

図9において、撮像装置1は、撮像素子200a1、200a2および200a3、ならびに、撮像素子200b1、200b2および200b3と、駆動部210a1、210a2および210a3、ならびに、駆動部210b1、210b2および210b3と、バッファメモリ211a1、211a2および211a3、ならびに、バッファメモリ211b1、211b2および211b3と、を含む。 In FIG. 9, the imaging device 1 includes image sensors 200a 1 , 200a 2 and 200a 3 , image sensors 200b 1 , 200b 2 and 200b 3 , drive units 210a 1 , 210a 2 and 210a 3 , and drive unit 210b. 1 , 210b 2 and 210b 3 , buffer memories 211a 1 , 211a 2 and 211a 3 , and buffer memories 211b 1 , 211b 2 and 211b 3 .

これらのうち、撮像素子200a1、200a2および200a3と、駆動部210a1、210a2および210a3と、バッファメモリ211a1、211a2および211a3と、は、それぞれ撮像レンズ20IRa1、20VLaおよび20IRa2に対応する構成であって、それぞれ撮像体21IR1、21VLおよび21IR2に含まれる。なお、図9では、煩雑さを避けるため、撮像体21IR1、21VLおよび21IR2のうち、撮像体21IR1のみを示している。 Among these, the imaging elements 200a 1 , 200a 2 and 200a 3 , the drive units 210a 1 , 210a 2 and 210a 3 , and the buffer memories 211a 1 , 211a 2 and 211a 3 are the imaging lenses 20IR a1 and 20VL a , respectively. and 20IR a2 , and are included in the imaging bodies 21IR 1 , 21VL and 21IR 2 , respectively. In addition, in FIG. 9, in order to avoid complexity, only the imaging body 21IR 1 is shown among the imaging bodies 21IR 1 , 21VL, and 21IR 2 .

同様に、撮像素子200b1、200b2および200b3と、駆動部210b1、210b2および210b3と、バッファメモリ211b1、211b2および211b3と、は、それぞれ撮像レンズ20IRb1、20VLbおよび20IRb2に対応する構成であって、それぞれ撮像体21IR1、21VLおよび21IR2に含まれる。 Similarly, the imaging elements 200b 1 , 200b 2 and 200b 3 , the driving units 210b 1 , 210b 2 and 210b 3 , and the buffer memories 211b 1 , 211b 2 and 211b 3 respectively have the imaging lenses 20IR b1 , 20VL b and 20IRb2 , and are included in the imaging bodies 21IR1 , 21VL, and 21IR2 , respectively.

撮像装置1は、さらに、制御部220、メモリ221およびスイッチ(SW)222を含む。これらのうち、少なくとも制御部220およびメモリ221は、処理回路基板31に搭載される。スイッチ222は、図3、図4に示したシャッタボタン30に対応する。例えば、スイッチ222が閉状態で、シャッタボタン30が操作された状態に対応する。 The imaging device 1 further includes a control section 220, a memory 221, and a switch (SW) 222. Of these, at least the control unit 220 and the memory 221 are mounted on the processing circuit board 31. The switch 222 corresponds to the shutter button 30 shown in FIGS. 3 and 4. For example, this corresponds to a state in which the switch 222 is closed and the shutter button 30 is operated.

撮像体21IR1について説明する。撮像体21IR1は、撮像素子200a1、駆動部210a1およびバッファメモリ211a1と、撮像素子200b1、駆動部210b1およびバッファメモリ211b1と、を含む。 The imaging body 21IR 1 will be explained. The image sensor 21IR 1 includes an image sensor 200a 1 , a drive section 210a 1 and a buffer memory 211a 1 , and an image sensor 200b 1 , a drive section 210b 1 and a buffer memory 211b 1 .

駆動部210a1は、撮像素子200a1を駆動し、制御部220からトリガ信号として供給される同期撮像指示信号32に応じて、撮像素子200a1から電荷を読み出す。駆動部210a1は、撮像素子200a1から読み出した電荷を電気信号に変換し、さらに、この電気信号を、ディジタルデータである撮像画像に変換して出力する。なお、駆動部210a1は、1回の同期撮像指示信号32に応じて、撮像素子200a1から読み出した電荷に基づき1フレームの撮像画像を出力する。 The drive unit 210a 1 drives the image sensor 200a 1 and reads charges from the image sensor 200a 1 in response to the synchronous imaging instruction signal 32 supplied as a trigger signal from the control unit 220. The drive unit 210a 1 converts the charge read from the image sensor 200a 1 into an electrical signal, and further converts this electrical signal into a captured image that is digital data and outputs the captured image. Note that, in response to one synchronous imaging instruction signal 32, the driving unit 210a 1 outputs one frame of a captured image based on the charge read from the image sensor 200a 1 .

バッファメモリ211a1は、少なくとも1フレーム分の撮像画像を記憶可能なメモリである。駆動部210a1から出力された撮像画像は、このバッファメモリ211a1に記憶される。 The buffer memory 211a 1 is a memory that can store at least one frame worth of captured images. The captured image output from the drive unit 210a 1 is stored in this buffer memory 211a 1 .

なお、撮像体21IR1において、撮像素子200b1、駆動部210b1およびバッファメモリ211b1については、上述の撮像素子200a1、駆動部210a1およびバッファメモリ211a1と同等の機能を有するため、ここでの説明を省略する。また、他の撮像体21VLおよび21IR2についても、機能は撮像体21IR1と同等であるため、ここでの説明を省略する。 In the imaging body 21IR 1 , the imaging element 200b 1 , drive unit 210b 1 and buffer memory 211b 1 have the same functions as the above-mentioned imaging element 200a 1 , drive unit 210a 1 and buffer memory 211a 1 , so they will be described here. The explanation will be omitted. Furthermore, since the functions of the other imaging bodies 21VL and 21IR2 are the same as those of the imaging body 21IR1 , the description thereof will be omitted here.

制御部220は、撮像装置1の全体の動作を制御する。制御部220は、スイッチ222の開状態から閉状態への遷移を検知すると、同期撮像指示信号32を出力する。同期撮像指示信号32は、各駆動部210a1、210a2および210a3、ならびに、各駆動部210b1、210b2および210b3に同時に供給される。 The control unit 220 controls the overall operation of the imaging device 1. When the control unit 220 detects the transition of the switch 222 from the open state to the closed state, it outputs the synchronous imaging instruction signal 32. The synchronous imaging instruction signal 32 is simultaneously supplied to each drive section 210a 1 , 210a 2 and 210a 3 and each drive section 210b 1 , 210b 2 and 210b 3 .

メモリ221は、同期撮像指示信号32の出力に応じた制御部220の制御に従い、各バッファメモリ211a1、211a2および211a3、ならびに、各バッファメモリ211b1、211b2および211b3から各撮像画像を読み出し、読み出した各撮像画像を記憶する。メモリ221に記憶された各撮像画像は、例えば図8を用いて説明したように、撮像装置1と接続される画像処理装置100により読み出すことができる。 The memory 221 stores each captured image from each buffer memory 211a 1 , 211a 2 and 211a 3 and each buffer memory 211b 1 , 211b 2 and 211b 3 under the control of the control unit 220 in accordance with the output of the synchronous imaging instruction signal 32 . and stores each read-out captured image. Each captured image stored in the memory 221 can be read out by the image processing device 100 connected to the imaging device 1, as described using FIG. 8, for example.

このように、制御部220は、各撮像体21IR1、21VLおよび21IR2による撮像を制御し、撮像された撮像画像の取得を行う撮像制御部として機能する。 In this way, the control unit 220 functions as an imaging control unit that controls imaging by each of the imaging bodies 21IR 1 , 21VL, and 21IR 2 and acquires the captured images.

図10は、第1の実施形態に係る撮像装置1における制御部220およびメモリ221の一例の構成を示すブロック図である。図10において、制御部220は、CPU(Central Processing Unit)2000と、ROM(Read Only Memory)2001と、トリガI/F2004と、スイッチ(SW)回路2005と、データI/F2006と、通信I/F2007とを含み、これら各部がバス2010に通信可能に接続される。また、メモリ221は、RAM(Random Access Memory)2003と、メモリコントローラ2002とを含み、バス2010に対して、メモリコントローラ2002がさらに接続される。バッテリ2020は、例えばリチウムイオン二次電池といった二次電池であって、撮像装置1内部の電力供給が必要な各部に電力を供給する電力供給部である。 FIG. 10 is a block diagram showing an example of the configuration of the control unit 220 and memory 221 in the imaging device 1 according to the first embodiment. In FIG. 10, the control unit 220 includes a CPU (Central Processing Unit) 2000, a ROM (Read Only Memory) 2001, a trigger I/F 2004, a switch (SW) circuit 2005, a data I/F 2006, and a communication I/F 2004. F2007, and each of these units is communicably connected to the bus 2010. Further, the memory 221 includes a RAM (Random Access Memory) 2003 and a memory controller 2002, and the memory controller 2002 is further connected to the bus 2010. The battery 2020 is a secondary battery such as a lithium ion secondary battery, for example, and is a power supply unit that supplies power to various parts inside the imaging device 1 that require power supply.

CPU2000は、例えばROM2001に予め記憶されるプログラムに従い、RAM2003の一部の記憶領域をワークメモリとして用いて動作して、この撮像装置1の全体の動作を制御する。メモリコントローラ2002は、CPU2000の指示に従い、RAM2003に対するデータの記憶および読み出しを制御する。また、メモリコントローラ2002は、CPU2000の指示に従い、各バッファメモリ211a1、211a2および211a3、ならびに、各バッファメモリ211b1、211b2および211b3からの撮像画像の読み出しも制御する。 The CPU 2000 operates according to a program stored in advance in the ROM 2001, for example, using a part of the storage area of the RAM 2003 as a work memory, and controls the overall operation of the imaging apparatus 1. The memory controller 2002 controls data storage and reading from the RAM 2003 according to instructions from the CPU 2000. The memory controller 2002 also controls reading of captured images from each of the buffer memories 211a 1 , 211a 2 and 211a 3 and each of the buffer memories 211b 1 , 211b 2 and 211b 3 according to instructions from the CPU 2000.

スイッチ回路2005は、スイッチ222の閉状態および開状態の間の遷移を検知して、検知結果をCPU2000に渡す。CPU2000は、スイッチ回路2005からスイッチ222が開状態から閉状態に遷移した旨の検知結果を受け取ると、トリガ信号としての同期撮像指示信号32を出力する。同期撮像指示信号32は、トリガI/F2004を介して出力され、分岐して、各駆動部210a1、210a2および210a3、ならびに、各駆動部210b1、210b2および210b3にそれぞれ供給される。 The switch circuit 2005 detects the transition between the closed state and the open state of the switch 222 and passes the detection result to the CPU 2000. When the CPU 2000 receives a detection result indicating that the switch 222 has transitioned from the open state to the closed state from the switch circuit 2005, the CPU 2000 outputs the synchronous imaging instruction signal 32 as a trigger signal. The synchronous imaging instruction signal 32 is outputted via the trigger I/F 2004, branched off, and supplied to each drive unit 210a 1 , 210a 2 and 210a 3 and each drive unit 210b 1 , 210b 2 and 210b 3 . Ru.

データI/F2006は、外部機器との間でデータ通信を行うためのインタフェースである。データI/F2006としては、例えばUSB(Universal Serial Bus)を適用することができる。通信I/F2007は、ネットワークと接続され、ネットワークに対する通信を制御する。通信I/F2007に接続されるネットワークは、有線および無線の何れでもよいし、有線および無線の両方に接続可能であってもよい。上述した画像処理装置100は、データI/F2006および通信I/F2007の少なくとも一方を介して撮像装置1に接続される。 Data I/F 2006 is an interface for performing data communication with external devices. As the data I/F 2006, for example, a USB (Universal Serial Bus) can be applied. Communication I/F 2007 is connected to a network and controls communication with the network. The network connected to the communication I/F 2007 may be either wired or wireless, or may be connectable to both wired and wireless. The image processing device 100 described above is connected to the imaging device 1 via at least one of the data I/F 2006 and the communication I/F 2007.

なお、上述では、CPU2000は、スイッチ回路2005による検知結果に応じて同期撮像指示信号32を出力するように説明したが、これはこの例に限定されない。例えば、CPU2000は、データI/F2006や通信I/F2007を介して供給された信号に応じて、同期撮像指示信号32を出力してもよい。さらに、トリガI/F2004がスイッチ回路2005の検知結果に応じて同期撮像指示信号32を発生させて、各駆動部210a1、210a2および210a3、ならびに、各駆動部210b1、210b2および210b3に供給してもよい。 Note that, in the above description, the CPU 2000 outputs the synchronous imaging instruction signal 32 in accordance with the detection result by the switch circuit 2005, but this is not limited to this example. For example, the CPU 2000 may output the synchronous imaging instruction signal 32 in response to a signal supplied via the data I/F 2006 or the communication I/F 2007. Further, the trigger I/F 2004 generates a synchronized imaging instruction signal 32 according to the detection result of the switch circuit 2005, and each drive unit 210a 1 , 210a 2 and 210a 3 and each drive unit 210b 1 , 210b 2 and 210b 3 may be supplied.

このような構成において、制御部220は、スイッチ222の開状態から閉状態への遷移を検知すると、同期撮像指示信号32を生成、出力する。同期撮像指示信号32は、各駆動部210a1、210a2および210a3、ならびに、各駆動部210b1、210b2および210b3に同タイミングで供給される。各駆動部210a1、210a2および210a3、ならびに、各駆動部210b1、210b2および210b3は、供給された同期撮像指示信号32に同期して、各撮像素子200a1、200a2および200a3、ならびに、各撮像素子200b1、200b2および200b3から電荷を読み出す。 In such a configuration, when the control unit 220 detects the transition of the switch 222 from the open state to the closed state, it generates and outputs the synchronous imaging instruction signal 32. The synchronous imaging instruction signal 32 is supplied to each drive unit 210a 1 , 210a 2 and 210a 3 and each drive unit 210b 1 , 210b 2 and 210b 3 at the same timing. Each drive unit 210a 1 , 210a 2 and 210a 3 and each drive unit 210b 1 , 210b 2 and 210b 3 drive each image sensor 200a 1 , 200a 2 and 200a in synchronization with the supplied synchronous imaging instruction signal 32. 3 and the charges are read out from each image sensor 200b 1 , 200b 2 and 200b 3 .

各駆動部210a1、210a2および210a3、ならびに、各駆動部210b1、210b2および210b3は、各撮像素子200a1、200a2および200a3、ならびに、各撮像素子200b1、200b2および200b3から読み出した電荷をそれぞれ撮像画像に変換し、変換された各撮像画像を各バッファメモリ211a1、211a2および211a3、および、各バッファメモリ211b1、211b2および211b3に記憶する。 Each drive unit 210a 1 , 210a 2 and 210a 3 and each drive unit 210b 1 , 210b 2 and 210b 3 drive each image sensor 200a 1 , 200a 2 and 200a 3 and each image sensor 200b 1 , 200b 2 and The electric charges read from 200b 3 are each converted into a captured image, and each converted captured image is stored in each buffer memory 211a 1 , 211a 2 and 211a 3 and each buffer memory 211b 1 , 211b 2 and 211b 3 .

制御部220は、同期撮像指示信号32の出力後の所定タイミングで、メモリ221に対して、各バッファメモリ211a1、211a2および211a3、および、各バッファメモリ211b1、211b2および211b3からの撮像画像の読み出しを指示する。メモリ221において、メモリコントローラ2002は、この指示に応じて、各バッファメモリ211a1、211a2および211a3、および、各バッファメモリ211b1、211b2および211b3から各撮像画像を読み出し、読み出した各撮像画像をRAM2003の所定領域に記憶する。 At a predetermined timing after the output of the synchronous imaging instruction signal 32, the control unit 220 causes the memory 221 to read data from each of the buffer memories 211a 1 , 211a 2 and 211a 3 and from each of the buffer memories 211b 1 , 211b 2 and 211b 3 . instructs to read out the captured image. In the memory 221, the memory controller 2002 reads each captured image from each buffer memory 211a 1 , 211a 2 and 211a 3 and each buffer memory 211b 1 , 211b 2 and 211b 3 according to this instruction, The captured image is stored in a predetermined area of the RAM 2003.

画像処理装置100が例えばデータI/F2006を介して撮像装置1に接続される場合、画像処理装置100は、データI/F2006を介して、RAM2003に記憶される各撮像画像の読み出しを要求する。CPU2000は、この要求に応じて、メモリコントローラ2002に対してRAM2003からの各撮像画像の読み出しを指示する。メモリコントローラ2002は、この指示に応じてRAM2003から各撮像画像を読み出して、読み出した各撮像画像を、データI/F2006を介して画像処理装置100に送信する。画像処理装置100は、撮像装置1から送信された各撮像画像に基づき、後述する、第1の実施形態に係る3次元復元モデル作成処理を実行する。 For example, when the image processing device 100 is connected to the imaging device 1 via the data I/F 2006, the image processing device 100 requests reading of each captured image stored in the RAM 2003 via the data I/F 2006. In response to this request, CPU 2000 instructs memory controller 2002 to read each captured image from RAM 2003. The memory controller 2002 reads each captured image from the RAM 2003 in response to this instruction, and transmits each read captured image to the image processing apparatus 100 via the data I/F 2006. The image processing device 100 executes a three-dimensional restoration model creation process according to the first embodiment, which will be described later, based on each captured image transmitted from the imaging device 1.

図11は、第1の実施形態に適用可能な画像処理装置100の一例の構成を示すブロック図である。画像処理装置100は、CPU1000と、ROM1001と、RAM1002と、グラフィックI/F1003と、ストレージ1004と、入力デバイス1005と、データI/F1006と、通信I/F1007とを含み、これら各部がバス1010に互いに通信可能に接続される。なお、図11において、入力デバイス1005は、画像処理装置100に対して着脱自在とすることができる。 FIG. 11 is a block diagram showing the configuration of an example of an image processing apparatus 100 applicable to the first embodiment. The image processing apparatus 100 includes a CPU 1000 , a ROM 1001 , a RAM 1002 , a graphic I/F 1003 , a storage 1004 , an input device 1005 , a data I/F 1006 , and a communication I/F 1007 , and these units are connected to a bus 1010 . communicably connected to each other. Note that in FIG. 11, the input device 1005 can be detachably attached to the image processing apparatus 100.

このように、画像処理装置100は、CPU1000と、ROM1001、RAM1002およびストレージ1004といった各種記憶媒体とを含み、一般的なコンピュータを用いて構成することができる。 In this way, the image processing apparatus 100 includes a CPU 1000 and various storage media such as a ROM 1001, a RAM 1002, and a storage 1004, and can be configured using a general computer.

ストレージ1004は、データを不揮発に記憶することが可能な記憶媒体であって、例えばフラッシュメモリなどの不揮発性の半導体メモリである。これに限らず、ストレージ1004としてハードディスクドライブを用いてもよい。ストレージ1004は、CPU1000が実行するためのプログラムや各種データが格納される。なお、ストレージ1004およびROM1001は、例えば1つの書き換え可能な不揮発性半導体メモリなどを共用してもよい。 The storage 1004 is a storage medium that can store data in a nonvolatile manner, and is, for example, a nonvolatile semiconductor memory such as a flash memory. The present invention is not limited to this, and a hard disk drive may be used as the storage 1004. The storage 1004 stores programs and various data for the CPU 1000 to execute. Note that the storage 1004 and the ROM 1001 may share, for example, one rewritable nonvolatile semiconductor memory.

CPU1000は、ROM1001およびストレージ1004に記憶されるプログラムに従い、RAM1002をワークメモリとして用いて、この画像処理装置100の全体を制御する。グラフィックI/F1003は、CPU1000により生成された表示制御信号を、ディスプレイ1020が表示可能な信号に変換して出力する。ディスプレイ1020は、例えば表示デバイスとしてLCD(Liquid Crystal Display)を含み、グラフィックI/F1003から出力された信号により駆動されて、表示制御信号に応じた画面を表示させる。ディスプレイ1020は、画像処理装置100に内蔵されていてもよいし、画像処理装置100に対して着脱自在としてもよい。 CPU 1000 controls the entire image processing apparatus 100 according to programs stored in ROM 1001 and storage 1004, using RAM 1002 as a work memory. The graphic I/F 1003 converts the display control signal generated by the CPU 1000 into a signal that can be displayed by the display 1020 and outputs the signal. The display 1020 includes, for example, an LCD (Liquid Crystal Display) as a display device, and is driven by a signal output from the graphic I/F 1003 to display a screen according to a display control signal. The display 1020 may be built into the image processing apparatus 100 or may be detachably attached to the image processing apparatus 100.

データI/F1006は、外部機器との間でデータの入出力を行う。データI/F1006として、例えば上述の撮像装置1のデータI/F2006と対応させて、USBを適用することができる。画像処理装置100は、データI/F1006により撮像装置1と接続され、撮像装置1に対する撮像画像の要求の送信、撮像装置1からの撮像画像の取得などを行うことができる。 Data I/F 1006 inputs and outputs data to and from external devices. As the data I/F 1006, a USB can be applied, for example, in association with the data I/F 2006 of the imaging device 1 described above. The image processing device 100 is connected to the imaging device 1 through a data I/F 1006, and can transmit a request for a captured image to the imaging device 1, acquire a captured image from the imaging device 1, and the like.

入力デバイス1005は、例えばユーザ入力を受け付ける。入力デバイス1005としては、画像処理装置100に接続して使用される、マウスなどのポインティングデバイスやキーボードを適用させることができる。これに限らず、入力デバイス1005は、画像処理装置100に内蔵される操作子であってもよい。ユーザは、例えばディスプレイ1020に対する表示に応じて入力デバイス1005を操作することで、画像処理装置100に対して指示を入力することができる。 Input device 1005 receives, for example, user input. As the input device 1005, a pointing device such as a mouse or a keyboard, which is used by being connected to the image processing apparatus 100, can be used. The input device 1005 is not limited to this, and may be an operator built into the image processing apparatus 100. The user can input instructions to the image processing apparatus 100 by operating the input device 1005 according to the information displayed on the display 1020, for example.

通信I/F1007は、CPU1000の制御に従いネットワークを介した通信を行う。 The communication I/F 1007 performs communication via the network under the control of the CPU 1000.

図12は、第1の実施形態に係る画像処理装置100の機能を説明するための一例の機能ブロック図である。図12において、画像処理装置100は、取得部110と、マッチング処理部111と、3D情報生成部112と、再投影処理部113と、出力処理部114と、UI(User Interface)部120と、制御部121と、を含む。 FIG. 12 is an example functional block diagram for explaining the functions of the image processing apparatus 100 according to the first embodiment. In FIG. 12, the image processing device 100 includes an acquisition section 110, a matching processing section 111, a 3D information generation section 112, a reprojection processing section 113, an output processing section 114, a UI (User Interface) section 120, A control unit 121 is included.

これら取得部110、マッチング処理部111、3D情報生成部112、再投影処理部113、出力処理部114、UI部120および制御部121は、CPU1000上で第1の実施形態に係る画像処理プログラムが実行されることで実現される。これに限らず、これら取得部110、マッチング処理部111、3D情報生成部112、再投影処理部113、出力処理部114、UI部120および制御部121の1部または全部を、互いに協働して動作するハードウェア回路により実現してもよい。 These acquisition section 110, matching processing section 111, 3D information generation section 112, reprojection processing section 113, output processing section 114, UI section 120, and control section 121 run the image processing program according to the first embodiment on the CPU 1000. It is realized through execution. However, the present invention is not limited to this, and some or all of the acquisition section 110, matching processing section 111, 3D information generation section 112, reprojection processing section 113, output processing section 114, UI section 120, and control section 121 may cooperate with each other. It may also be realized by a hardware circuit that operates by

取得部110は、撮像装置1と接続して、撮像装置1のメモリ221に記憶される、各撮像素子200a1、200a2および200a3、ならびに、200b1、200b2および200b3により撮像された各撮像画像を取得する。取得部110は、取得した各撮像画像のうち、撮像体21IR1および21IR2により撮像された撮像画像、すなわち、撮像素子200a1、200a3、200b1および200b3により撮像された各撮像画像を、マッチング処理部111に渡す。また、取得部110は、取得した各画像のうち、撮像体21VLにより撮像された撮像画像、すなわち撮像素子200a2および200b2により撮像された各撮像画像を、再投影処理部113に渡す。 The acquisition unit 110 is connected to the imaging device 1 to capture images captured by the imaging devices 200a 1 , 200a 2 and 200a 3 and 200b 1 , 200b 2 and 200b 3 stored in the memory 221 of the imaging device 1. Acquire each captured image. The acquisition unit 110 acquires the captured images captured by the imaging bodies 21IR 1 and 21IR 2 , that is, the captured images captured by the imaging elements 200a 1 , 200a 3 , 200b 1 and 200b 3 , among the acquired captured images. , is passed to the matching processing section 111. Furthermore, among the acquired images, the acquisition unit 110 passes the captured images captured by the imaging body 21VL, that is, the captured images captured by the imaging elements 200a 2 and 200b 2 to the reprojection processing unit 113.

マッチング処理部111は、取得部110から渡された、撮像体21IR1および21IR2により撮像された各撮像画像を用いてマッチング処理を行う。3D情報生成部112は、マッチング処理部111によるマッチング処理の結果を用いて深度情報を求め、求めた深度情報に基づき3次元点群情報を生成する。 The matching processing unit 111 performs matching processing using the captured images captured by the imaging bodies 21IR 1 and 21IR 2 passed from the acquisition unit 110. The 3D information generation section 112 obtains depth information using the results of the matching process performed by the matching processing section 111, and generates three-dimensional point group information based on the obtained depth information.

再投影処理部113は、取得部110から渡された、撮像体21VLにより撮像された各撮像画像を、マッチング処理部111により生成された3次元点群情報に再投影し、3次元点群情報に色情報を付加する。 The reprojection processing unit 113 reprojects each captured image captured by the imaging body 21VL passed from the acquisition unit 110 onto the three-dimensional point cloud information generated by the matching processing unit 111, and generates three-dimensional point cloud information. Add color information to.

出力処理部114は、再投影処理部113により色情報が付加された3次元点群情報を、3次元復元モデルとして出力する。出力処理部114は、3次元復元モデルを画像処理装置100の外部に出力してもよいし、RAM1002やストレージ1004に記憶させてもよい。また、出力処理部114は、3次元復元モデルをディスプレイ1020に表示させることもできる。 The output processing unit 114 outputs the three-dimensional point group information to which color information has been added by the reprojection processing unit 113 as a three-dimensional restored model. The output processing unit 114 may output the three-dimensional restored model to the outside of the image processing apparatus 100, or may store it in the RAM 1002 or the storage 1004. The output processing unit 114 can also display the three-dimensional reconstructed model on the display 1020.

UI部120は、ディスプレイ1020に対する画面表示の制御と、入力デバイス1005に対するユーザ操作に応じた入力の受付とを行い、ユーザインタフェースを提供する。制御部121は、画像処理装置100の全体の動作を制御する。 The UI unit 120 controls screen display on the display 1020, accepts input according to user operations on the input device 1005, and provides a user interface. The control unit 121 controls the overall operation of the image processing apparatus 100.

画像処理装置100における第1の実施形態に係る各機能を実現するための画像処理プログラムは、インストール可能な形式または実行可能な形式のファイルでCD(Compact Disk)、フレキシブルディスク(FD)、DVD(Digital Versatile Disk)などのコンピュータで読み取り可能な記録媒体に記録して提供される。これに限らず、当該画像処理プログラムを、インターネットなどのネットワークに接続されたコンピュータ上に格納し、当該ネットワークを介してダウンロードさせることにより提供してもよい。また、当該画像処理プログラムをインターネットなどのネットワークを経由して提供または配布するように構成してもよい。 The image processing program for realizing each function according to the first embodiment in the image processing device 100 is a file in an installable format or an executable format, and is stored on a CD (Compact Disk), a flexible disk (FD), or a DVD ( It is recorded and provided on a computer-readable recording medium such as a digital versatile disk (Digital Versatile Disk). The present invention is not limited to this, and the image processing program may be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. Further, the image processing program may be provided or distributed via a network such as the Internet.

当該画像処理プログラムは、取得部110、マッチング処理部111、3D情報生成部112、再投影処理部113、出力処理部114、UI部120および制御部121を含むモジュール構成となっている。実際のハードウェアとしては、CPU1000がストレージ1004などの記憶媒体から当該画像処理プログラムを読み出して実行することにより、上述した各部がRAM1002などの主記憶装置上にロードされ、取得部110、マッチング処理部111、3D情報生成部112、再投影処理部113、出力処理部114、UI部120および制御部121が主記憶装置上に生成されるようになっている。 The image processing program has a module configuration including an acquisition section 110, a matching processing section 111, a 3D information generation section 112, a reprojection processing section 113, an output processing section 114, a UI section 120, and a control section 121. In actual hardware, when the CPU 1000 reads out and executes the image processing program from a storage medium such as the storage 1004, the above-mentioned units are loaded onto a main storage device such as the RAM 1002, and the acquisition unit 110, matching processing unit 111, a 3D information generation section 112, a reprojection processing section 113, an output processing section 114, a UI section 120, and a control section 121 are generated on the main storage device.

[第1の実施形態に適用可能な3次元復元モデル作成処理の詳細]
次に、第1の実施形態に係る3次元復元モデル作成処理について、より詳細に説明する。図13は、第1の実施形態に適用可能な3次元復元モデルの作成処理を示す一例のフローチャートである。
[Details of 3D reconstruction model creation process applicable to the first embodiment]
Next, the three-dimensional reconstruction model creation process according to the first embodiment will be described in more detail. FIG. 13 is a flowchart of an example of a three-dimensional reconstruction model creation process applicable to the first embodiment.

なお、図13のフローの処理の実行に先立って、撮像装置1では、撮像体21IR1、21VLおよび21IR2を同期させた撮像が実行されているものとする。したがって、撮像装置1のメモリ221には、撮像体21IR1および21IR2により非可視光領域の光を含んで撮像した4枚の撮像画像と、撮像体21VLにより非可視光領域の光を含まずに、可視光領域の光を選択的に撮像した2枚の撮像画像と、による6枚の撮像画像が記憶されている。 It is assumed that, prior to execution of the processing in the flowchart of FIG. 13, the imaging apparatus 1 performs imaging in which the imaging bodies 21IR 1 , 21VL, and 21IR 2 are synchronized. Therefore, the memory 221 of the imaging device 1 contains four captured images captured by the imaging bodies 21IR 1 and 21IR 2 that include light in the non-visible light region, and four captured images that do not include light in the non-visible light region by the imaging body 21VL. , two captured images selectively capturing light in the visible light region, and six captured images are stored.

ステップS100で、取得部110は、撮像装置1のメモリ221から、非可視光領域の光を含んで撮像された撮像画像を取得する。より具体的には、取得部110は、撮像装置1のメモリ221から、撮像体21IR1により撮像された2枚の撮像画像と、撮像体21IR2により撮像された2枚の撮像画像と、を取得する。取得部110は、取得した4枚の撮像画像を、マッチング処理部111に渡す。 In step S100, the acquisition unit 110 acquires from the memory 221 of the imaging device 1 a captured image that includes light in the non-visible light region. More specifically, the acquisition unit 110 retrieves two captured images captured by the imaging body 21IR 1 and two captured images captured by the imaging body 21IR 2 from the memory 221 of the imaging device 1. get. The acquisition unit 110 passes the acquired four captured images to the matching processing unit 111.

次のステップS101で、マッチング処理部111は、取得部110から渡された4枚の撮像画像に基づきマッチング処理を行う。さらに、次のステップS102で、3D情報生成部112は、ステップS101のマッチング処理結果に基づき深度情報を計算し、3次元点群情報を生成する。 In the next step S101, the matching processing unit 111 performs matching processing based on the four captured images passed from the acquisition unit 110. Furthermore, in the next step S102, the 3D information generation unit 112 calculates depth information based on the matching processing result in step S101, and generates three-dimensional point group information.

ステップS101およびステップS102の処理について、より具体的に説明する。第1の実施形態では、非可視光領域の光を撮像する撮像体21IR1および21IR2により撮像された撮像画像に基づく2枚の全天球画像を用いて、ステレオ法により深度情報を計算する。ここでいうステレオ法は、2つのカメラにより異なる視点から撮像された2枚の撮像画像を用い、一方の撮像画像のある画素(参照画素)に対して、他方の撮像画像内における対応する画素(対応画素)を求め、参照画素と対応画素とに基づき三角法により深度(奥行き値)を算出する方法である。 The processing in step S101 and step S102 will be explained in more detail. In the first embodiment, depth information is calculated by a stereo method using two spherical images based on images captured by imaging bodies 21IR 1 and 21IR 2 that capture light in the non-visible light region. . The stereo method referred to here uses two images taken from different viewpoints by two cameras, and a certain pixel (reference pixel) in one image is compared to a corresponding pixel (reference pixel) in the other image. This method calculates the depth (depth value) by trigonometry based on the reference pixel and the corresponding pixel.

ステップS101で、マッチング処理部111は、取得部110から渡された4枚の撮像画像のうち、撮像体21IR1により撮像された2枚の撮像画像を合成して、1枚の全天球画像(第1の全天球画像と呼ぶ)を作成する。同様に、マッチング処理部111は、撮像体21IR2により撮像された2枚の撮像画像を合成し、1枚の全天球画像(第2の全天球画像と呼ぶ)を作成する。 In step S101, the matching processing unit 111 combines two captured images captured by the imaging body 21IR 1 among the four captured images passed from the acquisition unit 110, and creates one omnidirectional image. (referred to as the first spherical image). Similarly, the matching processing unit 111 combines two captured images captured by the imaging body 21IR 2 to create one omnidirectional image (referred to as a second omnidirectional image).

ここで、一般的なステレオ法においては、図14(a)に例示されるように、水平方向に視点をずらして撮像された撮像画像300aおよび300bを用い、基準となる撮像画像300aにおける参照画素303を中心とする所定サイズの領域301に対応する、探索対象となる撮像画像300b内の領域302を、図中に矢印Dで示されるように水平方向に移動させて、探索を行う。このとき、撮像位置の水平方向の高さを一致させると共に撮像方向を一致させて撮像画像300aと撮像画像300bとを撮像し、撮像画像300aおよび300bを水平方向に対して平行としておく。これにより、撮像画像300a内の画素(参照画素)と対応する箇所を撮像した撮像画像300b内の画素(対応画素)は、垂直方向の座標が同じ線上に存在することになり、一次元探索により対応画素の探索が可能となり、計算量を抑制することが可能となる。 Here, in the general stereo method, as illustrated in FIG. 14(a), captured images 300a and 300b captured by shifting the viewpoint in the horizontal direction are used, and a reference pixel in the captured image 300a serving as a standard is used. The search is performed by moving an area 302 in the captured image 300b to be searched, which corresponds to an area 301 of a predetermined size centered at 303, in the horizontal direction as shown by arrow D in the figure. At this time, the captured images 300a and 300b are captured by matching the horizontal heights of the imaging positions and matching the imaging directions, so that the captured images 300a and 300b are parallel to the horizontal direction. As a result, the pixels (corresponding pixels) in the captured image 300b, which are captured at locations corresponding to the pixels (reference pixels) in the captured image 300a, exist on the same line in the vertical direction, and the one-dimensional search It becomes possible to search for corresponding pixels, and it becomes possible to suppress the amount of calculation.

第1の実施形態に係る撮像装置1は、ステレオ法に用いる撮像画像を取得するための撮像体21IR1および21IR2が垂直方向に整列して配置されている。この場合、図14(b)に例示されるように、視点を垂直方向にずらして撮像された撮像画像300a’および300b’を用い、撮像画像300a’内の領域301’に対応する撮像画像300b’内の領域302’を、図中に矢印Eで示されるように垂直方向に移動させて探索を行う。この場合においても、撮像画像300a’および300b’の撮像を、水平方向の位置を一致させると共に撮像方向を一致させて行い、撮像画像300a’および300b’を垂直方向に対して平行としておく。これにより、撮像画像300a’内の参照画素と撮像画像300b内の対応画素は、水平方向の座標が同じ線上に存在することになり、一次元探索により対応画素の探索が可能となる。 In the imaging device 1 according to the first embodiment, imaging bodies 21IR 1 and 21IR 2 for acquiring captured images used in the stereo method are arranged in alignment in the vertical direction. In this case, as illustrated in FIG. 14(b), using captured images 300a' and 300b' taken with the viewpoint shifted in the vertical direction, a captured image 300b corresponding to a region 301' in the captured image 300a' is used. The search is performed by moving the inner region 302 in the vertical direction as shown by arrow E in the figure. In this case as well, the captured images 300a' and 300b' are captured with the same horizontal position and the same imaging direction, so that the captured images 300a' and 300b' are parallel to the vertical direction. As a result, the reference pixel in the captured image 300a' and the corresponding pixel in the captured image 300b have their horizontal coordinates on the same line, making it possible to search for the corresponding pixels by one-dimensional search.

なお、第1の実施形態に係る撮像装置1を用いる場合、垂直方向に整列して配置された撮像体21IR1および21RI2により撮像された撮像画像に基づく2枚の全天球画像に対してステレオ法を適用することになる。第1の実施形態の例では、撮像装置1において、各撮像体21IR1および21IR2により撮像された撮像画像に基づく球面の情報それぞれを、正距円筒図法(Equi-rectangular)を用いて平面座標に展開することで、2つの全天球画像を生成する。これにより、ステレオ法による対応画素の探索を、図14(b)に示すような、垂直方向の一次元探索にて実行可能となり、処理が容易となる。 Note that when using the imaging device 1 according to the first embodiment, for two omnidirectional images based on captured images captured by the imaging bodies 21IR 1 and 21RI 2 arranged in the vertical direction. The stereo method will be applied. In the example of the first embodiment, in the imaging device 1, each piece of spherical information based on the captured image captured by each of the imaging bodies 21IR 1 and 21IR 2 is expressed in plane coordinates using the equi-rectangular projection method. By expanding the image into two spherical images, two spherical images are generated. This makes it possible to search for corresponding pixels using the stereo method using a one-dimensional search in the vertical direction as shown in FIG. 14(b), which facilitates processing.

なお、正距円筒図法は、垂直方向を緯度に、水平方向を経度にそれぞれ対応させた座標系をとって、球面の情報を平面の座標に変換する投影方法である。これに限らず、第1の実施形態に対し、球面の情報を平面座標に変換する投影方法として、他の投影方法を適用してもよい。 Note that the equirectangular projection is a projection method that transforms spherical information into plane coordinates by using a coordinate system in which the vertical direction corresponds to latitude and the horizontal direction corresponds to longitude. The present invention is not limited to this, and other projection methods may be applied to the first embodiment as a projection method for converting spherical surface information into plane coordinates.

マッチング処理部111は、基準となる画像(第1の全天球画像と呼ぶ)と、探索対象となる画像(第2の全天球画像と呼ぶ)との間で対応画素を探索し、マッチング処理を行う。対応画素の探索は、様々な方法が知られており、例えば、ブロックマッチング法を適用することができる。 The matching processing unit 111 searches for corresponding pixels between a reference image (referred to as a first spherical image) and an image to be searched (referred to as a second spherical image), and performs matching. Perform processing. Various methods are known for searching for corresponding pixels; for example, a block matching method can be applied.

ブロックマッチング法は、第1の全天球画像において参照画素を中心としてM画素×N画素のブロックとして切り出される領域の画素値を取得する。また、第2の全天球画像において、対象画素を中心としてM画素×N画素のブロックとして切り出される領域の画素値を取得する。画素値に基づき、参照画素を含む領域と、対象画素を含む領域との類似度を計算する。探索対象の画像内でM画素×N画素のブロックを移動させながら類似度を比較し、最も類似度が高くなる位置のブロックにおける対象画素を、参照画素に対応する対応画素とする。 The block matching method acquires pixel values of an area cut out as a block of M pixels by N pixels with the reference pixel as the center in the first spherical image. Furthermore, in the second spherical image, the pixel values of a region cut out as a block of M pixels×N pixels with the target pixel as the center are acquired. Based on the pixel values, the degree of similarity between the region containing the reference pixel and the region containing the target pixel is calculated. The degree of similarity is compared while moving the block of M pixels by N pixels within the image to be searched, and the target pixel in the block at the position where the degree of similarity is highest is determined as the corresponding pixel corresponding to the reference pixel.

類似度は、様々な計算方法により算出できる。例えば、式(1)に示される、正規化相互相関係数(NCC)は、コスト関数の1つであって、コストを示す数値CNCCの値が大きいほど、類似度が高いことを示す。式(1)において、値MおよびNは、探索を行うための画素ブロックのサイズを表す。また、値I(i,j)は、基準となる第1の全天球画像における画素ブロック内の画素の画素値を表し、値T(i,j)は、探索対象となる第2の全天球画像における画素ブロック内の画素値を表す。 Similarity can be calculated using various calculation methods. For example, the normalized cross-correlation coefficient (NCC) shown in Equation (1) is one of the cost functions, and the larger the value of the numerical value C NCC indicating the cost, the higher the degree of similarity. In equation (1), the values M and N represent the size of the pixel block for performing the search. Further, the value I(i,j) represents the pixel value of a pixel in the pixel block in the first omnidirectional image that is the reference, and the value T(i,j) represents the pixel value of the pixel in the pixel block in the first omnidirectional image that is the reference Represents pixel values within a pixel block in a celestial sphere image.

Figure 0007414090000001
Figure 0007414090000001

マッチング処理部111は、図14(b)を用いて説明したように、第1の全天球画像(撮像画像300a’に対応)における、M画素×N画素の画素ブロック(領域301’に対応)に対応する、第2の全天球画像(撮像画像300b’に対応)における画素ブロック(領域302’に対応)を、図14(b)内に矢印Eで示されるように垂直方向に例えば画素単位で移動させながら式(1)の計算を実行し、数値CNCCを算出する。第2の全天球画像において、数値CNCCが最大となる画素ブロックの中心画素を、参照画素に対応する対象画素とする。 As explained using FIG. 14(b), the matching processing unit 111 generates a pixel block of M pixels by N pixels (corresponding to area 301') in the first spherical image (corresponding to captured image 300a'). ) in the second spherical image (corresponding to the captured image 300b') in the vertical direction, for example, as shown by the arrow E in FIG. 14(b). The calculation of equation (1) is executed while moving pixel by pixel, and the numerical value C NCC is calculated. In the second spherical image, the center pixel of the pixel block with the maximum numerical value C NCC is set as the target pixel corresponding to the reference pixel.

図13の説明に戻り、ステップS102で、3D情報生成部112は、ステップS101のマッチング処理により求められた、参照画素および対応画素とに基づき、三角法を用いて奥行き値(深度情報)を算出し、第1の全天球画像および第2の全天球画像に係る3次元点群情報を生成する。 Returning to the explanation of FIG. 13, in step S102, the 3D information generation unit 112 uses trigonometry to calculate a depth value (depth information) based on the reference pixel and the corresponding pixel obtained by the matching process in step S101. Then, three-dimensional point group information related to the first spherical image and the second spherical image is generated.

図15は、第1の実施形態に適用可能な三角法を説明するための図である。図中のターゲット物体403までの距離Dを、撮像素子402に撮像された画像内の撮像位置情報から算出することが処理の目的である。すなわち、この距離Dが、対象となる画素の深度情報に対応する。距離Dは、下記の式(2)により計算される。 FIG. 15 is a diagram for explaining trigonometry applicable to the first embodiment. The purpose of the processing is to calculate the distance D to the target object 403 in the figure from the imaging position information within the image captured by the image sensor 402. That is, this distance D corresponds to the depth information of the target pixel. The distance D is calculated using the following equation (2).

なお、式(2)において、値baselineは、カメラ400aおよび400b間の基線の長さ(基線長)を表す。撮像装置1の例では、図3および図6に示されるように、撮像体21IR1および21IR2の間の距離dが、値baselineに対応する。なお、撮像体21IR1および撮像体21IR2それぞれの光学中心を結ぶ線が、基線を構成する。値fは、レンズ401の焦点距離を表す。値qは、視差を表す。視差qは、参照画素と対応画素の座標値の差分に、撮像素子の画素ピッチを乗じた値である。対応画素の座標値は、ステップS101のマッチング処理の結果に基づき得られる。 Note that in equation (2), the value baseline represents the length of the baseline between the cameras 400a and 400b (baseline length). In the example of the imaging device 1, as shown in FIGS. 3 and 6, the distance d between the imaging bodies 21IR 1 and 21IR 2 corresponds to the value baseline. Note that a line connecting the optical centers of the imaging body 21IR 1 and the imaging body 21IR 2 constitutes a base line. The value f represents the focal length of the lens 401. The value q represents the parallax. The parallax q is a value obtained by multiplying the difference between the coordinate values of the reference pixel and the corresponding pixel by the pixel pitch of the image sensor. The coordinate values of the corresponding pixels are obtained based on the result of the matching process in step S101.

Figure 0007414090000002
Figure 0007414090000002

この式(2)が、2つのカメラ400aおよび400bを利用した場合の距離Dの算出方法となる。これは2つのカメラ400aおよび400bによりそれぞれ撮像された撮像画像から距離Dを算出するものである。第1の実施形態では、この式(2)による算出方法を、撮像体21IR1および21IR2により撮像された撮像画像に基づく第1の全天球画像および第2の全天球画像に適用して距離Dを算出する。 This equation (2) is the method for calculating the distance D when the two cameras 400a and 400b are used. This is to calculate the distance D from the captured images respectively captured by the two cameras 400a and 400b. In the first embodiment, the calculation method according to equation (2) is applied to the first spherical image and the second spherical image based on the captured images captured by the imaging bodies 21IR 1 and 21IR 2 . to calculate the distance D.

3D情報生成部112は、ステップS102で生成した3次元点群情報を、再投影処理部113に渡す。 The 3D information generation unit 112 passes the three-dimensional point cloud information generated in step S102 to the reprojection processing unit 113.

図13において、次のステップS103で、取得部110は、撮像装置1のメモリ221から、可視光領域の光を選択的に撮像した撮像画像を取得する。より具体的には、取得部110は、撮像装置1のメモリ221から、撮像体21VLにより撮像された2枚の撮像画像を取得する。取得部110は、取得した2枚の撮像画像を、再投影処理部113に渡す。再投影処理部113は、取得部110から渡された2枚の撮像画像を合成して、1枚の全天球画像(可視光全天球画像と呼ぶ)を作成する。 In FIG. 13, in the next step S103, the acquisition unit 110 acquires a captured image obtained by selectively capturing light in the visible light region from the memory 221 of the imaging device 1. More specifically, the acquisition unit 110 acquires two captured images captured by the imaging body 21VL from the memory 221 of the imaging device 1. The acquisition unit 110 passes the acquired two captured images to the reprojection processing unit 113. The reprojection processing unit 113 combines the two captured images passed from the acquisition unit 110 to create one omnidirectional image (referred to as a visible light omnidirectional image).

ステップS104で、再投影処理部113は、ステップS102で3D情報生成部112から渡された3次元点群情報を、ステップS103で取得部110から渡された、撮像体21VLにより撮像された2枚の撮像画像に基づく可視光全天球画像に投影する再投影処理を行う。 In step S104, the reprojection processing unit 113 converts the three-dimensional point group information passed from the 3D information generation unit 112 in step S102 to the two images captured by the imaging body 21VL passed from the acquisition unit 110 in step S103. Performs reprojection processing to project onto a visible light spherical image based on the captured image.

図16を用いて、ステップS104の再投影処理について説明する。図16において、カメラ中心は、色情報を持つ撮像画像を取得するためのカメラ位置であって、撮像装置1においては、撮像体21VLの光学中心に対応する。画像320は、カメラ中心から撮像された、色情報を持つ撮像画像を示すもので、撮像装置1においては、撮像体21VLにより撮像された撮像画像に基づく可視光全天球画像に対応する。復元点#1および#2は、画像320に対応して3次元情報が復元された3次元点群情報における点をそれぞれ示している。 The reprojection process in step S104 will be explained using FIG. 16. In FIG. 16, the camera center is a camera position for acquiring a captured image having color information, and in the imaging device 1, corresponds to the optical center of the imaging body 21VL. The image 320 shows a captured image having color information captured from the center of the camera, and in the imaging device 1 corresponds to a visible light spherical image based on the captured image captured by the imaging body 21VL. Restoration points #1 and #2 respectively indicate points in the three-dimensional point group information from which three-dimensional information has been restored corresponding to the image 320.

また、図16において、再投影座標#1は、画像320において復元点#1に対応する位置を示す。同様に、再投影座標#2は、画像320において復元点#2に対応する位置を示す。再投影処理は、3次元点群情報の各点を画像320内の位置が対応する各点に対応付ける処理である。図16の例では、3次元点群情報における復元点#1および#2の座標を、画像320内の再投影座標#1および#2に変換する処理となる。 Further, in FIG. 16, reprojection coordinate #1 indicates a position corresponding to restoration point #1 in image 320. Similarly, reprojection coordinate #2 indicates the position corresponding to restoration point #2 in image 320. The reprojection process is a process of associating each point of the three-dimensional point cloud information with each point having a corresponding position in the image 320. In the example of FIG. 16, the process is to convert the coordinates of restoration points #1 and #2 in the three-dimensional point group information to reprojection coordinates #1 and #2 in the image 320.

再投影処理は、3次元点群情報を、画像320を撮像したカメラ位置に応じて平行移動した後に、当該画像320の画像座標系(2次元スクリーン座標系)に変換することで実現できる。式(3)は、このような再投影処理を行う変換式の例を示す。 The reprojection process can be realized by translating the three-dimensional point group information according to the camera position that captured the image 320, and then converting it into the image coordinate system (two-dimensional screen coordinate system) of the image 320. Equation (3) shows an example of a conversion equation for performing such reprojection processing.

Figure 0007414090000003
Figure 0007414090000003

式(3)において、右辺の(X,Y,Z)は、図16においてカメラ中心として示されるカメラ位置でのカメラ座標系における、3次元点群情報の3次元座標を表す。なお、式(3)においては、値Zは図15の距離Dに対応し、奥行き(深度)を示す。また、値(X,Y)は、それぞれ水平、垂直方向の座標を示している。式(3)における3×3行列は、投影行列と呼ばれる行列であって、値fxおよびfyは、それぞれ(x,y)方向(水平、垂直方向)の焦点距離を示す。また、値cxおよびcyは、それぞれ、光学中心に対する2次元スクリーン座標系の水平、垂直方向のずれ量を表す。左辺は、画像320の座標を示し、値(u,v,1)のうち値(u,v)が画像320における座標(x,y)に対応する。また、左辺の値λは、比率を示す係数である。 In equation (3), (X, Y, Z) on the right side represents the three-dimensional coordinates of the three-dimensional point group information in the camera coordinate system at the camera position shown as the camera center in FIG. Note that in equation (3), the value Z corresponds to the distance D in FIG. 15 and indicates the depth. Further, the values (X, Y) indicate coordinates in the horizontal and vertical directions, respectively. The 3×3 matrix in Equation (3) is a matrix called a projection matrix, and the values f x and f y each indicate the focal length in the (x, y) direction (horizontal, vertical direction). Moreover, the values c x and c y represent the amount of shift in the horizontal and vertical directions of the two-dimensional screen coordinate system with respect to the optical center, respectively. The left side indicates the coordinates of the image 320, and among the values (u, v, 1), the value (u, v) corresponds to the coordinates (x, y) in the image 320. Further, the value λ on the left side is a coefficient indicating a ratio.

図13の説明に戻り、次のステップS105で、再投影処理部113は、ステップS104の再投影処理の結果に基づき、可視光全天球画像の色情報を、3次元点群情報に付加する。これは、図16を参照し、画像320における再投影座標#1および#2の画素の色情報を、3次元点群情報の復元点#1および#2に付加する処理である。 Returning to the explanation of FIG. 13, in the next step S105, the reprojection processing unit 113 adds the color information of the visible light spherical image to the three-dimensional point cloud information based on the result of the reprojection processing in step S104. . Referring to FIG. 16, this is a process of adding color information of pixels at reprojection coordinates #1 and #2 in image 320 to restoration points #1 and #2 of three-dimensional point group information.

すなわち、ステップS104の再投影処理により、3次元点群情報の各点について、可視光全天球画像に含まれるべき座標が求められたので、この座標に基づき、可視光全天球画像の各画素の色情報を、3次元点群情報の対応する座標に付加する。すなわち、可視光全天球画像の画素の色情報を、当該画素の可視光全天球画像における座標に対応する、3次元点群情報の座標に付加する。 That is, the reprojection process in step S104 has determined the coordinates to be included in the visible light spherical image for each point in the three-dimensional point group information, so based on these coordinates, each point in the visible light spherical image The color information of the pixel is added to the corresponding coordinates of the three-dimensional point cloud information. That is, the color information of a pixel in the visible light spherical image is added to the coordinates of the three-dimensional point group information corresponding to the coordinates of the pixel in the visible light spherical image.

ここで、再投影処理により算出された座標は、小数点以下の桁を含む可能性がある。そのため、補間処理により、当該座標において所望の輝度値を得るための、可視光全天球画像における当該座標の周辺の整数座標の画素の画素値を求める。 Here, the coordinates calculated by the reprojection process may include digits below the decimal point. Therefore, by interpolation processing, the pixel values of pixels at integer coordinates around the coordinate in the visible light spherical image are determined in order to obtain the desired brightness value at the coordinate.

ステップS105にて色情報を付加された3次元点群情報が、3次元復元モデルとして取得される。取得された3次元復元モデルは、画像処理装置100から外部に出力してもよいし、ストレージ1004などに記憶してもよい。 The three-dimensional point cloud information to which color information has been added in step S105 is acquired as a three-dimensional restored model. The acquired three-dimensional restored model may be output from the image processing apparatus 100 to the outside, or may be stored in the storage 1004 or the like.

以上のように、第1の実施形態では、非可視光領域の光を撮像する撮像体21IR1および21IR2により撮像された撮像画像に基づき3次元点群情報を求めると共に、可視光領域の光を選択的に撮像する撮像体21VLにより撮像された撮像画像における各画素の色情報を、求めた3次元点群情報に付加することができる。 As described above, in the first embodiment, three-dimensional point group information is obtained based on the captured images captured by the imaging bodies 21IR 1 and 21IR 2 that capture light in the non-visible light region, and light in the visible light region is obtained. The color information of each pixel in the captured image captured by the imaging body 21VL that selectively captures the image can be added to the obtained three-dimensional point group information.

[第2の実施形態]
次に、第2の実施形態について説明する。上述した第1の実施形態に係る撮像装置1は、それぞれ非可視光領域を含んだ光を撮像する2の撮像体21IR1および21IR2と、可視光領域の光を選択的に撮像する1の撮像体21VLを含めて構成されていたが、これはこの例に限られない。第2の実施形態に係る撮像装置は、第1の実施形態の構成に対し、さらに多くの撮像体を含む構成としている。
[Second embodiment]
Next, a second embodiment will be described. The imaging device 1 according to the first embodiment described above includes two imaging bodies 21IR 1 and 21IR 2 that each image light including a non-visible light region, and a first imaging body 21IR 2 that selectively images light in the visible light region. Although the configuration includes the imaging body 21VL, this is not limited to this example. The imaging device according to the second embodiment has a configuration that includes more imaging bodies than the configuration of the first embodiment.

図17は、第2の実施形態に係る撮像装置1’の内部構造を概略的に示す図である。図17では、上述した図4と同様に、左側が正面方向、右側が背面方向としている。 FIG. 17 is a diagram schematically showing the internal structure of an imaging device 1' according to the second embodiment. In FIG. 17, the left side is the front direction and the right side is the back direction, similar to FIG. 4 described above.

図17の例では、撮像装置1’は、図4に示した撮像装置1に対して、可視光領域の光を選択的に撮像するための撮像体21VL1および21VL2が追加されている。すなわち、撮像装置1’は、可視光領域を含む光を選択的に撮像するための、3の撮像体21VL、21VL1および21VL2と、非可視光領域の光を撮像するための、2の撮像体21IR1および21IR2と、を含んでいる。図17の例では、撮像体21VL1は、撮像体21IR1の上側に設けられ、撮像体21VL2は、撮像体21IR2の下側に設けられている。 In the example of FIG. 17, the imaging device 1' has additional imaging bodies 21VL 1 and 21VL 2 for selectively imaging light in the visible light region, in addition to the imaging device 1 shown in FIG. 4. That is, the imaging device 1' includes three imaging bodies 21VL, 21VL 1 and 21VL 2 for selectively imaging light including the visible light region, and two imaging bodies 21VL 1 and 21VL 2 for selectively imaging light in the non-visible light region. Image pickup bodies 21IR 1 and 21IR 2 are included. In the example of FIG. 17, the imaging body 21VL 1 is provided above the imaging body 21IR 1 , and the imaging body 21VL 2 is provided below the imaging body 21IR 2 .

撮像装置1’において、正面方向の各撮像レンズ20VLa1、20IRa1、20VLa、20IRa2および20VLa2は、図6(b)と同様に、筐体10の長辺方向の中心線にレンズ中心を整列させて配置される。同様に、背面方向の各撮像レンズ20VLb1、20IRb1、20VLb、20IRb2および20VLb2も、筐体10の長辺方向の中心線にレンズ中心を整列させて配置される。 In the imaging device 1', each imaging lens 20VL a1 , 20IR a1 , 20VL a , 20IR a2 and 20VL a2 in the front direction has its lens center aligned with the center line in the long side direction of the housing 10, as in FIG. 6(b). are arranged in alignment. Similarly, the imaging lenses 20VL b1 , 20IR b1 , 20VL b , 20IR b2 and 20VL b2 in the rear direction are also arranged with their lens centers aligned with the center line in the long side direction of the housing 10 .

また、撮像体21VL1は、撮像体21VLと同様に、正面方向の撮像レンズ20VLa1および撮像素子200a4と、背面方向の撮像レンズ20VLb1および撮像素子200b4と、を含む。同様に、撮像体21VL2は、正面方向の撮像レンズ20VLa2および撮像素子200a5と、背面方向の撮像レンズ20VLb2および撮像素子200b5と、を含む。 Further, like the imaging body 21VL, the imaging body 21VL 1 includes an imaging lens 20VL a1 and an imaging element 200a 4 in the front direction, and an imaging lens 20VL b1 and an imaging element 200b 4 in the rear direction. Similarly, the imaging body 21VL 2 includes an imaging lens 20VL a2 and an imaging element 200 a5 in the front direction, and an imaging lens 20VL b2 and an imaging element 200b 5 in the rear direction.

さらに、各撮像体21VL1および21VL2は、撮像体21VLと同様に、各撮像レンズ20VLa1、20VLa2、20VLb1および20VLb2に、それぞれ可視光領域の光を選択的に透過させるフィルタ22VLが設けられる。フィルタ22VLは、これに限らず、フィルタ22VLを撮像素子200a1および200b1、ならびに、撮像装置200a5および200b5に設けてもよいし、フィルタ22VLを設けずに、画像処理により非可視光領域の成分をカットしてもよい。 Further, in each of the imaging bodies 21VL 1 and 21VL 2 , similarly to the imaging body 21VL, each of the imaging lenses 20VLa 1 , 20VL a2 , 20VL b1 and 20VL b2 is provided with a filter 22VL that selectively transmits light in the visible light region. provided. The filter 22VL is not limited to this, and the filter 22VL may be provided in the imaging elements 200a 1 and 200b 1 and the imaging devices 200a 5 and 200b 5 , or the filter 22VL may be provided in the non-visible light region by image processing without providing the filter 22VL. You may cut the ingredients.

処理回路基板31’は、撮像装置1’が含む撮像素子200a1~200a5、および、撮像素子200b1~200b5を同期させて撮像駆動するための回路が搭載される。この回路は、図9に示した構成に対して、駆動部およびバッファメモリの組を、追加された4の撮像素子200a4、200a5、200b4および200b5に応じて追加した構成となる。処理回路基板31’は、シャッタボタン30に対する操作に応じて、撮像素子200a1~200a5、および、撮像素子200b1~200b5による撮像を同期して実行させるためのトリガ信号である同期撮像指示信号32’を出力する。 The processing circuit board 31' is equipped with a circuit for synchronizing and driving the imaging elements 200a 1 to 200a 5 and the imaging elements 200b 1 to 200b 5 included in the imaging apparatus 1'. This circuit has a configuration in which a set of a driving section and a buffer memory is added in accordance with the four added image pickup elements 200a 4 , 200a 5 , 200b 4 and 200b 5 to the configuration shown in FIG. 9 . The processing circuit board 31' generates a synchronous imaging instruction which is a trigger signal for synchronously executing imaging by the imaging elements 200a 1 to 200a 5 and the imaging elements 200b 1 to 200b 5 in response to an operation on the shutter button 30. A signal 32' is output.

撮像体21VL、撮像体21IR1および21IR2は、第1の実施形態と同様にして、撮像体21IR1および21IR2による非可視光領域の光を撮像した撮像画像に基づき3次元点群情報を生成する。この3次元点群情報に対して、撮像体21VLにより可視光領域の光を選択的に撮像した撮像画像に基づき色情報を与え、3次元復元モデルを作成する。 The imaging body 21VL, the imaging bodies 21IR 1 and 21IR 2 obtain three-dimensional point group information based on the captured images of light in the non-visible light region by the imaging bodies 21IR 1 and 21IR 2 in the same manner as in the first embodiment. generate. Color information is given to this three-dimensional point group information based on a captured image obtained by selectively capturing light in the visible light region by the imaging body 21VL, and a three-dimensional restoration model is created.

第2の実施形態に係る撮像装置1’では、さらに、可視光領域の光を選択的に撮像するための3の撮像体21VL、21VL1および21VL2により撮像された撮像画像に基づき、マルチベースラインステレオの手法を用いて3次元点群を生成する。 In the imaging device 1' according to the second embodiment, the multi - base A three-dimensional point cloud is generated using a line stereo method.

すなわち、第2の実施形態に係る撮像装置1’では、可視光領域の光を選択的に撮像するための3の撮像体21VL、21VL1および21VL2が、筐体10の中心線上に整列して配置されている。そのため、1直線上に存在する複数の基線を構成することができ、三角法を適用可能な撮像体のペア(ステレオペアと呼ぶ)を複数、形成することができる。図17の例では、撮像体21VL1と撮像体21VLとによる第1ステレオペア、撮像体21VLと撮像体VL2とによる第2ステレオペア、および、撮像体21VL1と21VL2とによる第3ステレオペア、の3つのステレオペアを形成することが可能である。 That is, in the imaging device 1' according to the second embodiment, the three imaging bodies 21VL, 21VL 1 and 21VL 2 for selectively imaging light in the visible light region are aligned on the center line of the housing 10. It is arranged as follows. Therefore, it is possible to configure a plurality of base lines existing on one straight line, and it is possible to form a plurality of pairs of imaging objects (referred to as stereo pairs) to which trigonometry can be applied. In the example of FIG. 17, a first stereo pair includes the image pickup body 21VL 1 and the image pickup body 21VL, a second stereo pair includes the image pickup body 21VL and the image pickup body VL 2 , and a third stereo pair includes the image pickup body 21VL 1 and the image pickup body 21VL 2 . It is possible to form three stereo pairs of pairs.

ここで、基線に重複する部分を含む複数のステレオペアにより、共通する撮像範囲を撮像し、撮像画像に基づきそれぞれ深度情報を求め、各深度情報を合成して3次元点群情報を生成することができる。図18は、第2の実施形態に適用可能な、複数のステレオペアによる画素の探索処理の例を示す図である。例えば、撮像体21VL1、21VLおよび21VL2によりそれぞれ撮像された、全天球画像による撮像画像300d、300eおよび300fを考える。この場合、撮像画像300dおよび300e、撮像画像300eおよび300f、ならびに、撮像画像300dおよび300fにより、それぞれステレオペアの画像(ステレオペア画像と呼ぶ)が形成される。 Here, a common imaging range is imaged using multiple stereo pairs that include portions that overlap with the baseline, depth information is obtained for each image based on the imaged image, and three-dimensional point cloud information is generated by combining each depth information. Can be done. FIG. 18 is a diagram illustrating an example of pixel search processing using a plurality of stereo pairs, which is applicable to the second embodiment. For example, consider images 300d, 300e, and 300f of omnidirectional images captured by the imaging bodies 21VL 1 , 21VL, and 21VL 2 , respectively. In this case, a stereo pair of images (referred to as a stereo pair image) is formed by the captured images 300d and 300e, the captured images 300e and 300f, and the captured images 300d and 300f, respectively.

撮像画像300d、300eおよび300fにおいて、撮像体21VL1、21VLおよび21VL2のうち、例えば中央に配置される撮像体21VLにより撮像された撮像画像300eを、参照画素333を含む参照画像とする。参照画素333を中心とする所定サイズの領域331に対応する、探索対象となる撮像体21VL1により撮像された撮像画像300d内の領域332を、図中に矢印Fで示されるように垂直方向に移動させて探索を行う。同様に、撮像体21VL2により撮像された撮像画像300fを探索対象とし、当該撮像画像300f内の、領域331に対応する領域332’を、図中に矢印F’で示されるように、垂直方向に移動させて探索を行う。領域331と、領域332および332’との対応関係を、図中に直線340にて示している。 In the captured images 300d, 300e, and 300f, among the imaging bodies 21VL 1 , 21VL, and 21VL 2 , for example, the captured image 300e captured by the centrally located imaging body 21VL is set as a reference image including the reference pixel 333. A region 332 in the captured image 300d captured by the imaging body 21VL 1 to be searched, which corresponds to a region 331 of a predetermined size centered on the reference pixel 333, is vertically moved as shown by arrow F in the figure. Move and explore. Similarly, the captured image 300f captured by the imaging body 21VL 2 is searched, and a region 332' corresponding to the region 331 in the captured image 300f is searched in the vertical direction as shown by arrow F' in the figure. Move to and explore. The correspondence between the region 331 and the regions 332 and 332' is indicated by a straight line 340 in the figure.

ここで、参照画素333に対する対応画素を求める処理は、空間における1点に対応する画素を、撮像体21VL1による撮像画像300dと、撮像体VL2による撮像画像300fと、のそれぞれにおいて探索する処理となる。これは、撮像画像300dおよび300eのステレオペア画像(第1ステレオペア画像とする)と、撮像画像300fおよび300eのステレオペア画像(第2ステレオペア画像とする)とで、共通の奥行き値(距離D)に対する対応画素の探索処理になる。 Here, the process of finding a pixel corresponding to the reference pixel 333 is a process of searching for a pixel corresponding to one point in space in each of the captured image 300d by the imaging body 21VL 1 and the captured image 300f by the imaging body VL 2 . becomes. This is a common depth value (distance This is a search process for the corresponding pixel for D).

この、2つのステレオペア画像で距離Dが共通となる点を利用して、次の手法を適用できる。すなわち、視差qをパラメータとして、対象画像である撮像画像300dおよび300f内の当該視差qに対応する対応画素に基づき、第1ステレオペア画像および第2ステレオペア画像それぞれで類似度すなわちコストを示す数値CNCC(以下、コストCNCCと呼ぶ)を計算する。そして、第1ステレオペア画像について求めたコストCNCC1と、第2ステレオペア画像について求めたコストCNCC2とを加算した加算結果ΣCNCCが最大となる、第1ステレオペア画像および第2ステレオペア画像それぞれにおける視差q1およびq2を求める。この方法によれば、単独のステレオペア画像を用いる場合より確実で誤りの少ない各視差q1およびq2を求めることが可能となり、より高精度に距離Dを算出できる。 The following method can be applied by utilizing the fact that the distance D is common between the two stereo pair images. That is, using the parallax q as a parameter, a numerical value indicating the similarity, that is, the cost, for each of the first stereo pair image and the second stereo pair image, based on the corresponding pixels corresponding to the parallax q in the captured images 300d and 300f, which are the target images. Calculate C NCC (hereinafter referred to as cost C NCC ). Then, the first stereo pair image and the second stereo pair image have the maximum addition result ΣC NCC of the cost C NCC1 calculated for the first stereo pair image and the cost C NCC2 calculated for the second stereo pair image. Find the parallax q 1 and q 2 for each. According to this method, it is possible to obtain each parallax q 1 and q 2 more reliably and with fewer errors than when using a single stereo pair image, and the distance D can be calculated with higher accuracy.

このように、撮像体21VL1、21VLおよび21VL2による各撮像画像を用いて求めた距離Dに基づき生成した3次元点群情報と、第1の実施形態で説明した、撮像体21IR1、21VLおよび21IR2を用いて、非可視光領域の光を含む撮像画像に基づき生成した3次元点群情報と、を合成して用いることができる。これにより、より多くの点群情報を用いることができ、より高精度に3次元復元モデルを生成可能となる。 In this way, the three-dimensional point group information generated based on the distance D obtained using each image captured by the imaging bodies 21VL 1 , 21VL and 21VL 2 and the imaging bodies 21IR 1 and 21VL described in the first embodiment and three-dimensional point group information generated based on a captured image containing light in the non-visible light region using 21IR 2 can be combined and used. As a result, more point group information can be used, and a three-dimensional reconstructed model can be generated with higher accuracy.

上述の手法は、基線が重なっていれば、その重なりの点を基準点とした視差qをパラメータとすることで、他のステレオペア画像についても適用できる。図17の撮像装置1’の例では、上述した撮像体21VL1および21VLの各撮像画像による第1ステレオペア画像と、撮像体21VLおよび21VL2の各撮像画像による第2ステレオペア画像に加えて、撮像体21VL1および21VL2の各撮像画像による第3ステレオペア画像を用いることができる。非可視光領域の光を含めて撮像を行う、撮像体21IR1および21IR2の各撮像画像によるステレオペア画像を、さらに用いることも可能である。これらにより、さらに多くの点群情報を用いることができ、さらに高精度な3次元復元モデルを生成可能となる。 The above method can also be applied to other stereo pair images by using the parallax q with the point of overlap as the reference point if the baselines overlap. In the example of the imaging device 1' in FIG. 17, in addition to the first stereo pair image formed by each of the captured images of the image capturing bodies 21VL 1 and 21VL mentioned above, and the second stereo pair image formed by each captured image of the image capturing bodies 21VL and 21VL 2 , , a third stereo pair of images formed by the respective captured images of the imaging bodies 21VL 1 and 21VL 2 can be used. It is also possible to further use a stereo pair of images of the images of the imaging bodies 21IR 1 and 21IR 2 in which images are captured including light in the non-visible light region. As a result, more point group information can be used, and a more accurate three-dimensional reconstructed model can be generated.

[第2の実施形態の変形例]
図17に示した撮像装置1’は、可視光領域の光を選択的に撮像する3の撮像体21VL、21VL1および21VL2と、非可視光領域の光を含めて撮像を行う2の撮像体21IR1および21IR2と、を有している。そして、撮像装置1’は、撮像体21VL、21VL1および21VL2と、撮像体21IR1および21IR2とを交互に配置している。
[Modification of second embodiment]
The imaging device 1' shown in FIG. 17 includes three imaging bodies 21VL, 21VL 1 and 21VL 2 that selectively capture light in the visible light region, and a second imaging body that captures images including light in the non-visible light region. It has bodies 21IR 1 and 21IR 2 . In the imaging device 1', the imaging bodies 21VL, 21VL 1 and 21VL 2 and the imaging bodies 21IR 1 and 21IR 2 are arranged alternately.

これはこの例に限定されず、撮像装置に、例えば、非可視光領域の光を含めて撮像を行う3の撮像体と、可視光領域の光を選択的に撮像する2の撮像体とを、交互に配置してもよい。また、撮像体の数は5に限らず、6以上であってもよい。撮像装置に6の撮像体が配置される場合、例えば、非可視光領域の光を含めて撮像を行う3の撮像体と、可視光領域の光を選択的に撮像する3の撮像体と、を交互に配置することが考えられる。 This is not limited to this example, and the imaging device may include, for example, a third imaging body that captures images including light in the non-visible light range, and a second imaging body that selectively captures light in the visible light range. , may be arranged alternately. Furthermore, the number of imaging bodies is not limited to five, but may be six or more. When 6 imaging bodies are arranged in the imaging device, for example, 3 imaging bodies that capture images including light in the non-visible light region, 3 imaging bodies that selectively capture images of light in the visible light region, It is conceivable to arrange them alternately.

なお、上述の各実施形態は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。 The above-described embodiments are preferred examples of the present invention, but the present invention is not limited thereto, and various modifications can be made without departing from the gist of the present invention.

1,1’,50a 撮像装置
10 筐体
20IRa1,20IRa2,20IRb1,20IRb2,20VLa,20VLa1,20VLa2,20VLb,20VLb1,20VLb2 撮像レンズ
21IR1,21IR2,21VL,21VL1,21VL2 撮像体
22IR,22VL フィルタ
30 シャッタボタン
31,31’ 処理回路基板
32,32’ 同期撮像指示信号
51 光源
80 非可視光領域の光
81 パターン
100 画像処理装置
110 取得部
111 マッチング処理部
112 3D情報生成部
113 再投影処理部
200a,200b,200a1,200a2,200a3,200a4,200a5,200b1,200b2,200b3,200b4,200b5 撮像素子
220 制御部
221 メモリ
222 スイッチ
300a,300b,300a’,300b’,300d,300e,300f 撮像画像
301,302,331,332,332’ 領域
303,333 参照画素
1, 1', 50a Imaging device 10 Housing 20IR a1 , 20IR a2 , 20IR b1 , 20IR b2 , 20VL a , 20VL a1 , 20VL a2 , 20VL b , 20VL b1 , 20VL b2 Imaging lens 21IR 1 , 21IR 2 , 21VL, 21VL 1 , 21VL 2 Image pickup bodies 22IR, 22VL Filter 30 Shutter button 31, 31' Processing circuit board 32, 32' Synchronous imaging instruction signal 51 Light source 80 Light in invisible light region 81 Pattern 100 Image processing device 110 Acquisition unit 111 Matching process Section 112 3D information generation section 113 Reprojection processing section 200a, 200b, 200a 1 , 200a 2 , 200a 3 , 200a 4 , 200a 5 , 200b 1 , 200b 2 , 200b 3 , 200b 4 , 200b 5 Image sensor 220 Control section 221 Memory 222 Switches 300a, 300b, 300a', 300b', 300d, 300e, 300f Captured images 301, 302, 331, 332, 332' Regions 303, 333 Reference pixels

特開2013-218278号公報JP2013-218278A 米国特許出願公開第2014/0132501号明細書US Patent Application Publication No. 2014/0132501

Claims (7)

互いに異なる方向を向く複数の第1光学系と、
前記複数の第1光学系の各々を介して照射された可視光をそれぞれ撮像する複数の第1撮像素子と、
互いに異なる方向を向く複数の第2光学系と、
前記複数の第2光学系の各々を介して照射された非可視光をそれぞれ撮像する複数の第2撮像素子と、
互いに異なる方向を向く複数の第3光学系と、
前記複数の第3光学系の各々を介して照射された非可視光をそれぞれ撮像する複数の第3撮像素子と、
前記複数の第1光学系、前記複数の第1撮像素子、前記複数の第2光学系、前記複数の第2撮像素子、前記複数の第3光学系および前記複数の第3撮像素子が設けられる筐体と、
を備え、
前記第1撮像素子により色情報を含む第1画像を、前記第2撮像素子および前記第3撮像素子により深度情報を算出するための第2画像および第3画像を、それぞれ出力し、
前記筐体は、第1方向に長い形状であり、前記長い形状の一端側に底面を有し、
前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系の中で前記第2光学系が前記底面に最も近く、前記第2光学系と前記底面との間に光学系の配置されない領域が存在し、
撮像される空間の床面に対して垂直な方向に前記第1方向が向き、前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系が前記光学系の配置されない領域よりも上側になるように、前記床面に前記底面を向けて撮像され、
前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系は、前記第1方向において異なる位置に配置され、前記筐体の前記第1方向に関する周囲360°を撮像可能である撮像装置。
a plurality of first optical systems facing in different directions;
a plurality of first image sensors that respectively image visible light irradiated through each of the plurality of first optical systems;
a plurality of second optical systems facing in different directions;
a plurality of second image pickup elements each capturing an image of the invisible light irradiated through each of the plurality of second optical systems;
a plurality of third optical systems facing in different directions;
a plurality of third image pickup elements each capturing an image of the invisible light irradiated through each of the plurality of third optical systems;
The plurality of first optical systems, the plurality of first image sensors, the plurality of second optical systems, the plurality of second image sensors, the plurality of third optical systems, and the plurality of third image sensors are provided. A casing and
Equipped with
outputting a first image including color information by the first image sensor, and outputting a second image and a third image for calculating depth information by the second image sensor and the third image sensor, respectively;
The casing has an elongated shape in a first direction, and has a bottom surface on one end side of the elongated shape,
Among the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems, the second optical system is closest to the bottom surface, and between the second optical system and the bottom surface. There are areas where the optical system is not placed,
The first direction is oriented in a direction perpendicular to the floor surface of the space to be imaged, and the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged in the optical systems. The image is taken with the bottom surface facing the floor surface so that the bottom surface is above the area that is not
The plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged at different positions in the first direction, and image a 360° circumference of the casing in the first direction. Imaging device that is possible.
前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系は、前記筐体の前記第1方向における他端側に配置される
請求項1に記載の撮像装置。
The imaging device according to claim 1, wherein the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged on the other end side of the housing in the first direction.
前記筐体の他端側に前記複数の第1光学系または前記複数の第光学系が配置され、
前記筐体の前記光学系の配置されない領域に操作を受けるボタンが配置される
請求項1に記載の撮像装置。
The plurality of first optical systems or the plurality of third optical systems are arranged on the other end side of the housing,
The imaging device according to claim 1, wherein a button to be operated is arranged in an area of the housing where the optical system is not arranged .
前記複数の第2光学系の各々の第2光学系、および前記複数の第3光学系の各々の第3光学系は、それぞれ180°以上の画角を有する
請求項1乃至請求項3の何れか1項に記載の撮像装置。
4. A second optical system of each of the plurality of second optical systems and a third optical system of each of the plurality of third optical systems each have an angle of view of 180° or more. The imaging device according to item 1.
互いに異なる方向を向く複数の第4光学系と、
前記複数の第4光学系の各々に入射した可視光をそれぞれ撮像する数の第4撮像素子と、
をさらに備え、
前記第4光学系と前記底面との間に前記光学系の配置されない領域が位置し、
前記複数の第1光学系と前記複数の第4光学系との間に前記複数の第2光学系または前記複数の第3光学系が配置された
請求項1乃至請求項4の何れか1項に記載の撮像装置。
a plurality of fourth optical systems facing in mutually different directions;
a plurality of fourth image sensors that respectively image visible light incident on each of the plurality of fourth optical systems;
Furthermore,
An area where the optical system is not placed is located between the fourth optical system and the bottom surface,
Any one of claims 1 to 4, wherein the plurality of second optical systems or the plurality of third optical systems are arranged between the plurality of first optical systems and the plurality of fourth optical systems. The imaging device described in .
前記複数の第2光学系および前記複数の第3光学系に入射する非可視光は、光源から射出されたパターン光である
請求項1乃至請求項5の何れか1項に記載の撮像装置。
The imaging device according to any one of claims 1 to 5, wherein the invisible light that enters the plurality of second optical systems and the plurality of third optical systems is pattern light emitted from a light source.
撮像装置の制御方法であって、
前記撮像装置は、
互いに異なる方向を向く複数の第1光学系と、
前記複数の第1光学系の各々を介して照射された可視光をそれぞれ撮像する複数の第1撮像素子と、
互いに異なる方向を向く複数の第2光学系と、
前記複数の第2光学系の各々を介して照射された非可視光をそれぞれ撮像する複数の第2撮像素子と、
互いに異なる方向を向く複数の第3光学系と、
前記複数の第3光学系の各々を介して照射された非可視光をそれぞれ撮像する複数の第3撮像素子と、
前記複数の第1光学系、前記複数の第1撮像素子、前記複数の第2光学系、前記複数の第2撮像素子、前記複数の第3光学系および前記複数の第3撮像素子が設けられる筐体と、
を含み、
前記筐体は、第1方向に長い形状であり、前記長い形状の一端側に底面を有し、
前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系の中で前記第2光学系が前記底面に最も近く、前記第2光学系と前記底面との間に光学系の配置されない領域が存在し、
前記第1撮像素子により色情報を含む第1画像を、前記第2撮像素子および前記第3撮像素子により深度情報を算出するための第2画像および第3画像を、それぞれ出力するステップと、
撮像される空間の床面に対して垂直な方向に前記第1方向が向き、前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系が前記光学系の配置されない領域よりも上側になるように、前記床面に前記底面を向けて撮像されるステップと、
前記複数の第1光学系、前記複数の第2光学系および前記複数の第3光学系は、前記第1方向において異なる位置に配置され、前記筐体の前記第1方向に関する周囲360°を撮像するステップと、
を有する撮像装置の制御方法。
A method for controlling an imaging device, the method comprising:
The imaging device includes:
a plurality of first optical systems facing in different directions;
a plurality of first image sensors that respectively image visible light irradiated through each of the plurality of first optical systems;
a plurality of second optical systems facing in different directions;
a plurality of second image pickup elements each capturing an image of the invisible light irradiated through each of the plurality of second optical systems;
a plurality of third optical systems facing in different directions;
a plurality of third image pickup elements each capturing an image of the invisible light irradiated through each of the plurality of third optical systems;
The plurality of first optical systems, the plurality of first image sensors, the plurality of second optical systems, the plurality of second image sensors, the plurality of third optical systems, and the plurality of third image sensors are provided. A casing and
including;
The casing has an elongated shape in a first direction, and has a bottom surface on one end side of the elongated shape,
Among the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems, the second optical system is closest to the bottom surface, and between the second optical system and the bottom surface. There are areas where the optical system is not placed,
outputting a first image including color information by the first image sensor, and outputting a second image and a third image for calculating depth information by the second image sensor and the third image sensor, respectively;
The first direction is oriented in a direction perpendicular to the floor surface of the space to be imaged, and the plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged in the optical systems. A step of taking an image with the bottom surface facing the floor surface so that the bottom surface is above the area where the bottom surface is not
The plurality of first optical systems, the plurality of second optical systems, and the plurality of third optical systems are arranged at different positions in the first direction, and image a 360° circumference of the casing in the first direction. the step of
A method for controlling an imaging device having the following.
JP2022073733A 2018-02-02 2022-04-27 Imaging device and method of controlling the imaging device Active JP7414090B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022073733A JP7414090B2 (en) 2018-02-02 2022-04-27 Imaging device and method of controlling the imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018017711A JP7067091B2 (en) 2018-02-02 2018-02-02 Image pickup device and control method of image pickup device
JP2022073733A JP7414090B2 (en) 2018-02-02 2022-04-27 Imaging device and method of controlling the imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018017711A Division JP7067091B2 (en) 2018-02-02 2018-02-02 Image pickup device and control method of image pickup device

Publications (3)

Publication Number Publication Date
JP2022106868A JP2022106868A (en) 2022-07-20
JP2022106868A5 JP2022106868A5 (en) 2023-03-08
JP7414090B2 true JP7414090B2 (en) 2024-01-16

Family

ID=67546103

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018017711A Active JP7067091B2 (en) 2018-02-02 2018-02-02 Image pickup device and control method of image pickup device
JP2022073733A Active JP7414090B2 (en) 2018-02-02 2022-04-27 Imaging device and method of controlling the imaging device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018017711A Active JP7067091B2 (en) 2018-02-02 2018-02-02 Image pickup device and control method of image pickup device

Country Status (1)

Country Link
JP (2) JP7067091B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7434846B2 (en) 2019-11-29 2024-02-21 株式会社リコー Image processing device, image processing method, program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544449A (en) 2010-09-08 2013-12-12 マイクロソフト コーポレーション Depth camera based on structured light and stereoscopic vision
JP2015019346A (en) 2013-06-12 2015-01-29 日本放送協会 Parallax image generator
JP2016118742A (en) 2014-12-24 2016-06-30 株式会社リコー Imaging device
WO2017048370A1 (en) 2015-09-15 2017-03-23 Qualcomm Incorporated Systems and methods for producing a surround view

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009117976A (en) 2007-11-02 2009-05-28 Panasonic Corp Image picking-up device
JP2010271675A (en) 2009-05-20 2010-12-02 Masamichi Tokuzawa All-sky moving image photographing system
JP5910485B2 (en) 2012-03-16 2016-04-27 株式会社リコー Imaging system
WO2014192876A1 (en) 2013-05-30 2014-12-04 独立行政法人産業技術総合研究所 Imaging system and imaging method
US10397549B2 (en) 2016-12-20 2019-08-27 Gopro, Inc. Compact array of imaging devices with supplemental imaging unit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013544449A (en) 2010-09-08 2013-12-12 マイクロソフト コーポレーション Depth camera based on structured light and stereoscopic vision
JP2015019346A (en) 2013-06-12 2015-01-29 日本放送協会 Parallax image generator
JP2016118742A (en) 2014-12-24 2016-06-30 株式会社リコー Imaging device
WO2017048370A1 (en) 2015-09-15 2017-03-23 Qualcomm Incorporated Systems and methods for producing a surround view

Also Published As

Publication number Publication date
JP7067091B2 (en) 2022-05-16
JP2019133112A (en) 2019-08-08
JP2022106868A (en) 2022-07-20

Similar Documents

Publication Publication Date Title
CN110383343B (en) Inconsistency detection system, mixed reality system, program, and inconsistency detection method
TWI668997B (en) Image device for generating panorama depth images and related image device
Petrov et al. Optical 3D digitizers: Bringing life to the virtual world
AU2012307095B2 (en) System and method for three-dimensional surface imaging
CN111442721B (en) Calibration equipment and method based on multi-laser ranging and angle measurement
CN110419208B (en) Imaging system, imaging control method, image processing apparatus, and computer readable medium
JP7073850B2 (en) Input device and input method of input device
CN107749070A (en) The acquisition methods and acquisition device of depth information, gesture identification equipment
Ahmadabadian et al. An automatic 3D reconstruction system for texture-less objects
JP7409443B2 (en) Imaging device
JP7414090B2 (en) Imaging device and method of controlling the imaging device
US11039120B2 (en) Imaging apparatus
JP6868167B1 (en) Imaging device and imaging processing method
JP5785896B2 (en) 3D shape measuring device
CN111899348A (en) Projection-based augmented reality experiment demonstration system and method
Chikurtev et al. 3D modelling for object recognition with depth sensors
JP6868168B1 (en) Imaging device and imaging processing method
WO2018143311A1 (en) Imaging apparatus
JP7120365B1 (en) IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE
JP6966011B1 (en) Imaging device, imaging method and information processing device
Mirski et al. Adaptive scanning methods for 3D scene reconstruction
JP2021150882A (en) Image capture device and image capture processing method
JP2022151477A (en) Information processing apparatus and information processing method
JP2022151478A (en) Information processing device
JP2021150880A (en) Image capture device and image capture processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230314

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230620

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230912

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R151 Written notification of patent or utility model registration

Ref document number: 7414090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151