JP2022176974A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2022176974A
JP2022176974A JP2022130760A JP2022130760A JP2022176974A JP 2022176974 A JP2022176974 A JP 2022176974A JP 2022130760 A JP2022130760 A JP 2022130760A JP 2022130760 A JP2022130760 A JP 2022130760A JP 2022176974 A JP2022176974 A JP 2022176974A
Authority
JP
Japan
Prior art keywords
imaging
light
light receiving
image
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022130760A
Other languages
Japanese (ja)
Other versions
JP7409443B2 (en
Inventor
聡一郎 横田
Soichiro Yokota
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2022130760A priority Critical patent/JP7409443B2/en
Publication of JP2022176974A publication Critical patent/JP2022176974A/en
Application granted granted Critical
Publication of JP7409443B2 publication Critical patent/JP7409443B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus that does not require much preparation to acquire distance information.
SOLUTION: The imaging apparatus according to an embodiment includes: imaging means for imaging a measurement target; projection means for projecting light to the measurement target; light receiving means for receiving the light reflected by the measurement target; and acquisition means for acquiring distance information to the measurement target on the basis of the light received by the light receiving means. The imaging means, the light projection means, the light receiving means, and the acquisition means are integrally provided in a common housing.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、撮像装置および撮像処理方法に関する。 The present invention relates to an imaging device and an imaging processing method.

実在する物体、建築物、それらを含む空間全体を、カメラで撮像したりあるいはレーザ光を照射したりするなどして計測し、その計測結果から現実空間にある3次元構造を電子データで復元する3次元モデル復元技術が知られている。椅子、机、模型などの小規模な対象物をターゲットとするものから、建設現場や観光地などのように複数の大規模な物体や開空間などをターゲットとするものまで、様々なターゲットへの利用が考えられる。 Real objects, buildings, and the entire space including them are measured by imaging with a camera or by irradiating laser light, and the 3D structure in the real space is reconstructed as electronic data from the measurement results. Three-dimensional model reconstruction techniques are known. Various targets, from those targeting small objects such as chairs, desks, and models, to those targeting multiple large objects and open spaces such as construction sites and tourist spots. possible to use.

また、単色の床や壁など模様がない領域についてはパターン光を照射して深度情報を取得する技術がある。また、投射した光を受光するLiDAR(Light Detection and Ranging)装置を開示した文献もある(特許文献1参照)。 There is also a technique for acquiring depth information by irradiating patterned light on areas with no pattern, such as monochromatic floors and walls. There is also a document disclosing a LiDAR (Light Detection and Ranging) device that receives projected light (see Patent Document 1).

しかしながら、従来は、撮像装置と、レーザ光などを照射する照射装置とは別体であり、3次元モデルを復元するシステムとして複雑な準備(例えば、照射方向と撮像装置の撮像方向の位置あわせなど)をする必要があった。 However, conventionally, an imaging device and an irradiation device that emits laser light or the like are separate entities, and complex preparations are required for a system that restores a 3D model (for example, alignment of the irradiation direction and the imaging direction of the imaging device, etc.). ).

本発明は、上記に鑑みてなされたものであって、距離情報を取得するための準備が簡単な撮像装置を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide an imaging apparatus that can be easily prepared for acquiring distance information.

上述した課題を解決し、目的を達成するために、本発明の一実施の形態の撮像装置は、計測対象を撮像する撮像手段と、前記計測対象に光を投射する投射手段と、前記計測対象から反射してきた前記光を受光する受光手段と、前記受光手段により受光した光に基づいて前記計測対象との距離情報を取得する取得手段と、を有し、前記撮像手段と、前記投射手段と、前記受光手段と、前記取得手段とを共通の筐体に一体的に備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to an embodiment of the present invention includes imaging means for imaging an object to be measured, projection means for projecting light onto the object to be measured, and light receiving means for receiving the light reflected from the light receiving means; and acquisition means for acquiring information on the distance to the measurement object based on the light received by the light receiving means, wherein the imaging means and the projection means and the light-receiving means and the acquiring means are integrally provided in a common housing.

本発明によれば、距離情報を取得するための準備が簡単な撮像装置を実現することができるという効果を奏する。 ADVANTAGE OF THE INVENTION According to this invention, it is effective in the ability to implement|achieve the imaging device with which the preparation for acquiring distance information is easy.

図1は、実施の形態に係る撮像装置の外観の一例を示す図である。FIG. 1 is a diagram showing an example of the appearance of an imaging device according to an embodiment. 図2は、撮像装置の構成を説明するための図である。FIG. 2 is a diagram for explaining the configuration of the imaging device. 図3は、処理回路の処理ブロックの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a configuration of processing blocks of a processing circuit; 図4は、Ctofのコストカーブ関数の一例を示す図である。FIG. 4 is a diagram showing an example of a Ctof cost curve function. 図5は、再投影処理を模式的に示した図である。FIG. 5 is a diagram schematically showing reprojection processing. 図6は、計測範囲の入力画像に対して対象物を示すセグメンテーション情報を付与する説明図である。FIG. 6 is an explanatory diagram of adding segmentation information indicating an object to an input image of a measurement range. 図7は、撮像装置の処理回路の動作の一例を示すフロー図である。FIG. 7 is a flow chart showing an example of the operation of the processing circuit of the imaging device. 図8は、変形例1に係る位相差検出方式で計測する撮像装置の構成について説明するための図である。FIG. 8 is a diagram for explaining the configuration of an imaging device that performs measurement using a phase difference detection method according to Modification 1. As shown in FIG. 図9は、投射部の構成の一例を模式的に示す図である。FIG. 9 is a diagram schematically showing an example of the configuration of the projection section. 図10は、MEMSミラーの構成の一例を説明する図である。FIG. 10 is a diagram illustrating an example of the configuration of a MEMS mirror. 図11は、変形例2に係る撮像装置の構成の一例を説明するための図である。FIG. 11 is a diagram for explaining an example of the configuration of an imaging device according to Modification 2. As shown in FIG. 図12は、EquiRectangular等の投影系の説明図である。FIG. 12 is an explanatory diagram of a projection system such as EquiRectangular.

以下に添付図面を参照して、撮像装置および撮像処理方法の実施の形態を詳細に説明する。 Exemplary embodiments of an imaging device and an imaging processing method will be described in detail below with reference to the accompanying drawings.

[第1の実施の形態]
図1および図2は、第1の実施の形態に係る撮像装置の構成の一例を示す図である。図1は、撮像装置の外観の一例を示す図である。図2は、撮像装置の構成を説明するための図である。図2には、図1の撮像装置の内部の構成を示している。さらに、図2には、光の経路を説明するための図を重ねて示している。先ず、図1および図2を参照して撮像装置の構成について説明する。
[First embodiment]
1 and 2 are diagrams showing an example of the configuration of an imaging device according to the first embodiment. FIG. 1 is a diagram showing an example of the appearance of an imaging device. FIG. 2 is a diagram for explaining the configuration of the imaging device. FIG. 2 shows the internal configuration of the imaging apparatus of FIG. Furthermore, in FIG. 2, a diagram for explaining the path of light is superimposed. First, the configuration of the imaging apparatus will be described with reference to FIGS. 1 and 2. FIG.

撮像装置1は、撮像部(カメラ)11と、可視光以外の光を投射する投射部(距離センサの発光部に相当する部分)12と、投射部12が投射した光に基づいて距離情報を取得する距離情報取得部(距離センサの受光部に相当する部分)13とを筐体10に対して一体に設けたものである。各部は、筐体10内部の処理回路14と同期信号線Lにより電気的に接続されており、それぞれ同期して動作する。ここで、撮像部11は「撮像手段」に相当し、投射部12は「投射手段」に相当し、距離情報取得部13は「受光手段」に相当する。処理回路14は、「取得手段」に相当する。 The imaging device 1 includes an imaging unit (camera) 11, a projection unit (a portion corresponding to a light emitting unit of a distance sensor) 12 that projects light other than visible light, and distance information based on the light projected by the projection unit 12. A distance information acquisition unit (portion corresponding to the light receiving unit of the distance sensor) 13 for acquiring distance information is provided integrally with the housing 10 . Each part is electrically connected to the processing circuit 14 inside the housing 10 by a synchronization signal line L, and operates in synchronization with each other. Here, the imaging unit 11 corresponds to "imaging means", the projection unit 12 corresponds to "projecting means", and the distance information acquisition unit 13 corresponds to "light receiving means". The processing circuit 14 corresponds to "acquisition means".

撮影スイッチ15は、ユーザが処理回路14に撮影指示信号を入力するためのものである。撮影指示に基づき処理回路14は各部を制御してRGB画像や距離情報のデータを取得し、さらに「情報処理手段」として、取得した距離情報のデータをRGB画像や距離情報のデータに基づいて高密度3次元点群データに再構築する処理を行う。距離情報のデータは、そのまま使用しても3次元点群データを構築することが可能だが、その場合、3次元点群データの精度が距離情報取得部13の画素数(解像度)に制限される。本例では、それを高密度の3次元点群データに再構築する場合の処理についても示す。再構築したデータは可搬型の記録媒体や通信などを介して外部のPCなどに出力され、3次元復元モデルの表示に利用される。 A photographing switch 15 is used by the user to input a photographing instruction signal to the processing circuit 14 . Based on the photographing instruction, the processing circuit 14 controls each part to acquire data of the RGB image and distance information, and further functions as "information processing means" to convert the acquired data of the distance information into a high-level image based on the data of the RGB image and the distance information. A process of reconstructing the density three-dimensional point cloud data is performed. Although it is possible to construct 3D point cloud data by using the distance information data as it is, in that case, the accuracy of the 3D point cloud data is limited to the number of pixels (resolution) of the distance information acquisition unit 13. . This example also shows the processing for reconstructing it into high-density three-dimensional point cloud data. The reconstructed data is output to an external PC or the like via a portable recording medium or communication, and used to display the three-dimensional reconstruction model.

各部や処理回路14には、筐体10内部に収容されるバッテリから電力が供給される。この他にも、筐体10の外部から接続コードにより電力供給を受ける構成としてもよい。 Power is supplied to each unit and the processing circuit 14 from a battery housed inside the housing 10 . In addition to this, a configuration in which power is supplied from the outside of the housing 10 through a connection cord may be employed.

撮像部11は、撮像素子11aや、魚眼レンズ(広角レンズ)11bなどを有する。投射部12は、光源部12aや広角レンズ12bなどを有する。距離情報取得部13は、TOF(Time Of Fright)センサ13aや広角レンズ13bなどを有する。なお、各部は、図示を省略しているがプリズムやレンズ群などの光学系を構成してよい。例えば、撮像部11に、魚眼レンズ11bが集めた光を撮像素子11aに結像するための光学系を構成してよい。また、投射部12に、光源部12aの光を広角レンズ12bに導く光学系を構成してよい。また、距離情報取得部13に広角レンズ13bが集めた光をTOFセンサ13aに結像するための光学系を構成してよい。各光学系については、撮像素子11a、光源部12a、TOFセンサ13aなどの構成や配置に応じて適宜決めてよいものとし、ここでは、プリズムやレンズ群などの光学系については省略して説明する。 The imaging unit 11 has an imaging element 11a, a fisheye lens (wide-angle lens) 11b, and the like. The projection unit 12 has a light source unit 12a, a wide-angle lens 12b, and the like. The distance information acquisition unit 13 has a TOF (Time Of Fright) sensor 13a, a wide-angle lens 13b, and the like. Although not shown, each part may constitute an optical system such as a prism and a lens group. For example, the imaging unit 11 may include an optical system for forming an image of the light collected by the fisheye lens 11b on the imaging device 11a. Further, the projection unit 12 may include an optical system that guides the light from the light source unit 12a to the wide-angle lens 12b. Further, an optical system may be configured in the distance information acquisition section 13 for forming an image of the light collected by the wide-angle lens 13b on the TOF sensor 13a. Each optical system may be appropriately determined according to the configuration and arrangement of the imaging device 11a, light source unit 12a, TOF sensor 13a, etc. Here, optical systems such as prisms and lens groups will be omitted from the description. .

撮像素子11a、光源部12a、およびTOFセンサ13aは、筐体10の内部に一体的に収められている。魚眼レンズ11bと、広角レンズ12bと、広角レンズ13bとは、それぞれ筐体10の第1の面に設けられている。第1の面において、魚眼レンズ11b、広角レンズ12b、および広角レンズ13のぞれぞれの内側の範囲は開口している。 The imaging element 11a, the light source section 12a, and the TOF sensor 13a are integrally housed inside the housing 10. As shown in FIG. The fisheye lens 11b, the wide-angle lens 12b, and the wide-angle lens 13b are provided on the first surface of the housing 10, respectively. On the first surface, the inner ranges of each of the fisheye lens 11b, the wide-angle lens 12b, and the wide-angle lens 13 are open.

撮像素子11aは、2次元解像度のイメージセンサ(エリアセンサ)である。撮像素子11aは、2次元方向に各画素の受光素子(フォトダイオード)が多数配列された撮像エリアを有する。撮像エリアには可視光を受光するためにベイヤ配列等のR(Red)とG(Green)とB(Blue)のカラーフィルタが設けられており、カラーフィルタを通過した光がフォトダイオードに蓄電される。ここでは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半天球の範囲など)の2次元画像を高解像度で取得することができるように画素数の多いイメージセンサを使用する。撮像素子11aは、その撮像エリアに結像した光を各画素の画素回路で電気信号に変換して高解像度のRGB画像を出力する。魚眼レンズ11bは、広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)から光を集め、その光を撮像素子11aの撮像エリアに結像する。 The imaging device 11a is a two-dimensional resolution image sensor (area sensor). The imaging element 11a has an imaging area in which a large number of light receiving elements (photodiodes) for each pixel are arranged in a two-dimensional direction. In the imaging area, R (red), G (green), and B (blue) color filters such as a Bayer array are provided to receive visible light, and light passing through the color filters is stored in photodiodes. be. Here, an image sensor with a large number of pixels is used so that a wide-angle (for example, the range of a 180-degree hemispherical sphere with the imaging direction shown in FIG. 2 as the front) can be acquired with high resolution. . The imaging element 11a converts the light imaged on the imaging area into an electric signal by the pixel circuit of each pixel, and outputs a high-resolution RGB image. The fisheye lens 11b collects light from a wide angle (for example, a 180-degree hemispherical range with the imaging direction shown in FIG. 2 as the front) and forms an image of the light on the imaging area of the imaging device 11a.

光源部12aは、半導体レーザであり、距離の計測に用いる可視光領域以外(ここでは一例として赤外とする)の波長帯のレーザ光を出射する。光源部12aには、1つの半導体レーザを用いてもよいし、複数の半導体レーザを組み合わせて使用してもよい。また、半導体レーザとして例えばVCSEL(Vertical Cavity Surface Emitting LASER)などの面発光型の半導体レーザを使用してもよい。また、半導体レーザの光を光学レンズにより縦に長くなるように成形し、縦長にした光を、MEMS(Micro Electro Mechanical Systems)ミラーなどの光偏向素子で計測範囲の一次元方向に走査するような構成にしてもよい。本実施の形態では、光源部12aとして、半導体レーザLAの光をMEMSミラーなどの光偏向素子を使用せずに広角レンズ12bを介して広角の範囲に広げる形態を示している。 The light source unit 12a is a semiconductor laser, and emits laser light in a wavelength band other than the visible light range used for distance measurement (infrared as an example). One semiconductor laser may be used for the light source unit 12a, or a plurality of semiconductor lasers may be used in combination. As the semiconductor laser, a surface emitting semiconductor laser such as a VCSEL (Vertical Cavity Surface Emitting LASER) may be used. In addition, the light of a semiconductor laser is shaped vertically by an optical lens, and the vertically elongated light is scanned in the one-dimensional direction of the measurement range with an optical deflection element such as a MEMS (Micro Electro Mechanical Systems) mirror. may be configured. In the present embodiment, as the light source unit 12a, a form is shown in which light from the semiconductor laser LA is spread over a wide angle range via a wide-angle lens 12b without using an optical deflection element such as a MEMS mirror.

光源部12aの広角レンズ12bは、光源部12aが出射した光を広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の範囲に広げる機能を有する。 The wide-angle lens 12b of the light source unit 12a has a function of widening the light emitted from the light source unit 12a into a wide-angle range (for example, a hemispherical range of 180 degrees around the imaging direction shown in FIG. 2).

距離情報取得部13の広角レンズ13bは、投射部12により投射された光源部12aの光の反射光を、計測範囲である広角(例えば図2に示す撮像方向を正面とする周囲180度の半球の範囲など)の各方向から取り込み、それらの光をTOFセンサ13aの受光エリアに結像する。計測範囲には一つまたは複数の被投射物(例えば建物など)が含まれており、被投射物で反射した光(反射光)が広角レンズ13bに入射する。反射光は、例えば広角レンズ13bの表面全体に赤外領域の波長以上の光をカットするフィルタを設けるなどして取り込んでよい。なお、これに限らず、受光エリアに赤外領域の光が入射すればよいため、広角レンズ13bから受光エリアまでの光路にフィルタなど赤外領域の波長の光を通す手段を設けてもよい。 The wide-angle lens 13b of the distance information acquisition unit 13 converts the reflected light of the light from the light source unit 12a projected by the projection unit 12 into a wide-angle measurement range (for example, a hemisphere with a circumference of 180 degrees with the imaging direction shown in FIG. 2 as the front). ), and forms an image on the light receiving area of the TOF sensor 13a. The measurement range includes one or a plurality of objects to be projected (for example, buildings), and light reflected by the objects to be projected (reflected light) enters the wide-angle lens 13b. Reflected light may be captured by, for example, providing a filter that cuts off light having wavelengths in the infrared region or higher over the entire surface of the wide-angle lens 13b. In addition, as long as light in the infrared region is incident on the light receiving area, means such as a filter for passing light in the infrared region may be provided in the optical path from the wide-angle lens 13b to the light receiving area.

TOFセンサ13aは、2次元解像度の光センサである。TOFセンサ13aは多数の受光素子(フォトダイオード)が2次元方向に配列された受光エリアを有する受光手段である。TOFセンサ13aは、計測範囲の各エリア(各エリアを位置とも言う)の反射光を、各エリアに対応する受光素子で受光し、各受光素子で検出した光に基づき各エリアまでの距離を計測(算出)する。 The TOF sensor 13a is a two-dimensional resolution optical sensor. The TOF sensor 13a is light-receiving means having a light-receiving area in which a large number of light-receiving elements (photodiodes) are arranged two-dimensionally. The TOF sensor 13a receives the reflected light of each area (each area is also called a position) in the measurement range with the light receiving element corresponding to each area, and measures the distance to each area based on the light detected by each light receiving element. (calculate.

例えば、図2に示すパルス方式で距離を計測する構成では、光源部12aで、立ち上がり時間が数ナノ秒(ns)で且つ光ピークパワーが強い超短パルスの照射パルスP1を出射し、これに同期してTOFセンサ13aにより、光源部12aが出射した照射パルスP1の反射光である反射パルスP2の受光までにかかる時間(t)を計測する。この方式を採用する場合、例えばTOFセンサ13aとして、受光素子の出力側に時間の計測を行う回路などを実装したものを使用する。各回路では、受光素子毎に、光源部12aが照射パルスP1を出射してから反射パルスP2を受光するまでにかかる時間を距離に換算し、各エリアまでの距離を得る。このように、TOFセンサ13aは、投射部12による光の照射に同期して駆動し、各受光素子(画素に対応)で反射光を受光するまでにかかった時間から各画素に対応する距離を算出し、画素情報に計測範囲内の各エリアまでの距離を示す情報を対応付けた距離情報(「距離画像」や「TOF画像」とも言う)を出力する。なお、測定範囲を分割することができるエリア数は、受光エリアの解像度によって決まる。従って、小型化のため解像度が低いものを使用した場合、距離画像の画素情報の数が減少するため、3次元点群の数も少なくなる。この方式は、ピーク光を使用し強力な光を出力することができるので、撮像装置1の広角化に適している。また、MEMSミラーなどを使用して光を振る(走査する)構成にした場合には、強力な光を、広がりを抑えつつ遠くまで照射することができるため、測定距離の拡大に繋がる。この場合、光源部12aから出射されたレーザ光を、MEMSミラーにより広角レンズ12bへ向けて走査(偏向)するような配置関係とする。 For example, in the configuration for measuring the distance by the pulse method shown in FIG. In synchronism, the TOF sensor 13a measures the time (t) required to receive the reflected pulse P2, which is the reflected light of the irradiation pulse P1 emitted from the light source unit 12a. When this method is adopted, for example, a TOF sensor 13a having a circuit for measuring time mounted on the output side of the light receiving element is used. Each circuit converts the time taken by the light source unit 12a from emitting the irradiation pulse P1 to receiving the reflected pulse P2 for each light-receiving element into a distance, and obtains the distance to each area. In this way, the TOF sensor 13a is driven in synchronization with the irradiation of light from the projection unit 12, and the distance corresponding to each pixel is calculated from the time required for each light receiving element (corresponding to a pixel) to receive the reflected light. and outputs distance information (also referred to as “distance image” or “TOF image”) in which pixel information is associated with information indicating the distance to each area within the measurement range. The number of areas into which the measurement range can be divided is determined by the resolution of the light receiving areas. Therefore, if a low-resolution image is used for miniaturization, the number of pixel information in the range image is reduced, and the number of three-dimensional point groups is also reduced. This method is suitable for widening the angle of view of the imaging device 1 because it can output strong light using peak light. In addition, when a MEMS mirror or the like is used to wave (scan) light, it is possible to irradiate strong light to a long distance while suppressing spread, which leads to an increase in measurement distance. In this case, the arrangement relationship is such that the laser light emitted from the light source unit 12a is scanned (deflected) toward the wide-angle lens 12b by the MEMS mirror.

なお、撮像部11の有効画角と距離情報取得部13の有効画角は例えば180度以上で一致していることが望ましいが、必ずしも一致していなくてもよい。必要に応じて撮像部11の有効画角と距離情報取得部13の有効画角とをそれぞれ減じてもよい。本実施例では、撮像部11および距離情報取得部13は画角に干渉するものがないように例えば100度~180度の範囲内などに有効画素を減じている。また、TOFセンサ13aの解像度は、撮像装置1の小型化を優先して撮像素子11aの解像度よりも低く設定してよい。本例のようなパルス方式の場合、TOFセンサ13aを高解像度に設けることは難しい。TOFセンサ13aを撮像素子11aよりも低解像度のものとすることにより、受光エリアのサイズ拡大を抑えることができるため、撮像装置1の小型化に繋げることができる。このためTOFセンサ13aは低解像度になり、TOFセンサ13aで得られる3次元点群は低密度となるが、「取得手段」である処理回路14を設けているため高密度の3次元点群に変換することができる。処理回路14において高密度の3次元点群に変換する処理については後述する。 Although it is desirable that the effective angle of view of the imaging unit 11 and the effective angle of view of the distance information acquisition unit 13 match, for example, 180 degrees or more, they do not necessarily have to match. The effective angle of view of the imaging unit 11 and the effective angle of view of the distance information acquisition unit 13 may be reduced as necessary. In this embodiment, the imaging unit 11 and the distance information acquisition unit 13 reduce the effective pixels within a range of, for example, 100 degrees to 180 degrees so that nothing interferes with the angle of view. Further, the resolution of the TOF sensor 13a may be set lower than the resolution of the imaging device 11a in order to prioritize miniaturization of the imaging device 1. FIG. In the case of the pulse method as in this example, it is difficult to provide the TOF sensor 13a with high resolution. By making the TOF sensor 13a have a resolution lower than that of the imaging device 11a, it is possible to suppress an increase in the size of the light receiving area. For this reason, the TOF sensor 13a has a low resolution, and the three-dimensional point cloud obtained by the TOF sensor 13a has a low density. can be converted. The process of converting into a high-density three-dimensional point group in the processing circuit 14 will be described later.

本実施の形態では、一例として、撮像素子11aと、光源部12aと、TOFセンサ13aとは筐体10の長手方向に直線上に並ぶように設けている。撮像素子11aの撮像エリア(撮像面)やTOFセンサ13aの受光エリア(受光面)は、図2に示すように長手方向に直交する方向に向けて配置してもよいし、光の直進方向(光路)を90度変換して入射させるプリズムなどを設けることで長手方向に向けて配置してもよい。この他にも、構成に応じて任意の向きに配置してもよい。つまり、撮像素子11aと、光源部12aと、TOFセンサ13aとは、同じ計測範囲が対象となるように配置される。撮像部11と、投射部12と、距離情報取得部13とが筐体10の一面側から、その測定範囲に向けて配置される。この際に、撮像素子11aとTOFセンサ13aとを、平行ステレオ化するように同一基線上に配置できればよい。平行ステレオ化するように配置することにより、撮像素子11aが1つであっても、TOFセンサ13aの出力を利用して視差データを得ることが可能になる。光源部12aは、TOFセンサ13aの計測範囲に光を照射することができるように構成する。 In the present embodiment, as an example, the imaging element 11a, the light source section 12a, and the TOF sensor 13a are provided so as to line up in a straight line in the longitudinal direction of the housing 10. FIG. The imaging area (imaging surface) of the imaging element 11a and the light receiving area (light receiving surface) of the TOF sensor 13a may be arranged in a direction perpendicular to the longitudinal direction as shown in FIG. It may be arranged in the longitudinal direction by providing a prism or the like that converts the optical path by 90 degrees and enters the light. In addition, they may be arranged in any direction depending on the configuration. That is, the imaging device 11a, the light source unit 12a, and the TOF sensor 13a are arranged so as to cover the same measurement range. An imaging unit 11, a projection unit 12, and a distance information acquisition unit 13 are arranged from one side of the housing 10 toward the measurement range. In this case, the imaging device 11a and the TOF sensor 13a should be arranged on the same base line so as to achieve parallel stereo. By arranging for parallel stereo, even if there is only one imaging device 11a, it is possible to obtain parallax data using the output of the TOF sensor 13a. The light source unit 12a is configured to irradiate the measurement range of the TOF sensor 13a with light.

(処理回路)
続いて、処理回路14の処理について説明する。TOFセンサ13aだけで得たTOF画像は、そのままでは解像度が低い。このため、本例では処理回路14により高解像度化し、高密度の3次元点群データを再構築する例を示す。なお、処理回路14における「情報処理手段」としての以下に示す処理の一部または全ては、外部装置で行ってもよい。
(processing circuit)
Next, processing of the processing circuit 14 will be described. A TOF image obtained only by the TOF sensor 13a has a low resolution as it is. For this reason, this example shows an example in which the resolution is increased by the processing circuit 14 to reconstruct high-density three-dimensional point cloud data. Part or all of the processing described below as the "information processing means" in the processing circuit 14 may be performed by an external device.

図3は、処理回路14の処理ブロックの構成の一例を示す図である。図3に示す処理回路14は、制御部141と、RGB画像データ取得部142と、モノクロ処理部143と、TOF画像データ取得部144と、高解像度化部145と、マッチング処理部146と、再投影処理部147と、セマンティックセグメンテーション部148と、視差計算部149と、3次元再構成処理部150とを有する。なお、図3において、実線矢印は信号の流れを示し、破線矢印はデータの流れを示している。 FIG. 3 is a diagram showing an example of a configuration of processing blocks of the processing circuit 14. As shown in FIG. Processing circuit 14 shown in FIG. It has a projection processing unit 147 , a semantic segmentation unit 148 , a parallax calculation unit 149 and a three-dimensional reconstruction processing unit 150 . In FIG. 3, solid line arrows indicate the flow of signals, and broken line arrows indicate the flow of data.

制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、光源部12a、およびTOFセンサ13aに同期信号を出力し、処理回路14全体を制御する。制御部141は、先ず光源部12aに超短パルスの出射を指示する信号を出力し、これと同じタイミングでTOFセンサ13aにTOF画像データの生成を指示する信号を出力する。さらに、制御部141は、撮像素子11aに撮像を指示する信号を出力する。なお、撮像素子11aにおける撮像は、光源部12aから超短パルスが出射されている期間でもよいし、その前後の直近の期間でもよい。 Upon receiving an ON signal (shooting start signal) from the shooting switch 15, the control section 141 outputs a synchronization signal to the image sensor 11a, the light source section 12a, and the TOF sensor 13a, and controls the processing circuit 14 as a whole. The control unit 141 first outputs a signal instructing the light source unit 12a to emit an ultrashort pulse, and at the same timing outputs a signal instructing the TOF sensor 13a to generate TOF image data. Furthermore, the control unit 141 outputs a signal instructing the imaging element 11a to perform imaging. The imaging by the imaging element 11a may be performed during the period during which the ultrashort pulse is emitted from the light source section 12a, or during the most recent period before or after that period.

RGB画像データ取得部142は、制御部141による撮像指示に基づき、撮像素子11aが撮像したRGB画像データを取得する。モノクロ処理部143は、TOFセンサ13aから得られるTOF画像データとのマッチング処理のためにデータ種を揃えるための処理を行う。この例では、モノクロ処理部143は、RGB画像データをモノクロ画像に変換する処理を行う。 The RGB image data acquisition unit 142 acquires RGB image data captured by the image sensor 11a based on an image capturing instruction from the control unit 141 . The monochrome processing unit 143 performs processing for aligning data types for matching processing with the TOF image data obtained from the TOF sensor 13a. In this example, the monochrome processing unit 143 performs processing for converting RGB image data into a monochrome image.

TOF画像データ取得部144は、制御部141によるTOF画像データの生成指示に基づき、TOFセンサ13aが生成したTOF画像データを取得する。 The TOF image data acquisition unit 144 acquires the TOF image data generated by the TOF sensor 13a based on the TOF image data generation instruction from the control unit 141 .

高解像度化部145は、TOF画像データをモノクロ画像に見立て、その解像度を高解像度化する。具体的に、高解像度化部145は、TOF画像データの各画素に対応付けられている距離の値を、モノクロ画像の値(グレースケール値)に置き換えて使用する。さらに、高解像度化部145は、モノクロ画像の解像度を撮像素子11aから得られたRGB画像データの解像度まで高解像度化する。高解像度への変換は、例えば通常のアップコンバート処理を施すことにより行う。その他の変換方法としては、例えば連続して生成されたTOF画像データを複数フレーム取得し、それらを利用して隣接する地点の距離を追加して超解像度処理を施すなどしてもよい。 The resolution enhancement unit 145 treats the TOF image data as a monochrome image and enhances the resolution thereof. Specifically, the resolution enhancement unit 145 replaces the distance value associated with each pixel of the TOF image data with a monochrome image value (grayscale value) and uses it. Furthermore, the resolution enhancement unit 145 enhances the resolution of the monochrome image to the resolution of the RGB image data obtained from the imaging element 11a. Conversion to high resolution is performed, for example, by performing normal up-conversion processing. As another conversion method, for example, a plurality of frames of continuously generated TOF image data may be acquired, and the distances between adjacent points may be added using them to perform super-resolution processing.

マッチング処理部146は、TOF画像データを高解像度化したモノクロ画像と、RGB画像データのモノクロ画像とについて、テクスチャのある部分の特徴量を抽出し、抽出した特徴量によりマッチング処理を行う。例えば、マッチング処理部146は、各モノクロ画像からエッジを抽出し、抽出したエッジ情報同士でマッチング処理を行う。この他の方法として、例えばSIFT等のテクスチャの変化を特徴量化した手法でマッチング処理を行ってもよい。ここでマッチング処理とは、対応画素の探索のことを意味する。 The matching processing unit 146 extracts feature amounts of textured portions of the monochrome image obtained by increasing the resolution of the TOF image data and the monochrome image of the RGB image data, and performs matching processing using the extracted feature amounts. For example, the matching processing unit 146 extracts edges from each monochrome image and performs matching processing between the extracted edge information. As another method, for example, matching processing may be performed by a method such as SIFT, which converts changes in texture into features. Here, matching processing means searching for corresponding pixels.

マッチング処理の具体的な手法として、例えばブロックマッチングがある。ブロックマッチングは、参照する画素の周辺で、M×M(Mは正の整数)ピクセルサイズのブロックとして切り出される画素値と、もう一方の画像のうち、探索の中心となる画素の周辺で、同じくM×Mピクセルのブロックとして切り出される画素値の類似度を計算し、最も類似度が高くなる中心画素を対応画素とする方法である。 As a specific method of matching processing, there is block matching, for example. Block matching consists of pixel values cut out as M×M (M is a positive integer) pixel size blocks around the reference pixel, and In this method, the similarity of pixel values cut out as a block of M×M pixels is calculated, and the central pixel with the highest similarity is taken as the corresponding pixel.

類似度の計算方法は様々である。例えば、次に示す(式1)は正規化自己相関係数CNCC(NCC:Normalized Correlation Coefficient)を示す式である。正規化自己相関係数CNCCは数値が高いほど類似度が高いことを示し、ブロックの画素値が完全に一致していれる場合に1となる。 There are various methods of calculating similarity. For example, (Formula 1) shown below is a formula representing a normalized autocorrelation coefficient C NCC (NCC: Normalized Correlation Coefficient). A higher value of the normalized autocorrelation coefficient C NCC indicates a higher degree of similarity, and becomes 1 when the pixel values of the blocks are completely matched.

探索範囲の中で最も高い係数値を示すブロックの中心画素を対応画素とする。

Figure 2022176974000002
The center pixel of the block showing the highest coefficient value in the search range is taken as the corresponding pixel.
Figure 2022176974000002

また、TOF画像データからテクスチャレス領域の距離のデータも得られるため、領域に応じてマッチング処理に重みをつけてもよい。例えば式1の計算において、次に示す式2に示すようにエッジ以外の箇所(テクスチャレス領域)に重みをかける計算を行ってもよい。 Further, since the distance data of the textureless area can be obtained from the TOF image data, the matching process may be weighted according to the area. For example, in the calculation of Equation 1, weighting may be performed on locations other than edges (textureless regions) as shown in Equation 2 below.

また、式1の代わりに、次の式3のような選択的正規化相関(SCC:Selective Correlation Coefficient)などを用いてもよい。

Figure 2022176974000003
Also, instead of Equation 1, a selective normalized correlation (SCC: Selective Correlation Coefficient) such as Equation 3 below may be used.
Figure 2022176974000003

Figure 2022176974000004
Figure 2022176974000004

式3は基本的に式1と同様であるが、選択関数Cと呼ばれるマスク係数を通しているところが異なる。一般的にはCはb,b´をそれぞれ各画像に対する増分符号として定義される。つまりエッジがより強調されて計算される。この反対を使うことによってエッジでない領域によりTOFデータを利用させることができる。ただし、ここでCtofは、TOFセンサ13aで検出された距離位置を中心に幅を持たせた重みのコストカーブ関数とする。図4が、Ctofのコストカーブ関数の一例である。 Equation 3 is basically the same as Equation 1, except that it passes through mask coefficients called selection functions Cn . In general, Cn is defined as bn and b'n as incremental codes for each image, respectively. In other words, edges are more emphasized in the calculation. By using the inverse, the TOF data can be made available in areas that are not edges. Here, C tof is a weighted cost curve function with a width around the distance position detected by the TOF sensor 13a. FIG. 4 is an example of a C tof cost curve function.

再投影処理部147は、計測範囲の各位置の距離を示すTOF画像データを撮像部11の2次元座標(スクリーン座標系)に再投影する処理を行う。再投影するとは、TOFセンサ13aが算出する3次元点が、撮像素子11aの画像ではどの座標に写るかを求めることである。TOF画像データは、距離情報取得部13(主に広角レンズ13b)を中心とする座標系における3次元点の位置を示す。従って、TOF画像データが示す3次元点を、撮像部11(主に魚眼レンズ11b)を中心とする座標系に再投影する。例えば、再投影処理部147は、TOF画像データの3次元点の座標を撮像部11を中心とする3次元点の座標に平行移動し、平行移動後に、RGB画像データが示す2次元の座標系(スクリーン座標系)に変換する処理を施す。図5は、再投影処理を模式的に示した図である。スクリーン座標系に変換する処理について式4を用いて説明する。 The reprojection processing unit 147 performs processing for reprojecting the TOF image data indicating the distance of each position in the measurement range onto the two-dimensional coordinates (screen coordinate system) of the imaging unit 11 . To re-project is to determine at which coordinates the three-dimensional point calculated by the TOF sensor 13a appears in the image of the imaging element 11a. The TOF image data indicates the positions of three-dimensional points in a coordinate system centered on the distance information acquisition section 13 (mainly the wide-angle lens 13b). Therefore, the three-dimensional point indicated by the TOF image data is reprojected onto the coordinate system centered on the imaging unit 11 (mainly the fisheye lens 11b). For example, the reprojection processing unit 147 translates the coordinates of the three-dimensional point of the TOF image data to the coordinates of the three-dimensional point centered on the imaging unit 11, and after the translation, the two-dimensional coordinate system indicated by the RGB image data. (screen coordinate system). FIG. 5 is a diagram schematically showing reprojection processing. The process of converting to the screen coordinate system will be described using Equation 4.

式4において、(X,Y,Z)は撮像部11の座標系における3次元座標を示している。3×3行列は投影行列と呼ばれるものであり、スクリーン座標系の(x,y)方向の焦点距離(f,f)と、光学中心に対するスクリーン座標系のずれ(c,c)とを使って示される。式2により求まるλ(u,v)がスクリーン座標系に変換(再投影)されたときの座標(再投影座標)である。

Figure 2022176974000005
In Expression 4, (X, Y, Z) represent three-dimensional coordinates in the coordinate system of the imaging unit 11 . The 3×3 matrix is called a projection matrix, and the focal length (f x , f y ) in the (x, y) direction of the screen coordinate system and the shift (c x , c y ) of the screen coordinate system with respect to the optical center and These are coordinates (reprojection coordinates) when λ(u, v) obtained by Equation 2 is transformed (reprojection) into the screen coordinate system.
Figure 2022176974000005

視差計算部149は、マッチング処理により得られた対応画素との距離のズレから各位置の視差を計算する。 The parallax calculator 149 calculates the parallax of each position from the difference in distance from the corresponding pixel obtained by the matching process.

なお、視差のマッチング処理は、再投影処理部147が変換した再投影座標を利用して、再投影座標の位置の周辺画素を探索することで、処理時間の短縮や、より詳細で高解像度な距離情報を取得することが可能になる。 In the parallax matching process, the reprojection coordinates converted by the reprojection processing unit 147 are used to search for pixels around the position of the reprojection coordinates. It becomes possible to acquire distance information.

また、視差のマッチング処理にセマンティックセグメンテーション部148のセマンティックセグメンテーション処理により得られたセグメンテーションデータを利用してもよい。その場合、さらに詳細で高解像度の距離情報を取得することができるようになる。 Further, segmentation data obtained by the semantic segmentation processing of the semantic segmentation unit 148 may be used for the parallax matching processing. In that case, more detailed and high-resolution distance information can be obtained.

また、エッジのみや、強い特徴量のある部分のみ、視差のマッチング処理を行い、その他の部分は、TOF画像データも利用し、例えばRGB画像特徴や確率的な手法を利用し、伝搬処理を行ってもよい。 In addition, parallax matching processing is performed only for edges and only portions with strong feature amounts, and for other portions, TOF image data is also used, for example, RGB image features and probabilistic methods are used to perform propagation processing. may

セマンティックセグメンテーション部148は、深層学習を利用して、例えば図6のように、計測範囲の入力画像に対して対象物を示すセグメンテーションラベルを付与する。これにより、TOF画像データの各画素を、距離毎に分けた複数の距離領域の何れかに拘束させることができるので、計算の信頼性がさらに高まる。 The semantic segmentation unit 148 uses deep learning to assign a segmentation label indicating an object to the input image of the measurement range, as shown in FIG. 6, for example. As a result, each pixel of the TOF image data can be constrained to one of a plurality of distance areas divided by distance, thereby further increasing the reliability of calculation.

3次元再構成処理部145は、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する。 The three-dimensional reconstruction processing unit 145 acquires RGB image data from the RGB image data acquisition unit 142, reconstructs three-dimensional data based on the distance information output by the parallax calculation unit 149, and assigns color information to each three-dimensional point. is added to output a high-density 3D point cloud.

(処理回路の動作)
図7は、撮像装置1の処理回路14の動作の一例を示すフロー図である。処理回路14の制御部141は、ユーザにより撮影スイッチ15がONされ、撮影指示信号が入力されると、次のような方法で高密度3次元点群を生成する動作を行う。
(Operation of processing circuit)
FIG. 7 is a flow chart showing an example of the operation of the processing circuit 14 of the imaging device 1. As shown in FIG. When the photographing switch 15 is turned on by the user and a photographing instruction signal is input, the control unit 141 of the processing circuit 14 performs an operation of generating a high-density three-dimensional point cloud by the following method.

先ず、制御部141は、光源部12aと、TOFセンサ13aと、撮像素子11aとを駆動して計測範囲を撮影する(ステップS1)。制御部141による駆動により、光源部12aが赤外光(照射パルス)を照射し、その反射光である反射パルスをTOFセンサ13aが受光する。また、撮像素子11aが、光源部12aの駆動開始のタイミングあるいはその直近の期間に計測範囲を撮像する。 First, the control unit 141 drives the light source unit 12a, the TOF sensor 13a, and the imaging device 11a to photograph the measurement range (step S1). Driven by the control unit 141, the light source unit 12a emits infrared light (irradiation pulse), and the TOF sensor 13a receives the reflected pulse, which is the reflected light. In addition, the imaging device 11a captures an image of the measurement range at the timing when the driving of the light source unit 12a is started or in the period immediately preceding it.

次に、TOF画像データ取得部144が、TOFセンサ13aから2次元領域の各位置の距離を示すTOF画像データを取得する(ステップS2)。さらに、RGB画像データ取得部142が、撮像素子11aから計測範囲のRGB画像データを取得する(ステップS3)。なお、ステップS2とステップS3は逆の順序で行われても良い。 Next, the TOF image data acquisition unit 144 acquires TOF image data indicating the distance of each position in the two-dimensional area from the TOF sensor 13a (step S2). Further, the RGB image data acquisition unit 142 acquires RGB image data of the measurement range from the imaging element 11a (step S3). Note that steps S2 and S3 may be performed in the reverse order.

次に、モノクロ処理部143が、RGB画像データをモノクロ画像へ変換する(ステップS4)。TOF画像データとRGB画像データとでは、それぞれが距離データとRGBデータとでデータ種が異なり、そのままではマッチングを行うことができない。従って、先ず一旦、それぞれのデータをモノクロ画像に変換する。TOF画像データについては、高解像度化部145が高解像度化の前に各画素の距離を示す値を、そのままモノクロ画像の値に置き換えることで変換する。 Next, the monochrome processing unit 143 converts the RGB image data into a monochrome image (step S4). The TOF image data and the RGB image data are different in data type between the distance data and the RGB data, respectively, and matching cannot be performed as they are. Therefore, each data is first converted into a monochrome image. As for the TOF image data, before the resolution is increased, the resolution increasing unit 145 converts the value indicating the distance of each pixel by replacing it with the value of the monochrome image.

次に、高解像度化部145がTOF画像データの解像度を高解像度化する(ステップS5)。 Next, the resolution enhancement unit 145 enhances the resolution of the TOF image data (step S5).

次に、マッチング処理部146が、各モノクロ画像についてテクスチャのある部分の特徴量を抽出し、抽出した特徴量でマッチング処理を行う(ステップS6)。 Next, the matching processing unit 146 extracts feature amounts of textured portions of each monochrome image, and performs matching processing using the extracted feature amounts (step S6).

次に、視差計算部149が、対応画素の距離のズレから各位置の視差を計算する(ステップS7)。 Next, the parallax calculator 149 calculates the parallax of each position from the distance deviation of the corresponding pixels (step S7).

そして、3次元再構成処理部145が、RGB画像データ取得部142からRGB画像データを取得し、視差計算部149が出力した距離情報に基づいて3次元データを再構成し、各3次元点に色情報を付加した高密度3次元点群を出力する(ステップS8)。 Then, the three-dimensional reconstruction processing unit 145 acquires the RGB image data from the RGB image data acquisition unit 142, reconstructs the three-dimensional data based on the distance information output by the parallax calculation unit 149, and converts each three-dimensional point into A high-density three-dimensional point group to which color information is added is output (step S8).

以上のように、本実施の形態に係る撮像装置は、可視光を受光して画像を取得する撮像部と、可視光以外の光を投射する投射部と、投射部が投射した光に基づいて距離情報を取得する距離情報取得部とを筐体に対して一体的に設ける。これにより、距離情報を取得するための準備が簡単な撮像装置を実現することができる。従来のように撮像装置と投射装置とが別体の場合は、撮影のたびに、撮像装置と投射装置のキャリブレーションが必要になる。キャリブレーションとは、投射方向と撮像方向の位置あわせなどである。しかし、本実施の形態では、共通の筐体に一体的に設けられるため、そのようなキャリブレーションは不要である、このため、距離情報を取得するための準備が簡単になる。また、処理回路において、各部が出力したデータを基に高密度の3次元点群データを再構築する。これにより、「高解像度」で「高精度」な「遠方・広角の3次元復元」を1つの小型デバイスとして実現することが可能になる。 As described above, the imaging apparatus according to the present embodiment includes an imaging unit that receives visible light to obtain an image, a projection unit that projects light other than visible light, and an image based on the light projected by the projection unit. A distance information acquisition unit for acquiring distance information is provided integrally with the housing. As a result, it is possible to realize an imaging device that is easy to prepare for acquiring distance information. In the case where the imaging device and the projection device are separate units as in the conventional art, calibration of the imaging device and the projection device is required each time shooting is performed. Calibration is alignment of the projection direction and the imaging direction. However, in the present embodiment, since they are integrally provided in a common housing, such calibration is not necessary, so preparation for acquiring distance information is simplified. Also, in the processing circuit, high-density three-dimensional point cloud data is reconstructed based on the data output from each section. As a result, it becomes possible to realize "high-resolution" and "high-precision" "three-dimensional reconstruction of long distances and wide angles" in a single small device.

(変形例1)
実施の形態には、パルス方式で距離を計測する構成を示したが、この方式に限らず、適宜他の方式に変形してもよい。変形例1では、パルス方式以外の一例として位相差検出方式で距離を計測する場合の構成について示す。
(Modification 1)
Although the configuration for measuring the distance by the pulse method has been shown in the embodiment, the present invention is not limited to this method, and may be modified to other methods as appropriate. Modification 1 shows a configuration for measuring a distance by a phase difference detection method as an example other than the pulse method.

一般に、位相差検出方式では、基本周波数で振幅変調したレーザ光を計測範囲に照射し、その反射光を受光して照射光と反射光との位相差を測定することで時間を求め、その時間に光速をかけて距離を算出する。この方式では、ある程度の解像度が見込めることが強みだが、位相差を取るために光を出し続ける必要がある。このために強い光を出力することはできず、計測範囲を遠方まで稼ぐことが難しい。またスポット光が基本になるために広角化が難しい。変形例1では、この点も改善する。 Generally, in the phase difference detection method, a measurement range is irradiated with a laser beam amplitude-modulated at the fundamental frequency, the reflected light is received, and the time is obtained by measuring the phase difference between the irradiated light and the reflected light. is multiplied by the speed of light to calculate the distance. The advantage of this method is that a certain degree of resolution can be expected, but it is necessary to keep emitting light in order to obtain the phase difference. For this reason, strong light cannot be output, and it is difficult to increase the measurement range to a long distance. In addition, it is difficult to widen the angle because spot light is the basis. Modification 1 also improves this point.

図8は、変形例1に係る位相差検出方式で計測する撮像装置の構成について説明するための図である。図8には、図2に示す撮像装置1の構成において、位相差検出方式に変形した場合の構成を示している。ここでは、図2に示す撮像装置の構成とは異なる箇所について説明し、共通する箇所については説明を適宜省略する。 FIG. 8 is a diagram for explaining the configuration of an imaging device that performs measurement using a phase difference detection method according to Modification 1. As shown in FIG. FIG. 8 shows a configuration in which the configuration of the imaging device 1 shown in FIG. 2 is modified to the phase difference detection method. Here, portions different from the configuration of the imaging apparatus shown in FIG. 2 will be described, and descriptions of common portions will be omitted as appropriate.

変形例1に係る撮像装置2において、光源部は、基本周波数で振幅変調したレーザ光を照射する。ここでは位相差検出方式を採用するため、スポット光を利用する。図8に示す一例では、「走査手段」である光偏向素子の一例のMEMSミラー231と、半導体レーザ232とを設けている。 In the imaging device 2 according to Modification 1, the light source unit irradiates laser light amplitude-modulated at the fundamental frequency. Since the phase difference detection method is adopted here, spot light is used. In the example shown in FIG. 8, a MEMS mirror 231 and a semiconductor laser 232, which are an example of an optical deflection element, are provided as a “scanning means”.

MEMSミラー231は、一次元方向に駆動し、半導体レーザ232のレーザ光を計測範囲の一方向(例えばX軸方向)に走査する。投射部から見た場合、計測範囲の全てはX軸と、これに直交するY軸の2次平面に投影することができる。そこで、この計測範囲の全てを2次平面と考えたときのX軸方向に対してMEMSミラー231によりレーザ光を走査する。2次平面におけるY軸方向の範囲についてはレーザ光に縦長の光を使用することによりカバーする。このように構成することにより、位相差検出方式において広角化を可能にする。 The MEMS mirror 231 is driven in one-dimensional direction, and scans the laser light of the semiconductor laser 232 in one direction (for example, the X-axis direction) of the measurement range. When viewed from the projection unit, the entire measurement range can be projected onto a secondary plane of the X-axis and the Y-axis orthogonal thereto. Therefore, the laser beam is scanned by the MEMS mirror 231 in the X-axis direction when considering the entire measurement range as a secondary plane. The range in the Y-axis direction in the secondary plane is covered by using vertically elongated laser light. By configuring in this way, it is possible to widen the angle in the phase difference detection method.

図8に示す例では、半導体レーザ232を設けて走査系拡大レンズ233によりレーザ光を縦長の径になるように成形することで、2次平面のY軸方向の範囲をカバーする。ここでは、一例として、多数の半導体レーザ232を使用する。なお、半導体レーザ232の数は、適宜決めてよい。半導体レーザ232は、強い光を得るために複数構成したものを示しているが、これに限定せず、1であってもよい。なお、半導体レーザ232の数を増やすにつれて、強い光を出し続けることがより可能になる。 In the example shown in FIG. 8, a semiconductor laser 232 is provided and a scanning system magnifying lens 233 shapes the laser beam to have a vertically elongated diameter, thereby covering the range of the secondary plane in the Y-axis direction. Here, as an example, multiple semiconductor lasers 232 are used. Note that the number of semiconductor lasers 232 may be determined as appropriate. A plurality of semiconductor lasers 232 are shown to obtain strong light, but the number of semiconductor lasers 232 is not limited to this and may be one. It should be noted that as the number of semiconductor lasers 232 is increased, it becomes possible to continue emitting strong light.

半導体レーザとしてVCSELを使用してもよい。複数の半導体レーザを構成する場合、VCSELにおいてレーザ光を出射する発光部を一次元方向に配列したものや、2次元方向に配列したものなどを利用することができる。 A VCSEL may be used as the semiconductor laser. When constructing a plurality of semiconductor lasers, it is possible to use a VCSEL in which light-emitting portions that emit laser light are arranged in a one-dimensional direction or in a two-dimensional direction.

図9は、変形例1に係る投射部の構成の一例を模式的に示す図である。図9に示すように、処理回路14の制御部141が、半導体レーザ232の発光回路232aとX軸方向にスポット光を走査するMEMSミラー231とを共に制御する。具体的に、制御部141は、半導体レーザ232を発光した後、MEMSミラー231を一軸方向(図9の回転軸周り)に往復回動させる。この制御により、半導体レーザ232から出射されたレーザ光PがMEMSミラー231を介して計測範囲の一次元方向(X軸方向)に走査される。 FIG. 9 is a diagram schematically showing an example of a configuration of a projection section according to Modification 1. As shown in FIG. As shown in FIG. 9, the control unit 141 of the processing circuit 14 controls both the light emitting circuit 232a of the semiconductor laser 232 and the MEMS mirror 231 that scans the spot light in the X-axis direction. Specifically, after the semiconductor laser 232 emits light, the control unit 141 reciprocates the MEMS mirror 231 in one axial direction (around the rotation axis in FIG. 9). With this control, the laser light P emitted from the semiconductor laser 232 is scanned in one-dimensional direction (X-axis direction) of the measurement range via the MEMS mirror 231 .

図9には、MEMSミラー231を介することによりレーザ光Pが方向を変えて出射される様子を破線矢印で示している。また、この例では、走査系拡大レンズ233を設けているため、レーザ光Pは径が縦長になるように成形されて出射される。図9には、MEMSミラー231により一次元方向に走査されるレーザ光Pにおいて、任意のレーザ光Pの径が走査系拡大レンズ233により縦長になるように成形されて出射される様子を一点鎖線矢印で示している。このように、変形例1に示す構成であれば、MEMSミラー231の一軸方向の駆動だけで計測範囲全体にレーザ光Pが照射される。また、位相差検出方式において強い光を出し続けることと広角化とを実現することができる。 In FIG. 9, the dashed arrows indicate how the laser light P is emitted in a different direction through the MEMS mirror 231 . Further, in this example, since the scanning system magnifying lens 233 is provided, the laser light P is shaped so that the diameter thereof becomes vertically long and is emitted. In FIG. 9, in the laser light P scanned in the one-dimensional direction by the MEMS mirror 231, the scanning system magnifying lens 233 shapes the diameter of the arbitrary laser light P so that it is emitted vertically. indicated by an arrow. Thus, with the configuration shown in Modification 1, the entire measurement range is irradiated with the laser light P only by driving the MEMS mirror 231 in one axial direction. Further, in the phase difference detection method, it is possible to continuously emit strong light and widen the angle of view.

(光偏向素子)
図10は、MEMSミラー231の構成の一例を説明する図である。図10に示すMEMSミラー231は、支持基板131に、可動部132と二組の蛇行状梁部133とを有する。
(Optical deflection element)
FIG. 10 is a diagram illustrating an example of the configuration of the MEMS mirror 231. As shown in FIG. A MEMS mirror 231 shown in FIG. 10 has a movable portion 132 and two sets of meandering beam portions 133 on a support substrate 131 .

可動部132は反射ミラー1320を備えている。二組の蛇行状梁部133はそれぞれ一端が可動部132に連結され、他端が支持基板131により支持されている。二組の蛇行状梁部133はそれぞれミアンダ形状の複数の梁部からなり、共に、第1の電圧の印加により変形する第1の圧電部材1331と、第2の電圧の印加により変形する第2の圧電部材1332とを各梁部に1つおきに有する。第1の圧電部材1331と第2の圧電部材1332と隣り合う梁部ごとに独立に設けられている。二組の蛇行状梁部133はそれぞれ第1の圧電部材1331と第2の圧電部材1332への電圧の印加により変形し、可動部132の反射ミラー1320を回転軸周りに回転させる。 The movable part 132 has a reflecting mirror 1320 . One end of each of the two sets of meandering beam portions 133 is connected to the movable portion 132 and the other end is supported by the support substrate 131 . The two sets of meandering beams 133 each consist of a plurality of meandering beams, and both consist of a first piezoelectric member 1331 deformed by application of a first voltage and a second piezoelectric member 1331 deformed by application of a second voltage. of piezoelectric members 1332 are alternately provided on each beam. The first piezoelectric member 1331 and the second piezoelectric member 1332 are provided independently for each adjacent beam portion. The two sets of meandering beam portions 133 are deformed by voltage application to the first piezoelectric member 1331 and the second piezoelectric member 1332, respectively, and rotate the reflecting mirror 1320 of the movable portion 132 around the rotation axis.

具体的には、第1の圧電部材1331と第2の圧電部材1332に逆位相となる電圧を印加し、各梁部に反りを発生させる。これにより、隣り合う梁部が異なる方向にたわみ、それが累積され、二組の蛇行状梁部133に連結する可動部132と共に反射ミラー1320が回転軸を中心に往復回動する。さらに、回転軸を回転中心とするミラー共振モードに合わせた駆動周波数をもつ正弦波を逆相で第1の圧電部材1331と第2の圧電部材1332とに印加することで、低電圧で非常に大きな回転角度を得ることができる。 Specifically, voltages having opposite phases are applied to the first piezoelectric member 1331 and the second piezoelectric member 1332 to cause each beam to warp. As a result, the adjacent beams flex in different directions, which are accumulated, and the reflecting mirror 1320 reciprocates around the rotation axis together with the movable part 132 connected to the two sets of meandering beams 133 . Furthermore, by applying a sine wave having a driving frequency matching the mirror resonance mode with the rotation axis as the rotation center in opposite phases to the first piezoelectric member 1331 and the second piezoelectric member 1332, a very low voltage can be achieved. A large rotation angle can be obtained.

なお、駆動波形は正弦波に限らない。例えばノコギリ波であってもよい。また、共振モードに限らず、非共振モードで駆動させてもよい。 Note that the drive waveform is not limited to a sine wave. For example, it may be a sawtooth wave. In addition, it may be driven not only in resonance mode but also in non-resonance mode.

(処理回路の動作)
制御部141は、撮影スイッチ15からON信号(撮影開始信号)を受けると撮像素子11a、光源部(半導体レーザ232とMEMSミラー231)、およびTOFセンサ13a(この例では位相差検出方式のTOFセンサ)に同期信号を出力して駆動し、処理回路14全体を制御する。変形例1では、制御部141は、光源部の複数の半導体レーザ232を駆動し、MEMSミラー231による一走査の間、強い光をMEMSミラー231に照射し続ける。MEMSミラー231は、半導体レーザ232の照射と共に走査を開始する。TOFセンサ13aは、走査期間中、測定範囲からの反射光を対応する受光素子で受光し、各画素のデータを処理回路14へ出力する。
(Operation of processing circuit)
When receiving an ON signal (shooting start signal) from the shooting switch 15, the control unit 141 controls the imaging device 11a, the light source unit (the semiconductor laser 232 and the MEMS mirror 231), and the TOF sensor 13a (in this example, a phase difference detection type TOF sensor). ) is driven by outputting a synchronizing signal to control the entire processing circuit 14 . In Modification 1, the control unit 141 drives the plurality of semiconductor lasers 232 of the light source unit, and continues to irradiate the MEMS mirror 231 with strong light during one scan by the MEMS mirror 231 . The MEMS mirror 231 starts scanning when the semiconductor laser 232 is irradiated. During the scanning period, the TOF sensor 13 a receives the reflected light from the measurement range with the corresponding light receiving element, and outputs data of each pixel to the processing circuit 14 .

処理回路14へ出力されたデータは、距離情報取得部13が取得し、照射光と反射光との位相差から時間を求め、その時間に光速をかけて距離を算出する。このようにして生成されたTOF画像データは、実施の形態と同様の手順で高密度3次元点群データが再構築される。3次元点群データの再構築の処理については、実施の形態の説明の繰り返しになりため、ここでの説明は省略する。 The data output to the processing circuit 14 is acquired by the distance information acquiring unit 13, the time is obtained from the phase difference between the irradiated light and the reflected light, and the time is multiplied by the speed of light to calculate the distance. From the TOF image data generated in this manner, high-density three-dimensional point cloud data is reconstructed in the same procedure as in the embodiment. The process of reconstructing the 3D point cloud data is a repetition of the description of the embodiment, so the description is omitted here.

以上のように、変形例1の構成では、光偏向素子や複数の半導体レーザを設けた場合のものについて示している。本構成では、MEMSミラーや、VCSELなどを採用することにより、撮像素子11aと、光源部(半導体レーザ232とMEMSミラー231)と、TOFセンサ13aとを筐体10の長手方向に直線上に並ぶように設けることができるため、撮像装置1を小型化することがより可能になる。 As described above, the configuration of Modification 1 shows the case where the optical deflection element and the plurality of semiconductor lasers are provided. In this configuration, by adopting a MEMS mirror, a VCSEL, or the like, the imaging element 11a, the light source (the semiconductor laser 232 and the MEMS mirror 231), and the TOF sensor 13a are arranged in a straight line in the longitudinal direction of the housing 10. Since it can be provided as follows, it becomes possible to make the imaging device 1 more compact.

(変形例2)
実施の形態や変形例1には、RGB画像を取得する撮像部と、可視光領域以外の光を投射する投射部と、投射部が投射した光に基づいて距離情報を取得する距離情報取得部とを、それぞれを1組ずつ半天球(略180度、または180度以下)の測定範囲を対象に筐体10に設けたものを示した。各部の数は、1組ずつに限らず適宜増やしてもよい。例えば、半天球(略180度、または180度以下)の測定範囲を対象に、撮像部を同一基線上に2組設け、撮像部をステレオカメラ化してもよい。また、筐体10の正面側だけでなく背面側などにも、同じ数の撮像部、投射部、距離情報取得部を設けてもよい。このように、撮像部、投射部、および距離情報取得部を複数組設ける場合、複数組の一つの組(例えば正面側の組)と他の組(例えば背面側の組)とは計測範囲が互いに異なる計測範囲になる向きに設ける。
(Modification 2)
The first embodiment and modification 1 include an imaging unit that acquires an RGB image, a projection unit that projects light outside the visible light region, and a distance information acquisition unit that acquires distance information based on the light projected by the projection unit. and are provided on the housing 10 for a measurement range of a hemispherical sphere (approximately 180 degrees or less than 180 degrees). The number of each part is not limited to one set, and may be increased as appropriate. For example, two sets of imaging units may be provided on the same base line for a measurement range of a half celestial sphere (approximately 180 degrees or less than 180 degrees), and the imaging units may be stereo cameras. Also, the same number of imaging units, projection units, and distance information acquiring units may be provided not only on the front side of the housing 10 but also on the rear side or the like. As described above, when a plurality of sets of the imaging unit, the projection unit, and the distance information acquisition unit are provided, one set (for example, the front side set) and the other set (for example, the back side set) of the plurality of sets have a measurement range. They are provided in directions that provide mutually different measurement ranges.

図11は、変形例2に係る撮像装置の構成の一例を説明するための図である。図11には、図2に示す撮像装置1の構成を変形した場合の構成を示している。ここでは、図2に示す撮像装置の構成とは異なる箇所について説明し、共通する箇所については説明を適宜省略する。 FIG. 11 is a diagram for explaining an example of the configuration of an imaging device according to Modification 2. As shown in FIG. FIG. 11 shows a configuration in which the configuration of the imaging device 1 shown in FIG. 2 is modified. Here, portions different from the configuration of the imaging apparatus shown in FIG. 2 will be described, and descriptions of common portions will be omitted as appropriate.

図11に示す撮像装置3は、筐体10の一面(正面とする)に撮像部11を同一基線上に2組設けた場合のものである。また、筐体10の背面にも、正面と同様の数および配列で、撮像部11と、投射部12と、距離情報取得部13とを一体に設けている。 The image pickup device 3 shown in FIG. 11 has two sets of image pickup units 11 provided on the same base line on one surface (referred to as the front surface) of the housing 10 . In addition, on the rear surface of the housing 10, the imaging units 11, the projection units 12, and the distance information acquisition units 13 are integrally provided in the same number and arrangement as the front surface.

図11に示すように、正面だけでなく背面側にも設けることにより、正面側の半天球(略180度)に背面側の半天球(略180度)も加わり、全天球(周囲360度)の範囲をカバーすることができるようになる。つまり、1度の撮影により処理回路14は360度全方向のRGB画像と距離情報のデータとを取得することができ、全方向の3次元復元モデルのためのデータ(高密度3次元点群データ)を1度に生成することができる。なお、高密度3次元点群データを生成する処理は、全方向のRGB画像と距離情報のデータとを使用することを除き実施の形態と略同様である。 As shown in FIG. 11, by providing not only the front but also the back side, the front half sphere (approximately 180 degrees) is added to the back side half sphere (approximately 180 degrees), resulting in a full sphere (around 360 degrees). ) can be covered. In other words, the processing circuit 14 can acquire 360-degree omnidirectional RGB images and distance information data by one shot, and data for omnidirectional 3D reconstruction models (high-density 3D point cloud data). ) can be generated at once. Note that the process of generating high-density three-dimensional point cloud data is substantially the same as in the embodiment except for using an omnidirectional RGB image and distance information data.

また、図11に示す構成では、筐体10の一面にRGBの撮像部11を同一基線上に2組設けている。この場合、処理回路14において多眼での処理が可能になる。つまり、一面において所定距離離して設けた2つの撮像部11を同時に駆動することにより2つの視点のRGB画像が得られる。このため、2つのRGB画像に基づいて計算した視差の使用が可能になり、さらに測定範囲全体の距離精度を向上させることができる。 In addition, in the configuration shown in FIG. 11, two sets of RGB imaging units 11 are provided on one surface of the housing 10 on the same base line. In this case, multi-view processing becomes possible in the processing circuit 14 . That is, RGB images of two viewpoints can be obtained by simultaneously driving the two imaging units 11 provided on one surface with a predetermined distance therebetween. This allows the use of parallax calculated based on the two RGB images, further improving distance accuracy over the entire measurement range.

具体的には、RGBの撮像部11を複数設けた場合、従来の視差計算のように、SSSDを使ったマルチベースラインステレオ(MSB)やEPI処理などが利用可能になる。このため、これを利用することで視差の信頼度があがり、高い空間解像度と精度を実現することが可能になる。 Specifically, when a plurality of RGB imaging units 11 are provided, multi-baseline stereo (MSB) using SSSD and EPI processing can be used like conventional parallax calculation. Therefore, by using this, the reliability of parallax is increased, and high spatial resolution and accuracy can be achieved.

(処理回路の動作)
例えば次に示す式5のように、式2をベースとしてさらにエッジでのRGB画像を利用する比率を高くする。ここでCRGBは、RGB多眼画像による視差計算処理であり、MBSやEPIで計算されるコスト値である。wはCwnccとCRGBのどちらを優先するかを決定する重み値であるが、式2で示したwをそのまま利用してもよい。

Figure 2022176974000006
(Operation of processing circuit)
For example, as shown in Equation 5 below, based on Equation 2, the ratio of using the RGB image at the edge is increased. Here, CRGB is a parallax calculation process using an RGB multiview image, and is a cost value calculated by MBS or EPI. w1 is a weight value that determines which of Cwncc and CRGB is prioritized, but w shown in Equation 2 may be used as it is.
Figure 2022176974000006

マッチングした視差から、実際の距離への計算は、次式の式6により行う。Zが奥行き、fが焦点であり、baselineは基線長と呼ばれ、撮像部11間の基線上における距離である。dは視差であり、上記のマッチング処理によって算出された値、つまり、その基線方向で、参照画素と対応画素の座標値の差に画素ピッチを乗じた値である。

Figure 2022176974000007
Calculation from the matched parallax to the actual distance is performed by Equation 6 below. Z is the depth, f is the focus, and baseline is called the baseline length, which is the distance between the imaging units 11 on the baseline. d is the parallax, which is the value calculated by the above matching process, that is, the value obtained by multiplying the difference between the coordinate values of the reference pixel and the corresponding pixel in the baseline direction by the pixel pitch.
Figure 2022176974000007

なお、これは画像の投影形態が透視投影の場合であり、全周囲画像等で利用されるEquiRectangular等の投影系では、下記式7が利用される。図12に、この式を導出する説明図を示している。

Figure 2022176974000008
Note that this is a case where the projection form of the image is perspective projection, and the following equation 7 is used in a projection system such as EquiRectangular used for an omnidirectional image or the like. FIG. 12 shows an explanatory diagram for deriving this formula.
Figure 2022176974000008

(適用例)
計測範囲についての3D復元技術は、Structure from Motonと呼ばれる手法や、複数の画像撮影手段を備えた機器を用いた、ステレオ法と呼ばれる手法をメインとしている。これらの手法は基本的な処理として、カメラによって異なる位置から撮影された画像中から、同じ箇所を撮影したとされる点を、画像の類似度に基づいて探索する。この処理は対応点探索などと呼ばれる。この対応点探索処理に引き続いて、場合によっては複雑な計算を施して、大規模な空間を可能な限り隙間なく滑らかに復元しようとするものである。
(Application example)
The 3D restoration technology for the measurement range mainly includes a method called structure from motor and a method called stereo method using equipment equipped with a plurality of image capturing means. As a basic process, these methods search for points that are supposed to have been taken at the same location in images taken from different positions by cameras, based on the degree of similarity of the images. This processing is called a corresponding point search or the like. Following this corresponding point searching process, depending on the case, complicated calculations are performed to attempt to restore a large-scale space as smoothly as possible without gaps.

異なる地点から撮影した画像において、同じ箇所が撮影されたとするような点を探す場合には、基本的には画像の特徴が重要である。例えば室内の単色の壁や、単色の床など、画像として映った際に、どこを撮影しても同じで特徴のみつからないような領域(テクスチャレス領域)については、画像の類似度を元に対応点を探すことが非常に困難になる。この対応点が見つからないと、人間の目でいうところの視差が分からないことになり、奥行きを知ることができない。つまり対応点が見つからない点については正しく3D復元することが困難になる。 In images taken from different points, the characteristics of the images are fundamentally important when searching for a point where the same point is assumed to have been taken. For example, areas (textureless areas) that are the same no matter where they are photographed, such as a single-color wall or a single-color floor, are captured based on the similarity of the image. It becomes very difficult to find corresponding points. If this corresponding point is not found, the parallax of the human eye cannot be found, and the depth cannot be found. In other words, it is difficult to perform correct 3D reconstruction of points for which corresponding points cannot be found.

この課題に対して、パターン光やランダム光を照射することで、対応画素を探しやすくする手法が知られている。これは総称してアクティブステレオ法などと呼ばれる。アクティブステレオ法の例として、ゲームプレイヤーのジェスチャ入力を可能とする装置であるKinectに代表されるように、既知のパターン光(赤外光)を照射してカメラで撮像し、深度情報を得るデバイスもあるが、これらは深度情報を取得することのみが目的とされ、被写体の自然な色情報を同時に得ることはできない。そのため、物体や空間を3次元復元し、デジタル3Dデータとして再利用することは難しい。別途色情報を通常のカメラ撮影によって取得し、3Dメッシュのテクスチャなどとして重ね合わせることはできるが、被写体が動いたり撮像装置が動いたりしている場合には不可能である。 As a solution to this problem, there is a known method of irradiating patterned light or random light to make it easier to find corresponding pixels. This is generically called an active stereo method or the like. As an example of the active stereo method, a device that obtains depth information by irradiating a known pattern of light (infrared light) and taking an image with a camera, as represented by Kinect, which is a device that allows game players to input gestures. However, these are aimed only at obtaining depth information, and cannot obtain natural color information of the subject at the same time. Therefore, it is difficult to reconstruct objects and spaces in three dimensions and reuse them as digital 3D data. Separately, color information can be acquired by normal camera photography and superimposed as a 3D mesh texture or the like, but this is impossible when the subject or imaging device is moving.

また、カメラのマッチングを利用して距離を推測する場合には、根本的に画像の対応点マッチングによって処理を行うため、特徴領域点においてさえも、キャリブレーション性能などによって距離精度が悪化する、対象までの距離に従って測距精度が悪化する、といった問題がある。これはアクティブステレオにおいても同様の問題である。これに加え、アクティブステレオの場合は、パターンが投射されている領域は特徴点がとれるが、しかし広角にパターンを投射するためには、大きな投影装置が必要になるという問題がある。 In addition, when estimating distance using camera matching, processing is basically performed by matching corresponding points in the image, so even for feature area points, distance accuracy deteriorates due to calibration performance. There is a problem that the distance measurement accuracy deteriorates according to the distance to. This is the same problem in active stereo. In addition to this, in the case of active stereo, feature points can be obtained in the area where the pattern is projected, but in order to project the pattern over a wide angle, there is a problem that a large projection device is required.

一方、TOFを利用した方法では、投光した光が受光装置で計測できる領域においては、距離に関わらず高い測距精度を実現することができるが、光を投射してその戻ってくる時間を計測するため、ある投光に対して受光系をなすシステムが必要になる。このため、一度に数多くの測距点を取得するためには、投光・受光系のシステムを大量に備える必要が生じ、装置が大型化し、かつコストが膨大にかかる。このため、限られた投光・受光系のシステムに回転機構を設けて、装置を実現するのが一般的である。このような場合でも、カメラほどの解像度は実現できないことと、回転系を備えるために時間差が生じてしまい、装置の大型化は避けられない。回転機構に対しては、近年、機械的な回転機構をなくして投光レーザや受光センサを振るMEMS技術や複数点の受光を可能にするTOFセンサ、それに複数のレーザを備えたVCSELなども出てきている。これより、根源的な解像度不足と広角化の問題が改良されはするが、それでもカメラほどの高解像度化と広角化・小型化は実現できない。また、アクティブステレオと同様に、これらは深度情報を取得することのみが目的とされ、被写体の自然な色情報を同時に得ることはできない。 On the other hand, in the method using TOF, high distance measurement accuracy can be achieved regardless of the distance in the area where the projected light can be measured by the light receiving device. In order to measure, a system that forms a light receiving system for a certain projected light is required. Therefore, in order to obtain a large number of distance measuring points at once, it is necessary to provide a large number of light projecting and light receiving systems, which increases the size of the apparatus and increases the cost. For this reason, it is common to implement a device by providing a rotation mechanism in a limited light projecting/receiving system. Even in such a case, resolution as high as that of a camera cannot be achieved, and a time difference occurs due to the provision of a rotation system, which inevitably increases the size of the apparatus. As for the rotating mechanism, in recent years, MEMS technology that eliminates the mechanical rotating mechanism and shakes the light emitting laser and light receiving sensor, a TOF sensor that enables light reception at multiple points, and a VCSEL equipped with multiple lasers have been released. is coming. With this, the fundamental problems of lack of resolution and wide angle are improved, but still it is not possible to realize high resolution, wide angle and miniaturization as much as a camera. Also, like active stereo, these are aimed only at obtaining depth information and cannot simultaneously obtain natural color information of the subject.

従来の装置をただ接続した場合は非常に大型なものになってしまうが、本実施の形態や、その変形例として示す各撮像装置においては、これらの課題が解決される。つまり、小型でありながら、略180度~360度(全周囲)をターゲットとする広角の3次元情報をテクスチャレス領域も含め、高密度に一度に復元することができる。特に可視光以外を投光する投光系と、その光を受光するセンサを、解像度が粗くてもいいように構築する場合において非常に小型な一体構成を実現することができる。 If a conventional device is simply connected, it becomes very large, but these problems are solved in each imaging device shown in this embodiment and its modifications. That is, in spite of its small size, wide-angle three-dimensional information targeting approximately 180 degrees to 360 degrees (whole circumference) can be restored at a high density at once, including textureless areas. In particular, when constructing a light projecting system for projecting light other than visible light and a sensor for receiving the light so that the resolution may be rough, a very small integrated structure can be realized.

なお、上述の実施の形態および変形例は、本発明の好適な実施の例ではあるがこれに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変形による実施が可能である。 The above-described embodiments and modifications are preferred examples of the present invention, but the present invention is not limited thereto, and various modifications can be made without departing from the gist of the present invention. .

1 撮像装置
10 筐体
11 撮像部
11a 撮像素子
11b 魚眼レンズ
12 投射部
12a 光源部
12b 広角レンズ
13 距離情報取得部
13a TOFセンサ
13b 広角レンズ
14 処理回路
15 撮影スイッチ
L 同期信号線
1 imaging device 10 housing 11 imaging unit 11a imaging element 11b fisheye lens 12 projection unit 12a light source unit 12b wide-angle lens 13 distance information acquisition unit 13a TOF sensor 13b wide-angle lens 14 processing circuit 15 photographing switch L synchronization signal line

特開2018-028555号公報JP 2018-028555 A

本発明は、撮像装置に関する。 The present invention relates to an imaging device .

上述した課題を解決し、目的を達成するために、本発明の一実施の形態の撮像装置は、撮像素子と、各々異なる範囲を撮像範囲とする複数の撮像光学素子を含み、第1の軸の周囲の360度の範囲を撮像する撮像手段と、光源と、互いに異なる方向に向けて配置された複数の投射光学素子を含み、前記光源から出射された光を前記360度の範囲に投射する投射手段と、受光素子と、各々異なる範囲を受光範囲とする複数の受光光学素子を含み、前記360度の範囲から反射された前記光を受光する受光手段と、を備え、前記撮像手段と、前記投射手段と、前記受光手段とを、前記第1の軸方向を長手方向とする長手形状の筐体に一体的に備えることを特徴とする。 In order to solve the above-described problems and achieve the object, an imaging apparatus according to an embodiment of the present invention includes an imaging element and a plurality of imaging optical elements each having an imaging range of a different range. a light source , and a plurality of projection optical elements arranged in different directions to project the light emitted from the light source onto the 360- degree range light receiving means for receiving the light reflected from the range of 360 degrees , including projection means, a light receiving element, and a plurality of light receiving optical elements each having a different light receiving range; It is characterized in that the projecting means and the light receiving means are integrally provided in a longitudinally shaped housing whose longitudinal direction is the first axial direction .

撮像部11は、撮像素子11aや、魚眼レンズ(広角レンズ)11bなどを有する。投射部12は、光源部12aや広角レンズ12bなどを有する。距離情報取得部13は、TOF(Time Of Fright)センサ13aや広角レンズ13bなどを有する。なお、各部は、図示を省略しているがプリズムやレンズ群などの光学系を構成してよい。例えば、撮像部11に、魚眼レンズ11bが撮像範囲から集めた光を撮像素子11aに結像するための光学系を構成してよい。また、投射部12に、光源部12aの光を広角レンズ12bに導く光学系を構成してよい。また、距離情報取得部13に広角レンズ13bが集めた光をTOFセンサ13aに結像するための光学系を構成してよい。ここで周囲の撮像範囲の光を入射する配置の光学素子を「撮像光学素子」と呼ぶ。また、光源から出射された光を周囲へ投射する配置の光学素子を「投射光学素子」と呼ぶ。また、周囲からの反射光(投射光の反射光)を入射する配置の光学素子を「受光光学素子」と呼ぶ。各光学系については、撮像素子11a、光源部12a、TOFセンサ13aなどの構成や配置に応じて適宜決めてよいものとし、ここでは、プリズムやレンズ群などの光学系については省略して説明する。 The imaging unit 11 has an imaging element 11a, a fisheye lens (wide-angle lens) 11b, and the like. The projection unit 12 has a light source unit 12a, a wide-angle lens 12b, and the like. The distance information acquisition unit 13 has a TOF (Time Of Fright) sensor 13a, a wide-angle lens 13b, and the like. Although not shown, each part may constitute an optical system such as a prism and a lens group. For example, the imaging unit 11 may be configured with an optical system for forming an image on the imaging element 11a with the light collected from the imaging range by the fisheye lens 11b. Further, the projection unit 12 may include an optical system that guides the light from the light source unit 12a to the wide-angle lens 12b. Further, an optical system may be configured in the distance information acquisition section 13 for forming an image of the light collected by the wide-angle lens 13b on the TOF sensor 13a. Here, an optical element arranged to receive light in the surrounding imaging range is called an "imaging optical element". An optical element arranged to project light emitted from a light source to the surroundings is called a "projection optical element". Further, an optical element arranged to receive reflected light (reflected light of projected light) from the surroundings is called a "light receiving optical element". Each optical system may be appropriately determined according to the configuration and arrangement of the imaging device 11a, light source unit 12a, TOF sensor 13a, etc. Here, optical systems such as prisms and lens groups will be omitted from the description. .

Claims (12)

計測対象を撮像する撮像手段と、
前記計測対象に光を投射する投射手段と、
前記計測対象から反射してきた前記光を受光する受光手段と、
前記受光手段により受光した光に基づいて前記計測対象との距離情報を取得する取得手段と、
を有し、
前記撮像手段と、前記投射手段と、前記受光手段と、前記取得手段とを共通の筐体に一体的に備える、
ことを特徴とする撮像装置。
imaging means for imaging a measurement target;
Projection means for projecting light onto the object to be measured;
a light receiving means for receiving the light reflected from the object to be measured;
Acquisition means for acquiring distance information from the measurement target based on the light received by the light receiving means;
has
The imaging means, the projection means, the light receiving means, and the acquisition means are integrally provided in a common housing,
An imaging device characterized by:
前記投射手段は、前記光を走査する走査手段を含む、
ことを特徴とする請求項1に記載の撮像装置。
The projection means includes scanning means for scanning the light,
2. The imaging device according to claim 1, wherein:
前記投射手段は、前記計測範囲の一次元方向に対して光の径が長くなるように前記光を投射する、
ことを特徴とする請求項2に記載の撮像装置。
The projection means projects the light so that the diameter of the light becomes longer in a one-dimensional direction of the measurement range.
3. The imaging apparatus according to claim 2, characterized by:
前記撮像手段と、前記投射手段と、前記受光手段とは前記筐体において直線上に設けられている、
ことを特徴とする請求項1乃至3のうちの何れか一項に記載の撮像装置。
The imaging means, the projection means, and the light receiving means are provided on a straight line in the housing,
4. The imaging apparatus according to any one of claims 1 to 3, characterized by:
前記撮像手段および前記受光手段は、画角100度~180度以内に干渉するものがないように設定されている、
ことを特徴とする請求項1乃至4のうちの何れか一項に記載の撮像装置。
The imaging means and the light receiving means are set so that there is no interference within an angle of view of 100 degrees to 180 degrees.
5. The imaging apparatus according to any one of claims 1 to 4, characterized in that:
前記撮像手段を同一基線上に複数備える、
ことを特徴とする請求項1乃至5のうちの何れか一項に記載の撮像装置。
A plurality of the imaging means are provided on the same baseline,
6. The imaging apparatus according to any one of claims 1 to 5, characterized by:
前記受光手段の解像度は前記撮像手段の解像度よりも低い、
ことを特徴とする請求項1乃至6のうちの何れか一項に記載の撮像装置。
the resolution of the light receiving means is lower than the resolution of the imaging means;
7. The imaging apparatus according to any one of claims 1 to 6, characterized by:
前記撮像手段と、前記投射手段と、前記受光手段とが、共に同じ計測範囲に向けて前記筐体の一面側に設けられている、
ことを特徴とする請求項1乃至7のうちの何れか一項に記載の撮像装置。
The imaging means, the projection means, and the light receiving means are all provided on one side of the housing toward the same measurement range,
8. The imaging apparatus according to any one of claims 1 to 7, characterized by:
前記撮像手段と、前記投射手段と、前記受光手段との組を、前記筐体に複数組備え、
前記複数組の一つの組と他の組とは前記計測範囲が互いに異なる計測範囲になる向きに設けられている、
ことを特徴とする請求項1乃至7のうちの何れか一項に記載の撮像装置。
A plurality of sets of the imaging means, the projection means, and the light receiving means are provided in the housing,
One set and the other set of the plurality of sets are provided in the direction that the measurement ranges are different from each other,
8. The imaging apparatus according to any one of claims 1 to 7, characterized by:
前記取得手段によって取得された距離情報と前記撮像手段による撮像によって得られた画像とに基づいて3次元点群データを構成する情報処理手段を有する、
ことを特徴とする請求項1乃至9のうちの何れか一項に記載の撮像装置。
Information processing means for forming three-dimensional point cloud data based on the distance information obtained by the obtaining means and the image obtained by imaging by the imaging means,
10. The imaging device according to any one of claims 1 to 9, characterized in that:
前記情報処理手段は、
前記取得手段によって取得された距離情報に基づく距離画像の解像度を前記撮像手段による撮像によって得られた画像の解像度に高解像度化することにより前記画像との間で得た視差データを用いて、前記距離画像から得られる3次元点群データよりも高密度の3次元点群データを構成する、
ことを特徴とする請求項10に記載の撮像装置。
The information processing means is
By increasing the resolution of the distance image based on the distance information acquired by the acquisition means to the resolution of the image obtained by imaging by the imaging means, using the parallax data obtained between the image and the image, Constructing 3D point cloud data with a higher density than the 3D point cloud data obtained from the range image,
11. The imaging device according to claim 10, characterized by:
撮像装置を用いた撮像処理方法であって、
前記撮像装置の投射手段により、計測範囲に光を投射するステップと、
前記撮像装置の受光手段により、前記計測範囲から反射してきた前記光を受光するステップと、
前記受光手段が受光した光に基づいて前記計測範囲の距離情報を取得するステップと、
前記撮像装置の撮像手段により前記計測範囲を撮像した画像と、前記取得した距離情報とに基づいて3次元点群データを構成するステップと、
を含む撮像処理方法。
An imaging processing method using an imaging device,
a step of projecting light onto a measurement range by means of projection means of the imaging device;
a step of receiving the light reflected from the measurement range by a light receiving means of the imaging device;
a step of acquiring distance information of the measurement range based on the light received by the light receiving means;
a step of constructing three-dimensional point cloud data based on an image of the measurement range captured by an imaging unit of the imaging device and the acquired distance information;
An imaging processing method comprising:
JP2022130760A 2018-10-01 2022-08-18 Imaging device Active JP7409443B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022130760A JP7409443B2 (en) 2018-10-01 2022-08-18 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018186964A JP7131268B2 (en) 2018-10-01 2018-10-01 Imaging device and imaging processing method
JP2022130760A JP7409443B2 (en) 2018-10-01 2022-08-18 Imaging device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018186964A Division JP7131268B2 (en) 2018-10-01 2018-10-01 Imaging device and imaging processing method

Publications (2)

Publication Number Publication Date
JP2022176974A true JP2022176974A (en) 2022-11-30
JP7409443B2 JP7409443B2 (en) 2024-01-09

Family

ID=70107983

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018186964A Active JP7131268B2 (en) 2018-10-01 2018-10-01 Imaging device and imaging processing method
JP2022130760A Active JP7409443B2 (en) 2018-10-01 2022-08-18 Imaging device

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018186964A Active JP7131268B2 (en) 2018-10-01 2018-10-01 Imaging device and imaging processing method

Country Status (1)

Country Link
JP (2) JP7131268B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7006824B1 (en) 2021-03-23 2022-01-24 株式会社リコー Information processing equipment
JP7040660B1 (en) 2021-03-23 2022-03-23 株式会社リコー Information processing equipment and information processing method
JP2023002982A (en) * 2021-06-23 2023-01-11 株式会社リコー Distance measuring device and distance measuring system

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074346A (en) 2000-09-05 2002-03-15 Asahi Optical Co Ltd Three-dimensional image inputting device
JP2007187970A (en) 2006-01-16 2007-07-26 Sumitomo Mitsui Construction Co Ltd Wide-angle photographing device and image processing method
JP2009047497A (en) 2007-08-17 2009-03-05 Fujifilm Corp Stereoscopic imaging device, control method of stereoscopic imaging device, and program
CN104567818B (en) 2014-12-31 2016-09-28 浙江工业大学 A kind of portable round-the-clock actively panoramic vision sensor
JP6822230B2 (en) 2017-03-09 2021-01-27 株式会社リコー Imaging device and imaging method
JP6812862B2 (en) 2017-03-14 2021-01-13 株式会社リコー Image processing system, imaging device, image processing method and program
JP7025539B2 (en) 2018-05-30 2022-02-24 マクセル株式会社 Camera device

Also Published As

Publication number Publication date
JP7409443B2 (en) 2024-01-09
JP7131268B2 (en) 2022-09-06
JP2020057924A (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP7409443B2 (en) Imaging device
US20130335535A1 (en) Digital 3d camera using periodic illumination
WO2013012335A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
WO2009120073A2 (en) A dynamically calibrated self referenced three dimensional structured light scanner
JP2018152632A (en) Imaging apparatus and imaging method
JP7078173B2 (en) Image processing device and 3D measurement system
JP7363068B2 (en) 3D information acquisition system
JP7414090B2 (en) Imaging device and method of controlling the imaging device
CN110708532A (en) Universal light field unit image generation method and system
JP6868167B1 (en) Imaging device and imaging processing method
CN109451294B (en) 3D display method, system, device, electronic equipment and storage medium
JP6868168B1 (en) Imaging device and imaging processing method
JP7120365B1 (en) IMAGING DEVICE, IMAGING METHOD AND INFORMATION PROCESSING DEVICE
JP2004132759A (en) Three-dimensional image generating data imaging device, three-dimensional image generating data imaging method, and computer program
JP6966011B1 (en) Imaging device, imaging method and information processing device
JP7006824B1 (en) Information processing equipment
JP2006078291A (en) Omnidirectional three-dimensional measuring apparatus
JP7040660B1 (en) Information processing equipment and information processing method
JP7031771B1 (en) Imaging device, imaging method and information processing device
JP7215472B2 (en) Imaging device and imaging method
US20230145521A1 (en) Information processing apparatus and method of processing information
JP2021150882A (en) Image capture device and image capture processing method
JP2021150880A (en) Image capture device and image capture processing method
JP2022147012A (en) Information processing apparatus and information processing method
JP2022147124A (en) Information processing apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220916

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220916

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231030

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R151 Written notification of patent or utility model registration

Ref document number: 7409443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151