JP2023106227A - Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method - Google Patents

Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method Download PDF

Info

Publication number
JP2023106227A
JP2023106227A JP2022007432A JP2022007432A JP2023106227A JP 2023106227 A JP2023106227 A JP 2023106227A JP 2022007432 A JP2022007432 A JP 2022007432A JP 2022007432 A JP2022007432 A JP 2022007432A JP 2023106227 A JP2023106227 A JP 2023106227A
Authority
JP
Japan
Prior art keywords
depth
depth information
period
information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022007432A
Other languages
Japanese (ja)
Inventor
佑介 林
Yusuke Hayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2022007432A priority Critical patent/JP2023106227A/en
Publication of JP2023106227A publication Critical patent/JP2023106227A/en
Pending legal-status Critical Current

Links

Images

Abstract

To reduce the distortion and displacement of a depth distribution attributable to a variation in the measurement time of a distance measuring device.SOLUTION: A depth information processing device in an embodiment of the present disclosure comprises a distance information acquisition unit, an image acquisition unit, and a processor. The distance information acquisition unit acquires output data from a scanning type distance measuring device. The image acquisition unit acquires an image in which a range overlapping the detection range of the distance measuring device is imaged. The processor estimates, on the basis of the output data and image, a depth distribution at a prescribed timing in a first period which is the one frame period of the distance measuring device. In order to estimate the depth distribution, the processor performs a plurality of processing to generate composite depth information from the output data, for each of a plurality of second periods into which the first period is divided in time. The processor inputs the generated composite depth information to a trained model so as to estimate a depth distribution.SELECTED DRAWING: Figure 4

Description

本開示は、深度情報処理装置、深度分布推定方法、深度分布検出システム及び学習済みモデル生成方法に関する。 The present disclosure relates to a depth information processing device, a depth distribution estimation method, a depth distribution detection system, and a trained model generation method.

物体の方位及び物体までの距離を測定するために、レーザレーダ等の走査型の測距装置が使用される。例えば、レーザレーダを用いて、自車両周囲にある物体までの距離及び方位を計測し、取得したデータ点列に基づき駐車車両の配置を判断する技術が開示されている(例えば、特許文献1参照)。 A scanning range finder, such as a laser radar, is used to measure the azimuth and distance to an object. For example, a technology has been disclosed that uses a laser radar to measure the distance and direction to objects around the vehicle and determines the placement of parked vehicles based on the obtained data point sequence (see, for example, Patent Document 1). ).

特開2002-243857号公報JP-A-2002-243857

しかしながら、通常のレーザレーダは、レーザによる順次スキャンを行うため、カメラ映像に比べると解像度及びフレームレートが低くなる。また、走査型のレーザレーダにおいて、解像度を上げるために測定点を増やすと、走査時間が更に長くなる。さらに、検出対象が動体の場合、動体は、走査の最中に移動してしまう。このため、1フレームの測定の間の測定時刻の違いに起因して、深度分布に歪み及びずれが生じ、正確な計測ができなくなってしまうことがある。 However, since a normal laser radar performs sequential laser scanning, the resolution and frame rate are lower than those of camera images. In addition, in a scanning laser radar, if the number of measurement points is increased in order to increase the resolution, the scanning time will become longer. Furthermore, when the object to be detected is a moving object, the moving object moves during scanning. For this reason, due to the difference in measurement time during the measurement of one frame, the depth distribution may be distorted and deviated, making accurate measurement impossible.

したがって、これらの点に着目してなされた本開示の目的は、走査型の測距装置を用いた深度分布の測定において測定時刻の違いに起因する深度分布の歪み及びずれを低減することことにある。 Therefore, the object of the present disclosure, which focuses on these points, is to reduce the distortion and deviation of the depth distribution caused by the difference in measurement time in measuring the depth distribution using a scanning rangefinder. be.

本開示の実施形態の深度情報処理装置は、距離情報取得部と、画像取得部と、プロセッサとを備える。前記距離情報取得部は、走査型の測距装置から出力データを取得する。前記画像取得部は、前記測距装置の検出範囲と重複する範囲を撮像した画像を取得する。前記プロセッサは、前記出力データ及び前記画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を推定する。前記プロセッサは、前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成する。前記プロセッサは、前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成する。前記プロセッサは、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成する。前記プロセッサは、さらに、複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する。 A depth information processing apparatus according to an embodiment of the present disclosure includes a distance information acquisition section, an image acquisition section, and a processor. The distance information acquisition unit acquires output data from a scanning rangefinder. The image acquisition unit acquires an image of a range overlapping the detection range of the distance measuring device. Based on the output data and the image, the processor estimates a depth distribution at predetermined timing within a first period, which is a period of one frame of the range finder. The processor corresponds, from the output data, the depth, the two-dimensional position where the depth is detected, and the second period for each of a plurality of second periods obtained by temporally dividing the first period. Generate multiple pieces of depth information including time information for The processor generates area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image. For each of the second periods, the processor includes accumulated depth information obtained by accumulating the plurality of depth information in the first period in the background region, and the plurality of depth information in the second period. Composite depth information is generated that includes depth information in the region of the moving object. The processor further receives a plurality of synthetic depth information of the second period as input and learns a trained model using teacher data outputting the depth distribution at the predetermined timing within the first period. , the depth distribution is estimated by inputting the generated synthetic depth information.

本開示の実施形態の深度分布推定方法は、コンピュータのプロセッサが実行する方法である。前記方法は、走査型の測距装置から出力データを取得することと、前記測距装置の検出範囲と重複する範囲を撮像した画像を取得することとを含む。前記方法は、前記出力データから、前記第2の期間のそれぞれについて、前記測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成することを含む。前記方法は、前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成することを含む。前記方法は、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成することを含む。前記方法は、複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定することを含む。 A depth distribution estimation method according to an embodiment of the present disclosure is a method executed by a processor of a computer. The method includes acquiring output data from a scanning rangefinder, and acquiring an image of a range overlapping a detection range of the rangefinder. According to the method, from the output data, for each of the second periods, depth and generating a plurality of pieces of depth information including time information corresponding to the position in the two-dimensional direction where the depth was detected and the second period. The method includes generating, from the image, segmentation information segmenting a background region and a moving object region of the detection range for each of the second time periods. The method includes, for each of the second periods, including accumulated depth information obtained by accumulating the plurality of depth information in the first period in the region of the background; generating synthetic depth information including depth information in the region of the moving object. In the method, a trained model trained using teacher data having as input a plurality of synthetic depth information of the second period and outputting a depth distribution at a predetermined timing within the first period is generated. estimating the depth distribution by inputting the synthesized depth information obtained by the method.

本開示の実施形態に係る深度分布検出システムは、走査型の測距装置と、撮像装置と、
深度情報処理装置とを含む。前記撮像装置は、前記測距装置の検出範囲と重複する範囲を撮像する。前記深度情報処理装置は、前記測距装置の出力データ及び前記撮像装置が撮像した画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を算出するプロセッサを含む。前記プロセッサは、前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成する。前記プロセッサは、前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成する。前記プロセッサは、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成する。前記プロセッサは、複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する。
A depth distribution detection system according to an embodiment of the present disclosure includes a scanning rangefinder, an imaging device,
and a depth information processor. The imaging device captures an image of a range that overlaps with the detection range of the distance measuring device. The depth information processing device calculates a depth distribution at a predetermined timing within a first period, which is a period of one frame of the range finder, based on the output data of the range finder and the image captured by the imaging device. Contains a computing processor. The processor corresponds, from the output data, the depth, the two-dimensional position where the depth is detected, and the second period for each of a plurality of second periods obtained by temporally dividing the first period. Generate multiple pieces of depth information including time information for The processor generates area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image. For each of the second periods, the processor includes accumulated depth information obtained by accumulating the plurality of depth information in the first period in the background region, and the plurality of depth information in the second period. Composite depth information is generated that includes depth information in the region of the moving object. The processor receives a plurality of synthetic depth information of the second period as input, and trains a trained model using teacher data outputting the depth distribution at the predetermined timing within the first period, The depth distribution is estimated by inputting the generated synthetic depth information.

本開示の実施形態に係る学習済みモデル生成方法は、コンピュータが実行する学習済みモデル生成方法である。前記方法は、走査型測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて生成された複数の深度情報及び領域分割情報、並びに、前記第1の期間内の所定のタイミングにおける深度分布を組合せたデータを複数取得又は生成する。それぞれの前記深度情報は、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含み、前記領域分割情報は、前記測距装置の検出範囲の背景の領域と動体の領域とを分割する。前記方法は、前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成する。前記方法は、前記複数の前記第2の期間の前記合成深度情報を入力とし、前記深度分布を出力とする教師データを用いて機械学習を行うことにより学習済みモデルを生成する。 A learned model generation method according to an embodiment of the present disclosure is a computer-executed learned model generation method. The method includes a plurality of depth information and area division information generated for each of a plurality of second periods obtained by temporally dividing a first period, which is a period of one frame of a scanning ranging device, and A plurality of pieces of data combining depth distributions at predetermined timings within the first period are acquired or generated. Each of the depth information includes depth, a position in the two-dimensional direction where the depth is detected, and time information corresponding to the second period, and the area division information is a background area of the detection range of the rangefinder. and moving object regions. The method includes, for each of the second periods, including accumulated depth information obtained by accumulating the plurality of depth information in the first period in the region of the background; Composite depth information is generated that includes depth information in the region of the moving object. The method receives the synthetic depth information of the plurality of second periods as input and generates a trained model by performing machine learning using teacher data having the depth distribution as output.

本開示の実施形態によれば、走査型の測距装置を用いた深度分布の測定において、測定時刻のずれに起因する深度分布の歪み及びずれを低減することができる。 According to the embodiments of the present disclosure, it is possible to reduce the distortion and deviation of the depth distribution due to the deviation of the measurement time in measuring the depth distribution using the scanning rangefinder.

本開示の一実施形態に係る深度分布検出システムの基本的な構成を示す構成図である。1 is a configuration diagram showing a basic configuration of a depth distribution detection system according to an embodiment of the present disclosure; FIG. 図1の深度分布検出システムのより詳細な一例を示す構成図である。2 is a configuration diagram showing a more detailed example of the depth distribution detection system of FIG. 1; FIG. 図1の深度情報処理装置の概略構成を示すブロック図である。2 is a block diagram showing a schematic configuration of the depth information processing device of FIG. 1; FIG. 図1の深度情報処理装置が実行する処理を示すフローチャートである。2 is a flowchart showing processing executed by the depth information processing apparatus of FIG. 1; 図1の測距装置及び撮像装置が検出する場面の一例を示す図である。2 is a diagram showing an example of a scene detected by the distance measuring device and imaging device of FIG. 1; FIG. 図1の測距装置の1フレームの測距期間に深度情報処理装置が取得する画像及び深度情報を説明する図である。2 is a diagram illustrating an image and depth information acquired by a depth information processing device during one-frame ranging period of the ranging device of FIG. 1; FIG. 領域分割情報を生成する方法を説明する図である。It is a figure explaining the method to generate|occur|produce area division information. 合成深度情報を生成する方法を説明する図である。FIG. 10 is a diagram illustrating a method of generating synthetic depth information; 学習済みモデルを生成する学習用コンピュータの概略構成を示す構成図である。1 is a configuration diagram showing a schematic configuration of a learning computer that generates a trained model; FIG. 学習用コンピュータにより学習済みモデルを生成する処理を示すフローチャートである。4 is a flow chart showing processing for generating a trained model by a learning computer;

以下、本開示の実施形態について、図面を参照して説明する。以下の説明で用いられる図は模式的なものである。図面上の寸法及び比率等は現実のものとは必ずしも一致していない。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. The figures used in the following description are schematic. The dimensions, ratios, etc. on the drawings do not necessarily match the actual ones.

本開示の一実施形態に係る深度分布検出システム10は、図1に示すように、測距装置11、撮像装置12及び深度情報処理装置13を含む。なお、本願において、深度は測距装置11から対象までの距離を意味する。本願において、深度は距離と同義に用いられる。 A depth distribution detection system 10 according to an embodiment of the present disclosure includes a distance measuring device 11, an imaging device 12, and a depth information processing device 13, as shown in FIG. In addition, in this application, the depth means the distance from the distance measuring device 11 to the object. In this application, depth is used synonymously with distance.

測距装置11は、レーザレーダ等の走査型の測距装置である。レーザレーダは、検出範囲にレーザ光を照射し、反射されたレーザ光が戻ってくるまでの時間を計測する。レーザレーダは、LiDAR(Light Detection And Ranging)とも称される。撮像装置12は、撮像光学系及び撮像素子を有し、検出範囲の画像を取得する。撮像装置12は、測距装置11の検出範囲と重複する範囲を撮像するように構成される。 The rangefinder 11 is a scanning type rangefinder such as a laser radar. A laser radar irradiates a detection range with laser light and measures the time it takes for the reflected laser light to return. Laser radar is also called LiDAR (Light Detection And Ranging). The imaging device 12 has an imaging optical system and an imaging device, and acquires an image of the detection range. The imaging device 12 is configured to capture an image of a range that overlaps with the detection range of the distance measuring device 11 .

測距装置11と撮像装置12とは、対象を観察する座標系が実質的に一致又は近接するように構成することができる。このため、測距装置11と撮像装置12とは、被写体を検出又は撮像する光学系14の光軸axが、一致するように構成されてよい。光学系14は、種々の構成のものが含まれる。また、測距装置11と撮像装置12とは、被写体を検出又は撮像する光学系の光軸が、互いに平行に近接して配置されてもよい。この場合、測距装置11と撮像装置12との光軸を一致させるための光学系14は無くてもよい。測距装置11と撮像装置12とでは、検出するデータ及び画像間に視差が無いか、又は、視差が小さい。測距装置11の出力する深度と撮像装置12の出力する画像とは、位置が対応するように重ね合わせることができる。 The distance measuring device 11 and the imaging device 12 can be configured so that the coordinate systems for observing the object are substantially the same or close to each other. Therefore, the distance measuring device 11 and the imaging device 12 may be configured such that the optical axis ax of the optical system 14 for detecting or imaging the subject is aligned. The optical system 14 includes various configurations. Further, the distance measuring device 11 and the imaging device 12 may be arranged so that the optical axes of the optical systems for detecting or imaging a subject are parallel and close to each other. In this case, the optical system 14 for matching the optical axes of the distance measuring device 11 and the imaging device 12 may be omitted. Between the distance measuring device 11 and the imaging device 12, there is no or little parallax between detected data and images. The depth output from the distance measuring device 11 and the image output from the imaging device 12 can be superimposed so that their positions correspond.

測距装置11及び撮像装置12は、背景に対して固定して配置される。このため、測距装置11及び撮像装置12は、静止物に対して固定されてよい。例えば、深度分布検出システム10が屋外で使用される場合、測距装置11及び撮像装置12は、路側又は道路上部に設けられた構造物等に固定されてよい。 The distance measuring device 11 and the imaging device 12 are arranged fixedly with respect to the background. Therefore, the distance measuring device 11 and the imaging device 12 may be fixed with respect to a stationary object. For example, when the depth distribution detection system 10 is used outdoors, the distance measuring device 11 and the imaging device 12 may be fixed to a structure or the like provided on the roadside or above the road.

深度情報処理装置13は、コンピュータである。深度情報処理装置13は、汎用コンピュータ、ワークステーション、及び、PC(Personal Computer)等を含む種々のコンピュータの何れかであってよい。深度情報処理装置13は、専用のプログラム及びデータを読み込んで以下に説明する深度情報処理装置13の各機能を実行してよい。 The depth information processing device 13 is a computer. The depth information processing device 13 may be any of various computers including general-purpose computers, workstations, and PCs (Personal Computers). The depth information processing device 13 may read a dedicated program and data and execute each function of the depth information processing device 13 described below.

深度情報処理装置13が取得する測距装置11からの出力データは、少なくとも測定対象の方向を示す2次元の位置情報と、距離の情報を含む。2次元の位置情報は、撮像装置12により撮像される画像上の位置に対応する。出力データは、さらに、深度を測定した時刻の情報を含んでよい。深度情報処理装置13は、さらに、撮像装置12から撮像装置12が撮像した画像を取得する。 The output data from the distance measuring device 11 acquired by the depth information processing device 13 includes at least two-dimensional position information indicating the direction of the object to be measured and distance information. The two-dimensional positional information corresponds to the position on the image captured by the imaging device 12 . The output data may further include information on the time when the depth was measured. The depth information processing device 13 further acquires an image captured by the imaging device 12 from the imaging device 12 .

深度情報処理装置13は、測距装置11から出力された出力データ及び撮像装置12から出力された画像に基づいて、測距装置11の1フレームの期間である第1の期間T内の所定のタイミングにおける深度分布を推定する。本願において、「深度分布」は、測距装置11が観察する検出範囲を平面視したときの2次元的な深度の分布を表す。「深度分布」は、「深度マップ」と類似の意味に用いられる。「深度分布」は画像として表現される必要は無い。所定のタイミングは、例えば、測距装置11の1フレームの中央の時刻とすることができる。深度情報処理装置13が推定する深度分布は、測距装置11の測定時刻の違いに起因する歪み及びずれが低減されたものとなる。深度情報処理装置13は、機械学習による学習済みモデルを備えており、測距装置11から出力された出力データ及び撮像装置12から出力された画像を用いて、機械学習により深度分布を推定することができる。 Based on the output data output from the distance measuring device 11 and the image output from the imaging device 12, the depth information processing device 13 determines a predetermined depth within a first period T1 , which is a period of one frame of the distance measuring device 11. Estimate the depth distribution at the timing of In the present application, "depth distribution" represents a two-dimensional depth distribution when the detection range observed by the distance measuring device 11 is viewed in plan. "Depth distribution" is used synonymously with "depth map". The "depth distribution" need not be represented as an image. The predetermined timing can be, for example, the center time of one frame of the distance measuring device 11 . The depth distribution estimated by the depth information processing device 13 has reduced distortion and deviation due to the difference in measurement time of the distance measuring device 11 . The depth information processing device 13 has a learned model by machine learning, and uses the output data output from the distance measuring device 11 and the image output from the imaging device 12 to estimate the depth distribution by machine learning. can be done.

深度分布検出システム10のより具体的な一例を、図2を参照して説明する。深度分布検出システム10は、測距装置11及び撮像装置12の機能を包含する検出装置21と、深度情報処理装置13とを含む。検出装置21は、測距装置11に対応する構成要素として、照射部22、反射部23、制御部24、第1の光学系25及び検出素子26を含む。また、検出装置21は、撮像装置12に対応する構成要素として、制御部24、第2の光学系27及び撮像素子28を含む。検出装置21は、さらに、切替部32を含む。 A more specific example of the depth distribution detection system 10 will be described with reference to FIG. The depth distribution detection system 10 includes a detection device 21 that includes the functions of the distance measurement device 11 and the imaging device 12 and a depth information processing device 13 . The detection device 21 includes an irradiation unit 22 , a reflection unit 23 , a control unit 24 , a first optical system 25 and a detection element 26 as components corresponding to the distance measurement device 11 . The detection device 21 also includes a control unit 24 , a second optical system 27 , and an imaging device 28 as components corresponding to the imaging device 12 . The detection device 21 further includes a switching section 32 .

(深度情報の取得)
照射部22は、赤外線、可視光線、紫外線、および電波の少なくともいずれかの電磁波を放射する。一実施形態において、照射部22は、赤外線を放射する。照射部22は、放射する電磁波を、対象obに向けて、直接または反射部23を介して間接的に、照射する。図2に図示する実施形態において、照射部22は、放射する電磁波を、対象obに向けて、反射部23を介して間接的に照射する。
(Obtain depth information)
The irradiation unit 22 radiates at least one electromagnetic wave of infrared rays, visible rays, ultraviolet rays, and radio waves. In one embodiment, the irradiation section 22 emits infrared rays. The irradiating unit 22 irradiates the radiated electromagnetic wave toward the object ob directly or indirectly via the reflecting unit 23 . In the embodiment illustrated in FIG. 2 , the irradiation unit 22 indirectly irradiates the radiated electromagnetic wave toward the object ob through the reflection unit 23 .

一実施形態においては、照射部22は、幅の細い、例えば0.5°のビーム状の電磁波を放射する。また、一実施形態において、照射部22は電磁波をパルス状に放射可能である。例えば、照射部22は、LED(Light Emitting Diode)およびLD(Laser Diode)などを含む。照射部22は、後述する制御部24の制御に基づいて、電磁波の放射および停止を切替える。 In one embodiment, the irradiator 22 emits a beam of electromagnetic waves with a narrow width, for example, 0.5°. In one embodiment, the irradiation unit 22 can emit electromagnetic waves in pulses. For example, the irradiation unit 22 includes LEDs (Light Emitting Diodes) and LDs (Laser Diodes). The irradiation unit 22 switches between electromagnetic wave emission and stop based on the control of the control unit 24, which will be described later.

反射部23は、照射部22から放射された電磁波を、向きを変えながら反射することにより、対象obに照射される電磁波の照射位置を変更する。照射位置は、測距装置11が距離を測定する検出位置に等しい。反射部23は、照射部22から放射される電磁波により、対象obを走査する。したがって、検出素子26は、反射部23と協同して、走査型の測距センサを構成する。 The reflecting unit 23 changes the irradiation position of the electromagnetic wave with which the object ob is irradiated by reflecting the electromagnetic wave emitted from the irradiation unit 22 while changing the direction of the electromagnetic wave. The irradiation position is equal to the detection position where the distance measuring device 11 measures the distance. The reflector 23 scans the object ob with the electromagnetic waves emitted from the irradiator 22 . Therefore, the detection element 26 cooperates with the reflection section 23 to form a scanning range sensor.

反射部23は、電磁波の照射位置を2次元方向に検出範囲で走査することができる。反射部23は、測距装置11が検出を行う照射位置を、プログレッシブ走査方式のように、水平方向に走査しながら順次垂直方向にずらしていく規則的な走査を行うことができる。また、反射部23は、電磁波の照射位置を、順次2次元方向にランダムな位置に設定してよい。本開示では、ランダムに照射位置を変えて順次測定を行うことも、「走査」に含む。反射部23は、他の任意の方法で、検出範囲を走査してよい。 The reflector 23 can scan the irradiation position of the electromagnetic wave in two-dimensional directions within the detection range. The reflecting unit 23 can perform regular scanning in which the irradiation position detected by the distance measuring device 11 is shifted in the vertical direction sequentially while scanning in the horizontal direction, like a progressive scanning method. In addition, the reflecting unit 23 may sequentially set the irradiation position of the electromagnetic wave to a random position in the two-dimensional direction. In the present disclosure, “scanning” also includes sequential measurements while changing irradiation positions at random. Reflector 23 may scan the detection range in any other manner.

反射部23は、照射部22から放射されて反射した電磁波の照射領域の少なくとも一部が、検出素子26の検出範囲に含まれるように構成されている。したがって、反射部23を介して対象obに照射される電磁波の少なくとも一部は、検出素子26において検出され得る。 The reflecting section 23 is configured such that at least part of the irradiation area of the electromagnetic waves emitted and reflected from the irradiating section 22 is included in the detection range of the detecting element 26 . Therefore, at least a part of the electromagnetic waves irradiated to the object ob through the reflector 23 can be detected by the detection element 26 .

反射部23は、例えば、MEMS(Micro Electro Mechanical Systems)ミラー、ポリゴンミラー、およびガルバノミラーなどを含む。 The reflector 23 includes, for example, a MEMS (Micro Electro Mechanical Systems) mirror, a polygon mirror, a galvanomirror, and the like.

反射部23は、後述する制御部24の制御に基づいて、電磁波を反射する向きを変える。また、反射部23は、例えばエンコーダなどの角度センサを有してもよく、角度センサが検出する角度を、電磁波を反射する方向情報として、制御部24に通知してもよい。このような構成において、制御部24は、反射部23から取得する方向情報に基づいて、照射位置を算出し得る。また、制御部24は、反射部23に電磁波を反射する向きを変えさせるために入力する駆動信号に基づいて照射位置を算出し得る。 The reflector 23 changes the direction in which the electromagnetic waves are reflected under the control of the controller 24, which will be described later. Further, the reflection unit 23 may have an angle sensor such as an encoder, and may notify the control unit 24 of the angle detected by the angle sensor as direction information for reflecting the electromagnetic waves. With such a configuration, the controller 24 can calculate the irradiation position based on the direction information acquired from the reflector 23 . In addition, the control unit 24 can calculate the irradiation position based on the drive signal input to the reflecting unit 23 to change the direction in which the electromagnetic waves are reflected.

制御部24が、反射部23から取得する方向情報、又は、反射部23に入力する駆動信号に基づいて照射位置、すなわち深度を検出する検出位置を算出する場合、反射部23は、電磁波を走査する方向の中心軸が光軸axに実質的に平行且つ近接して配置することができる。この場合、測距装置11による検出軸は、反射部23により電磁波を走査する中心軸となる。 When the control unit 24 calculates the irradiation position, that is, the detection position for detecting the depth, based on the direction information acquired from the reflection unit 23 or the drive signal input to the reflection unit 23, the reflection unit 23 scans the electromagnetic waves. The center axis in the direction to the optical axis ax can be arranged substantially parallel and close to the optical axis ax. In this case, the detection axis by the distance measuring device 11 is the central axis along which the reflector 23 scans the electromagnetic waves.

制御部24は、1以上のプロセッサおよびメモリを含む。プロセッサは、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくともいずれかを含んでよい。専用のプロセッサは、特定用途向けIC(ASIC;Application Specific Integrated Circuit)を含んでよい。プロセッサは、プログラマブルロジックデバイス(PLD;Programmable Logic Device)を含んでよい。PLDは、FPGA(Field-Programmable Gate Array)を含んでよい。制御部24は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)の少なくともいずれかを含んでもよい。 Control unit 24 includes one or more processors and memory. The processor may include at least one of a general-purpose processor that loads a specific program and executes a specific function, and a dedicated processor that specializes in specific processing. A dedicated processor may include an Application Specific Integrated Circuit (ASIC). The processor may include a programmable logic device (PLD). A PLD may include an FPGA (Field-Programmable Gate Array). The control unit 24 may include at least one of SoC (System-on-a-Chip) and SiP (System In a Package) in which one or more processors cooperate.

制御部24は、反射部23及び切替部32を制御可能に構成される。制御部24は、反射部23による電磁波の照射位置及び照射時刻に応じて、検出素子26が反射された電磁波を取得できるように切替部32を制御することができる。制御部24は、後述するように、検出素子26から検出情報を取得し、深度情報を生成することができる。また、制御部24は、撮像素子28から画像信号を取得することができる。制御部24は、深度情報及び画像信号を深度情報処理装置13に出力することができる。 The control unit 24 is configured to be able to control the reflection unit 23 and the switching unit 32 . The control unit 24 can control the switching unit 32 so that the detecting element 26 can acquire the reflected electromagnetic wave according to the irradiation position and the irradiation time of the electromagnetic wave by the reflecting unit 23 . As will be described later, the control unit 24 can acquire detection information from the detection elements 26 and generate depth information. Also, the control unit 24 can acquire an image signal from the imaging device 28 . The control unit 24 can output depth information and image signals to the depth information processing device 13 .

第1の光学系25は、照射部22から照射され且つ反射部23により反射されることにより、検出範囲に向けて照射された電磁波の対象obからの反射波を、検出素子26に検出されるように進行させる。 The first optical system 25 is irradiated from the irradiation unit 22 and reflected by the reflection unit 23, so that the detection element 26 detects the reflected wave from the target ob of the electromagnetic waves irradiated toward the detection range. proceed as follows.

検出素子26は、照射部22から出射した電磁波を検出可能な素子を含む。例えば、検出素子26は、APD(Avalanche PhotoDiode)、PD(PhotoDiode)および測距イメージセンサなどの単一の素子を含む。検出素子26は、APDアレイ、PDアレイ、測距イメージングアレイ、および測距イメージセンサなどの素子アレイを含むものであってもよい。一実施形態において、検出素子26は、被写体からの反射波を検出したことを示す検出情報を信号として制御部24に送信する。検出素子26は、例えば、赤外線の帯域の電磁波を検出する。 The detection element 26 includes an element capable of detecting electromagnetic waves emitted from the irradiation section 22 . For example, the sensing element 26 includes a single element such as an Avalanche PhotoDiode (APD), a PhotoDiode (PD) and a ranging image sensor. Detector elements 26 may include element arrays such as APD arrays, PD arrays, ranging imaging arrays, and ranging image sensors. In one embodiment, the detection element 26 transmits detection information indicating detection of the reflected wave from the subject to the control section 24 as a signal. The detection element 26 detects, for example, electromagnetic waves in the infrared band.

なお、検出素子26は、上述した測距センサを構成する単一の素子である構成において、電磁波を検出できればよく、対象obが検出面において結像される必要はない。それゆえ、検出素子26は、第1の後段光学系30による結像位置である二次結像位置に設けられなくてもよい。すなわち、この構成において、検出素子26は、すべての画角からの電磁波が検出面上に入射可能な位置であれば、切替部32により第1の方向d1に進行した後に第1の後段光学系30を経由して進行する電磁波の経路上のどこに配置されてもよい。 Note that the detection element 26 is a single element that constitutes the distance measuring sensor described above, so long as it can detect electromagnetic waves, and the object ob need not be imaged on the detection surface. Therefore, the detection element 26 does not have to be provided at the secondary imaging position, which is the imaging position by the first post-stage optical system 30 . That is, in this configuration, if the detecting element 26 is at a position where electromagnetic waves from all angles of view can be incident on the detecting surface, the detecting element 26 travels in the first direction d1 by the switching unit 32, and then moves toward the first post-optical system. It may be placed anywhere on the path of the electromagnetic wave traveling through 30 .

制御部24は、検出素子26が検出した電磁波に基づいて、深度を取得する。制御部24は、検出素子26が検出する検出情報に基づいて、以下に説明するように、ToF(Time-of-Flight)方式により、照射部22により照射される照射位置の深度を取得する。 The control unit 24 acquires depth based on the electromagnetic waves detected by the detection element 26 . Based on the detection information detected by the detection element 26, the control unit 24 acquires the depth of the irradiation position irradiated by the irradiation unit 22 by a ToF (Time-of-Flight) method as described below.

制御部24は、照射部22に電磁波放射信号を入力することにより、照射部22にパルス状の電磁波を放射させる。照射部22は、入力された当該電磁波放射信号に基づいて電磁波を照射する。照射部22が放射し且つ反射部23が反射して任意の照射領域に照射された電磁波は、当該照射領域において反射する。そして、検出素子26は、当該照射領域において反射された電磁波を検出するとき、検出情報を制御部24に通知する。 By inputting an electromagnetic wave radiation signal to the irradiation unit 22, the control unit 24 causes the irradiation unit 22 to radiate pulsed electromagnetic waves. The irradiation unit 22 irradiates an electromagnetic wave based on the input electromagnetic wave radiation signal. The electromagnetic waves radiated by the irradiation unit 22 and reflected by the reflection unit 23 to irradiate an arbitrary irradiation area are reflected in the irradiation area. When the detection element 26 detects the electromagnetic waves reflected in the irradiation area, the detection element 26 notifies the control unit 24 of detection information.

制御部24は、照射部22に電磁波を放射させた時刻から、検出情報を取得した時刻までの時間を計測する。制御部24は、当該時間に、光速を乗算し、且つ2で除算することにより、照射位置までの距離を算出する。検出素子26が単一の素子である場合、制御部24は、上述のように、反射部23から取得する方向情報、または自身が反射部23に出力する駆動信号に基づいて、照射位置を算出する。検出素子26が素子のアレイを含む場合、制御部24は、対象obにより反射された電磁波が素子アレイ上で検出される位置により、照射位置を算出することができる。この場合、撮像素子28から得られる画像と視差が無い略同じ座標軸で照射位置を特定できる。制御部24は、照射位置を変えながら、各照射位置までの距離を算出することにより深度と検出位置の情報を含む出力データを作成する。 The control unit 24 measures the time from the time when the irradiation unit 22 emits the electromagnetic waves to the time when the detection information is acquired. The control unit 24 multiplies the time by the speed of light and divides by 2 to calculate the distance to the irradiation position. When the detection element 26 is a single element, the control unit 24 calculates the irradiation position based on the direction information acquired from the reflection unit 23 or the drive signal output to the reflection unit 23 by itself, as described above. do. When the detection element 26 includes an array of elements, the control unit 24 can calculate the irradiation position from the position at which the electromagnetic wave reflected by the object ob is detected on the element array. In this case, the irradiation position can be specified on substantially the same coordinate axis as the image obtained from the imaging device 28 with no parallax. The control unit 24 calculates the distance to each irradiation position while changing the irradiation position, thereby creating output data including information on depth and detection position.

(画像情報の取得)
第2の光学系27は、検出素子26の検出範囲、すなわち、測距装置11の検出範囲と重複する範囲の対象obの像を撮像素子28の検出面上に結像させる。
(Acquisition of image information)
The second optical system 27 forms an image of the object ob in the detection range of the detection element 26 , that is, the range overlapping the detection range of the distance measuring device 11 on the detection surface of the imaging element 28 .

撮像素子28は、検出面において結像した像を電気信号に変換して、対象obを含む検出範囲の画像を生成する。撮像素子28は、CCDイメージセンサ(Charge-Coupled Device Image Sensor)及びCMOSイメージセンサ(Complementary MOS Image Sensor)の何れかを含んでよい。 The imaging device 28 converts the image formed on the detection surface into an electrical signal to generate an image of the detection range including the object ob. The imaging device 28 may include either a CCD image sensor (Charge-Coupled Device Image Sensor) or a CMOS image sensor (Complementary MOS Image Sensor).

撮像素子28は、生成した画像を制御部24に出力する。制御部24は、画像について、歪み補正、明度調整、コントラスト調整、ガンマ補正等の任意の処理を行ってもよい。制御部24は、検出素子26から出力される出力データの座標系と、撮像素子28から出力される画像の座標系との間にずれがある場合、これらが相互に近づけるように調整を行ってよい。 The imaging device 28 outputs the generated image to the control section 24 . The control unit 24 may perform arbitrary processing such as distortion correction, brightness adjustment, contrast adjustment, gamma correction, etc. on the image. If there is a deviation between the coordinate system of the output data output from the detection element 26 and the coordinate system of the image output from the imaging element 28, the control unit 24 adjusts them so that they are closer to each other. good.

(光学系と切替部の構成)
第1の光学系25は、第2の光学系27と共通の前段光学系29と、切替部32の後段に位置する第1の後段光学系30を含む。第2の光学系27は、第1の光学系25と共通の前段光学系29と、切替部32の後段に位置する第2の後段光学系31を含む。前段光学系29は、例えば、レンズおよびミラーの少なくとも一方を含み、被写体となる対象obの像を結像させる。
(Configuration of optical system and switching unit)
The first optical system 25 includes a front optical system 29 that is common to the second optical system 27 and a first rear optical system 30 that is positioned behind the switching unit 32 . The second optical system 27 includes a pre-stage optical system 29 that is common to the first optical system 25 and a second post-stage optical system 31 positioned after the switching section 32 . The pre-stage optical system 29 includes, for example, at least one of a lens and a mirror, and forms an image of an object ob, which is a subject.

切替部32は、前段光学系29から所定の位置をおいて離れた対象obの像の、前段光学系29による結像位置である一次結像位置、又は当該一次結像位置近傍に、設けられていればよい。切替部32は、前段光学系29を通過した電磁波が入射する作用面asを有している。作用面asは、2次元状に沿って並ぶ複数の画素pxによって構成されている。作用面asは、後述する第1の状態および第2の状態の少なくともいずれかにおいて、電磁波に、例えば、反射および透過などの作用を生じさせる面である。 The switching unit 32 is provided at or in the vicinity of the primary imaging position, which is the imaging position of the image of the object ob, which is separated from the preceding optical system 29 by the preceding optical system 29, by the preceding optical system 29. It is good if there is The switching unit 32 has an action surface as on which the electromagnetic wave that has passed through the pre-stage optical system 29 is incident. The active surface as is composed of a plurality of pixels px arranged two-dimensionally. The action surface as is a surface that causes an electromagnetic wave to have an action such as reflection or transmission in at least one of a first state and a second state described later.

切替部32は、作用面asに入射する電磁波を、第1の方向d1に進行させる第1の状態と、第2の方向d2に進行させる第2の状態とに、画素px毎に切替可能である。第1の状態は、作用面asに入射する電磁波を、第1の方向d1に反射する第1の反射状態である。また、第2の状態は、作用面asに入射する電磁波を、第2の方向d2に反射する第2の反射状態である。 The switching unit 32 can switch for each pixel px between a first state in which an electromagnetic wave incident on the action surface as travels in a first direction d1 and a second state in which it travels in a second direction d2. be. A first state is a first reflection state in which an electromagnetic wave incident on the working surface as is reflected in a first direction d1. The second state is a second reflection state in which the electromagnetic wave incident on the action surface as is reflected in the second direction d2.

切替部32は、さらに具体的には、画素px毎に電磁波を反射する反射面を含んでいる。切替部32は、画素px毎の反射面の向きを変更することにより、第1の反射状態および第2の反射状態を画素px毎に切替える。一実施形態において、切替部32は、例えばDMD(Digital Micro mirror Device:デジタルマイクロミラーデバイス)を含む。DMDは、作用面asを構成する微小な反射面を駆動することにより、画素px毎に当該反射面を作用面asに対して所定の角度、例えば+12°および-12°のいずれかの傾斜状態に切替可能である。なお、作用面asは、DMDにおける微小な反射面を載置する基板の板面に平行である。 More specifically, the switching unit 32 includes a reflecting surface that reflects electromagnetic waves for each pixel px. The switching unit 32 switches between the first reflection state and the second reflection state for each pixel px by changing the orientation of the reflection surface for each pixel px. In one embodiment, the switching unit 32 includes, for example, a DMD (Digital Micro mirror Device). The DMD drives the minute reflective surfaces that make up the active surface as so that the reflective surface is tilted at a predetermined angle, for example +12° or −12°, with respect to the active surface as for each pixel px. can be switched to The active surface as is parallel to the surface of the substrate on which the minute reflecting surface of the DMD is placed.

切替部32は、制御部24の制御に基づいて、第1の状態および第2の状態を、画素px毎に切替える。例えば、切替部32は、同時に、一部の画素px1を第1の状態に切替えることにより当該画素px1に入射する電磁波を第1の方向d1に進行させ得、別の一部の画素px2を第2の状態に切替えることにより当該画素px2に入射する電磁波を第2の方向d2に進行させ得る。また、切替部32は、同一の画素pxを第1の状態から第2の状態に切替えることにより、当該画素pxに入射する電磁波を第1の方向d1の次に第2の方向d2に向けて進行させ得る。 The switching unit 32 switches between the first state and the second state for each pixel px under the control of the control unit 24 . For example, the switching unit 32 can simultaneously switch some of the pixels px1 to the first state so that the electromagnetic waves incident on the pixels px1 travel in the first direction d1, and switch some of the pixels px2 to the first state. By switching to state 2, the electromagnetic waves incident on the pixel px2 can be caused to travel in the second direction d2. Further, the switching unit 32 switches the same pixel px from the first state to the second state, thereby directing the electromagnetic waves incident on the pixel px in the first direction d1 and then in the second direction d2. can proceed.

図2に示すように、第1の後段光学系30は、切替部32から第1の方向d1に設けられている。第1の後段光学系30は、例えば、レンズおよびミラーの少なくとも一方を含む。第1の後段光学系30は、切替部32において進行方向を切替えられた電磁波を、検出素子26に入射させる。 As shown in FIG. 2 , the first post-stage optical system 30 is provided in the first direction d1 from the switching section 32 . The first post-stage optical system 30 includes, for example, at least one of a lens and a mirror. The first post-stage optical system 30 causes the electromagnetic wave whose traveling direction is switched by the switching unit 32 to enter the detection element 26 .

第2の後段光学系31は、切替部32から第2の方向d2に設けられている。第2の後段光学系31は、例えば、レンズおよびミラーの少なくとも一方を含む。第2の後段光学系31は、切替部32において進行方向を切替えられた電磁波としての対象obの画像を撮像素子28の検出面上に結像させる。 The second post-stage optical system 31 is provided in the second direction d2 from the switching section 32 . The second post-stage optical system 31 includes, for example, at least one of a lens and a mirror. The second post-stage optical system 31 forms an image of the target ob as an electromagnetic wave whose traveling direction is switched by the switching unit 32 on the detection surface of the imaging device 28 .

以上のような構成により、検出装置21は、前段光学系29の光軸を、第1の状態において電磁波を進行させる第1の方向d1における第1の後段光学系30の光軸に、かつ第2の状態において電磁波を進行させる第2の方向d2における第2の後段光学系31の光軸に合わせることが可能となる。したがって、検出装置21は、切替部32の画素pxを第1の状態および第2の状態のいずれかに切替えることにより、素子アレイである場合の検出素子26が検出する深度と撮像素子28が撮像する画像との視差のずれを低減し得る。 With the configuration as described above, the detection device 21 aligns the optical axis of the front optical system 29 with the optical axis of the first rear optical system 30 in the first direction d1 in which electromagnetic waves travel in the first state, and In state 2, it is possible to match the optical axis of the second post-stage optical system 31 in the second direction d2 in which the electromagnetic wave travels. Therefore, by switching the pixel px of the switching unit 32 between the first state and the second state, the detection device 21 can detect the depth detected by the detection element 26 in the case of an element array and the depth detected by the image pickup element 28. It is possible to reduce the disparity of parallax with the image to be displayed.

制御部24は、反射部23が照射位置を移動させるに従って、切替部32における一部の画素pxを第1の状態に切替え、且つ別の一部の画素pxを第2の状態に切替え得る。したがって、検出装置21は、一部の画素pxにおいて検出素子26に電磁波を検出させながら、同時に別の一部の画素pxにおいて撮像素子28に画像を検出させ得る。これにより、検出装置21は、同じ視野内の深度と電磁波の照射位置の近傍を除いた部分の画像とを実質的に同時に取得することができる。 The control unit 24 can switch some of the pixels px in the switching unit 32 to the first state and switch some other pixels px to the second state as the reflecting unit 23 moves the irradiation position. Therefore, the detection device 21 can cause the detection element 26 to detect electromagnetic waves in some pixels px and simultaneously cause the imaging element 28 to detect images in another part of pixels px. As a result, the detection device 21 can substantially simultaneously acquire the depth within the same field of view and the image of the portion excluding the vicinity of the irradiation position of the electromagnetic waves.

なお、図2の構成例では、測距装置11の検出光軸と、撮像装置12の光軸とを一致又は近接させるために、切替部32を含む光学系を用いた。しかし、測距装置11と撮像装置12との光軸を一致又は近接させる方法は、これに限られない。例えば、図1の光学系14は、測距装置11の検出する光と撮像装置12の撮像する画像との波長の差異を利用し、ダイクロイックミラー又はダイクロイックプリズムを用いて、測距装置11の光学系の光軸と撮像装置12の光軸とを実質的に一致させる構成とすることができる。 In addition, in the configuration example of FIG. 2, an optical system including the switching unit 32 is used in order to make the detection optical axis of the distance measuring device 11 and the optical axis of the imaging device 12 match or approach each other. However, the method for making the optical axes of the distance measuring device 11 and the imaging device 12 coincide or approach each other is not limited to this. For example, the optical system 14 in FIG. 1 utilizes the difference in wavelength between the light detected by the distance measuring device 11 and the image captured by the imaging device 12, and uses a dichroic mirror or a dichroic prism to convert the optical power of the distance measuring device 11. The optical axis of the system and the optical axis of the imaging device 12 can be substantially aligned.

(深度情報処理装置)
一実施形態に係る深度情報処理装置13は、図3に示すように、距離情報取得部41、画像取得部42、制御部43、記憶部44及び出力部45を含む。
(depth information processing device)
The depth information processing device 13 according to one embodiment includes a distance information acquisition unit 41, an image acquisition unit 42, a control unit 43, a storage unit 44, and an output unit 45, as shown in FIG.

距離情報取得部41は、測距装置11から出力データを取得する。距離情報取得部41は、測距装置11と通信する通信モジュールを含んでよい。図2の検出装置21の場合、距離情報取得部41は、測距装置11の一部を構成する制御部24から出力データを取得する。出力データは、少なくとも、検出範囲を平面視したときの検出位置を示す2次元の位置情報と、当該位置に位置する対象obまでの距離である深度の測定値を含む。出力データは、さらに、深度を検出した時刻の情報を含んでよい。時刻の情報は、深度情報処理装置13が出力データを取得した時刻に基づいて付与することもできる。 The distance information acquisition unit 41 acquires output data from the distance measuring device 11 . The distance information acquisition unit 41 may include a communication module that communicates with the distance measuring device 11 . In the case of the detection device 21 of FIG. 2 , the distance information acquisition section 41 acquires output data from the control section 24 forming part of the distance measurement device 11 . The output data includes at least two-dimensional position information indicating the detection position when the detection range is planarly viewed, and a depth measurement value that is the distance to the object ob positioned at the position. The output data may further include information on the time when the depth was detected. The time information can also be added based on the time when the depth information processing device 13 acquires the output data.

画像取得部42は、撮像装置12から画像を取得する。画像取得部42は、撮像装置12と通信する通信モジュールを含んでよい。図2の検出装置21の場合、画像取得部42は、撮像装置12の一部を構成する制御部24から画像を取得する。画像取得部42が取得する画像は、画像を撮像した時刻の情報を含むことができる。時刻の情報は、深度情報処理装置13が画像を取得した時刻に基づいて付与することもできる。測距装置11の出力データの時刻の情報と、画像の時刻の情報とは同期している必要がある。 The image acquisition unit 42 acquires an image from the imaging device 12 . The image acquisition unit 42 may include a communication module that communicates with the imaging device 12 . In the case of the detection device 21 of FIG. 2 , the image acquisition section 42 acquires an image from the control section 24 forming part of the imaging device 12 . The image acquired by the image acquisition unit 42 can include information about the time when the image was captured. The time information can also be given based on the time when the depth information processing device 13 acquired the image. The time information of the output data of the distance measuring device 11 and the time information of the image must be synchronized.

制御部43は、検出装置21の制御部24と同様に、1以上のプロセッサ及びメモリを含む。制御部43は、検出装置21の制御部24と同様に、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、および特定の処理に特化した専用のプロセッサの少なくともいずれかを含んでよい。 The control unit 43, like the control unit 24 of the detection device 21, includes one or more processors and memory. Like the control unit 24 of the detection device 21, the control unit 43 includes at least one of a general-purpose processor that loads a specific program and executes a specific function, and a dedicated processor that specializes in specific processing. OK.

制御部43は、深度情報処理装置13の全体を制御するとともに、距離情報取得部41で取得した出力データ及び画像取得部42で取得した画像に基づいて、所定のタイミングの深度分布を推定するための種々の処理を実行する。制御部43が実行する処理には、以下において説明する機械学習を用いた深度分布の推定が含まれる。 The control unit 43 controls the entire depth information processing device 13, and estimates the depth distribution at a predetermined timing based on the output data acquired by the distance information acquisition unit 41 and the image acquired by the image acquisition unit 42. various processes. The processing executed by the control unit 43 includes depth distribution estimation using machine learning, which will be described below.

記憶部44は、半導体メモリ及び/又は磁気メモリを含む。記憶部44は、例えば主記憶装置、補助記憶装置、又はキャッシュメモリとして機能してもよい。記憶部44は、深度情報処理装置13の動作に用いられる任意の情報を記憶する。例えば、記憶部44は、システムプログラム、アプリケーションプログラム、管理データベース等を記憶してもよい。記憶部44は、距離情報取得部41で取得した出力データ及び画像取得部42で取得した画像、並びに、これらから加工して得られた情報を、一時的に保存することができる。 The storage unit 44 includes semiconductor memory and/or magnetic memory. The storage unit 44 may function, for example, as a main memory device, an auxiliary memory device, or a cache memory. The storage unit 44 stores arbitrary information used for the operation of the depth information processing device 13 . For example, the storage unit 44 may store system programs, application programs, management databases, and the like. The storage unit 44 can temporarily store the output data acquired by the distance information acquisition unit 41, the image acquired by the image acquisition unit 42, and the information obtained by processing them.

記憶部44は、他のコンピュータ(「学習用コンピュータ」とする)又は深度情報処理装置13で、機械学習により生成された学習済みモデル46を記憶する。学習済みモデル46は、距離情報取得部41で取得した出力データ及び画像取得部42で取得した画像を前処理したデータを入力とし、所定のタイミングの深度分布を出力とするデータセットを用いて機械学習により生成される。学習済みモデル46は、プログラム及びパラメータの形式で記憶されてよい。制御部43は、記憶部44から学習済みモデル46を読みだして使用することができる。 The storage unit 44 stores a trained model 46 generated by machine learning in another computer (referred to as a “learning computer”) or the depth information processing device 13 . The trained model 46 receives the output data obtained by the distance information obtaining unit 41 and the preprocessed data of the image obtained by the image obtaining unit 42, and uses a data set that outputs the depth distribution at a predetermined timing. Generated by learning. Trained model 46 may be stored in the form of programs and parameters. The control unit 43 can read the learned model 46 from the storage unit 44 and use it.

出力部45は、深度情報処理装置13から外部に情報を出力可能に構成される。出力部45は、ディスプレイ、外部のコンピュータに情報を送信する通信モジュール、記憶媒体に情報を出力する装置等の何れか一つ以上を含む。 The output unit 45 is configured to be able to output information from the depth information processing device 13 to the outside. The output unit 45 includes one or more of a display, a communication module that transmits information to an external computer, a device that outputs information to a storage medium, and the like.

(深度分布の推定処理)
以下に、制御部43が実行する深度分布の推定処理を、図4のフローチャートを用いて説明する。深度情報処理装置13は、以下に説明する制御部43が行う処理を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実装するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。
(Processing for estimating depth distribution)
Depth distribution estimation processing executed by the control unit 43 will be described below with reference to the flowchart of FIG. The depth information processing device 13 may be configured to read a program recorded on a non-temporary computer-readable medium and implement processing performed by the control unit 43, which will be described below. Non-transitory computer-readable media include, but are not limited to, magnetic storage media, optical storage media, magneto-optical storage media, and semiconductor storage media.

まず、制御部43は、距離情報取得部41を介して測距装置11の出力データを取得し、画像取得部42を介して撮像装置12の撮像した画像を取得する(ステップS101)。 First, the control unit 43 acquires output data of the distance measuring device 11 through the distance information acquisition unit 41, and acquires an image captured by the imaging device 12 through the image acquisition unit 42 (step S101).

図5は、深度分布検出システム10の検出範囲内の場面の一例を示す図である。例えば、測距装置11及び撮像装置12又は検出装置21が、道路の横又は上方の構造物に固定され、道路上を走行する動体MOを検出しているものとする。動体MOは、例えば、自動車、自転車及び歩行者の何れかであってよい。図5は一つの動体MOを含むが、動体MOの数は一つに限られない。検出範囲において、動体MO以外の部分は、時間的に変化しない背景BGとなる。 FIG. 5 is a diagram showing an example of a scene within the detection range of the depth distribution detection system 10. As shown in FIG. For example, it is assumed that the distance measuring device 11 and the imaging device 12 or the detection device 21 are fixed to a structure beside or above the road and detect a moving object MO traveling on the road. A moving object MO may be, for example, an automobile, a bicycle, or a pedestrian. Although FIG. 5 includes one moving object MO, the number of moving objects MO is not limited to one. In the detection range, the portion other than the moving object MO becomes the background BG that does not change with time.

測距装置11のフレームレート及び解像度は、撮像装置12のフレームレート及び解像度よりも低い。測距装置11の1フレームの期間を第1の期間Tとする。例えば、測距装置11のフレームレートは、3fpsであり、第1の期間Tは、1/3秒である。また、測距装置11が1フレームの間に、測定できる深度の数は、例えば、横方向120、縦方向20の合計2400とすることができる。例えば、動体MOが自動車の場合、測距装置11が1フレームの走査をする間に、動体MOは、測距装置11が測定を行う視野内で移動する。そのため、第1の期間Tの間に得られる深度を集めて深度分布を生成しても、測定時刻の違いに起因して、特定の時刻の瞬間的な深度分布を得ることができない。そのため、制御部43は以下の処理を行う。 The frame rate and resolution of the ranging device 11 are lower than those of the imaging device 12 . A period of one frame of the distance measuring device 11 is defined as a first period T1 . For example, the frame rate of the ranging device 11 is 3 fps and the first period T1 is 1/3 seconds. Also, the number of depths that can be measured by the distance measuring device 11 during one frame can be, for example, 2400 in total, 120 in the horizontal direction and 20 in the vertical direction. For example, when the moving object MO is an automobile, the moving object MO moves within the field of view where the rangefinder 11 performs measurement while the rangefinder 11 scans one frame. Therefore, even if the depth distribution is generated by collecting the depths obtained during the first period T1 , an instantaneous depth distribution at a specific time cannot be obtained due to the difference in measurement time. Therefore, the control unit 43 performs the following processing.

図6の下段に示すように、制御部43は、測距装置11の出力データに基づき、第1の期間Tを分割した複数の第2の期間Tのそれぞれについて、複数の深度を時刻情報と関連付けて抽出する(ステップS102)。制御部43は、例えば、第1の期間Tを100の第2の期間Tに分割することができる。例えば、第1の期間Tの長さが、1/3秒の場合、第2の期間Tの長さは、1/300秒とすることができる。第1の期間Tを第2の期間Tに分割する数nは、100に限られず任意の数とすることができる。 As shown in the lower part of FIG. 6, based on the output data of the distance measuring device 11, the control unit 43 calculates a plurality of depths for each of a plurality of second periods T2 obtained by dividing the first period T1 . It is extracted in association with information (step S102). The control unit 43 can, for example, divide the first period T1 into 100 second periods T2 . For example, if the length of the first period T1 is 1/3 seconds, the length of the second period T2 can be 1/300 seconds. The number n for dividing the first period T1 into the second period T2 is not limited to 100 and can be any number.

図6に示すように、それぞれの第2の期間Tについて、それぞれの第2の期間Tに測距装置11で検出された深度が深度情報diとして抽出される。深度情報diは深度の測定値と、深度の検出位置を示す2次元の位置情報及び時刻情報とを関連付けた情報である。それぞれの第2の期間Tに検出された複数の深度情報diの集合を短期間深度情報分布SDk(k=1~n)とする。例えば、測距装置11が1フレームの間に、横方向120、縦方向20の合計2400の深度を測定し、n=100の場合、各短期間深度情報分布SDkに含まれる深度情報diの数は横方向12、縦方向2の合計24とすることができる。図6は単に説明のための図であるから、各短期間深度情報分布SDk内の深度情報diの数を少数の点で表示している。 As shown in FIG. 6, for each second period T2 , the depth detected by the distance measuring device 11 in each second period T2 is extracted as depth information di. The depth information di is information that associates a depth measurement value with two-dimensional position information and time information indicating the depth detection position. Assume that a set of a plurality of pieces of depth information di detected in each second period T2 is a short-term depth information distribution SDk (k=1 to n). For example, when the distance measuring device 11 measures a total of 2400 depths, 120 in the horizontal direction and 20 in the vertical direction, during one frame, and n=100, the number of pieces of depth information di included in each short-term depth information distribution SDk can be 24 in total, 12 in the horizontal direction and 2 in the vertical direction. Since FIG. 6 is a diagram for illustration only, the number of pieces of depth information di in each short-term depth information distribution SDk is indicated by a small number of dots.

図6において、測距装置11は、検出範囲内でランダムな位置の深度を順次取得するものとしている。しかし、測距装置11は、検出範囲内で深度を規則的に走査して取得してよい。 In FIG. 6, the distance measuring device 11 sequentially acquires the depth of random positions within the detection range. However, the range finder 11 may acquire the depth by scanning regularly within the detection range.

また、制御部43は、第1の期間Tに渡って、1フレームの深度情報diを累積した情報を、累積深度情報ADとして生成してよい。累積深度情報ADは、深度情報diを検出範囲の2次元の座標に対応付けて画像として表現したとき、測定時刻の違いに起因する歪み及びずれのある画像となる情報である。 Further, the control unit 43 may generate information obtained by accumulating the depth information di of one frame over the first period T1 as the accumulated depth information AD. The cumulative depth information AD is information that becomes an image with distortion and deviation due to the difference in measurement time when the depth information di is associated with the two-dimensional coordinates of the detection range and expressed as an image.

各短期間深度情報分布SDk(k=1~n)に含まれる深度情報diには、それぞれの各短期間深度情報分布SDk(k=1~n)に応じた時刻情報が付与される。一例として、各短期間深度情報分布SDk(k=1~n)に属する深度情報diには、第2の期間Tの終了する時刻が時刻情報として付与されてよい。例えば、第1の期間Tの開始時刻を0とする場合、短期間深度情報分布SDk(k=1~n)に含まれる深度情報diには、t=T×k/nの時刻情報が付与される。なお、測距装置11が出力する出力データに深度を測定した時刻の情報が含まれる場合、これをそのまま深度情報diの時刻情報としてもよい。このようにして、各深度情報diに含まれる深度の測定値は、検出範囲を平面視したときの検出位置を示す2次元の座標と時刻情報とを含む3次元のボクセル(Voxel)に対応付けられる。 Depth information di included in each short-term depth information distribution SDk (k=1 to n) is provided with time information corresponding to each short-term depth information distribution SDk (k=1 to n). As an example, the depth information di belonging to each short-term depth information distribution SDk (k=1 to n) may be provided with the end time of the second period T2 as time information. For example, when the start time of the first period T 1 is 0, the depth information di included in the short-term depth information distribution SDk (k=1 to n) contains time information of t=T 1 ×k/n. is given. If the output data output by the distance measuring device 11 includes information on the time when the depth was measured, this may be used as the time information of the depth information di as it is. In this way, the depth measurement value included in each piece of depth information di is associated with a three-dimensional voxel containing two-dimensional coordinates indicating the detection position when the detection range is planarly viewed and time information. be done.

次に、制御部43は、第2の期間Tのそれぞれについて、撮像装置12から取得した画像に基づいて、検出範囲の背景BGの領域と動体MOの領域とを分割する領域分割情報SIk(k=1~n)(図7参照)を生成する(ステップS103)。このため、制御部43は、撮像装置12から取得した画像から、第1の期間Tの所定のタイミングで画像を抽出する。例えば、図6に示すように、制御部43は、第1の期間Tの開始時刻をt=0とするとき、t=0のときの画像IM1と、第1の期間Tの終了時刻であるt=Tのときの画像IM2とを取得してよい。 Next, for each second period T2 , based on the image acquired from the imaging device 12, the control unit 43 divides the area division information SIk ( k=1 to n) (see FIG. 7) (step S103). Therefore, the control unit 43 extracts an image from the image acquired from the imaging device 12 at a predetermined timing during the first period T1 . For example, as shown in FIG. 6, when the start time of the first period T1 is t=0, the control unit 43 controls the image IM1 at t=0 and the end time of the first period T1 . and an image IM2 at t= T1 where .

制御部43は、撮像装置12から取得した時系列の画像に対してオプティカルフロー法を用いて、それぞれの第2の期間Tの終了時刻における、動体MOの位置を推定する。すなわち、制御部43は、図7に示すように、第1の画像MI1から動体MOを抽出し、第2の画像MI2から同じ動体MO(図7において、MO’とする)を抽出する。制御部43は、動体MOの特徴点を抽出し第1の画像MI1と第2の画像MI2との間の特徴点の変位ベクトルvを算出する。制御部43は、各特徴点が等速で移動することを想定して、それぞれの第2の期間Tに対応する時刻の動体MOの位置を推定する。 The control unit 43 estimates the position of the moving object MO at the end time of each second period T2 using the optical flow method for the time-series images acquired from the imaging device 12 . That is, as shown in FIG. 7, the control unit 43 extracts the moving object MO from the first image MI1, and extracts the same moving object MO (referred to as MO' in FIG. 7) from the second image MI2. The control unit 43 extracts the feature points of the moving object MO and calculates the displacement vector v of the feature points between the first image MI1 and the second image MI2. Assuming that each feature point moves at a constant speed, the control unit 43 estimates the position of the moving object MO at the time corresponding to each second period T2 .

制御部43は、それぞれの第2の期間Tにおける動体MOの位置に基づいて、領域分割情報SIk(k=1~n)を決定する。領域分割情報SIk(k=1~n)は、動体MOが存在する領域である動体領域MAと、動体領域MA以外の背景BGの領域である背景領域BAとの境界を示す領域境界ABの情報を含む。図7では、単に説明のために領域境界ABは、長方形で示しているが、領域境界は動体MOを平面視した外形に沿うものとする。 The control unit 43 determines region division information SIk (k=1 to n) based on the position of the moving object MO in each second period T2 . The area division information SIk (k=1 to n) is area boundary AB information indicating a boundary between a moving object area MA in which a moving object MO exists and a background area BA that is an area of a background BG other than the moving object area MA. including. In FIG. 7, the area boundary AB is indicated by a rectangle for the sake of explanation only, but the area boundary is assumed to follow the outer shape of the moving object MO in plan view.

なお、領域分割情報SIk(k=1~n)を生成する方法は、オプティカルフローを用いるものに限られない。例えば、制御部43はそれぞれの第2の期間Tに対応する時刻t=T・k/nに撮像された画像を取得し、直前の第2の期間Tの画像と差分をとることができる。制御部43は、差分が実質的に0の領域を、画像が変化していないので背景領域BAであると判断しうる。また、制御部43は、差分が実質的に0以外の領域を、画像が変化しているので動体領域MAであると判断しうる。なお、差分が実質的に0であるとは、差分が0であるか検出誤差範囲内の僅かな値であることを示す。 Note that the method of generating the region division information SIk (k=1 to n) is not limited to using optical flow. For example, the control unit 43 acquires an image captured at time t= T1 ·k/n corresponding to each second period T2 , and obtains a difference from the image in the immediately preceding second period T2 . can be done. The control unit 43 can determine that the area where the difference is substantially 0 is the background area BA because the image has not changed. Also, the control unit 43 can determine that an area where the difference is substantially other than 0 is the moving object area MA because the image changes. Note that the fact that the difference is substantially 0 means that the difference is 0 or a small value within the detection error range.

また、制御部43は、各画素について複数の画像から輝度のヒストグラムを生成し、このヒストグラムに基づいて領域分割情報SIk(k=1~n)を生成することができる。ヒストグラムは、横軸に輝度、縦軸に頻度をとったグラフとして表現される。複数の画像に基づき、特定の輝度の頻度が所定値よりも高い画素の位置は、背景領域BAに該当すると判断することができる。輝度の頻度が広く分布している画素の位置は、動体領域MAと判断することができる。 In addition, the control unit 43 can generate a luminance histogram from a plurality of images for each pixel, and generate region division information SIk (k=1 to n) based on this histogram. A histogram is represented as a graph with luminance on the horizontal axis and frequency on the vertical axis. Based on the plurality of images, it can be determined that the position of the pixel where the frequency of specific luminance is higher than a predetermined value corresponds to the background area BA. The position of the pixel where the luminance frequency is widely distributed can be determined as the moving object area MA.

さらに、制御部43は、図8に示すように、第2の期間Tのそれぞれについて、累積深度情報ADを背景領域BAに含み、第2の期間Tの複数の深度情報diを動体領域MAに含む、合成深度情報CDk(k=1~n)を生成する(ステップS104)。 Furthermore, as shown in FIG. 8, the control unit 43 includes the accumulated depth information AD in the background area BA for each of the second periods T2 , and sets the plurality of depth information di for the second periods T2 to the moving object area. Synthetic depth information CDk (k=1 to n) to be included in MA is generated (step S104).

すなわち、制御部43は、第2の期間TのそれぞれについてステップS103で生成した領域分割情報SIk(k=1~n)を適用して、測距装置11の検出範囲を平面視した2次元領域を分割する。制御部43は、動体領域MAには、短期間深度情報分布SDk(k=1~n)の深度情報diを採用し、背景領域BAには累積深度情報ADの深度情報diを採用して、合成深度情報CDk(k=1~n)を生成する。その結果、合成深度情報CDk(k=1~n)の背景領域BAは、1フレームの深度情報diを反映した、高密度の深度情報diを含む。背景領域BAでは、時間と共に検出対象が変化しないので、このように1フレームわたり累積した多数の深度情報diを使用することができる。一方、動体領域MAでは、深度情報diが時間と共に変化するので、各第2の期間Tの低解像度の深度情報diを使用する。なお、図8は単に説明のための図なので、深度情報diを少数の点で表している。深度情報diはより高密度に取得することができる。 That is, the control unit 43 applies the area division information SIk (k=1 to n) generated in step S103 for each of the second periods T2 , and the detection range of the distance measuring device 11 is two-dimensionally Split a region. The control unit 43 adopts the depth information di of the short-term depth information distribution SDk (k=1 to n) for the moving object area MA, and the depth information di of the cumulative depth information AD for the background area BA, Synthetic depth information CDk (k=1 to n) is generated. As a result, the background area BA of the composite depth information CDk (k=1 to n) contains high-density depth information di reflecting the depth information di of one frame. In the background area BA, since the object to be detected does not change over time, a large amount of depth information di accumulated over one frame can be used. On the other hand, in the moving object area MA, since the depth information di changes with time, low-resolution depth information di for each second period T2 is used. Note that FIG. 8 is a diagram for illustration only, and the depth information di is represented by a small number of points. Depth information di can be obtained at a higher density.

このように、背景領域BAの深度情報diの密度を高くすることにより、合成深度情報CDk(k=1~n)を機械学習の入力として使用する場合に、深度分布の推定精度を向上させることができる。 By increasing the density of the depth information di of the background area BA in this way, it is possible to improve the estimation accuracy of the depth distribution when using the composite depth information CDk (k=1 to n) as input for machine learning. can be done.

次に、制御部43は、ステップS104で生成したn個の合成深度情報CDk(k=1~n)を学習済みモデル46に入力して、所定のタイミングにおける深度分布を推定する(ステップS105)。所定のタイミングは、第1の期間Tの間の任意の時刻に設定することができる。例えば、所定のタイミングは、第1の期間T内の略中央の時刻に設定することができる。すなわち、第1の期間Tの開始時刻をt=0とするとき、所定のタイミングは、t=T/2の近傍とすることができる。例えば、所定のタイミングがT×0.4以上T×0.6以下であれば、所定のタイミングは、第1の期間T内の略中央の時刻ということができる。制御部43は、推定した所定のタイミングの深度分布を記憶部44に記憶することができる。また、制御部43は、推定した所定のタイミングの深度分布を、出力部45から出力することができる。 Next, the control unit 43 inputs the n composite depth information CDk (k=1 to n) generated in step S104 to the trained model 46, and estimates the depth distribution at a predetermined timing (step S105). . The predetermined timing can be set at any time during the first period T1 . For example, the predetermined timing can be set to approximately the middle time within the first period T1 . That is, when the start time of the first period T1 is t=0, the predetermined timing can be near t= T1 /2. For example, if the predetermined timing is equal to or greater than T 1 ×0.4 and equal to or less than T 1 ×0.6, the predetermined timing can be said to be approximately the central time within the first period T 1 . The control unit 43 can store the estimated depth distribution at the predetermined timing in the storage unit 44 . Further, the control unit 43 can output the estimated depth distribution at a predetermined timing from the output unit 45 .

(学習用コンピュータ)
深度情報処理装置13の深度分布の推定に使用される学習済みモデル46は、予め学習用コンピュータ50により生成される。学習用コンピュータ50は、深度情報処理装置13と異なるコンピュータとすることができる。あるいは、深度情報処理装置13が、学習用コンピュータ50の機能を有してもよい。一実施形態において、学習用コンピュータ50は、シミュレーションにより機械学習の教師データを生成し、この教師データを使用して学習済みモデル46を生成する。
(learning computer)
The trained model 46 used for estimating the depth distribution of the depth information processing device 13 is generated in advance by the learning computer 50 . The learning computer 50 can be a computer different from the depth information processing device 13 . Alternatively, the depth information processing device 13 may have the function of the learning computer 50 . In one embodiment, the learning computer 50 generates teacher data for machine learning through simulation, and uses this teacher data to generate the trained model 46 .

学習用コンピュータ50は、仮想的な3次元空間内で仮想的な動体MOを移動させ、仮想空間内の所定の位置に配置した測距装置11及び撮像装置12により検出される出力データ及び画像を算出する。学習用コンピュータ50は、CG(Computer Graphics)により画像を生成することができる。また、学習用コンピュータ50は、所定のタイミングにおける遅延の無い深度分布をシミュレーション演算により算出する。 The learning computer 50 moves a virtual moving object MO within a virtual three-dimensional space, and outputs data and images detected by the distance measuring device 11 and the imaging device 12 placed at predetermined positions in the virtual space. calculate. The learning computer 50 can generate images by CG (Computer Graphics). Further, the learning computer 50 calculates a depth distribution without delay at a predetermined timing by simulation calculation.

学習用コンピュータ50は、例えば、図9に示すように、入力部51、演算部52、記憶部53及び出力部54を含む。 The learning computer 50 includes, for example, an input unit 51, a calculation unit 52, a storage unit 53, and an output unit 54, as shown in FIG.

入力部51は、シミュレーションに使用する各種のデータの入力を受ける。入力部51は、キーボード、マウス等の入力装置、通信モジュール及び/又は記憶媒体の読取装置を含む。例えば、入力部51は、仮想空間に配置される静止物又は背景の位置、大きさ等の情報の入力を受ける。また、入力部51は、仮想空間に配置される動体MOの位置、大きさ、移動方向及び速度の入力を受ける。さらに、入力部51は、仮想空間に配置される測距装置11及び撮像装置12の位置及び向きの情報の入力を受ける。さらに、入力部51は、シミュレーションを行うための各種条件の設定を受けてよい。例えば、入力部51は、第1の期間T及び第2の期間Tの設定を受ける。 The input unit 51 receives input of various data used for simulation. The input unit 51 includes an input device such as a keyboard and a mouse, a communication module, and/or a reading device for a storage medium. For example, the input unit 51 receives input of information such as the position and size of a stationary object or background placed in the virtual space. The input unit 51 also receives input of the position, size, moving direction and speed of the moving object MO placed in the virtual space. Further, the input unit 51 receives input of information on the positions and orientations of the distance measuring device 11 and the imaging device 12 placed in the virtual space. Furthermore, the input unit 51 may receive settings of various conditions for performing the simulation. For example, the input unit 51 receives settings for the first period T1 and the second period T2 .

演算部52は、学習済みモデル46を生成するための各種演算を実行する。演算部52は、検出装置21の制御部24及び深度情報処理装置13の制御部43と同様に、一つ以上のプロセッサを含んで構成される。演算部52は、シミュレーションを行うシミュレーション部55と機械学習を行う関数近似器56とを含んでよい。関数近似器56は、複数の入力と出力とを組み合わせたデータセットである教師データから入力と出力との関係を推定する。関数近似器56は、例えば、ニューラルネットワークである。なお、本実施形態では、シミュレーションと機械学習とを同一の学習用コンピュータ50で行うものとしたが、これらは別個のコンピュータにより実行されてよい。 The calculation unit 52 executes various calculations for generating the trained model 46 . The calculation unit 52 includes one or more processors, like the control unit 24 of the detection device 21 and the control unit 43 of the depth information processing device 13 . The calculation unit 52 may include a simulation unit 55 that performs simulation and a function approximator 56 that performs machine learning. The function approximator 56 estimates the relationship between inputs and outputs from teacher data, which is a data set in which a plurality of inputs and outputs are combined. Function approximator 56 is, for example, a neural network. In this embodiment, simulation and machine learning are performed by the same learning computer 50, but they may be performed by separate computers.

記憶部53は、半導体メモリ及び/又は磁気メモリを含む。記憶部53は、学習用コンピュータ50の動作に使用される任意の情報及び学習用コンピュータ50が出力する任意の情報を記憶することができる。例えば、記憶部53は、入力部51から取得したシミュレーションの各種設定情報、及び、機械学習の結果生成された学習済みモデル46を記憶することができる。 The storage unit 53 includes semiconductor memory and/or magnetic memory. The storage unit 53 can store arbitrary information used for the operation of the learning computer 50 and arbitrary information output by the learning computer 50 . For example, the storage unit 53 can store various setting information of the simulation acquired from the input unit 51 and the learned model 46 generated as a result of machine learning.

出力部54は、学習用コンピュータ50から外部に情報を出力可能に構成される。出力部54は、ディスプレイ、外部のコンピュータに情報を送信する通信モジュール、記憶媒体に情報を出力する装置等を含む。 The output unit 54 is configured to be able to output information from the learning computer 50 to the outside. The output unit 54 includes a display, a communication module that transmits information to an external computer, a device that outputs information to a storage medium, and the like.

(学習済みモデルの生成)
以下に、演算部52が実行する学習済みモデル46の生成処理を、図10のフローチャートを用いて説明する。学習用コンピュータ50は、以下に説明する演算部52が行う処理の一部又は全部を、非一時的なコンピュータ可読媒体に記録されたプログラムを読み込んで実装するように構成されてよい。非一時的なコンピュータ可読媒体は、磁気記憶媒体、光学記憶媒体、光磁気記憶媒体、半導体記憶媒体を含むがこれらに限られない。
(Generation of trained model)
The generation processing of the learned model 46 executed by the calculation unit 52 will be described below with reference to the flowchart of FIG. 10 . The learning computer 50 may be configured to read a program recorded on a non-temporary computer-readable medium and implement part or all of the processing performed by the computing unit 52 described below. Non-transitory computer-readable media include, but are not limited to, magnetic storage media, optical storage media, magneto-optical storage media, and semiconductor storage media.

演算部52は、シミュレーションにより、仮想空間における測距装置11の出力データ及び撮像装置12の出力する画像並びに第1の期間Tの所定のタイミングにおける深度分布を生成する。以下において、所定のタイミングの深度分布を目標深度分布と呼ぶ。目標深度分布は、測距装置11の1フレーム内の測定時刻の違いに起因するずれを含まない、所定のタイミングにおける正しい深度の分布である。演算部52は、実際の測距装置11が深度測定を可能な頻度に従って、出力データを生成する。演算部52は、1フレームの期間である第1の期間Tに実際に測距装置11が検出可能な深度情報diの数よりも大きい数の深度情報diを含む目標深度分布を生成してよい。例えば、測距装置11が、第1の期間Tの間に横方向に120、縦方向に20配列された検出位置の深度情報diを取得する場合、シミュレーションで算出する目標深度分布は、横方向に240、縦方向に40配列された検出位置の深度の分布とすることができる。すなわち、目標深度分布は、測距装置11が実際に検出可能な深度情報diより高い解像度の深度情報diを含むことができる。 The computing unit 52 generates the output data of the distance measuring device 11 in the virtual space, the image output from the imaging device 12, and the depth distribution at a predetermined timing of the first period T1 by simulation. Hereinafter, the depth distribution at a predetermined timing is called a target depth distribution. The target depth distribution is a correct depth distribution at a predetermined timing that does not include deviations due to differences in measurement times within one frame of the rangefinder 11 . The calculation unit 52 generates output data according to the frequency at which the distance measuring device 11 can actually measure the depth. The calculation unit 52 generates a target depth distribution including a larger number of pieces of depth information di than the number of pieces of depth information di that can actually be detected by the distance measuring device 11 in the first period T1 , which is a period of one frame. good. For example, when the distance measuring device 11 acquires depth information di of detection positions arranged horizontally 120 times vertically during the first period T1 , the target depth distribution calculated by simulation is It can be a distribution of depths of detection positions arranged 240 in the direction and 40 in the vertical direction. That is, the target depth distribution can include depth information di with a higher resolution than depth information di that the distance measuring device 11 can actually detect.

次に、演算部52は、シミュレーションの結果得られた測距装置11の出力データを第1の期間Tを分割した第2の期間Tのそれぞれについて、複数の深度情報diを時刻情報と関連付けて抽出する(ステップS202)。この処理は、図4のフローチャートにおけるステップS102と同じ処理である。ここで使用される第1の期間T及び第2の期間Tは、ステップS102において使用される第1の期間T及び第2の期間Tと同じに設定される。 Next, the calculation unit 52 converts the output data of the distance measuring device 11 obtained as a result of the simulation into a plurality of depth information di as time information for each of the second periods T2 obtained by dividing the first period T1 . It is associated and extracted (step S202). This process is the same process as step S102 in the flowchart of FIG. The first period T1 and the second period T2 used here are set to be the same as the first period T1 and the second period T2 used in step S102.

演算部52は、第2の期間Tのそれぞれについて、シミュレーションの結果得られた画像に基づいて、検出範囲の背景BGの領域と動体MOの領域とを分割する領域分割情報SIk(k=1~n)を生成する(ステップS203)。この処理は、図4のフローチャートにおけるステップS103と同じ処理である。 Based on the image obtained as a result of the simulation, the calculation unit 52 generates area division information SIk (k=1 ˜n) are generated (step S203). This process is the same process as step S103 in the flowchart of FIG.

さらに、演算部52は、第2の期間Tのそれぞれについて、複数の深度情報diを第1の期間Tに累積して得られる累積深度情報ADを背景領域BAに含み、第2の期間Tの複数の深度情報diを動体領域MAに含む、合成深度情報CDk(k=1~n)を生成する(ステップS204)。この処理は、図4のフローチャートにおけるステップS104と同じ処理である。 Furthermore, for each of the second periods T2 , the computing unit 52 includes, in the background area BA, cumulative depth information AD obtained by accumulating a plurality of pieces of depth information di in the first period T1 . Synthetic depth information CDk (k=1 to n) including a plurality of pieces of depth information di of T2 in the moving object area MA is generated (step S204). This process is the same process as step S104 in the flowchart of FIG.

すなわち、演算部52は、シミュレーションにより得られた測距装置11の出力データ及び撮像装置12の画像に対して、深度情報処理装置13が機械学習により推論を行う前段階で行う処理と同じ処理を行って、合成深度情報CDk(k=1~n)を生成する。 That is, the calculation unit 52 performs the same processing as the processing performed by the depth information processing device 13 in the pre-stage of inference by machine learning on the output data of the distance measuring device 11 and the image of the imaging device 12 obtained by the simulation. to generate synthetic depth information CDk (k=1 to n).

演算部52は、1フレームのデータに対応する複数の合成深度情報CDk(k=1~n)と目標深度分布との組合せを一つのデータとし、これを複数含む教師データを生成する(ステップS205)。演算部52は、上記ステップS201~S204において、複数のデータを平行して生成してよい。演算部52は、機械学習のために多数の、例えば、1000組から10000組のデータからなるデータセットを生成する。 The calculation unit 52 treats a combination of a plurality of synthetic depth information CDk (k=1 to n) corresponding to one frame of data and the target depth distribution as one data, and generates teacher data including a plurality of such data (step S205). ). The calculation unit 52 may generate a plurality of data in parallel in steps S201 to S204. The computing unit 52 generates a large number of data sets, for example, 1000 to 10000 sets of data for machine learning.

演算部52は、関数近似器56により、合成深度情報CDk(k=1~n)を入力とし、目標深度分布を出力とする機械学習を実行し、学習済みモデル46を生成する(ステップS206)。演算部52は、学習済みモデル46を記憶部53に記憶し、及び/又は、出力部54から出力する。学習済みモデル46は、複数の深度情報処理装置13で使用することができる。 The computing unit 52 uses the function approximator 56 to perform machine learning using the composite depth information CDk (k=1 to n) as an input and the target depth distribution as an output, thereby generating a trained model 46 (step S206). . The calculation unit 52 stores the trained model 46 in the storage unit 53 and/or outputs it from the output unit 54 . The trained model 46 can be used by multiple depth information processing devices 13 .

(機械学習の演算方法)
関数近似器56は、例えば、ニューラルネットワークである。ネットワーク
は、数式(1)に示すように、入力に対して深度推定値(Depth推定値)
と不確実性
とを出力する。
(Calculation method of machine learning)
Function approximator 56 is, for example, a neural network. network
is a depth estimate for the input, as shown in equation (1)
and uncertainty
and

不確実性は、機械学習の出力を正規分布の確率表現として算出する場合における分散を表す。関数近似器56は、数式(2)の損失関数L(θ)を算出する演算を行い、この損失関数L(θ)を最小化するように学習を行う。 Uncertainty represents the variance in calculating the output of machine learning as a probability representation of a normal distribution. The function approximator 56 performs calculations for calculating the loss function L(θ) of Equation (2), and performs learning so as to minimize this loss function L(θ).

ここで、iは、教師データに含まれるそれぞれのデータを示す。また、Diは、教師データの深度である。式(2)で用いた不確実性は、推定が難しいデータの程度を表す。 Here, i indicates each data included in the teacher data. Also, Di is the depth of the teacher data. The uncertainty used in Equation (2) represents the extent of data that are difficult to estimate.

数式(2)の第2項は、不確実性(分散)を小さくする方向に作用する。一方で第1項の指数関数exp()は、不確実性(分散)を大きくする方向に作用する。演算部52は、損失関数L(θ)が小さくなるよう学習を行うので、第1項と第2項との間でバランスを取って学習を行うことができる。すなわち、本実施形態によれば、学習済みモデル46の生成において不確実性が考慮される。不確実性を用いて学習することにより、空間的には遠方及び物体の境界付近、時間的には目的の時刻に遠い時刻、並びに、移動物体のように深度推定が困難な深度測定値に対して、頑健な出力となることが期待できる。 The second term of Equation (2) acts to reduce the uncertainty (variance). On the other hand, the exponential function exp() of the first term acts to increase the uncertainty (variance). Since the calculation unit 52 performs learning so that the loss function L(θ) becomes small, learning can be performed while balancing the first term and the second term. That is, according to the present embodiment, uncertainty is taken into account in generating the trained model 46 . By learning using uncertainty, we can detect depth measurements that are spatially distant and near object boundaries, temporally distant from the target time, and depth measurements that are difficult to estimate such as moving objects. Therefore, it can be expected that the output will be robust.

本実施形態では、学習用コンピュータ50は、上述のように、それぞれの第2の期間Tの深度情報diに、第1の期間Tよりも高い分解度の時刻情報を持たせて機械学習の入力となる合成深度情報CDk(k=1~n)を生成した。また、学習用コンピュータ50は、測定時刻のずれに基づく歪を含まない目標深度分布をシミュレーションにより生成して機械学習の出力とした。これによって、生成された学習済みモデル46を使用することにより、深度情報処理装置13は、実際の測距装置11からの出力データ及び撮像装置12からの画像から生成した合成深度情報CDk(k=1~n)を学習済みモデル46に入力して、所定のタイミングの深度分布を推定することが可能になる。推定された深度分布は、測距装置11の測定時刻のずれに起因する深度分布の歪み及びずれを低減したものとなる。 In the present embodiment, as described above, the learning computer 50 provides the depth information di of each second period T2 with time information of higher resolution than that of the first period T1 for machine learning. generated composite depth information CDk (k=1 to n) as an input for . In addition, the learning computer 50 generates a target depth distribution that does not include distortion based on the deviation of the measurement time by simulation, and uses it as an output of machine learning. Accordingly, by using the generated trained model 46, the depth information processing device 13 can generate composite depth information CDk (k= 1 to n) are input to the learned model 46 to estimate the depth distribution at a predetermined timing. The estimated depth distribution is obtained by reducing the distortion and deviation of the depth distribution caused by the deviation of the measurement time of the distance measuring device 11 .

また、本実施形態では、学習用コンピュータ50による学習と、深度情報処理装置13による推定の両段階において、機械学習の入力として背景領域BAに深度情報diを第1の期間Tに渡り累積して得られる累積深度情報ADを含むようにした。これにより、単に、1フレームの測距情報を、n個に分割した短期間深度情報分布SDk(k=1~n)を機械学習の入力に用いるよりも、入力情報を高密度化することができる。これによって、機械学習の精度が向上するので、所定のタイミングにおける深度分布の予測精度が向上する。 Further, in the present embodiment, in both stages of learning by the learning computer 50 and estimation by the depth information processing device 13, the depth information di is accumulated in the background area BA over the first period T1 as an input for machine learning. The cumulative depth information AD obtained by As a result, it is possible to increase the density of the input information more than simply using the short-term depth information distribution SDk (k=1 to n) obtained by dividing one frame of ranging information into n pieces for the input of machine learning. can. This improves the accuracy of machine learning, thereby improving the prediction accuracy of the depth distribution at a predetermined timing.

さらに、本実施形態では、機械学習の学習段階において、学習済みモデル46を生成するために不確実性を含む演算を行った。これによって、深度情報diの推定が困難な位置及び時間の条件についても、不確実性をより小さくすることができる。これによって、深度分布の推定精度をさらに向上させることができる。 Furthermore, in this embodiment, in the learning stage of machine learning, calculations involving uncertainty are performed to generate the trained model 46 . As a result, uncertainty can be reduced even under conditions of position and time where estimation of depth information di is difficult. This makes it possible to further improve the estimation accuracy of the depth distribution.

実際に、本願の発明者がシミュレーションにより行った実験によれば、機械学習の入力となる深度情報diを時間的に分割して時刻情報を持たせることにより、深度分布の推定精度を向上させる効果が確認された。また、背景領域BAに1フレームの間累積した深度情報diを持たせて高密度化することによっても、深度分布の推定精度を向上させる効果が確認された。さらに、機械学習の学習段階で不確実性を考慮することによっても、深度分布の推定精度を向上させる効果が確認された。これらの手法は、併用して実行することにより、深度分布の推定精度がさらに向上することも確認された。 In fact, according to an experiment conducted by the inventor of the present application by simulation, the effect of improving the estimation accuracy of the depth distribution by dividing the depth information di that is the input of machine learning in terms of time and giving it time information was confirmed. It was also confirmed that the background area BA has the depth information di accumulated for one frame to increase the density of the background area BA, thereby improving the estimation accuracy of the depth distribution. Furthermore, it was confirmed that considering uncertainty in the learning stage of machine learning also has the effect of improving the estimation accuracy of the depth distribution. It was also confirmed that the estimation accuracy of the depth distribution is further improved by executing these methods in combination.

また、本実施形態によれば、学習段階で使用する出力としての目標深度分布の深度情報diの数を、第1の期間Tに1フレームの深度情報diとして測距装置11から出力される深度情報diの数より大きくした。これによって、深度情報処理装置13は、所定のタイミングの深度分布として、測距装置11が1フレームの間に取得できる深度分布よりも高い密度の深度分布を取得することができる。また、これにより、深度分布に基づいて、深度マップを生成する場合、深度情報処理装置13は、測距装置11から出力される深度分布を高解像度化した深度マップを生成することができる。 Further, according to the present embodiment, the number of depth information di of the target depth distribution as an output used in the learning stage is output from the distance measuring device 11 as one frame of depth information di in the first period T1. It is made larger than the number of depth information di. As a result, the depth information processing device 13 can acquire a depth distribution with a higher density than the depth distribution that the distance measuring device 11 can acquire in one frame as the depth distribution at the predetermined timing. Further, in this way, when generating a depth map based on the depth distribution, the depth information processing device 13 can generate a depth map by increasing the resolution of the depth distribution output from the distance measuring device 11 .

本開示に係る実施形態について、諸図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形又は修正を行うことが容易であることに注意されたい。従って、これらの変形又は修正は本開示の範囲に含まれることに留意されたい。例えば、各構成部又は各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の構成部又はステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。本開示に係る実施形態は装置が備えるプロセッサにより実行される方法、プログラム、又はプログラムを記録した記憶媒体としても実現し得るものである。本開示の範囲にはこれらも包含されるものと理解されたい。 Although the embodiments of the present disclosure have been described with reference to the drawings and examples, it should be noted that those skilled in the art can easily make various variations or modifications based on the present disclosure. Therefore, it should be noted that these variations or modifications are included within the scope of this disclosure. For example, functions included in each component or each step can be rearranged so as not to be logically inconsistent, and multiple components or steps can be combined into one or divided. is. Embodiments according to the present disclosure can also be implemented as a method, a program, or a storage medium recording a program executed by a processor provided in an apparatus. It should be understood that these are also included within the scope of the present disclosure.

10 深度分布検出システム
11 測距装置
12 撮像装置
13 深度情報処理装置
14 光学系
21 検出装置
22 照射部
23 反射部
24 制御部
25 第1の光学系
26 検出素子
27 第2の光学系
28 撮像素子
29 前段光学系
30 第1の後段光学系
31 第2の後段光学系
32 切替部
41 距離情報取得部
42 画像取得部
43 制御部
44 記憶部
45 学習済みモデル
50 学習用コンピュータ
51 入力部
52 演算部
53 記憶部
54 出力部
55 シミュレーション部
56 関数近似器
ax 光軸
MO 動体
BG 背景
第1の期間
第2の期間
IM1 第1の画像
IM2 第2の画像
di 深度情報
SDk(k=1~n) 短期間深度情報分布
AD 累積深度情報
SIk(k=1~n) 領域分割情報
CDk(k=1~n) 合成深度情報

REFERENCE SIGNS LIST 10 depth distribution detection system 11 distance measuring device 12 imaging device 13 depth information processing device 14 optical system 21 detection device 22 irradiation section 23 reflection section 24 control section 25 first optical system 26 detection element 27 second optical system 28 imaging element 29 pre-stage optical system 30 first post-stage optical system 31 second post-stage optical system 32 switching section 41 distance information acquisition section 42 image acquisition section 43 control section 44 storage section 45 trained model 50 learning computer 51 input section 52 calculation section 53 storage unit 54 output unit 55 simulation unit 56 function approximator ax optical axis MO moving object BG background T 1 first period T 2 second period IM1 first image IM2 second image di depth information SDk (k=1 ~ n) Short-term depth information distribution AD Cumulative depth information SIk (k = 1 to n) Region division information CDk (k = 1 to n) Composite depth information

Claims (11)

走査型の測距装置から出力データを取得する距離情報取得部と、
前記測距装置の検出範囲と重複する範囲を撮像した画像を取得する画像取得部と、
前記出力データ及び前記画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を推定するプロセッサであって、
前記プロセッサは、
前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成し、
前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定するプロセッサと
を備える深度情報処理装置。
a distance information acquisition unit that acquires output data from a scanning rangefinder;
an image acquisition unit that acquires an image of a range that overlaps the detection range of the distance measuring device;
A processor for estimating a depth distribution at a predetermined timing within a first period, which is a period of one frame of the range finder, based on the output data and the image,
The processor
From the output data, for each of a plurality of second periods obtained by temporally dividing the first period, the depth, the position in the two-dimensional direction where the depth was detected, and time information corresponding to the second period are obtained. Generate multiple depth information containing,
generating area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
The synthesized depth information of a plurality of the second periods is input, and the generated synthesis is applied to the trained model trained using teacher data whose output is the depth distribution at the predetermined timing within the first period. A depth information processing apparatus comprising: a processor that estimates the depth distribution by inputting depth information.
前記学習済みモデルは、前記教師データを用いて学習を行う際、不確実性を含む演算を行って生成されたものであり、前記不確実性は機械学習の出力を正規分布の確率表現として算出する場合における分散を表す、請求項1に記載の深度情報処理装置。 The trained model is generated by performing an operation including uncertainty when performing learning using the teacher data, and the uncertainty is calculated as a probability expression of normal distribution based on the output of machine learning. 2. The depth information processing apparatus according to claim 1, representing a variance in the case of . 前記測距装置の光学系の光軸と前記画像を撮像する光学系の光軸とが、実質的に一致している請求項1または2に記載の深度情報処理装置。 3. The depth information processing apparatus according to claim 1, wherein the optical axis of the optical system of said distance measuring device and the optical axis of the optical system for capturing said image are substantially aligned. 時系列の前記画像に対して、オプティカルフロー、それぞれの前記画像の間の差分、又は、複数の前記画像から得られる輝度のヒストグラムに基づいて、前記画像から前記領域分割情報を生成する、請求項1から3の何れか一項に記載の深度情報処理装置。 The segmentation information is generated from the images based on an optical flow, a difference between the images, or a luminance histogram obtained from a plurality of the images, for the images in time series. 4. The depth information processing device according to any one of 1 to 3. 前記所定のタイミングは、前記第1の期間内の略中央の時刻である、請求項1から4の何れか一項に記載の深度情報処理装置。 5. The depth information processing apparatus according to any one of claims 1 to 4, wherein said predetermined timing is a substantially central time within said first period. 推定される前記深度分布は、前記第1の期間に生成される深度情報の数の合計よりも大きい数の深度情報を含む、請求項1から5の何れか一項に記載の深度情報処理装置。 The depth information processing apparatus according to any one of claims 1 to 5, wherein the estimated depth distribution includes a number of pieces of depth information greater than a total number of pieces of depth information generated during the first period. . 前記教師データの前記合成深度情報及び前記深度分布は、前記検出範囲に動体を仮想的に配置するシミュレーションを実行することにより生成される請求項1から6の何れか一項に記載の深度情報処理装置。 7. The depth information processing according to any one of claims 1 to 6, wherein the synthetic depth information and the depth distribution of the teacher data are generated by executing a simulation that virtually places a moving object in the detection range. Device. コンピュータのプロセッサが実行する深度分布推定方法であって、
走査型の測距装置から出力データを取得し、
前記測距装置の検出範囲と重複する範囲を撮像した画像を取得し、
前記出力データから、前記測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成し、
前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する、方法。
A depth distribution estimation method executed by a computer processor,
Acquire output data from a scanning rangefinder,
Acquiring an image of a range overlapping the detection range of the rangefinder,
From the output data, the depth, the position in the two-dimensional direction where the depth was detected, and the generating a plurality of depth information including time information corresponding to the second period;
generating area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
The generated synthetic depth is added to a trained model that has been trained using teacher data that receives a plurality of synthetic depth information of the second period as an input and outputs a depth distribution at a predetermined timing within the first period. A method of estimating the depth distribution by inputting information.
走査型の測距装置と、
前記測距装置の検出範囲と重複する範囲を撮像する撮像装置と、
前記測距装置の出力データ及び前記撮像装置が撮像した画像に基づいて、前記測距装置の1フレームの期間である第1の期間内の所定のタイミングにおける深度分布を算出するプロセッサを含む深度情報処理装置と
を備え、
前記プロセッサは、
前記出力データから、前記第1の期間を時間的に分割した複数の第2の期間のそれぞれについて、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含む複数の深度情報を生成し、
前記画像から、前記第2の期間のそれぞれについて、前記検出範囲の背景の領域と動体の領域とを分割する領域分割情報を生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
複数の前記第2の期間の合成深度情報を入力とし、前記第1の期間内の前記所定のタイミングにおける深度分布を出力とする教師データを用いて学習させた学習済みモデルに、生成した前記合成深度情報を入力することにより前記深度分布を推定する、深度分布検出システム。
a scanning rangefinder;
an imaging device that captures an image of a range that overlaps with the detection range of the distance measuring device;
Depth information including a processor that calculates a depth distribution at a predetermined timing within a first period, which is a period of one frame of the range finder, based on the output data of the range finder and the image captured by the imaging device. a processing device;
The processor
From the output data, for each of a plurality of second periods obtained by temporally dividing the first period, the depth, the position in the two-dimensional direction where the depth was detected, and time information corresponding to the second period are obtained. Generate multiple depth information containing,
generating area division information for dividing the detection range into a background area and a moving object area for each of the second periods from the image;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
The synthesized depth information of a plurality of the second periods is input, and the generated synthesis is applied to the trained model trained using teacher data whose output is the depth distribution at the predetermined timing within the first period. A depth distribution detection system that estimates the depth distribution by inputting depth information.
コンピュータが実行する学習済みモデル生成方法であって、
走査型の測距装置の1フレームの期間である第1の期間を時間的に分割した複数の第2の期間のそれぞれについて生成された複数の深度情報及び領域分割情報、並びに、前記第1の期間内の所定のタイミングにおける深度分布を組合せたデータであって、それぞれの前記深度情報は、深度、該深度を検出した2次元方向の位置及び前記第2の期間に対応する時刻情報を含み、前記領域分割情報は、前記測距装置の検出範囲の背景の領域と動体の領域とを分割する、前記データを複数取得又は生成し、
前記第2の期間のそれぞれについて、前記複数の深度情報を前記第1の期間に累積して得られる累積深度情報を前記背景の領域に含み、前記第2の期間の前記複数の深度情報を前記動体の領域に含む、合成深度情報を生成し、
前記複数の前記第2の期間の前記合成深度情報を入力とし、前記深度分布を出力とする教師データを用いて機械学習を行うことにより学習済みモデルを生成する、
学習済みモデル生成方法。
A trained model generation method executed by a computer,
a plurality of pieces of depth information and region division information generated for each of a plurality of second periods obtained by temporally dividing a first period, which is a period of one frame of a scanning rangefinder; data obtained by combining depth distributions at predetermined timings within a period, wherein each of the depth information includes depth, a position in the two-dimensional direction where the depth is detected, and time information corresponding to the second period; the area division information obtains or generates a plurality of data for dividing the detection range of the rangefinder into a background area and a moving object area;
For each of the second periods, the background area includes accumulated depth information obtained by accumulating the plurality of depth information in the first period, and the plurality of depth information in the second period is included in the generate synthetic depth information, including in the region of the moving object;
generating a learned model by performing machine learning using the synthetic depth information of the plurality of the second periods as input and teacher data having the depth distribution as output;
Trained model generation method.
前記教師データを用いて前記学習済みモデルを生成する際、不確実性を含む演算を行ない、前記不確実性は機械学習の出力を正規分布の確率表現として算出する場合における分散を表す、請求項10に記載の学習済みモデル生成方法。

3. When generating said trained model using said teacher data, an operation including uncertainty is performed, and said uncertainty represents a variance in the case of calculating an output of machine learning as a probability expression of normal distribution. 11. The learned model generation method according to 10.

JP2022007432A 2022-01-20 2022-01-20 Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method Pending JP2023106227A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022007432A JP2023106227A (en) 2022-01-20 2022-01-20 Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022007432A JP2023106227A (en) 2022-01-20 2022-01-20 Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method

Publications (1)

Publication Number Publication Date
JP2023106227A true JP2023106227A (en) 2023-08-01

Family

ID=87473171

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022007432A Pending JP2023106227A (en) 2022-01-20 2022-01-20 Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method

Country Status (1)

Country Link
JP (1) JP2023106227A (en)

Similar Documents

Publication Publication Date Title
CN110596721B (en) Flight time distance measuring system and method of double-shared TDC circuit
US10419741B2 (en) Systems and methods for compression of three dimensional depth sensing
US9303989B2 (en) System and method for providing 3D imaging
US10262242B2 (en) Image scanning system and image scanning method
US20140139632A1 (en) Depth imaging method and apparatus with adaptive illumination of an object of interest
TW202014990A (en) Depth estimation apparatus, autonomous vehicle using the same, and depth estimation method thereof
KR20130106094A (en) Depth camera, multi-depth camera system, and synchronizing method thereof
JP6850173B2 (en) Electromagnetic wave detectors, programs, and electromagnetic wave detection systems
EP3279691B1 (en) Rangefinder based on parallax calculation
JP6776692B2 (en) Parallax calculation system, mobiles and programs
US20230177818A1 (en) Automated point-cloud labelling for lidar systems
US11835653B2 (en) Electromagnetic wave detection apparatus, program, and information acquisition system
JP2004152133A (en) Virtual view image generation method, virtual view image generation apparatus, virtual view image generation program and recording medium
JP2014130086A (en) Range image sensor, processor and program
WO2023162730A1 (en) Information processing device, information processing method, and program
JP6379646B2 (en) Information processing apparatus, measurement method, and program
JP2023106227A (en) Depth information processing device, depth distribution estimation method, depth distribution detection system, and trained model generation method
WO2022195954A1 (en) Sensing system
CN112364741B (en) Monocular remote obstacle detection method and device for unmanned aerial vehicle and unmanned aerial vehicle
US20230057655A1 (en) Three-dimensional ranging method and device
US20230003894A1 (en) Time-of-flight imaging circuitry, time-of-flight imaging system, time-of-flight imaging method
JP7140091B2 (en) Image processing device, image processing method, image processing program, and image processing system
US20230066857A1 (en) Dynamic laser emission control in light detection and ranging (lidar) systems
CN108508450A (en) Laser beam control method, corresponding unit and computer program product
JP7037609B2 (en) Electromagnetic wave detectors and programs