JP2021144028A - Method for removing multipath and measuring device - Google Patents

Method for removing multipath and measuring device Download PDF

Info

Publication number
JP2021144028A
JP2021144028A JP2021032721A JP2021032721A JP2021144028A JP 2021144028 A JP2021144028 A JP 2021144028A JP 2021032721 A JP2021032721 A JP 2021032721A JP 2021032721 A JP2021032721 A JP 2021032721A JP 2021144028 A JP2021144028 A JP 2021144028A
Authority
JP
Japan
Prior art keywords
distance
image
multipath
pixel
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021032721A
Other languages
Japanese (ja)
Other versions
JP7178577B2 (en
Inventor
佑亮 湯浅
Yusuke Yuasa
佑亮 湯浅
信三 香山
Shinzo Kayama
信三 香山
裕 廣瀬
Yutaka Hirose
裕 廣瀬
明弘 小田川
Akihiro Odakawa
明弘 小田川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2021144028A publication Critical patent/JP2021144028A/en
Application granted granted Critical
Publication of JP7178577B2 publication Critical patent/JP7178577B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To provide a method for removing a multipath which can suppress image degradation due to a virtual image derived from the multipath.SOLUTION: The method for removing a multipath according to the present disclosure includes: a background distance estimation unit for estimating a distance of a background in an imaging space; an imaging step of acquiring a luminance image holding information on the amount of reception of reflected light on a pixel-by-pixel basis or acquiring a distance image holding information on a distance to an object on a pixel-by-pixel basis; and a pixel value determination step of updating the value of pixels which capture an object more distant than an estimated background distance estimated in the background distance estimation step in the luminance image or in the distance image. In the background distance estimation unit, a parameter on imaging conditions for a camera is used for calculation.SELECTED DRAWING: Figure 3

Description

本開示は、光を用いて物体までの距離を測定する距離測定方法および測距装置に関する。 The present disclosure relates to a distance measuring method and a distance measuring device for measuring a distance to an object using light.

特許文献1は、距離情報において、背景を正確に設定して誤検知の発生を抑えた物体検出システムを開示する。 Patent Document 1 discloses an object detection system in which the background is accurately set in the distance information to suppress the occurrence of false detection.

特許文献2は、マルチパスを検出するための処理負荷を軽減することができる距離情報取得装置を開示する。 Patent Document 2 discloses a distance information acquisition device capable of reducing the processing load for detecting multipath.

特開2019−144210号公報JP-A-2019-144210 国際公開第2019/188348号International Publication No. 2019/188348

特許文献1、特許文献2の方法では、背景距離を撮像によって生成する際に距離画像にノイズが重畳する場合、あるいはカメラが移動する場合、あるいは背景撮像時に測距範囲に存在していた物体が移動した場合に、距離画像の精度が悪化するという課題がある。 In the methods of Patent Document 1 and Patent Document 2, when noise is superimposed on the distance image when the background distance is generated by imaging, or when the camera moves, or an object existing in the ranging range at the time of background imaging is present. There is a problem that the accuracy of the distance image deteriorates when the distance image is moved.

本開示は、マルチパスに由来する虚像による画質劣化を抑制するマルチパス除去方法および測距装置を提供する。 The present disclosure provides a multipath removing method and a distance measuring device that suppresses image quality deterioration due to a virtual image derived from multipath.

本開示の一態様におけるマルチパス除去方法は、撮影空間内の背景の距離を推定する背景距離推定ステップと、画素毎に反射光の受光量に関する情報を保持した輝度画像あるいは画素毎に物体までの距離の情報を保持した距離画像を取得する撮影ステップと、前記輝度画像あるいは前記距離画像において、前記背景距離推定ステップで推定した推定背景距離より遠い物体を撮像した画素の値を更新する画素値決定ステップと、を有し、前記背景距離推定ステップは、カメラの撮影条件に関するパラメータを用いて算出する。 The multi-pass removal method in one aspect of the present disclosure includes a background distance estimation step for estimating the background distance in the shooting space, and a brightness image holding information on the amount of reflected light received for each pixel or an object for each pixel. A pixel value determination that updates the values of pixels that image an object farther than the estimated background distance estimated in the background distance estimation step in the brightness image or the distance image in the shooting step for acquiring the distance image holding the distance information. The background distance estimation step is calculated using parameters related to the shooting conditions of the camera.

本開示の一態様における測距装置はTOF方式による測距装置であって、光源と、複数の画素を有する撮像素子と、前記光源の発光タイミングと前記撮像装置の露光タイミングとを制御する発光露光制御部と、画素毎に反射光の受光量に関する情報を保持した輝度画像あるいは画素毎に前記物体までの距離の情報を保持した距離画像を生成する信号処理部と、撮影空間内の背景の距離を推定背景距離として推定し、前記推定背景距離より遠い物体を撮像した画素の値を更新するマルチパス除去部と、を備える。 The distance measuring device according to one aspect of the present disclosure is a distance measuring device based on a TOF method, and is a light emitting exposure that controls a light source, an image pickup element having a plurality of pixels, a light emission timing of the light source, and an exposure timing of the image pickup device. The distance between the control unit and the background in the shooting space between the control unit and the signal processing unit that generates a brightness image that holds information about the amount of reflected light received for each pixel or a distance image that holds information about the distance to the object for each pixel. Is provided as an estimated background distance, and a multi-pass removing unit for updating the value of a pixel that images an object farther than the estimated background distance is provided.

本開示におけるマルチパス除去方法は、マルチパスに由来する虚像による画質劣化を抑制することができる。 The multipath removing method in the present disclosure can suppress image quality deterioration due to a virtual image derived from multipath.

図1は、実施の形態1における距離画像生成装置の構成を示す図である。FIG. 1 is a diagram showing a configuration of a distance image generator according to the first embodiment. 図2は、実施の形態1における距離画像生成装置の光源の発光制御および撮像素子の露光制御を説明するタイミングチャートである。FIG. 2 is a timing chart for explaining the light emission control of the light source of the distance image generator and the exposure control of the image sensor according to the first embodiment. 図3は、実施の形態1におけるマルチパス除去部の処理における背景距離推定方法を説明するための、撮像素子とマルチパス除去処理の対象範囲との相対位置を含む空間の図である。FIG. 3 is a diagram of a space including a relative position between the image sensor and the target range of the multipath removal process for explaining the background distance estimation method in the process of the multipath removal unit in the first embodiment. 図4は、実施の形態1におけるマルチパス除去部の処理を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining the processing of the multipath removing unit in the first embodiment. 図5は、実施の形態1におけるマルチパス除去部の処理に含まれる推定背景距離を最も近い実測距離値に一致させる処理を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining a process of matching the estimated background distance included in the process of the multipath removing unit in the first embodiment with the closest measured distance value. 図6は、実施の形態1における距離画像の各画素に対する推定背景距離を説明するグラフである。FIG. 6 is a graph for explaining the estimated background distance for each pixel of the distance image according to the first embodiment. 図7は、実施の形態1における距離画像の各画素に対する推定背景距離を最も近い実測距離値に一致させた値を説明するグラフである。FIG. 7 is a graph for explaining a value in which the estimated background distance for each pixel of the distance image in the first embodiment is matched with the closest measured distance value. 図8は、実施の形態1におけるマルチパス除去部の処理に含まれる推定背景距離修正方法を説明するためのフローチャートである。FIG. 8 is a flowchart for explaining an estimated background distance correction method included in the processing of the multipath removing unit in the first embodiment. 図9は、実施の形態1における距離画像内のサブレンジ境界を探索した例を模式的に示す図である。FIG. 9 is a diagram schematically showing an example of searching for a subrange boundary in a distance image according to the first embodiment. 図10は、実施の形態1における画素値決定方法を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining a pixel value determination method according to the first embodiment. 図11は、実施の形態1における画素値決定方法がマルチパスに由来する像を除去することを説明する図である。FIG. 11 is a diagram illustrating that the pixel value determination method in the first embodiment removes an image derived from multipath. 図12は、実施の形態1における距離画像生成装置が出力した距離画像の例を示す図である。FIG. 12 is a diagram showing an example of a distance image output by the distance image generator according to the first embodiment. 図13は、実施の形態2におけるマルチパス除去部の処理に含まれる推定背景距離修正方法を説明するためのフローチャートである。FIG. 13 is a flowchart for explaining an estimated background distance correction method included in the processing of the multipath removing unit in the second embodiment. 図14は、実施の形態2におけるマルチパス除去部の処理に含まれる分割点探索方法を説明するためのフローチャートである。FIG. 14 is a flowchart for explaining a division point search method included in the processing of the multipath removing unit in the second embodiment. 図15は、実施の形態2における距離画像の測距範囲内の距離値を有する点群の密度に基づいて推定背景距離を更新する方法について説明する図である。FIG. 15 is a diagram illustrating a method of updating the estimated background distance based on the density of a point cloud having a distance value within the distance measurement range of the distance image in the second embodiment.

以下、図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明、または、実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が必要以上に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings. However, more detailed explanation than necessary may be omitted. For example, detailed explanations of already well-known matters or duplicate explanations for substantially the same configuration may be omitted. This is to avoid unnecessarily redundant explanations below and to facilitate the understanding of those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することを意図していない。 It should be noted that the accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

(実施の形態1)
以下、図1〜図12を用いて、実施の形態1を説明する。
(Embodiment 1)
Hereinafter, the first embodiment will be described with reference to FIGS. 1 to 12.

図1は、実施形態に係る距離画像生成装置1の構成を示すブロック図である。 FIG. 1 is a block diagram showing a configuration of a distance image generation device 1 according to an embodiment.

同図での距離画像生成装置は、TOF方式による測距装置であり、発光露光制御部101、光源102、投射光学系103、受光光学系104、撮像素子105、設定部106、信号処理部107、及びマルチパス除去部108を備える。 The distance image generation device in the figure is a distance measuring device based on the TOF method, and is a light emission exposure control unit 101, a light source 102, a projection optical system 103, a light receiving optical system 104, an image sensor 105, a setting unit 106, and a signal processing unit 107. , And a multipath removing unit 108.

発光露光制御部101は、光源102に発光を指示する発光パルスを有する発光制御信号と、撮像素子105に露光を指示する露光パルスを有する露光制御信号とを生成する。 The light emission exposure control unit 101 generates a light emission control signal having a light emission pulse instructing the light source 102 to emit light and an exposure control signal having an exposure pulse instructing the image pickup device 105 to emit light.

光源102は、半導体レーザ光源であり、発光制御信号の発光パルスに従ってたとえば赤外光を発する。距離画像生成装置1が市街地等で使用される場合、光源102から発せられる投射光の強度は、あらかじめ定められた安全基準を満たすように設定される。なお、光源102は、LED光源やハロゲンランプ等、他の光源でもよい。投射光の波長は、赤外光の波長以外でもよく、複数の波長帯域の光が混ざることにより投射光が生成されてもよい。 The light source 102 is a semiconductor laser light source, and emits infrared light, for example, according to the emission pulse of the emission control signal. When the distance image generator 1 is used in an urban area or the like, the intensity of the projected light emitted from the light source 102 is set so as to satisfy a predetermined safety standard. The light source 102 may be another light source such as an LED light source or a halogen lamp. The wavelength of the projected light may be other than the wavelength of the infrared light, and the projected light may be generated by mixing light in a plurality of wavelength bands.

投射光学系103は、光源102から出射された投射光をほぼ平行光に変換し測距範囲に投射する。投射光学系103は、1つのレンズにより構成される。なお、投射光学系103は、複数のレンズあるいは凹面ミラー等を含んでもよい。 The projection optical system 103 converts the projected light emitted from the light source 102 into substantially parallel light and projects it into the ranging range. The projection optical system 103 is composed of one lens. The projection optical system 103 may include a plurality of lenses, concave mirrors, and the like.

投射光が、測距範囲に存在する物体に投射されると、投射光は物体によって反射され、反射された投射光は反射光として距離画像生成装置に戻る。受光光学系104は、撮像素子105の受光面に反射光を集光させる。 When the projected light is projected onto an object existing in the ranging range, the projected light is reflected by the object, and the reflected projected light returns to the distance image generator as reflected light. The light receiving optical system 104 collects the reflected light on the light receiving surface of the image sensor 105.

なお、受光光学系104と撮像素子105との間に、投射光の波長帯域を透過させ、その他の波長帯域の光を遮断するフィルタが配置されてもよい。これにより、反射光以外の不要光が撮像素子105に入射することを抑制できる。 A filter that transmits the wavelength band of the projected light and blocks the light in other wavelength bands may be arranged between the light receiving optical system 104 and the image pickup element 105. As a result, it is possible to prevent unnecessary light other than the reflected light from entering the image sensor 105.

撮像素子105は、受光面に配置された複数の画素により反射光を受光して、受光に応じた信号を出力する。各画素には、アバランシェフォトダイオードが配置されている。各画素には、他の光検出素子が配置されてもよい。各画素は、反射光を受光する露光状態と、反射光を受光しない非露光状態とを切り替え可能に構成されている。撮像素子105は、露光状態において各画素で受光した反射光に基づく検出信号を出力する。 The image sensor 105 receives the reflected light by a plurality of pixels arranged on the light receiving surface, and outputs a signal corresponding to the received light. An avalanche photodiode is arranged on each pixel. Other photodetector elements may be arranged in each pixel. Each pixel is configured to be able to switch between an exposed state that receives reflected light and a non-exposed state that does not receive reflected light. The image sensor 105 outputs a detection signal based on the reflected light received by each pixel in the exposed state.

設定部106は、カメラパラメータの設定を受け付け、マルチパス除去部108へ送信する。設定部106は、たとえばキーボードやマウスなどの入力部、及びディスプレイ等に表示された入力画面等である。使用者は、設定部106を操作することにより、事前に測定しておいたカメラパラメータを入力することができる。入力したカメラパラメータはマルチパス除去部108へ送信され、カメラパラメータの設定値として記憶される。なお、設定部106はカメラパラメータの測定センサを含み、カメラパラメータを自動で測定し、マルチパス除去部108へ送信するようにしてもよい。カメラパラメータはマルチパス除去部108において、推定背景距離を算出するために十分なものであって、たとえば物体のマルチパスに由来する像(虚像)が平坦な床面に写り、前記虚像を除去する場合には、受光光学系104の水平画角と垂直画角、カメラの設置高さ、カメラのピッチ角である。このように、カメラパラメータは、マルチパスに由来する虚像が想定される平面または曲面を示す。 The setting unit 106 receives the camera parameter setting and transmits it to the multipath removing unit 108. The setting unit 106 is, for example, an input unit such as a keyboard or a mouse, an input screen displayed on a display or the like, and the like. The user can input the camera parameters measured in advance by operating the setting unit 106. The input camera parameter is transmitted to the multipath removing unit 108 and stored as a set value of the camera parameter. The setting unit 106 may include a camera parameter measuring sensor, automatically measure the camera parameter, and transmit the camera parameter to the multipath removing unit 108. The camera parameters are sufficient for calculating the estimated background distance in the multi-pass removing unit 108, for example, an image (virtual image) derived from the multi-pass of the object is reflected on a flat floor surface, and the virtual image is removed. In this case, it is the horizontal angle of view and the vertical angle of view of the light receiving optical system 104, the installation height of the camera, and the pitch angle of the camera. In this way, the camera parameters indicate the plane or curved surface on which the virtual image derived from multipath is assumed.

なお、設定部106は、測距範囲を設定するためにも用いてよい。 The setting unit 106 may also be used to set the ranging range.

信号処理部107は、撮像素子105の各画素から出力される検出信号を処理し、画像データを生成する。たとえば、信号処理部107は、各画素から出力された検出信号を各画素の位置に対応付けた画像データを生成する。 The signal processing unit 107 processes the detection signal output from each pixel of the image sensor 105 to generate image data. For example, the signal processing unit 107 generates image data in which the detection signal output from each pixel is associated with the position of each pixel.

マルチパス除去部108は、信号処理部107で生成された画像データの各画素に対応する情報において、背景の推定距離を算出し、虚像の情報が記憶されているかどうか判定し、虚像の情報が記憶されていると判定した場合はその画素に対応する値を除去つまり測距範囲外の値に更新する。なお、虚像の情報が記憶されていると判定した画素は、推定背景距離と同じ値になるように更新してもよい。 The multi-pass removing unit 108 calculates the estimated distance of the background in the information corresponding to each pixel of the image data generated by the signal processing unit 107, determines whether or not the virtual image information is stored, and the virtual image information is stored. If it is determined that it is stored, the value corresponding to that pixel is removed, that is, the value is updated to a value outside the ranging range. The pixel determined to store the virtual image information may be updated so as to have the same value as the estimated background distance.

図2は、距離画像生成装置の光源の発光制御及および撮像素子の露光制御を説明するタイミングチャートである。図2には、測距範囲をn個の距離範囲に分割して測距する場合が示されている。nは1以上の整数とする。また、各距離範囲に対応する画像データを時系列に沿って取得するために、連続する複数のフレームが時間軸上に設定される。各フレームの時間幅は同一である。また、一つのフレームには、距離範囲の数に応じた区間(サブレンジ)が設定されている。図2に示す例では、各フレームにn個のサブレンジが設定されている。ここでは各区間の時間幅は同一とするが、必ずしも同一でなくともよい。 FIG. 2 is a timing chart for explaining the light emission control of the light source of the distance image generator and the exposure control of the image pickup device. FIG. 2 shows a case where the distance measurement range is divided into n distance ranges for distance measurement. n is an integer of 1 or more. Further, in order to acquire the image data corresponding to each distance range in chronological order, a plurality of consecutive frames are set on the time axis. The time width of each frame is the same. In addition, a section (subrange) corresponding to the number of distance ranges is set in one frame. In the example shown in FIG. 2, n subranges are set for each frame. Here, the time width of each section is the same, but it does not necessarily have to be the same.

図2の発光信号は、発光露光制御部101からの指示に応じて光源102に入力される駆動信号を示している。駆動信号がハイレベルのときに、光源102が駆動され、光源102から投射光が出射される。駆動信号がローレベルにあるとき、光源102が停止され、光源102から投射光は出射されない。 The light emission signal of FIG. 2 indicates a drive signal input to the light source 102 in response to an instruction from the light emission exposure control unit 101. When the drive signal is at a high level, the light source 102 is driven and the projected light is emitted from the light source 102. When the drive signal is at low level, the light source 102 is stopped and no projected light is emitted from the light source 102.

発光露光制御部101は、各サブレンジの開始から、駆動信号を発光期間の時間幅ΔTだけハイレベルに立ち上げる。なお、設定部106が測距範囲の設定を受け付けた場合、この設定に基づいて発光タイミングが設定される。 From the start of each subrange, the light emission exposure control unit 101 raises the drive signal to a high level by the time width ΔT of the light emission period. When the setting unit 106 accepts the setting of the ranging range, the light emission timing is set based on this setting.

対象となる距離範囲に物体が存在する場合、物体からの反射光が撮像素子105の受光面に集光される。ここで、物体の像が投影される撮像素子105の画素には、物体までの距離に応じた遅延時間で反射光が入射する。すなわち、反射光は、発光タイミングから、物体までの距離に応じた時間だけずれた受光タイミングにおいて受光される。発光露光制御部101は、対象となる距離範囲からの反射光のみが各画素において受光されるよう、全画素の露光状態を以下のように制御する。 When an object exists in the target distance range, the reflected light from the object is focused on the light receiving surface of the image sensor 105. Here, the reflected light is incident on the pixels of the image sensor 105 on which the image of the object is projected with a delay time corresponding to the distance to the object. That is, the reflected light is received at a light receiving timing that is deviated from the light emitting timing by a time corresponding to the distance to the object. The light emission exposure control unit 101 controls the exposure state of all the pixels as follows so that only the reflected light from the target distance range is received by each pixel.

図2の露光信号は、発光露光制御部101からの指示に応じて制御する画素の露光タイミングを示している。この波形がハイレベルに立ち上がった期間において、撮像素子105の各画素が露光状態となる。例えば、サブレンジ#i(iは1からnの整数)における発光信号の立ち上がりタイミングから露光信号の立ち上がりタイミングまでの時間差は、i×ΔTaである。ΔTa=ΔTであってもよい。例えば、ΔTa=ΔT=10ナノ秒である場合には、サブレンジ=1は0mから1.5mまでの距離範囲に対応する。サブレンジ#iは、1.5×(i−1)から1.5×iまでの距離範囲に対応する。なお、設定部106が測距範囲の設定を受け付けた場合、この設定に基づいて露光タイミングが設定される。 The exposure signal of FIG. 2 indicates the exposure timing of the pixels controlled in response to an instruction from the emission exposure control unit 101. During the period when this waveform rises to a high level, each pixel of the image sensor 105 is exposed. For example, the time difference from the rising timing of the light emission signal to the rising timing of the exposure signal in the subrange #i (i is an integer from 1 to n) is i × ΔTa. ΔTa = ΔT may be satisfied. For example, when ΔTa = ΔT = 10 nanoseconds, subrange = 1 corresponds to a distance range from 0 m to 1.5 m. Subrange #i corresponds to the distance range from 1.5 × (i-1) to 1.5 × i. When the setting unit 106 accepts the setting of the ranging range, the exposure timing is set based on this setting.

上記のように発光期間及び露光期間が設定されると、各露光期間において、設定された距離範囲からの反射光のみが撮像素子の各画素によって受光される。そして、信号処理部107は、各画素から出力された検出信号に基づいて、各サブレンジにおいて画像データを生成し、一つのフレーム内で一つ以上のサブレンジの画像を合成し、距離画像として出力する。複数のサブレンジの画像の合成は、例えば同じ画素に対応する位置において、受光強度が最大となるサブレンジに対応する距離値を格納することで行う。尚、他の方法で距離画像を生成してもよい。 When the light emission period and the exposure period are set as described above, only the reflected light from the set distance range is received by each pixel of the image sensor in each exposure period. Then, the signal processing unit 107 generates image data in each subrange based on the detection signal output from each pixel, synthesizes images of one or more subranges in one frame, and outputs the image as a distance image. .. Images of a plurality of subranges are combined by storing, for example, a distance value corresponding to the subrange that maximizes the light receiving intensity at a position corresponding to the same pixel. The distance image may be generated by another method.

図3は、撮像素子105と、測距範囲に含まれる背景であり、マルチパス除去処理の対象とする平面範囲である対象範囲201との相対関係を含む世界座標系の空間を説明する図である。なお、対象範囲201は、撮像素子105との間にある物体によって遮られ、測距されない部分範囲を包含していてもよい。なお、座標(x、y、z)は、カメラ座標系を示す。実施の形態1は、例として対象範囲を水平な床面の一部とする。なお、対象範囲は床面でなく、壁や天井の平たい面であってもよい。距離画像生成装置1は対象範囲201、ここでは床面に対して平行に移動してもよく、前記カメラパラメータは前記平行移動に影響されない。従って、たとえば平坦な路面を走行する自動車に設置するといった、距離画像生成装置1が平行移動することを前提とした実施をしてもよい。マルチパス除去部108は、背景距離推定ステップにおいて、画素毎に対応する対象範囲201内の対応点202の座標(x、y、z)を推定して推定背景距離dを算出する。前記対象範囲201の算出及び対応点202の算出は、三角関数を用いた方法で計算する。 FIG. 3 is a diagram for explaining the space of the world coordinate system including the relative relationship between the image sensor 105 and the target range 201, which is the background included in the ranging range and is the target range of the multipath removal process. be. The target range 201 may include a partial range that is blocked by an object between the image sensor 105 and the image sensor 105 and is not distance-measured. The coordinates (x c , y c , z c ) indicate the camera coordinate system. In the first embodiment, the target range is a part of a horizontal floor surface as an example. The target range may be a flat surface such as a wall or ceiling instead of the floor surface. The distance image generator 1 may move in parallel to the target range 201, here the floor surface, and the camera parameters are not affected by the translation. Therefore, the implementation may be performed on the premise that the distance image generator 1 moves in parallel, for example, by installing it in an automobile traveling on a flat road surface. In the background distance estimation step, the multipath removing unit 108 estimates the coordinates (x, y, z) of the corresponding points 202 in the target range 201 corresponding to each pixel and calculates the estimated background distance d. The calculation of the target range 201 and the calculation of the corresponding point 202 are calculated by a method using a trigonometric function.

図4は、マルチパス除去部108における処理を説明するフローチャートである。マルチパス除去部108は、設定部106から受け付けたカメラパラメータを記憶するカメラパラメータ設定ステップS1と、前記カメラパラメータを利用して推定背景距離を算出する背景距離推定ステップS2と、推定背景距離を修正する推定背景距離修正ステップS3と、推定背景距離と実測距離の比較により画素値を決定する画素値決定ステップS4と、を実行する。 FIG. 4 is a flowchart illustrating processing in the multipath removing unit 108. The multi-path removing unit 108 modifies the estimated background distance, the camera parameter setting step S1 for storing the camera parameters received from the setting unit 106, the background distance estimation step S2 for calculating the estimated background distance using the camera parameters, and the background distance estimation step S2. The estimated background distance correction step S3 and the pixel value determination step S4 for determining the pixel value by comparing the estimated background distance and the actually measured distance are executed.

図5は、背景距離推定ステップS2を説明するフローチャートである。処理は画素毎に行う。図5は、例として1画素ごとの逐次処理のフローチャートを示しているが、複数画素を並列に処理してもよい。注目画素の対応点202を推定し(S201)、対応点202と撮像素子105との距離、たとえばユークリッド距離の定義における距離を算出する(S202)。なお、前記対応点202と撮像素子105間との距離は、マンハッタン距離等他の距離定義で算出してもよい。次に、すべての画素の実測距離のうち最も近い実測距離を注目画素の推定背景距離dとして更新する(S203)。 FIG. 5 is a flowchart illustrating the background distance estimation step S2. The processing is performed for each pixel. Although FIG. 5 shows a flowchart of sequential processing for each pixel as an example, a plurality of pixels may be processed in parallel. The corresponding point 202 of the pixel of interest is estimated (S201), and the distance between the corresponding point 202 and the image sensor 105, for example, the distance in the definition of the Euclidean distance is calculated (S202). The distance between the corresponding point 202 and the image sensor 105 may be calculated by another distance definition such as the Manhattan distance. Next, the closest measured distance among the measured distances of all the pixels is updated as the estimated background distance d of the pixel of interest (S203).

実施の形態1において、図5に示す方法におけるステップS203を実行しない場合には、画素毎に算出する推定背景距離dが取りうる値は、実測距離が取りうる値よりも多いため、対象範囲201の像が除去される画素と除去されない画素が発生する。図5に示す方法によれば、推定背景距離dの取りうる値を実測距離に一致させることで、対象範囲201の像を除去する画素を減少させることが可能になる。なお、対象範囲201の像を除去することが好ましい場合にも、対象範囲201の像が除去されない画素を減少させることが可能になる。なお、S203は実行しなくてもよい。 In the first embodiment, when step S203 in the method shown in FIG. 5 is not executed, the value that can be taken by the estimated background distance d calculated for each pixel is larger than the value that can be taken by the measured distance, so that the target range 201 There are pixels in which the image of is removed and pixels in which the image is not removed. According to the method shown in FIG. 5, by matching the possible value of the estimated background distance d with the actually measured distance, it is possible to reduce the number of pixels for removing the image in the target range 201. Even when it is preferable to remove the image of the target range 201, it is possible to reduce the number of pixels in which the image of the target range 201 is not removed. Note that S203 does not have to be executed.

図6は、対象範囲201を床面に含まれる領域としたときの、画像内位置と、ステップS203を実行しない場合の推定背景距離dの3次元プロットを示すグラフである。同図の座標(u、v)は、画像内位置、つまり撮像素子105の二次元画像の座標系を示す。同図において推定背景距離dの集合は、1平面または1曲面を構成する。 FIG. 6 is a graph showing a three-dimensional plot of the position in the image and the estimated background distance d when step S203 is not executed when the target range 201 is the area included in the floor surface. The coordinates (u, v) in the figure indicate the position in the image, that is, the coordinate system of the two-dimensional image of the image sensor 105. In the figure, the set of estimated background distances d constitutes one plane or one curved surface.

図7は、対象範囲201を床面に含まれる領域としたときの、画像内位置と、ステップS203を実行した場合の推定背景距離の3次元プロットを示す。同図において推定背景距離dの集合は、階段状の複数平面を構成する。 FIG. 7 shows a three-dimensional plot of the position in the image and the estimated background distance when step S203 is executed when the target range 201 is the area included in the floor surface. In the figure, the set of estimated background distances d constitutes a plurality of stepped planes.

図8は、推定背景距離修正ステップS3を説明するフローチャートである。距離画像において、サブレンジの境界に対応する画素を探索する(S301)。サブレンジ境界の探索は、たとえば対象範囲が水平な床面の一部である場合、サブレンジ境界は画像内に水平に現れるため、微分フィルタを用いてエッジ強調を行い、ハフ変換を用いて直線抽出したのち、水平な直線を選択してサブレンジ画像と推定する方法で実行することが可能である。なお、エッジ強調はラプラシアンフィルタ等の他の方法で実行してもよく、直線抽出は、ハフ変換以外の方法で実行してもよい。また、サブレンジ境界は直線抽出以外の方法で探索されてもよい。探索したサブレンジ境界に対応するすべての画素において、推定背景距離と実測距離の差を算出し、算出した差をサブレンジ境界に対応するすべての画素について積算し、積算値を評価値とする(S302)。評価値が事前に決定した閾値以上である限り(S303でno)、カメラパラメータを更新し(S304)、背景距離推定ステップS2を実行する処理をループする。 FIG. 8 is a flowchart illustrating the estimated background distance correction step S3. In the distance image, the pixel corresponding to the boundary of the subrange is searched (S301). In the search for the subrange boundary, for example, when the target range is a part of a horizontal floor surface, the subrange boundary appears horizontally in the image, so edge enhancement is performed using a differential filter and a straight line is extracted using the Hough transform. Later, it is possible to select a horizontal straight line and estimate it as a subrange image. The edge enhancement may be performed by another method such as a Laplacian filter, and the straight line extraction may be performed by a method other than the Hough transform. Further, the subrange boundary may be searched by a method other than linear extraction. The difference between the estimated background distance and the measured distance is calculated for all the pixels corresponding to the searched subrange boundary, the calculated difference is integrated for all the pixels corresponding to the subrange boundary, and the integrated value is used as the evaluation value (S302). .. As long as the evaluation value is equal to or higher than the predetermined threshold value (no in S303), the camera parameter is updated (S304), and the process of executing the background distance estimation step S2 is looped.

サブレンジに対応する距離範囲は厚みを有するため、同じサブレンジ画像における像の実際の距離値が近似されて実測距離値として保存される。したがって近似誤差が発生しやすいがサブレンジ境界によれば、厚みによる近似の影響が小さいため、推定背景距離の修正を行う際の評価値として選択され得る。 Since the distance range corresponding to the subrange has a thickness, the actual distance value of the image in the same subrange image is approximated and saved as the measured distance value. Therefore, an approximation error is likely to occur, but according to the subrange boundary, the influence of the approximation by the thickness is small, so that it can be selected as an evaluation value when correcting the estimated background distance.

図9は、前記サブレンジ境界探索ステップS31においてサブレンジ境界を探索した結果の距離画像の例を模式的に示す図である。距離画像301は、サブレンジ境界を、直線203a、直線203b、・・・、直線203fとして示した例である。図中の同じハッチング部分は同じ距離を示す。 FIG. 9 is a diagram schematically showing an example of a distance image as a result of searching the subrange boundary in the subrange boundary search step S31. The distance image 301 is an example in which the subrange boundary is shown as a straight line 203a, a straight line 203b, ..., A straight line 203f. The same hatched parts in the figure indicate the same distance.

図10は、画素値決定ステップS4を説明するフローチャートである。処理は画素毎に行う(S405、S406)。注目画素において、推定背景距離が実測距離よりも遠い場合に(S401でyes)、実測距離を画素値として決定し(S402)、推定背景距離が実測距離と同じあるいは近い場合に(S401でno)、測距範囲外の値を画素値として決定し(S403)、ステップS402またはS403で決定された画素値を保存する(S404)。 FIG. 10 is a flowchart illustrating the pixel value determination step S4. The processing is performed for each pixel (S405, S406). In the pixel of interest, when the estimated background distance is farther than the measured distance (yes in S401), the measured distance is determined as the pixel value (S402), and when the estimated background distance is the same as or close to the measured distance (no in S401). , A value outside the distance measurement range is determined as a pixel value (S403), and the pixel value determined in step S402 or S403 is stored (S404).

図11は、画素値決定ステップS4がマルチパスに由来する像を除去することを説明する図である。マルチパスに由来する像は、光源102から出射された投射光が物体によって反射され、床面によってさらに反射して反射光として撮像素子105に到達した場合に現れる。したがってマルチパスに由来する像は、反射光が物体から床面を経由せずに撮像素子105に到達する場合に比べて長い光路を経て撮像され、実測距離がより遠くなる。例えば、対象物の端部200aの実測距離は、床面の対象範囲201内の対応点202aよりも近くなる。一方、マルチパスに由来する虚像の端部200bの実測距離は、床面の対象範囲201内の対応点202bよりも近くなる。 FIG. 11 is a diagram illustrating that the pixel value determination step S4 removes the image derived from the multipath. The image derived from the multipath appears when the projected light emitted from the light source 102 is reflected by the object, further reflected by the floor surface, and reaches the image sensor 105 as the reflected light. Therefore, the image derived from the multipath is imaged through a longer optical path than when the reflected light reaches the image pickup device 105 from the object without passing through the floor surface, and the actual measurement distance becomes longer. For example, the measured distance of the end portion 200a of the object is closer than the corresponding point 202a within the target range 201 of the floor surface. On the other hand, the actually measured distance of the end portion 200b of the virtual image derived from the multipath is closer than the corresponding point 202b within the target range 201 of the floor surface.

したがって画素値決定ステップS4は、マルチパスに由来する像を除去する。 Therefore, the pixel value determination step S4 removes the image derived from the multipath.

図12は、前記マルチパス除去部108の処理を実行する前後の距離画像の例である。マルチパス除去前画像302には、画面左に撮像された人の足下から、同じ人のマルチパスに由来する虚像204が床面を鏡とする鏡像のように写っている。一方、マルチパス除去処理後画像303は、虚像が除去されている。 FIG. 12 is an example of a distance image before and after executing the process of the multipath removing unit 108. In the image 302 before multipath removal, a virtual image 204 derived from the same person's multipath is reflected from the foot of the person imaged on the left side of the screen like a mirror image with the floor surface as a mirror. On the other hand, the virtual image is removed from the image 303 after the multipath removal process.

本実施形態では、距離画像から虚像を除去する方法について述べたが、虚像の除去対象とする画像が、1つ以上のサブレンジの画像の受光量に関する情報を格納した輝度画像からマルチパスを除去してもよい。輝度画像を対象とする場合は、実測距離は、輝度画像を取得したサブレンジが対応する距離の代表値を採用し得る。また、画素値決定ステップS4におけるS402では、実測距離ではなく実測の受光量に関する情報を画素値として決定し、S403では、測距範囲外の値ではなく、受光が行われなかったことを示す情報を画素値として決定し得る。 In the present embodiment, the method of removing the virtual image from the distance image has been described, but the multipath is removed from the luminance image in which the image to be removed of the virtual image stores information on the light receiving amount of the image of one or more subranges. You may. When the luminance image is targeted, the measured distance may be a representative value of the distance corresponding to the subrange in which the luminance image is acquired. Further, in S402 in the pixel value determination step S4, information on the actually measured light receiving amount is determined as the pixel value instead of the measured distance, and in S403, the information is not a value outside the ranging range and indicates that light reception was not performed. Can be determined as a pixel value.

以上説明してきたように実施の形態1に係るマルチパス除去方法は、撮影空間内の背景の距離を推定する背景距離推定ステップと、画素毎に反射光の受光量に関する情報を保持した輝度画像あるいは画素毎に物体までの距離の情報を保持した距離画像を取得する撮影ステップと、前記輝度画像あるいは前記距離画像において、前記背景距離推定ステップで推定した推定背景距離より遠い物体を撮像した画素の値を更新する画素値決定ステップと、を有し、前記背景距離推定ステップは、カメラの撮影条件に関するパラメータを用いて算出する。 As described above, the multi-pass removal method according to the first embodiment includes a background distance estimation step for estimating the background distance in the shooting space, and a brightness image or a brightness image holding information on the amount of reflected light received for each pixel. The value of the image of the imaging step of acquiring the distance image holding the information of the distance to the object for each pixel, and the image of the object farther than the estimated background distance estimated in the background distance estimation step in the brightness image or the distance image. The background distance estimation step is calculated by using parameters related to the shooting conditions of the camera.

たとえば、前記撮影ステップにおいて、測距範囲を一つ以上の区分距離であるサブレンジに分割し、前記サブレンジのそれぞれに対応する距離値を画素毎に記憶することで前記距離画像を取得し、前記背景距離推定ステップは、前記パラメータから前記推定背景距離を算出するステップと、前記一つ以上のサブレンジ内、互いに隣接するサブレンジの間のサブレンジ境界に対応する画素を探索し、前記サブレンジ境界に対応する画素を参照して実測距離と前記推定背景距離の誤差が小さくなるようにパラメータを更新するステップと、を1回以上繰り返し実行してもよい。 For example, in the shooting step, the distance measurement range is divided into subranges having one or more division distances, and the distance values corresponding to each of the subranges are stored for each pixel to acquire the distance image and obtain the background. The distance estimation step searches for pixels corresponding to the subrange boundary between the step of calculating the estimated background distance from the parameters and the subranges adjacent to each other within the one or more subranges, and the pixels corresponding to the subrange boundary. The step of updating the parameters so that the error between the actually measured distance and the estimated background distance becomes small may be repeated one or more times.

たとえば、前記背景距離推定ステップにおいて、前記推定背景距離を、すべての画素の実測距離のうち最も近い値に一致するように更新してもよい。 For example, in the background distance estimation step, the estimated background distance may be updated to match the closest value among the measured distances of all the pixels.

たとえば、前記背景距離推定ステップにおいて、前記推定背景距離が変化する境界の画素を通る曲線の集合として記憶し、前記画素値決定ステップは、前記曲線の集合を参照して前記実測距離と前記推定背景距離の遠近判定を行ってもよい。 For example, in the background distance estimation step, it is stored as a set of curves passing through pixels at a boundary where the estimated background distance changes, and in the pixel value determination step, the measured distance and the estimated background are referred to with reference to the set of curves. The perspective of the distance may be determined.

たとえば、前記パラメータは、マルチパスに由来する虚像が想定される平面または曲面を示してもよい。 For example, the parameter may indicate a plane or curved surface on which a virtual image derived from multipath is assumed.

たとえば、前記パラメータは、前記カメラの水平画角と、前記カメラの垂直画角、前記カメラの設置高さ、および、前記カメラのピッチ角のうちから選択された1つ以上を含んでもよい。 For example, the parameter may include one or more selected from the horizontal angle of view of the camera, the vertical angle of view of the camera, the installation height of the camera, and the pitch angle of the camera.

たとえば、前記マルチパス除去方法は、測定センサにより前記パラメータを取得する取得ステップを、有していてもよい。 For example, the multipath removal method may include an acquisition step of acquiring the parameters by a measurement sensor.

また、実施の形態1に係る測距装置は、TOF方式による測距装置であって、光源と、複数の画素を有する撮像素子と、前記光源の発光タイミングと前記撮像装置の露光タイミングとを制御する発光露光制御部と、画素毎に反射光の受光量に関する情報を保持した輝度画像あるいは画素毎に前記物体までの距離の情報を保持した距離画像を生成する信号処理部と、撮影空間内の背景の距離を推定背景距離として推定し、前記推定背景距離より遠い物体を撮像した画素の値を更新するマルチパス除去部と、を備える。 Further, the distance measuring device according to the first embodiment is a distance measuring device based on the TOF method, and controls a light source, an image pickup element having a plurality of pixels, a light emission timing of the light source, and an exposure timing of the image pickup device. A light source exposure control unit, a signal processing unit that generates a brightness image that holds information about the amount of reflected light received for each pixel, or a distance image that holds information about the distance to the object for each pixel, and a signal processing unit in the shooting space. It is provided with a multi-pass removing unit that estimates the background distance as an estimated background distance and updates the value of a pixel that images an object farther than the estimated background distance.

(実施の形態2)
実施の形態1では、推定背景距離修正ステップS3において、サブレンジ境界を参照して推定背景距離を修正したが、実施の形態2では、対象範囲と物体が接している条件において、物体の像における点群密度とそのマルチパスに由来する虚像における点群密度の差を利用して推定背景距離を修正する。実施の形態2におけるマルチパス除去部108のフローにおいて、推定背景距離修正ステップS3は、図13に示すフローに代替される。実施の形態2では、対象範囲201を平坦な床面の一部とし、前記対象範囲201に接地した状態で立っている人のマルチパスに由来する虚像が前記対象範囲201に写っているときのマルチパス除去方法について説明する。
(Embodiment 2)
In the first embodiment, the estimated background distance is corrected with reference to the subrange boundary in the estimated background distance correction step S3, but in the second embodiment, a point in the image of the object is used under the condition that the target range and the object are in contact with each other. The estimated background distance is corrected by using the difference between the group density and the point group density in the virtual image derived from the multipath. In the flow of the multipath removing unit 108 in the second embodiment, the estimated background distance correction step S3 is replaced with the flow shown in FIG. In the second embodiment, when the target range 201 is a part of a flat floor surface and a virtual image derived from the multipath of a person standing in contact with the target range 201 is reflected in the target range 201. The multipath removal method will be described.

以下、図13〜図15を用いて、実施の形態2を説明する。 Hereinafter, the second embodiment will be described with reference to FIGS. 13 to 15.

図13は、実施の形態2における背景距離修正ステップのフローを説明する図である。信号処理部からの信号(ローデータ)を保存し(S305)、画素値決定ステップS4を実行し、前記画素値決定ステップS4の出力を中間画像とする。次にローデータと中間画像の画素毎の差を格納した差分画像を生成、保存する(S306)。差分画像のある面積の部分画像を抽出し(S307)、非0の画素値を格納する画素数が閾値以上存在した場合(S309でyes)、この部分画像には虚像が含まれていると仮定する。中間画像において、前記虚像が含まれていると仮定された部分画像に隣接した部分画像のうち、上側に位置する部分画像内に対象物(例えば人)の像が写っていると想定される。したがって、前記虚像が含まれていると仮定された部分画像と、上側に隣接する同じ面積の部分画像をまとめて切り出し、分割点探索対象画像とする(S301)。前記分割点探索対象画像内で分割点探索ステップS5を実行し、対象物(例えば人)の像と、対象物の虚像とを分割する行(分割点)を特定、保存する。次に、前記分割点探索対象画像において前記分割点より下の画素値が多く除去され、前記分割点より上の画素値が除去されにくいほど値が大きくなる評価関数を設定する(S312)。さらに、前記評価関数が閾値を超えるまで(S313でyes)カメラパラメータを変更しながら(S314)背景距離推定ステップS2を実行し、推定背景距離修正ステップS3を終了する。 FIG. 13 is a diagram for explaining the flow of the background distance correction step in the second embodiment. The signal (raw data) from the signal processing unit is saved (S305), the pixel value determination step S4 is executed, and the output of the pixel value determination step S4 is used as an intermediate image. Next, a difference image storing the difference between the raw data and the intermediate image for each pixel is generated and saved (S306). When a partial image of a certain area of the difference image is extracted (S307) and the number of pixels for storing non-zero pixel values is equal to or greater than the threshold value (yes in S309), it is assumed that this partial image contains a virtual image. do. In the intermediate image, it is assumed that an image of an object (for example, a person) is shown in the partial image located on the upper side of the partial image adjacent to the partial image assumed to contain the virtual image. Therefore, the partial image that is assumed to include the virtual image and the partial image of the same area adjacent to the upper side are collectively cut out and used as the division point search target image (S301). The division point search step S5 is executed in the division point search target image, and a line (division point) for dividing the image of the object (for example, a person) and the virtual image of the object is specified and saved. Next, an evaluation function is set in which a large number of pixel values below the division point are removed in the image to be searched for the division point, and the value becomes larger as the pixel values above the division point are less likely to be removed (S312). Further, the background distance estimation step S2 is executed while changing the camera parameters until the evaluation function exceeds the threshold value (yes in S313), and the estimated background distance correction step S3 is completed.

図14は、分割点探索ステップS5のフローを説明する図である。同図では、分割点探索ステップにおいて、点群密度を利用して物体の像と物体のマルチパスに由来する虚像とを分割する点を探索する。まず、同図では図13のステップS310で切り出された分割点探索対象画像最上の行の画素値平均を算出する(S501)。ステップS502以下では、分割点探索対象画像の行毎の処理を示す。 FIG. 14 is a diagram illustrating the flow of the division point search step S5. In the figure, in the division point search step, the point cloud density is used to search for a point that divides the image of the object and the virtual image derived from the multipath of the object. First, in the figure, the average pixel value of the top row of the division point search target image cut out in step S310 of FIG. 13 is calculated (S501). In step S502 and below, the processing for each line of the image to be searched for the division point is shown.

画素値平均を算出した行が分割点探索対象画像より下でない限り(S502でno)、算出済の行の下の行の画素値平均を算出し(S504)、上の行の画素値平均と下の行の画素値平均との差分を算出し、保存ずる(S505)。 Unless the row in which the pixel value average is calculated is below the image to be searched for the division point (no in S502), the pixel value average in the lower row of the calculated row is calculated (S504), and the pixel value average in the upper row is calculated. The difference from the average pixel value in the lower row is calculated and saved (S505).

画素値平均を算出した行が分割点探索対象画像より下である場合(S502でyes)、保存された、差分が最大となる行番号を保存する(S503)。保存された行番号は、対象物(例えば人)の像と、対象物の虚像とを分割する行(分割点)を特定、保存する。分割点探索対象画像のある行に注目し、画素値平均を算出し、注目する行の上の行の平均との差分を算出する。差分が分割点探索対象画像中で最大の行の番号を前記分割点として保存する。 When the line on which the average pixel value is calculated is lower than the image to be searched for the division point (yes in S502), the saved line number having the maximum difference is saved (S503). The saved line number identifies and saves a line (division point) that divides an image of an object (for example, a person) and a virtual image of the object. Focusing on the row of the image to be searched for the division point, the pixel value average is calculated, and the difference from the average of the rows above the row of interest is calculated. The number of the row having the largest difference in the image to be searched for is saved as the division point.

図15は、前記背景距離修正方法及びその効果を説明する図である。同図の下段は、距離画像生成装置1と床面との相対位置(相対角度角度)が時間的に変動する例を示す。同図の上端は物体の像と物体のマルチパスに由来する虚像とを模式的に示す。 FIG. 15 is a diagram illustrating the background distance correction method and its effect. The lower part of the figure shows an example in which the relative position (relative angle) between the distance image generator 1 and the floor surface fluctuates with time. The upper end of the figure schematically shows an image of an object and a virtual image derived from the multipath of the object.

このように、推定背景距離修正ステップS3によって、距離画像に写りこむ対象物(例えば人)の像を手掛かりに、仮想床面のカメラとの相対位置を修正することができる。 In this way, in the estimated background distance correction step S3, the relative position of the virtual floor surface with respect to the camera can be corrected by using the image of the object (for example, a person) reflected in the distance image as a clue.

以上説明してきたように実施の形態2に係るマルチパス除去方法は、前記背景距離推定ステップにおいて、物体が前記背景の平面に接している場合に、前記パラメータから前記背景距離を算出するステップを実行したのちに、前記物体の像と前記物体のマルチパスに由来する像を正確に分割する点を探索する分割点探索ステップと、前記分割点を参照し、前記マルチパスに由来する像のうち、除去されずに残る面積が小さくなるように前記推定背景距離を更新するステップと、を一回以上繰り返し実行する。 As described above, in the multipath removing method according to the second embodiment, in the background distance estimation step, when the object is in contact with the plane of the background, the step of calculating the background distance from the parameters is executed. After that, among the division point search steps for searching for a point that accurately divides the image of the object and the image derived from the multipath of the object, and the image derived from the multipath with reference to the division point. The step of updating the estimated background distance so that the area remaining without being removed becomes small is repeatedly executed one or more times.

たとえば、前記距離画像は、光源と、測距範囲内に存在する物体に前記光源で投射した光が反射された反射光を受光する撮像素子と、を備えた測距装置を用いて生成されたものであって、前記分割点探索ステップにおいて、前記距離画像の点群密度を利用して物体の像と前記物体のマルチパスに由来する像を分割する点を探索してもよい。 For example, the distance image is generated by using a distance measuring device including a light source and an image pickup element that receives the reflected light reflected by the light projected by the light source on an object existing in the distance measuring range. In the division point search step, the point group density of the distance image may be used to search for a point that divides the image of the object and the image derived from the multipath of the object.

たとえば、前記距離画像は、測距範囲に存在する物体の有無に関する情報を一回以上繰り返し、前記情報を各画素の位置に対応付けた画像データを生成する撮像装置で生成された距離画像であり、
前記分割点探索ステップにおいて、前記情報に基づいて物体の像と前記物体のマルチパスに由来する像を分割する点を探索してもよい。
For example, the distance image is a distance image generated by an imaging device that repeats information regarding the presence or absence of an object existing in the distance measurement range one or more times and generates image data in which the information is associated with the position of each pixel. ,
In the division point search step, a point for dividing an image of an object and an image derived from the multipath of the object may be searched based on the information.

以上、一つまたは複数の態様に係るマルチパス除去方法および撮像装置について、実施の形態に基づいて説明したが、本開示は、この実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 The multipath removing method and the imaging device according to one or more aspects have been described above based on the embodiment, but the present disclosure is not limited to this embodiment. As long as the gist of the present disclosure is not deviated, various modifications that can be conceived by those skilled in the art are applied to the present embodiment, and a form constructed by combining components in different embodiments is also within the scope of one or more embodiments. May be included within.

本開示によれば、カメラが移動する場合、あるいは背景撮像時に測距範囲に存在していた物体が移動した場合などにおいても、これらの影響を抑えたマルチパス除去方法を提供することができるので、撮像装置として有用である。 According to the present disclosure, it is possible to provide a multipath removing method that suppresses these effects even when the camera moves or an object existing in the ranging range at the time of background imaging moves. , Useful as an imaging device.

101 発光露光制御部
102 光源
103 投射光学系
104 受光光学系
105 撮像素子
106 設定部
107 信号処理部
108 マルチパス除去部
201 対象範囲
202 対応点
203a、203b 直線
204 虚像
301 距離画像
302 マルチパス除去前画像
101 Emission exposure control unit 102 Light source 103 Projection optical system 104 Light receiving optical system 105 Image sensor 106 Setting unit 107 Signal processing unit 108 Multipath removal unit 201 Target range 202 Corresponding points 203a, 203b Straight line 204 Virtual image 301 Distance image 302 Before multipath removal image

Claims (11)

撮影空間内の背景の距離を推定する背景距離推定ステップと、
画素毎に反射光の受光量に関する情報を保持した輝度画像あるいは
画素毎に物体までの距離の情報を保持した距離画像を取得する撮影ステップと、
前記輝度画像あるいは前記距離画像において、前記背景距離推定ステップで推定した推定背景距離より遠い物体を撮像した画素の値を更新する画素値決定ステップと、
を有し、
前記背景距離推定ステップは、カメラの撮影条件に関するパラメータを用いて算出する、
マルチパス除去方法。
A background distance estimation step that estimates the background distance in the shooting space,
A shooting step of acquiring a luminance image that holds information on the amount of reflected light received for each pixel or a distance image that holds information on the distance to an object for each pixel.
In the luminance image or the distance image, a pixel value determination step for updating the value of a pixel that images an object farther than the estimated background distance estimated in the background distance estimation step, and a pixel value determination step.
Have,
The background distance estimation step is calculated using parameters related to the shooting conditions of the camera.
Multipath removal method.
前記撮影ステップにおいて、
測距範囲を一つ以上の区分距離であるサブレンジに分割し、前記サブレンジのそれぞれに対応する距離値を画素毎に記憶することで前記距離画像を取得し、
前記背景距離推定ステップは、
前記パラメータから前記推定背景距離を算出するステップと、
前記一つ以上のサブレンジ内、互いに隣接するサブレンジの間のサブレンジ境界に対応する画素を探索し、前記サブレンジ境界に対応する画素を参照して実測距離と前記推定背景距離の誤差が小さくなるようにパラメータを更新するステップと、
を1回以上繰り返し実行する
請求項1に記載のマルチパス除去方法。
In the shooting step
The distance image is acquired by dividing the distance measurement range into subranges having one or more division distances and storing the distance values corresponding to each of the subranges for each pixel.
The background distance estimation step is
The step of calculating the estimated background distance from the parameters and
Search for pixels corresponding to subrange boundaries between subranges adjacent to each other within the one or more subranges, and refer to the pixels corresponding to the subrange boundaries so that the error between the measured distance and the estimated background distance becomes small. Steps to update the parameters and
The multipath removing method according to claim 1, wherein the above is repeatedly executed once or more.
前記背景距離推定ステップにおいて、
前記推定背景距離を、すべての画素の実測距離のうち最も近い値に一致するように更新する
請求項1に記載のマルチパス除去方法。
In the background distance estimation step
The multipath removing method according to claim 1, wherein the estimated background distance is updated so as to match the closest value among the measured distances of all the pixels.
前記背景距離推定ステップにおいて、
前記推定背景距離が変化する境界の画素を通る曲線の集合として記憶し、
前記画素値決定ステップは、
前記曲線の集合を参照して前記実測距離と前記推定背景距離の遠近判定を行う
請求項3に記載のマルチパス除去方法。
In the background distance estimation step
It is stored as a set of curves passing through the pixels of the boundary where the estimated background distance changes, and is stored.
The pixel value determination step is
The multipath removing method according to claim 3, wherein the perspective determination of the measured distance and the estimated background distance is performed with reference to the set of curves.
前記背景距離推定ステップにおいて、
物体が前記背景の平面に接している場合に、
前記パラメータから前記背景距離を算出するステップを実行したのちに、
前記物体の像と前記物体のマルチパスに由来する像を正確に分割する点を探索する分割点探索ステップと、
前記分割点を参照し、前記マルチパスに由来する像のうち、除去されずに残る面積が小さくなるように前記推定背景距離を更新するステップと、
を一回以上繰り返し実行する
請求項1に記載のマルチパス除去方法。
In the background distance estimation step
When the object touches the plane of the background,
After executing the step of calculating the background distance from the parameters,
A division point search step for searching for a point that accurately divides the image of the object and the image derived from the multipath of the object, and
A step of updating the estimated background distance so that the area remaining without being removed from the image derived from the multipath is reduced by referring to the division point.
The multipath removing method according to claim 1, wherein the above is repeatedly executed once or more.
前記距離画像は、光源と、測距範囲内に存在する物体に前記光源で投射した光が反射された反射光を受光する撮像素子と、
を備えた測距装置を用いて生成されたものであって、
前記分割点探索ステップにおいて、前記距離画像の点群密度を利用して物体の像と前記物体のマルチパスに由来する像を分割する点を探索する
請求項5に記載のマルチパス除去方法。
The distance image includes a light source, an image sensor that receives reflected light reflected by the light projected by the light source on an object existing within the distance measuring range, and an image sensor.
It was generated using a distance measuring device equipped with
The multipath removing method according to claim 5, wherein in the division point search step, a point for dividing an image of an object and an image derived from the multipath of the object is searched by using the point cloud density of the distance image.
前記距離画像は、
測距範囲に存在する物体の有無に関する情報を一回以上繰り返し生成し、
前記情報を各画素の位置に対応付けた画像データを生成する
撮像装置で生成された距離画像であり、
前記分割点探索ステップにおいて、前記情報に基づいて物体の像と前記物体のマルチパスに由来する像を分割する点を探索する
請求項5に記載のマルチパス除去方法。
The distance image is
Generate information about the presence or absence of objects in the ranging range one or more times,
It is a distance image generated by an imaging device that generates image data in which the information is associated with the position of each pixel.
The multipath removing method according to claim 5, wherein in the division point search step, a point for dividing an image of an object and an image derived from the multipath of the object is searched based on the information.
前記パラメータは、マルチパスに由来する虚像が想定される平面または曲面を示す
請求項1から7のいずれか1項に記載のマルチパス除去方法。
The multipath removing method according to any one of claims 1 to 7, wherein the parameter indicates a plane or a curved surface on which a virtual image derived from the multipath is assumed.
前記パラメータは、前記カメラの水平画角と、前記カメラの垂直画角、前記カメラの設置高さ、および、前記カメラのピッチ角のうちから選択された1つ以上を含む
請求項1から8のいずれか1項に記載のマルチパス除去方法。
The parameters of claims 1 to 8 include the horizontal angle of view of the camera, the vertical angle of view of the camera, the installation height of the camera, and one or more selected from the pitch angles of the camera. The multi-pass removal method according to any one item.
測定センサにより前記パラメータを取得する取得ステップを、有する
請求項1から9のいずれか1項に記載のマルチパス除去方法。
The multipath removing method according to any one of claims 1 to 9, further comprising an acquisition step of acquiring the parameter by a measurement sensor.
TOF方式による測距装置であって、
光源と、
複数の画素を有する撮像素子と、
前記光源の発光タイミングと前記撮像装置の露光タイミングとを制御する発光露光制御部と、
画素毎に反射光の受光量に関する情報を保持した輝度画像あるいは画素毎に前記物体までの距離の情報を保持した距離画像を生成する信号処理部と、
撮影空間内の背景の距離を推定背景距離として推定し、前記推定背景距離より遠い物体を撮像した画素の値を更新するマルチパス除去部と、を備える
測距装置。
It is a distance measuring device based on the TOF method.
Light source and
An image sensor with multiple pixels and
A light emission exposure control unit that controls the light emission timing of the light source and the exposure timing of the image pickup apparatus.
A signal processing unit that generates a luminance image that holds information about the amount of reflected light received for each pixel or a distance image that holds information about the distance to the object for each pixel.
A distance measuring device including a multipath removing unit that estimates the distance of the background in the shooting space as an estimated background distance and updates the value of pixels that image an object farther than the estimated background distance.
JP2021032721A 2020-03-12 2021-03-02 Multipath elimination method and ranging device Active JP7178577B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020043510 2020-03-12
JP2020043510 2020-03-12

Publications (2)

Publication Number Publication Date
JP2021144028A true JP2021144028A (en) 2021-09-24
JP7178577B2 JP7178577B2 (en) 2022-11-28

Family

ID=77766460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021032721A Active JP7178577B2 (en) 2020-03-12 2021-03-02 Multipath elimination method and ranging device

Country Status (1)

Country Link
JP (1) JP7178577B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300259A (en) * 2004-04-08 2005-10-27 Ishikawajima Harima Heavy Ind Co Ltd Apparatus and method for detecting mobile unit
JP2018115981A (en) * 2017-01-19 2018-07-26 株式会社日立エルジーデータストレージ Object position detection device
JP2019045199A (en) * 2017-08-30 2019-03-22 コニカミノルタ株式会社 Object detection system and object detection program
WO2019078366A1 (en) * 2017-10-20 2019-04-25 国立大学法人静岡大学 Distance image measurement device and distance image measurement method
JP2019144210A (en) * 2018-02-23 2019-08-29 コニカミノルタ株式会社 Object detection system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005300259A (en) * 2004-04-08 2005-10-27 Ishikawajima Harima Heavy Ind Co Ltd Apparatus and method for detecting mobile unit
JP2018115981A (en) * 2017-01-19 2018-07-26 株式会社日立エルジーデータストレージ Object position detection device
JP2019045199A (en) * 2017-08-30 2019-03-22 コニカミノルタ株式会社 Object detection system and object detection program
WO2019078366A1 (en) * 2017-10-20 2019-04-25 国立大学法人静岡大学 Distance image measurement device and distance image measurement method
JP2019144210A (en) * 2018-02-23 2019-08-29 コニカミノルタ株式会社 Object detection system

Also Published As

Publication number Publication date
JP7178577B2 (en) 2022-11-28

Similar Documents

Publication Publication Date Title
JP7191921B2 (en) TOF camera system and method for measuring distance with same
CN108370438B (en) Range gated depth camera assembly
JP5472538B2 (en) Distance measuring device and environmental map generating device
JP6237876B2 (en) Self-position calculation device and self-position calculation method
JP2019144186A (en) Optical distance measuring device and method therefor
US20110304746A1 (en) Image capturing device, operator monitoring device, method for measuring distance to face, and program
US11908119B2 (en) Abnormality detection device for vehicle
US20170243358A1 (en) Detection system
CN111742241A (en) Optical distance measuring device
WO2013005857A1 (en) Projection display device, information processing device, projection display system, and program
US9979876B2 (en) Imaging apparatus, imaging method, and storage medium
EP3620821A1 (en) Time of flight camera and method for calibrating a time of flight camera
CN103424083A (en) Object depth detection method, device and system
JP2012225807A (en) Distance image camera and distance image synthesis method
JP2016075658A (en) Information process system and information processing method
US20220292703A1 (en) Image processing device, three-dimensional measurement system, and image processing method
KR20100088543A (en) System and method for performing optical navigation using enhanced frames of image data
JP2020160044A (en) Distance measuring device and distance measuring method
JP7178577B2 (en) Multipath elimination method and ranging device
JP2021032794A (en) Measuring device, control method, program, and storage medium
US10091404B2 (en) Illumination apparatus, imaging system, and illumination method
US20240111052A1 (en) Information processing device, information processing method, and program
WO2015145599A1 (en) Video projection device
JP6379646B2 (en) Information processing apparatus, measurement method, and program
US6744982B2 (en) Distance-measuring device of camera and focusing method of camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221027

R151 Written notification of patent or utility model registration

Ref document number: 7178577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151