JP2016170061A - Device, method, and program for detecting state of imaging optical system - Google Patents

Device, method, and program for detecting state of imaging optical system Download PDF

Info

Publication number
JP2016170061A
JP2016170061A JP2015050239A JP2015050239A JP2016170061A JP 2016170061 A JP2016170061 A JP 2016170061A JP 2015050239 A JP2015050239 A JP 2015050239A JP 2015050239 A JP2015050239 A JP 2015050239A JP 2016170061 A JP2016170061 A JP 2016170061A
Authority
JP
Japan
Prior art keywords
optical system
state
distance image
imaging optical
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015050239A
Other languages
Japanese (ja)
Inventor
広太郎 吉野
Kotaro Yoshino
広太郎 吉野
信頼 田中
Nobuyori Tanaka
信頼 田中
慎 渡邉
Makoto Watanabe
慎 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2015050239A priority Critical patent/JP2016170061A/en
Publication of JP2016170061A publication Critical patent/JP2016170061A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique that can easily determine whether or not the state of an imaging optical system of a device capturing a distance image is appropriate.SOLUTION: A distance image on a detection area captured by an imaging device 10 is input to an image input unit 2. An image processing unit 3 extracts ones of pixels which are separated from each other by distances larger than a predetermined distance, in a distance image input to the image input unit 2 and a background distance image on the detection area stored in a background image storage unit 4 in the detection area, and determines whether or not the state of the imaging optical system of the imaging device 10 is appropriate based on a value associated with dispersion representing variations in distance of the extracted pixels.SELECTED DRAWING: Figure 1

Description

この発明は、検知エリアに照射した光の反射光を受光することによって、検知エリアの距離画像を撮像する撮像装置の撮像光学系の状態が適正であるかどうかを判定する技術に関する。   The present invention relates to a technique for determining whether or not the state of an imaging optical system of an imaging apparatus that captures a distance image of a detection area is appropriate by receiving reflected light of light irradiated to the detection area.

従来、撮像エリアの距離画像を取得する3Dセンサ(Three Dimensional Sensor)の1つとして、TOF(Time Of Flight)センサがある(例えば、特許文献1参照)。TOFセンサは、正弦波変調光を撮像エリアに投光し、その反射光を受光することにより、同じタイミングで撮像エリアの距離画像、および受光強度画像を撮像することができる。TOFセンサは、正弦波変調光(赤外光)を撮像エリアに投光する発光素子を有する投光部、およびn×m個の受光素子をマトリクス状に配置したイメージセンサを有する受光部、を備えている。   Conventionally, there is a TOF (Time Of Flight) sensor as one of 3D sensors (Three Dimensional Sensors) that acquire a distance image of an imaging area (see, for example, Patent Document 1). The TOF sensor can capture a distance image and a received light intensity image of the imaging area at the same timing by projecting sinusoidal modulated light onto the imaging area and receiving the reflected light. The TOF sensor includes a light projecting unit having a light emitting element that projects sinusoidal modulated light (infrared light) to an imaging area, and a light receiving unit having an image sensor in which n × m light receiving elements are arranged in a matrix. I have.

TOFセンサは、赤外光を撮像エリアに投光してから、各受光素子で反射光を受光するまでの時間(飛行時間)を計測する。TOFセンサは、撮像エリアに照射した赤外光と、受光した反射光と、の位相差を計測することによって、飛行時間を得る。TOFセンサは、各受光素子で得た飛行時間から、投光した光を反射した反射面までの距離を算出することにより、撮像エリアの距離画像を取得する。また、TOFセンサは、各受光素子で受光した反射光の強度から、撮像エリアの受光強度画像を取得する。   The TOF sensor measures the time (flight time) from when the infrared light is projected onto the imaging area until the reflected light is received by each light receiving element. The TOF sensor obtains the flight time by measuring the phase difference between the infrared light irradiated to the imaging area and the received reflected light. The TOF sensor obtains a distance image of the imaging area by calculating the distance to the reflecting surface that reflects the projected light from the flight time obtained by each light receiving element. Further, the TOF sensor acquires a received light intensity image of the imaging area from the intensity of the reflected light received by each light receiving element.

また、撮像エリアをレーザ光で走査し、その反射光を受光することによって、同じタイミングで撮像した距離画像、および受光強度画像を取得する3Dセンサ(Three Dimensional Sensor)もある。   There is also a 3D sensor (Three Dimensional Sensor) that scans an imaging area with laser light and receives reflected light thereof to acquire a distance image and a received light intensity image captured at the same timing.

最近では、オブジェクトの有無を検出することができない死角が生じるのを防止する観点(オブジェクトの見逃しを防止する観点)から、透過型や反射型の光電センサを用いるのではなく、上述のTOFセンサ等で撮像した距離画像を処理して、撮像されているオブジェクト(撮像エリア内に位置するオブジェクト)を検出することが検討されている(特許文献2等参照)。   Recently, from the viewpoint of preventing the occurrence of blind spots where the presence or absence of an object cannot be detected (from the viewpoint of preventing the object from being overlooked), the above-described TOF sensor or the like is used instead of using a transmissive or reflective photoelectric sensor. It has been studied to detect a captured object (an object located within an imaging area) by processing the distance image captured in (see Patent Document 2).

特表2010−534000号公報Special table 2010-534000 gazette 特開2014−178186号公報JP 2014-178186 A

TOFセンサ等の3Dセンサは、撮像光学系であるレンズやレンズカバーの表面に異物が付着していたり、レンズやレンズカバーにひび等の破損が生じていたりする状態であると(撮像光学系が不適正な状態であると)、撮像した距離画像が散乱光の影響を受けたノイズの多いものになる。特に、3Dセンサを屋外使用する場合、塵、埃、雨滴等が異物として撮像光学系であるレンズやレンズカバーの表面に付着しやすい。撮像光学系が不適正な状態で撮像した距離画像は、上述したようにノイズが多いので、撮像されているオブジェクトを適正に検出することができない。   A 3D sensor such as a TOF sensor is in a state in which foreign matter adheres to the surface of a lens or lens cover that is an imaging optical system, or the lens or lens cover is damaged such as cracks (the imaging optical system is If the state is improper), the captured distance image is noisy due to the influence of scattered light. In particular, when the 3D sensor is used outdoors, dust, dust, raindrops, and the like are likely to adhere to the surface of the lens or lens cover that is the imaging optical system as foreign matter. As described above, the distance image captured in an inappropriate state of the imaging optical system has a lot of noise, and thus the object being captured cannot be detected properly.

このようなことから、TOFセンサ等の3Dセンサの撮像光学系が不適正な状態であるかどうかの検知が行える技術の開発が要望されている。   For this reason, there is a demand for development of a technique that can detect whether or not the imaging optical system of a 3D sensor such as a TOF sensor is in an inappropriate state.

この発明の目的は、距離画像を撮像する撮像装置の撮像光学系の状態が適正であるか、不適正であるかの検知が簡単に行える技術を提供することにある。   An object of the present invention is to provide a technique that can easily detect whether an imaging optical system of an imaging apparatus that captures a distance image is appropriate or inappropriate.

この発明の撮像光学系の状態検知装置は、上記目的を達するために以下のように構成している。   The state detection device for an imaging optical system according to the present invention is configured as follows to achieve the above object.

距離画像入力部には、撮像装置によって撮像された検知エリアの距離画像が入力される。検知エリアの距離画像を撮像する撮像装置としては、例えばTOF(Time Of Flight)センサを利用したものがある。背景距離画像記憶部は、検知エリアの背景距離画像を記憶する。   A distance image of the detection area imaged by the imaging device is input to the distance image input unit. As an image pickup apparatus that picks up a distance image of a detection area, for example, there is one using a TOF (Time Of Flight) sensor. The background distance image storage unit stores a background distance image of the detection area.

抽出部は、検知エリアについて、距離画像入力部に入力された距離画像と、背景距離画像記憶部が記憶する背景距離画像とにおいて、対応する画素間の距離差が所定量を超えている画素を抽出する。例えば、抽出部は、検知エリアについて、距離画像入力部に入力された距離画像と、背景距離画像記憶部が記憶する背景距離画像との距離差分画像を生成し、対応する画素間の距離差が所定量を超えている画素(すなわち前景画素)を抽出する。   The extraction unit, for the detection area, in the distance image input to the distance image input unit and the background distance image stored in the background distance image storage unit, a pixel whose distance difference between corresponding pixels exceeds a predetermined amount Extract. For example, for the detection area, the extraction unit generates a distance difference image between the distance image input to the distance image input unit and the background distance image stored in the background distance image storage unit, and the distance difference between corresponding pixels is Pixels exceeding the predetermined amount (ie, foreground pixels) are extracted.

状態判定部は、距離画像入力部に入力された距離画像における、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に基づいて、撮像装置の撮像光学系の状態が適正であるかどうかを判定する。分散にかかる値とは、抽出部が抽出した画素の距離のばらつきを示す分散であってもよいし、この分散の正の平方根である偏差であってもよい。   The state determination unit determines whether the state of the imaging optical system of the imaging device is appropriate based on a value relating to dispersion indicating variation in pixel distance extracted by the extraction unit in the distance image input to the distance image input unit. Determine if. The value relating to the variance may be a variance indicating variation in the distance of the pixels extracted by the extraction unit, or may be a deviation that is a positive square root of this variance.

抽出部において抽出された前景画素がオブジェクトを撮像したものである場合、抽出された前景画素の距離のばらつきは小さい。一方、抽出部において抽出された前景画素がオブジェクトを撮像したものでなく、撮像装置の撮像光学系であるレンズやレンズカバーの表面に付着した異物や、レンズやレンズカバーにひび等の破損によって生じた散乱光の影響を受けたノイズ画素である場合、抽出された前景画素の距離のばらつきは大きくなる。   When the foreground pixel extracted by the extraction unit is an image of an object, the variation in the distance of the extracted foreground pixel is small. On the other hand, the foreground pixels extracted by the extraction unit are not images of the object, but are generated by foreign matter adhering to the surface of the lens or lens cover, which is the imaging optical system of the imaging device, or by damage such as cracks in the lens or lens cover. In the case of a noise pixel affected by the scattered light, the distance variation of the extracted foreground pixels becomes large.

したがって、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に基づいて、撮像装置の撮像光学系の状態が適正であるか、不適正であるかの検知が行える。   Therefore, it is possible to detect whether the state of the imaging optical system of the imaging apparatus is appropriate or inappropriate based on the dispersion value indicating the variation in pixel distance extracted by the extraction unit.

例えば、抽出部が抽出した画素の距離のばらつきを示す分散(または偏差)が、予め定めた閾値(第3の閾値)を超えていなければ、距離画像を撮像する撮像装置の撮像光学系の状態が適正であると判定し、反対に、予め定めた閾値(第3の閾値)を超えていれば、距離画像を撮像する撮像装置の撮像光学系の状態が適正でないと判定すればよい。   For example, if the variance (or deviation) indicating the variation in pixel distance extracted by the extraction unit does not exceed a predetermined threshold (third threshold), the state of the imaging optical system of the imaging device that captures the distance image On the contrary, if the predetermined threshold value (third threshold value) is exceeded, it may be determined that the state of the imaging optical system of the imaging device that captures the distance image is not appropriate.

なお、抽出部が抽出した画素の距離のばらつきを示す分散(または偏差)が、予め定めた閾値(第3の閾値)である場合(算出した距離の分散(または偏差)=第3の閾値)については、距離画像を撮像する撮像装置の撮像光学系の状態が適正であると判定するようにしてもよいし、距離画像を撮像する撮像装置の撮像光学の状態が適正でないと判定するようにしてもよい。   When the variance (or deviation) indicating the variation in the pixel distance extracted by the extraction unit is a predetermined threshold (third threshold) (calculated variance (or deviation) = third threshold) May be determined that the state of the imaging optical system of the imaging device that captures the distance image is appropriate, or may be determined that the imaging optical state of the imaging device that captures the distance image is not appropriate. May be.

また、状態判定部は、抽出部が抽出した前景画素の画素数が予め定めた第1の閾値を超えているとき、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に関係なく、撮像装置の撮像光学系の状態が適正でないと判定してもよい。この第1の閾値は、対象になる画素(検知領域を撮像している画素)の画素数の70〜80パーセントの値にすればよい。   In addition, the state determination unit is irrelevant to the dispersion value indicating the variation in the distance of the pixels extracted by the extraction unit when the number of foreground pixels extracted by the extraction unit exceeds a predetermined first threshold. It may be determined that the state of the imaging optical system of the imaging apparatus is not appropriate. The first threshold value may be a value that is 70 to 80 percent of the number of pixels of the target pixel (the pixel that is imaging the detection region).

大半の画素が前景画素になる状況は、撮像装置の撮像光学系であるレンズやレンズカバーの表面を覆うようにテープ等が貼り付けられている可能性が高い。したがって、イタズラで、テープやガム等が撮像光学系であるレンズやレンズカバーの表面を覆うように貼り付けられたときも、撮像装置の撮像光学系の状態が適正でないと判定できる。また、抽出部が抽出した前景画素の画素数が予め定めた第1の閾値を超えているときは、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値を算出しなくてもよい。   In the situation where most of the pixels are foreground pixels, there is a high possibility that a tape or the like is attached so as to cover the surface of the lens or lens cover that is the imaging optical system of the imaging apparatus. Therefore, even when a tape, gum, or the like is affixed so as to cover the surface of the lens or lens cover that is the imaging optical system, it can be determined that the state of the imaging optical system of the imaging apparatus is not appropriate. Further, when the number of foreground pixels extracted by the extraction unit exceeds a predetermined first threshold value, it is not necessary to calculate a value related to dispersion indicating variation in the distance of pixels extracted by the extraction unit. .

なお、抽出部が抽出した前景画素の画素数が予め定めた第1の閾値(前景画素の画素数=第1の閾値)であるときについては、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に関係なく、撮像装置の撮像光学系の状態が適正でないと判定してもよいし、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値によって、撮像装置の撮像光学系の状態が適正であるかどうかを判定してもよい。   When the number of foreground pixels extracted by the extraction unit is a predetermined first threshold (the number of foreground pixels = first threshold), the variation in the distance of the pixels extracted by the extraction unit is indicated. Regardless of the value related to dispersion, it may be determined that the state of the imaging optical system of the imaging device is not appropriate, or the imaging optics of the imaging device may be determined according to the value related to dispersion indicating the variation in pixel distance extracted by the extraction unit. It may be determined whether the state of the system is appropriate.

また、状態判定部は、抽出部が抽出した前景画素の画素数が予め定めた第2の閾値(第1の閾値>第2の閾値)を超えていないとき、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に関係なく、撮像装置の撮像光学系の状態が適正であると判定してもよい。この第2の閾値は、対象になる画素(検知領域を撮像している画素)の画素数の20〜30パーセントの値にすればよい。   In addition, the state determination unit determines the distance of the pixels extracted by the extraction unit when the number of foreground pixels extracted by the extraction unit does not exceed a predetermined second threshold (first threshold> second threshold). It may be determined that the state of the image pickup optical system of the image pickup apparatus is appropriate regardless of the value of the dispersion indicating the variation of This second threshold value may be a value that is 20 to 30 percent of the number of pixels of the target pixel (the pixel that is imaging the detection area).

前景画素が比較的少ないということは、撮像光学系であるレンズやレンズカバーの表面に付着した異物や、レンズやレンズカバーにひび等の破損によって生じた散乱光の影響を受けた画素(ノイズ画素)が少ないということである。このことから、抽出部が抽出した前景画素の画素数が予め定めた第2の閾値を超えていなければ、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に関係なく、撮像装置の撮像光学系の状態が適正であると判定できる。また、抽出部が抽出した前景画素の画素数が予め定めた第2の閾値を超えていないときは、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値を算出しなくてもよい。   The relatively small number of foreground pixels means that the pixels (noise pixels) are affected by foreign matter adhering to the surface of the lens or lens cover that is the imaging optical system, or scattered light caused by damage such as cracks on the lens or lens cover. ) Is less. From this, if the number of foreground pixels extracted by the extraction unit does not exceed a predetermined second threshold, the imaging device regardless of the value relating to dispersion indicating the variation in the distance of the pixels extracted by the extraction unit It can be determined that the state of the imaging optical system is appropriate. In addition, when the number of foreground pixels extracted by the extraction unit does not exceed the predetermined second threshold, it is not necessary to calculate a value related to dispersion indicating variation in the distance of the pixels extracted by the extraction unit. .

なお、抽出部が抽出した前景画素の画素数が予め定めた第2の閾値である場合(前景画素の画素数=第2の閾値)については、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に関係なく、撮像装置の撮像光学系の状態が適正であると判定してもよいし、抽出部が抽出した画素の距離のばらつきを示す分散にかかる値によって、撮像装置の撮像光学系の状態が適正であるかどうかを判定してもよい。   In the case where the number of foreground pixels extracted by the extraction unit is a predetermined second threshold value (the number of foreground pixels = second threshold value), the variation in the distance of the pixels extracted by the extraction unit is indicated. It may be determined that the state of the imaging optical system of the imaging device is appropriate regardless of the value related to dispersion, and the imaging device captures an image based on the value related to dispersion indicating the variation in pixel distance extracted by the extraction unit. It may be determined whether the state of the optical system is appropriate.

さらに、状態検知装置は、状態判定部が撮像装置の撮像光学系の状態が適正でないと判定したとき、その旨を出力する出力部を備える構成にしてもよい。このように構成すれば、管理者が、撮像光学系の状態が不適正である撮像装置を早期に認識できる。   Furthermore, the state detection device may be configured to include an output unit that outputs that when the state determination unit determines that the state of the imaging optical system of the imaging device is not appropriate. If comprised in this way, the administrator can recognize the imaging device whose imaging optical system state is inadequate at an early stage.

この発明によれば、距離画像を撮像する撮像装置の撮像光学系の状態が適正であるか、不適正であるかの検知が簡単に行える。   According to the present invention, it is possible to easily detect whether the state of the imaging optical system of the imaging apparatus that captures a distance image is appropriate or inappropriate.

状態検知装置の主要部の構成を示すブロック図である。It is a block diagram which shows the structure of the principal part of a state detection apparatus. 図2(A)、(B)は、オブジェクトまでの距離を求める公知の技術を説明する図である。2A and 2B are diagrams illustrating a known technique for obtaining a distance to an object. 撮像装置によって撮像される距離画像の撮像エリアを説明する図である。It is a figure explaining the imaging area of the distance image imaged with an imaging device. 状態検知装置における撮像光学系の状態検知処理を示すフローチャートである。It is a flowchart which shows the state detection process of the imaging optical system in a state detection apparatus. 撮像装置によって撮像される距離画像の撮像エリアを説明する図であるIt is a figure explaining the imaging area of the distance image imaged with an imaging device 差分画像を示す図である。It is a figure which shows a difference image. 撮像装置によって撮像される距離画像の撮像エリアを説明する図であるIt is a figure explaining the imaging area of the distance image imaged with an imaging device 差分画像を示す図である。It is a figure which shows a difference image. 差分画像を示す図である。It is a figure which shows a difference image. 差分画像を示す図である。It is a figure which shows a difference image. 撮像装置の撮像光学系の状態が適正であるかどうかの判定領域を示す図である。It is a figure which shows the determination area | region whether the state of the imaging optical system of an imaging device is appropriate.

以下、この発明の実施形態である状態検知装置について説明する。   Hereinafter, the state detection apparatus which is embodiment of this invention is demonstrated.

図1は、この例にかかる状態検知装置の主要部の構成を示すブロック図である。状態検知装置1には、撮像装置10が接続されている。状態検知装置1は、接続されている撮像装置10の撮像光学系の状態が適正であるか、不適正であるかを検知(判定)し、不適正であれば、その旨を出力する。この状態検知装置1は、図1に示すように、画像入力部2と、画像処理部3と、背景画像記憶部4と、閾値記憶部5と、出力部6と、を備えている。   FIG. 1 is a block diagram illustrating a configuration of a main part of the state detection device according to this example. An imaging device 10 is connected to the state detection device 1. The state detection device 1 detects (determines) whether the state of the imaging optical system of the connected imaging device 10 is appropriate or inappropriate, and outputs that fact if it is inappropriate. As shown in FIG. 1, the state detection device 1 includes an image input unit 2, an image processing unit 3, a background image storage unit 4, a threshold storage unit 5, and an output unit 6.

状態検知装置1に接続されている撮像装置10は、TOF(Time Of Flight)センサを有し、撮像エリアの距離画像を撮像するものである。具体的には、撮像装置10は、撮像エリアに赤外光を照射する光源、およびn×m個の受光素子をマトリクス状に配置した撮像素子を有する。撮像装置10は、赤外光を撮像エリアに照射してから、その反射光を受光するまでの時間(飛行時間)を画素毎に計測する。飛行時間は、撮像エリアに照射した光と、受光した反射光と、の位相差から得られる。撮像装置10は、画素毎に計測した飛行時間からオブジェクト(照射光を反射した物体の反射面)までの距離を得る。撮像装置10は、例えば、1秒間に5〜10フレーム程度の距離画像の撮像が行える。   The imaging device 10 connected to the state detection device 1 has a TOF (Time Of Flight) sensor and captures a distance image in an imaging area. Specifically, the imaging device 10 includes a light source that irradiates an imaging area with infrared light, and an imaging element in which n × m light receiving elements are arranged in a matrix. The imaging device 10 measures, for each pixel, the time (flight time) from irradiating the imaging area with infrared light to receiving the reflected light. The flight time is obtained from the phase difference between the light applied to the imaging area and the received reflected light. The imaging device 10 obtains the distance from the flight time measured for each pixel to the object (the reflection surface of the object reflecting the irradiation light). For example, the imaging apparatus 10 can capture a distance image of about 5 to 10 frames per second.

公知ではあるが、オブジェクトまでの距離を求める手法を簡単に説明する。光源から照射される光は、発光強度が変調されている。撮像エリアからの反射光を受光する際に伝播距離に応じて変調位相がずれる。光源からの光の一部を受光素子の一部で直接受光することで照射光の位相をモニタし、反射光として受光した光の位相とのずれを求める。位相ずれは、図2(A)に示すように、照射光の変調周期Tに対してT/2期間ごとにサンプリングした受光信号(A0、A2)と、さらに図2(B)に示すように、T/4ずらしたタイミングでサンプリングした受光信号(A1,A3)と、に基づいて伝播距離によって位相のずれ量φを算出する。位相のずれ量φは、
φ=arctan{(A3−A1)/(A0−A2)}
により算出できる。
Although known, a method for obtaining the distance to the object will be briefly described. The light emitted from the light source is modulated in emission intensity. When receiving the reflected light from the imaging area, the modulation phase is shifted according to the propagation distance. The phase of the irradiated light is monitored by directly receiving a part of the light from the light source by a part of the light receiving element, and a deviation from the phase of the light received as reflected light is obtained. As shown in FIG. 2 (A), the phase shift includes received light signals (A0, A2) sampled every T / 2 period with respect to the modulation period T of the irradiation light, and further, as shown in FIG. 2 (B). Based on the received light signals (A1, A3) sampled at the timing shifted by T / 4, the phase shift amount φ is calculated based on the propagation distance. The amount of phase shift φ is
φ = arctan {(A3-A1) / (A0-A2)}
Can be calculated.

また、ここで求めた位相のずれ量φからオブジェクトまでの距離Dを求めることができる。オブジェクトまでの距離Dは、
D=Lmax×φ/2π
により算出できる。ここでLmaxはφ=2πとなるときの物体までの往復距離(測定最大距離)であり、変調周波数が20MHzであればLmaxは7.5m、10MHzであれば15mとなる。
Further, the distance D to the object can be obtained from the phase shift amount φ obtained here. The distance D to the object is
D = Lmax × φ / 2π
Can be calculated. Here, Lmax is the reciprocating distance (measurement maximum distance) to the object when φ = 2π, and Lmax is 7.5 m if the modulation frequency is 20 MHz and 15 m if 10 MHz.

ここで、撮像素子について説明する。撮像素子は、上述したようにn×m個の受光素子をマトリクス状に配置したものである。この例では、隣接する縦横それぞれ2つずつ(合計4つ)の受光素子を1組とし、これを1画素として扱う。各受光素子は、T/4期間ごとずらしたサンプリングタイミングで光電変換された電荷を蓄積する。これにより、T/4期間ごとの蓄積電荷に基づいて、前述のA0,A1,A2,A3の受光信号を得ることができる。なお、他の手法として、2つの受光素子を1画素として扱い、前述のA0〜A3の受光信号を得る方式もある。   Here, the imaging device will be described. As described above, the image pickup element has n × m light receiving elements arranged in a matrix. In this example, two adjacent vertical and horizontal light receiving elements (a total of four) are regarded as one set, and this is handled as one pixel. Each of the light receiving elements accumulates the photoelectrically converted charge at the sampling timing shifted every T / 4 period. As a result, the light receiving signals A0, A1, A2, and A3 described above can be obtained based on the accumulated charge for each T / 4 period. As another method, there is a method in which two light receiving elements are treated as one pixel and the above-described light receiving signals A0 to A3 are obtained.

ここでいう「画素」とは、上述したように、位相のずれまたは距離を求めてオブジェクトを検知するために画像処理を行うときの単位となる受光素子のブロックであり、1つの受光素子であってもよいし、隣接する複数の受光素子(例えば、縦横2ずつの受光素子)で構成されるブロックであってもよい。   As used herein, the term “pixel” refers to a block of light receiving elements that is a unit for performing image processing to detect an object by obtaining a phase shift or distance, and is a single light receiving element. Alternatively, it may be a block composed of a plurality of adjacent light receiving elements (for example, two light receiving elements in the vertical and horizontal directions).

撮像装置10は、前述の照射光の変調の1周期だけの受光電荷では量的に少なすぎるので、露光時間を適宜設定し、その期間に蓄積された電荷量を用いて位相のずれを算出し、距離画像を得る。   Since the amount of light received for only one period of the above-described modulation of the irradiation light is too small, the imaging device 10 sets the exposure time as appropriate and calculates the phase shift using the amount of charge accumulated during that period. Get a distance image.

また、撮像装置10は、画素毎に所定期間分(複数周期分)の蓄積電荷を全て集めることにより、画素毎にその画素が受光した反射光の強度(反射光量)を対応付けた受光強度画像を取得することもできる。すなわち、撮像装置10は、同じ露光タイミング(露光期間)で撮像した撮像エリアの距離画像、および受光強度画像を取得することができる。但し、この例にかかる状態検知装置1は、受光強度画像を用いることなく、撮像装置10の撮像光学系の状態が適正であるか、不適正であるかを検知する構成であるので、受光強度画像については説明を省略する。   Further, the imaging device 10 collects all accumulated charges for a predetermined period (for a plurality of periods) for each pixel, thereby associating the intensity of the reflected light (the amount of reflected light) received by the pixel with respect to each pixel. You can also get That is, the imaging device 10 can acquire a distance image of the imaging area and a received light intensity image captured at the same exposure timing (exposure period). However, since the state detection device 1 according to this example is configured to detect whether the state of the imaging optical system of the imaging device 10 is appropriate or not, without using a light reception intensity image, the light reception intensity. Description of the image is omitted.

なお、撮像装置10は、レーザ光を照射する光源、反射光を受光する受光素子、および撮像エリア内において光源から照射されたレーザ光を走査する走査部を有する構成のものであってもよい。撮像装置10は、撮像エリアの距離画像が撮像できる構成のものであれば特に制限されない。   The imaging device 10 may have a configuration including a light source that emits laser light, a light receiving element that receives reflected light, and a scanning unit that scans laser light emitted from the light source in the imaging area. The imaging device 10 is not particularly limited as long as it is configured to capture a distance image of the imaging area.

画像入力部2には、撮像装置10が撮像した撮像エリアの距離画像が入力される。図3は、撮像装置の撮像エリアを説明する図である。ここでは、撮像装置10の撮像エリアを駅ホームの端部とした例である。但し、図3は、撮像装置10によって撮像される距離画像を示すものではない(便宜的に可視光画像を示している。)。   A distance image of the imaging area captured by the imaging device 10 is input to the image input unit 2. FIG. 3 is a diagram illustrating an imaging area of the imaging device. Here, it is an example in which the imaging area of the imaging device 10 is the end of the station platform. However, FIG. 3 does not show a distance image captured by the imaging device 10 (a visible light image is shown for convenience).

図3において、破線で囲んだ領域が、オブジェクトの有無を検知する検知エリアである。検知エリアは、管理者によって設定されるものであり、撮像装置10の撮像エリア全体であってもよいし、図3に示すように、撮像装置10の撮像エリアの一部であってもよい。画像入力部2が、この発明で言う距離画像入力部に相当する。   In FIG. 3, a region surrounded by a broken line is a detection area for detecting the presence or absence of an object. The detection area is set by the administrator, and may be the entire imaging area of the imaging device 10 or may be a part of the imaging area of the imaging device 10 as shown in FIG. The image input unit 2 corresponds to the distance image input unit referred to in the present invention.

画像処理部3は、画像入力部2に入力された撮像エリアの距離画像を処理し、撮像装置10の撮像光学系の状態が適正であるか、不適正であるかを判定する。画像処理部3が、この発明で言う、抽出部、および状態判定部にかかる構成を有する。また、この画像処理部3が、この発明で言う撮像光学系の状態検知方法を実行する。さらに、画像処理部3は、この発明にかかる撮像光学系の状態検知プログラムをインストールするコンピュータを有する。   The image processing unit 3 processes the distance image of the imaging area input to the image input unit 2 and determines whether the state of the imaging optical system of the imaging device 10 is appropriate or inappropriate. The image processing unit 3 has a configuration according to the present invention related to the extraction unit and the state determination unit. In addition, the image processing unit 3 executes the state detection method of the imaging optical system referred to in the present invention. Furthermore, the image processing unit 3 includes a computer for installing the state detection program for the imaging optical system according to the present invention.

背景画像記憶部4は、図3に示した検知エリアの背景画像を記憶する。背景画像記憶部4に記憶する背景画像は、検知エリアの距離画像である。背景画像記憶部4が記憶する背景画像は、撮像装置10の撮像光学系の状態が適正であることが検知されていることを条件にして、適当なタイミングで更新される。背景画像記憶部4が、この発明で言う背景距離画像記憶部に相当する。   The background image storage unit 4 stores the background image of the detection area shown in FIG. The background image stored in the background image storage unit 4 is a distance image of the detection area. The background image stored in the background image storage unit 4 is updated at an appropriate timing on condition that the state of the imaging optical system of the imaging device 10 is detected to be appropriate. The background image storage unit 4 corresponds to the background distance image storage unit referred to in the present invention.

なお、背景画像記憶部4は、図3に示した撮像エリアの背景画像(距離画像)を記憶してもよい。この例では、背景画像記憶部4の記憶容量を抑える観点から、検知エリアの背景画像を背景画像記憶部4に記憶させている。   The background image storage unit 4 may store a background image (distance image) of the imaging area shown in FIG. In this example, the background image of the detection area is stored in the background image storage unit 4 from the viewpoint of reducing the storage capacity of the background image storage unit 4.

閾値記憶部5は、撮像装置10の撮像光学系の状態を検知する判定に用いる3つの閾値(上限画素数閾値、下限画素数閾値、および分散閾値)を記憶している。上限画素数閾値は、この発明で言う第1の閾値に相当する。下限画素数閾値は、この発明で言う第2の閾値に相当する。分散閾値は、この発明で言う第3の閾値に相当する。上限画素数閾値は、図3に示した検知エリアの総画素数の70〜80パーセントである。下限画素数閾値は、図3に示した検知エリアの総画素数の20〜30パーセントである。分散閾値は、20〜30である。   The threshold value storage unit 5 stores three threshold values (an upper limit pixel number threshold value, a lower limit pixel number threshold value, and a dispersion threshold value) used for determination for detecting the state of the imaging optical system of the imaging device 10. The upper limit pixel number threshold corresponds to the first threshold referred to in the present invention. The lower limit pixel count threshold corresponds to the second threshold referred to in the present invention. The dispersion threshold corresponds to the third threshold referred to in the present invention. The upper limit pixel number threshold is 70 to 80 percent of the total number of pixels in the detection area shown in FIG. The lower limit pixel count threshold is 20 to 30 percent of the total number of pixels in the detection area shown in FIG. The dispersion threshold is 20-30.

出力部6は、画像処理部3において、撮像装置10の撮像光学系の状態が不適正であることが検知されたときに、その旨を接続されている警報装置(不図示)に出力する。警報装置は、出力部6から撮像装置10の撮像光学系の状態が不適正である旨の入力があると、撮像装置10の撮像光学系の状態が不適正であることを音声等で報知する。管理者は、警報装置の報知によって、撮像装置10の撮像光学系の状態が不適正であることを認識する。   When the image processing unit 3 detects that the state of the imaging optical system of the imaging device 10 is inappropriate, the output unit 6 outputs a message to that effect to a connected alarm device (not shown). When there is an input from the output unit 6 that the state of the imaging optical system of the imaging device 10 is inappropriate, the alarm device notifies the user that the state of the imaging optical system of the imaging device 10 is inappropriate by voice or the like. . The administrator recognizes that the state of the imaging optical system of the imaging device 10 is inappropriate by notification from the alarm device.

以下、この例にかかる状態検知装置1の動作について説明する。   Hereinafter, the operation of the state detection apparatus 1 according to this example will be described.

図4は、この例にかかる状態検知装置における撮像光学系の状態検知処理を示すフローチャートである。状態検知装置1は、撮像装置10によって撮像された撮像エリアの距離画像が画像入力部2に入力されると(s1)、この距離画像から図3に示した検知エリアの距離画像を切り出す(s2)。検知エリアが撮像装置10の撮像エリア全体である場合には、s2にかかる処理は不要である。画像処理部3が、s2にかかる処理を行う。   FIG. 4 is a flowchart showing the state detection process of the imaging optical system in the state detection apparatus according to this example. When the distance image of the imaging area imaged by the imaging device 10 is input to the image input unit 2 (s1), the state detection device 1 cuts out the distance image of the detection area shown in FIG. 3 from this distance image (s2). ). When the detection area is the entire imaging area of the imaging device 10, the process relating to s2 is not necessary. The image processing unit 3 performs processing related to s2.

画像処理部3は、背景画像記憶部4に記憶している検知エリアの背景画像(距離画像)と、s2で切り出した検知エリアの距離画像と、の差分画像(距離差分画像)生成する(s3)。s3では、背景画像記憶部4に記憶している検知エリアの背景画像(距離画像)と、s2で切り出した検知エリアの距離画像とにおいて、対応する画素間の距離差が所定量を超えている画素を前景画素とし、対応する画素間の距離差が所定量を超えていない画素を背景画素とした2値画像を生成する。また、対応する画素間の距離差が、所定量である場合については、前景画素として抽出してもよいし、背景画素として抽出してもよい。   The image processing unit 3 generates a difference image (distance difference image) between the background image (distance image) of the detection area stored in the background image storage unit 4 and the distance image of the detection area cut out in s2 (s3). ). In s3, the distance difference between corresponding pixels exceeds a predetermined amount in the background image (distance image) of the detection area stored in the background image storage unit 4 and the distance image of the detection area cut out in s2. A binary image is generated in which a pixel is a foreground pixel, and a pixel whose distance difference between corresponding pixels does not exceed a predetermined amount is a background pixel. When the distance difference between corresponding pixels is a predetermined amount, it may be extracted as a foreground pixel or a background pixel.

例えば、s1で入力された距離画像が、検知エリア内に傘が位置しているときに(図5に示す状態であるときに)撮像装置10によって撮像された距離画像である場合、s3では図6に示す差分画像が生成される。図6において、ハッチングで示す画素が前景画素であり、その他が背景画素である。図6に示す前景画素は、図5に示した傘に対応する画素である。傘は、その外形が小さく、実空間上の限られたエリアに位置することから、図6に示す前景画素の距離のばらつきを示す分散δ2は小さい。 For example, when the distance image input in s1 is a distance image captured by the imaging device 10 when the umbrella is positioned in the detection area (when in the state illustrated in FIG. 5), the distance image illustrated in s3 6 is generated. In FIG. 6, the pixels indicated by hatching are foreground pixels, and the others are background pixels. The foreground pixels shown in FIG. 6 are pixels corresponding to the umbrella shown in FIG. Since the umbrella has a small outer shape and is located in a limited area in the real space, the variance δ 2 indicating the variation in the distance of the foreground pixels shown in FIG. 6 is small.

また、s1で入力された距離画像が、検知エリア内に人が位置しているときに(図7に示す状態であるときに)撮像装置10によって撮像された距離画像である場合、s3では図8に示す差分画像が生成される。図8において、ハッチングで示す画素が前景画素であり、その他が背景画素である。図8に示す前景画素は、図7に示した人に対応する画素である。人は、上述した傘に比べると、その外形が大きいので、図8に示す前景画素の距離のばらつきを示す分散δ2はある程度の大きさになる。 When the distance image input in s1 is a distance image captured by the imaging device 10 when a person is located in the detection area (when in the state illustrated in FIG. 7), the distance image illustrated in s3 A difference image shown in FIG. 8 is generated. In FIG. 8, the pixels indicated by hatching are foreground pixels, and the others are background pixels. The foreground pixels shown in FIG. 8 are pixels corresponding to the person shown in FIG. Since the outer shape of a person is larger than that of the umbrella described above, the variance δ 2 indicating the variation in foreground pixel distance shown in FIG.

なお、図5〜図8に示した例においては、撮像装置10の撮像光学系の状態は適正であるものとする。   In the example illustrated in FIGS. 5 to 8, the state of the imaging optical system of the imaging device 10 is appropriate.

また、撮像装置10の撮像光学系のレンズやレンズカバーの表面に塵や埃や雨滴等が付着しており、この撮像光学系の状態が不適正である場合、検知エリア内にオブジェクトが位置していない状態であっても、レンズやレンズカバーの表面に付着している塵や埃や雨滴等によって生じた光の拡散により、s3では図9に示すような差分画像が生成される。図9において、ハッチングで示す画素が前景画素であり、その他が背景画素である。図9に示す前景画素は、ノイズ画素であることから、これらの前景画素の距離のばらつきを示す分散δ2は比較的大きい。 In addition, when dust, dirt, raindrops, or the like are attached to the surface of the lens or lens cover of the imaging optical system of the imaging apparatus 10, the object is located in the detection area when the state of the imaging optical system is inappropriate. Even if it is not, a difference image as shown in FIG. 9 is generated in s3 due to diffusion of light caused by dust, dirt, raindrops, or the like adhering to the surface of the lens or lens cover. In FIG. 9, pixels indicated by hatching are foreground pixels, and the others are background pixels. Since the foreground pixels shown in FIG. 9 are noise pixels, the variance δ 2 indicating the variation in distance between these foreground pixels is relatively large.

また、イタズラで、撮像装置10の撮像光学系のレンズやレンズカバーの表面全体を覆うようにテープが貼付されていた場合、このテープによって生じた光の拡散により、s3では図10に示すような差分画像が生成される。図10に示すように、撮像装置10の撮像光学系のレンズやレンズカバーの表面全体を覆うようにテープが貼付されていた場合、検知エリア内にオブジェクトが位置していない状態であっても、図10に示すように検知エリア内の殆ど全ての画素が前景画素になる。図10に示す前景画素は、ノイズ画素であるが、これらの前景画素の距離のばらつきを示す分散δ2は比較的小さい。 Further, when a tape is applied so as to cover the entire surface of the lens or lens cover of the image pickup optical system of the image pickup apparatus 10 with mischief, in s3, as shown in FIG. A difference image is generated. As shown in FIG. 10, when the tape is applied so as to cover the entire surface of the lens and lens cover of the imaging optical system of the imaging device 10, even if the object is not located in the detection area, As shown in FIG. 10, almost all pixels in the detection area become foreground pixels. The foreground pixels shown in FIG. 10 are noise pixels, but the variance δ 2 indicating the variation in distance between these foreground pixels is relatively small.

なお、撮像装置10の撮像光学系のレンズやレンズカバーにひび等の破損が生じている場合も、その破損の程度によって、図9、または図10に示す差分画像になる。   In addition, even when a damage such as a crack occurs in the lens or lens cover of the imaging optical system of the imaging apparatus 10, the difference image shown in FIG. 9 or FIG. 10 is obtained depending on the degree of the damage.

画像処理部3は、s3で生成した差分画像における前景画素の個数を計数する(s4)。画像処理部3は、s4で計数した前景画素の個数が、閾値記憶部5に記憶している上限画素数閾値を超えているかどうかを判定する(s5)。画像処理部3は、s4で計数した前景画素の個数が、閾値記憶部5に記憶している上限画素数閾値を超えていると判定すると、撮像装置10の撮像光学系の状態が不適正であると判定し(s10)、出力部6がその旨を警報装置に出力する(s11)。   The image processing unit 3 counts the number of foreground pixels in the difference image generated in s3 (s4). The image processing unit 3 determines whether or not the number of foreground pixels counted in s4 exceeds an upper limit pixel number threshold stored in the threshold storage unit 5 (s5). If the image processing unit 3 determines that the number of foreground pixels counted in s4 exceeds the upper limit pixel number threshold stored in the threshold storage unit 5, the state of the imaging optical system of the imaging device 10 is inappropriate. It is determined that there is (s10), and the output unit 6 outputs that fact to the alarm device (s11).

このように、画像処理部3は、このs5の判定を行うことによって、例えば、イタズラで、撮像装置10の撮像光学系のレンズやレンズカバーの表面全体を覆うようにテープ等が貼付されたことによって、s3で図10に示すような差分画像が生成された場合に、撮像装置10の撮像光学系の状態が不適正であることを検知できる。   As described above, the image processing unit 3 performs the determination of s5, so that, for example, a mischief is attached with a tape or the like so as to cover the entire surface of the lens or the lens cover of the imaging optical system of the imaging device 10. Thus, when a differential image as shown in FIG. 10 is generated in s3, it can be detected that the state of the imaging optical system of the imaging device 10 is inappropriate.

なお、s5では、s4で計数した前景画素の個数と、閾値記憶部5に記憶している上限画素数閾値とが同じである場合(前景画素の個数=上限画素数閾値である場合)、s10で撮像装置10の撮像光学系の状態が不適正であると判定してもよいし、以下に示すs6以降の処理を行ってもよい。   In s5, when the number of foreground pixels counted in s4 and the upper limit pixel number threshold stored in the threshold storage unit 5 are the same (when the number of foreground pixels = the upper limit pixel number threshold), s10 Therefore, it may be determined that the state of the imaging optical system of the imaging device 10 is inappropriate, or the processing after s6 may be performed.

画像処理部3は、s5において、s4で計数した前景画素の個数が、閾値記憶部5に記憶している上限画素数閾値を超えていないと判定すると、s4で計数した前景画素の個数が、閾値記憶部5に記憶している下限画素数閾値を超えているかどうかを判定する(s6)。画像処理部3は、s4で計数した前景画素の個数が、閾値記憶部5に記憶している下限画素数閾値を超えていないと判定すると、撮像装置10の撮像光学系の状態が適正であると判定する(s9)。   If the image processing unit 3 determines in s5 that the number of foreground pixels counted in s4 does not exceed the upper limit pixel number threshold stored in the threshold storage unit 5, the number of foreground pixels counted in s4 is It is determined whether or not the lower limit pixel count threshold stored in the threshold storage unit 5 is exceeded (s6). If the image processing unit 3 determines that the number of foreground pixels counted in s4 does not exceed the lower limit pixel number threshold stored in the threshold storage unit 5, the state of the imaging optical system of the imaging device 10 is appropriate. (S9).

画像処理部3は、前景画素が少ない場合に、すなわちノイズ画素が少ない場合に、撮像装置10の撮像光学系の状態が適正であると判定している。また、下限画素数閾値を適正に定めることによって、画像処理部3は、検知エリア内に外形が比較的小さいオブジェクト(例えば、図5に示した傘)が位置していた場合も、s9で撮像装置10の撮像光学系の状態が適正であることを検知できる。 The image processing unit 3 determines that the state of the imaging optical system of the imaging device 10 is appropriate when there are few foreground pixels, that is, when there are few noise pixels. Further, by appropriately setting the lower limit pixel number threshold, the image processing unit 3 captures an image in s9 even when an object having a relatively small outer shape (for example, an umbrella shown in FIG. 5) is located in the detection area. It can be detected that the state of the imaging optical system of the apparatus 10 is appropriate.

なお、s6では、s4で計数した前景画素の個数と、閾値記憶部5に記憶している下限画素数閾値とが同じである場合(前景画素の個数=下限画素数閾値である場合)、s9で撮像装置10の撮像光学系の状態が適正であると判定してもよいし、以下に示すs7以降の処理を行ってもよい。   In s6, when the number of foreground pixels counted in s4 is the same as the lower limit pixel number threshold stored in the threshold storage unit 5 (when the number of foreground pixels = the lower limit pixel number threshold), s9 Thus, it may be determined that the state of the imaging optical system of the imaging apparatus 10 is appropriate, or the processing after s7 may be performed.

画像処理部3は、s6において、s4で計数した前景画素の個数が、閾値記憶部5に記憶している下限画素数閾値を超えていると判定すると、前景画素の距離のばらつきを示す分散δ2を算出する(s7)。この分散δ2は、[数1]により算出できる。 If the image processing unit 3 determines in s6 that the number of foreground pixels counted in s4 exceeds the lower limit pixel number threshold stored in the threshold storage unit 5, the variance δ indicating variation in the distance of the foreground pixels 2 is calculated (s7). This variance δ 2 can be calculated by [Equation 1].

Figure 2016170061
Figure 2016170061

[数1]において、Nは前景画素の個数(s4で計数した前景画素の個数)であり、
i(i=1・・・・N)は、各前景画素の距離であり、
mは、前景画素の距離の平均である。
In [Expression 1], N is the number of foreground pixels (the number of foreground pixels counted in s4).
x i (i = 1... N) is the distance of each foreground pixel;
m is the average of the foreground pixel distances.

画像処理部3は、s7で算出した分散δ2が、閾値記憶部5に記憶している分散閾値を超えているかどうかを判定する(s8)。画像処理部3は、s8で分散閾値を超えていると判定すると、s10で撮像装置10の撮像光学系の状態が不適正であると判定し、s11で出力部6がその旨を警報装置に出力する。画像処理部3は、このs8の判定を行うことで、例えば、撮像装置10の撮像光学系のレンズやレンズカバーの表面に塵、誇り、雨滴等が付着していて、s3で図9に示すような差分画像が生成された場合に、撮像装置10の撮像光学系の状態が不適正であることを検知できる。 The image processing unit 3 determines whether or not the variance δ 2 calculated in s7 exceeds the variance threshold stored in the threshold storage unit 5 (s8). If the image processing unit 3 determines that the dispersion threshold is exceeded in s8, it determines that the state of the imaging optical system of the imaging device 10 is inappropriate in s10, and the output unit 6 informs the alarm device in s11. Output. The image processing unit 3 performs the determination in s8, for example, dust, pride, raindrops, and the like are attached to the surface of the lens or lens cover of the imaging optical system of the imaging device 10, and the process shown in FIG. When such a difference image is generated, it can be detected that the state of the imaging optical system of the imaging apparatus 10 is inappropriate.

一方で、画像処理部3は、s8で分散閾値を超えていないと判定すると、s9で撮像装置10の撮像光学系の状態が適正であると判定する。画像処理部3は、このs8の判定を行うことによって、例えば、図7に示すように、検知エリア内に人が位置していて、s3で図8に示すような差分画像が生成された場合であっても、撮像装置10の撮像光学系の状態が適正であることを検知できる。   On the other hand, if the image processing unit 3 determines that the dispersion threshold is not exceeded in s8, it determines that the state of the imaging optical system of the imaging device 10 is appropriate in s9. When the image processing unit 3 performs the determination in s8, for example, as shown in FIG. 7, a person is located in the detection area, and a difference image as shown in FIG. 8 is generated in s3. Even so, it can be detected that the state of the imaging optical system of the imaging apparatus 10 is appropriate.

なお、s8では、s7で算出した分散δ2と、閾値記憶部5に記憶している分散閾値とが同じである場合(分散δ2=分散閾値である場合)、s9で撮像装置10の撮像光学系の状態が適正であると判定してもよいし、s10で撮像装置10の撮像光学系の状態が不適正であると判定してもよい。 In s8, when the variance δ 2 calculated in s7 is the same as the variance threshold stored in the threshold storage unit 5 (when variance δ 2 = the variance threshold), the imaging of the imaging device 10 is performed in s9. It may be determined that the state of the optical system is appropriate, or it may be determined in s10 that the state of the imaging optical system of the imaging device 10 is inappropriate.

上述の説明をまとめると、状態検知装置1は、図11に示す第1の不適正領域(前景画素の個数が上限画素数閾値を超えている領域)、または第2の不適正領域(前景画素の個数が上限画素数閾値と下限画素数閾値との間で、且つ前景画素の分散δ2が分散閾値を超えている領域)のいずれかであるときに、撮像装置10の撮像光学系の状態が不適正であると検知する。言い換えれば、図11に示す第1の不適正領域、または第2の不適正領域のいずれでもないときに、撮像装置10の撮像光学系の状態が適正であると検知する。 Summarizing the above description, the state detection apparatus 1 is configured such that the first inappropriate region (the region where the number of foreground pixels exceeds the upper limit pixel number threshold) or the second inappropriate region (foreground pixels) illustrated in FIG. Of the imaging optical system of the imaging apparatus 10 when the number of pixels is any one of the upper limit pixel count threshold and the lower limit pixel count threshold and the foreground pixel variance δ 2 exceeds the variance threshold) Is detected as inappropriate. In other words, it is detected that the state of the imaging optical system of the imaging apparatus 10 is appropriate when it is neither the first inappropriate region nor the second inappropriate region shown in FIG.

このように、状態検知装置1は、撮像装置10の撮像光学系の状態が適正であるか、不適正であるかを簡単な処理で検知できる。   As described above, the state detection device 1 can detect whether the state of the imaging optical system of the imaging device 10 is appropriate or inappropriate by simple processing.

なお、図4に示したs5、s6、およびs8の判定の順番は、上述した順番でなくてもよい。例えば、状態検知装置1(画像処理部3)は、s6、s5、s8の順番や、s8、s5、s6の順番等で判定を行う構成であってもよい。また、s8にかかる判定を行わないときは、s7にかかる分散δ2の算出にかかる処理を行わなくてもよい。 Note that the order of determination of s5, s6, and s8 shown in FIG. 4 may not be the order described above. For example, the state detection device 1 (image processing unit 3) may be configured to perform the determination in the order of s6, s5, and s8, the order of s8, s5, and s6. Further, when the determination relating to s8 is not performed, the processing relating to the calculation of the variance δ 2 relating to s7 may not be performed.

また、s8にかかる判定は、上述した分散δ2に代えて、偏差δ(分散δ2の正の平方根)を用いてもよい。偏差δを用いる場合、閾値記憶部5は、分散閾値に代えて、偏差閾値を記憶する。 In addition, the determination relating to s8 may use deviation δ (positive square root of variance δ 2 ) instead of variance δ 2 described above. When the deviation δ is used, the threshold storage unit 5 stores a deviation threshold instead of the dispersion threshold.

また、画像処理部3は、s9で撮像装置10の撮像光学系が適正であると判定した場合には、s3で作成した差分画像上における前景画素を位置、およびこの前景画素の距離に基づいてグルーピングし、グルーピングした前景画素の塊に対するパターンマッチング等で、撮像されているオブジェクト(検知エリア内に位置するオブジェクト)の種類を判別する処理を行ってもよい。   If the image processing unit 3 determines that the imaging optical system of the imaging device 10 is appropriate in s9, the image processing unit 3 positions the foreground pixel on the difference image created in s3 and the distance of the foreground pixel. Grouping may be performed to determine the type of the object being picked up (object located in the detection area) by pattern matching or the like with respect to the grouped foreground pixel block.

1…状態検知装置
2…画像入力部
3…画像処理部
4…背景画像記憶部
5…閾値記憶部
6…出力部
10…撮像装置
DESCRIPTION OF SYMBOLS 1 ... State detection apparatus 2 ... Image input part 3 ... Image processing part 4 ... Background image storage part 5 ... Threshold storage part 6 ... Output part 10 ... Imaging device

Claims (11)

撮像装置によって撮像された検知エリアの距離画像を入力する距離画像入力部と、
前記検知エリアの背景距離画像を記憶する背景距離画像記憶部と、
前記検知エリアについて、前記距離画像入力部に入力された前記距離画像と、前記背景距離画像記憶部が記憶する前記背景距離画像とにおいて、対応する画素間の距離差が所定量を超えている画素を抽出する抽出部と、
前記距離画像入力部に入力された前記距離画像における、前記抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に基づいて、前記撮像装置の撮像光学系の状態が適正であるかどうかを判定する状態判定部と、を備えた撮像光学系の状態検知装置。
A distance image input unit for inputting a distance image of the detection area imaged by the imaging device;
A background distance image storage unit for storing a background distance image of the detection area;
For the detection area, a pixel in which a distance difference between corresponding pixels exceeds a predetermined amount in the distance image input to the distance image input unit and the background distance image stored in the background distance image storage unit An extraction unit for extracting
Whether or not the state of the imaging optical system of the imaging device is appropriate based on a value relating to dispersion indicating variation in pixel distance extracted by the extraction unit in the distance image input to the distance image input unit And a state determination unit for determining the state of the imaging optical system.
前記状態判定部は、前記抽出部が抽出した画素の画素数が予め定めた第1の閾値を超えていれば、前記抽出部が抽出した画素の距離のばらつきを示す分散にかかる値に関係なく、前記撮像装置の撮像光学系の状態が適正でないと判定する、請求項1に記載の撮像光学系の状態検知装置。   If the number of pixels extracted by the extraction unit exceeds a predetermined first threshold value, the state determination unit is irrelevant to the dispersion value indicating the variation in the distance of the pixels extracted by the extraction unit. The imaging optical system state detection device according to claim 1, wherein the imaging optical system state of the imaging device is determined to be inappropriate. 前記状態判定部は、前記抽出部が抽出した画素の画素数が前記第1の閾値を越えていれば、前記抽出部が抽出した画素の距離のばらつきを示す分散にかかる値を算出しない、請求項2に記載の撮像光学系の状態検知装置。   If the number of pixels extracted by the extraction unit exceeds the first threshold, the state determination unit does not calculate a value related to dispersion indicating variation in the distance of pixels extracted by the extraction unit. Item 3. The imaging optical system state detection device according to Item 2. 前記状態判定部は、前記抽出部が抽出した画素の画素数が予め定めた第2の閾値を超えていなければ、前記分散にかかる値に関係なく、前記撮像装置の撮像光学系の状態が適正であると判定する、請求項1に記載の撮像光学系の状態検知装置。   If the number of pixels extracted by the extraction unit does not exceed a predetermined second threshold, the state determination unit determines that the state of the imaging optical system of the imaging device is appropriate regardless of the value related to the dispersion The state detection device for an imaging optical system according to claim 1, wherein it is determined that 前記状態判定部は、前記抽出部が抽出した画素の画素数が予め定めた前記第1の閾値よりも小さい、第2の閾値を超えていなければ、前記分散にかかる値に関係なく、前記撮像装置の撮像光学系の状態が適正であると判定する、請求項2、または3に記載の撮像光学系の状態検知装置。   If the number of pixels extracted by the extraction unit is smaller than the predetermined first threshold value and does not exceed a second threshold value, the state determination unit may perform the imaging regardless of the value related to the dispersion. The imaging optical system state detection device according to claim 2, wherein the imaging optical system state of the apparatus is determined to be appropriate. 前記状態判定部は、前記抽出部が抽出した画素の画素数が前記第2の閾値を越えていなければ、前記分散にかかる値を算出しない、請求項4、または5に記載の撮像光学系の状態検知装置。   6. The imaging optical system according to claim 4, wherein the state determination unit does not calculate a value related to the dispersion unless the number of pixels extracted by the extraction unit exceeds the second threshold. Condition detection device. 前記状態判定部は、前記分散にかかる値が予め定めた第3の閾値を超えていれば、前記撮像装置の撮像光学系の状態が適正でないと判定する、請求項1〜6のいずれかに記載の撮像光学系の状態検知装置。   The said state determination part determines with the state of the imaging optical system of the said imaging device being inadequate if the value concerning the said dispersion | distribution exceeds the predetermined 3rd threshold value. The state detection apparatus of the imaging optical system described. 前記抽出部は、前記検知エリアについて、前記距離画像入力部に入力された前記距離画像と、前記背景距離画像記憶部が記憶する前記背景距離画像との距離差分画像を生成し、対応する画素間の距離差が所定量を超えている画素を前景画素として抽出する、請求項1〜7のいずれかに記載の撮像光学系の状態検知装置。   The extraction unit generates a distance difference image between the distance image input to the distance image input unit and the background distance image stored in the background distance image storage unit with respect to the detection area, and between corresponding pixels The state detection device for an imaging optical system according to claim 1, wherein a pixel whose distance difference exceeds a predetermined amount is extracted as a foreground pixel. 前記状態判定部が前記撮像装置の撮像光学系の状態が適正でないと判定したとき、その旨を出力する出力部を備えた請求項1〜8のいずれかに記載の撮像光学系の状態検知装置。   The state detection device for an imaging optical system according to any one of claims 1 to 8, further comprising an output unit that outputs a message to the effect that the state determination unit determines that the state of the imaging optical system of the imaging device is not appropriate. . 撮像装置によって撮像され、距離画像入力部に入力された検知エリアの距離画像と、背景距離画像記憶部に記憶する前記検知エリアの背景距離画像とにおいて、対応する画素間の距離差が所定量を超えている画素を抽出する抽出ステップと、
前記距離画像入力部に入力された前記距離画像における、前記抽出ステップで抽出した画素の距離のばらつきを示す分散にかかる値に基づいて、前記撮像装置の撮像光学系の状態が適正であるかどうかを判定する状態判定ステップと、を備えた撮像光学系の状態検知方法。
In the distance image of the detection area captured by the imaging device and input to the distance image input unit and the background distance image of the detection area stored in the background distance image storage unit, the distance difference between corresponding pixels has a predetermined amount. An extraction step of extracting pixels that exceed,
Whether or not the state of the imaging optical system of the imaging apparatus is appropriate based on a value relating to dispersion indicating variation in pixel distance extracted in the extraction step in the distance image input to the distance image input unit A state determination step for determining the state of the imaging optical system.
撮像装置によって撮像され、距離画像入力部に入力された検知エリアの距離画像と、背景距離画像記憶部に記憶する前記検知エリアの背景距離画像とにおいて、対応する画素間の距離差が所定量を超えている画素を抽出する抽出ステップと、
前記距離画像入力部に入力された前記距離画像における、前記抽出ステップで抽出した画素の距離のばらつきを示す分散にかかる値に基づいて、前記撮像装置の撮像光学系の状態が適正であるかどうかを判定する状態判定ステップと、をコンピュータに実行させる撮像光学系の状態検知プログラム。
In the distance image of the detection area captured by the imaging device and input to the distance image input unit and the background distance image of the detection area stored in the background distance image storage unit, the distance difference between corresponding pixels has a predetermined amount. An extraction step of extracting pixels that exceed,
Whether or not the state of the imaging optical system of the imaging apparatus is appropriate based on a value relating to dispersion indicating variation in pixel distance extracted in the extraction step in the distance image input to the distance image input unit A state determination step for determining the state of the imaging optical system, causing the computer to execute a state determination step.
JP2015050239A 2015-03-13 2015-03-13 Device, method, and program for detecting state of imaging optical system Pending JP2016170061A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015050239A JP2016170061A (en) 2015-03-13 2015-03-13 Device, method, and program for detecting state of imaging optical system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015050239A JP2016170061A (en) 2015-03-13 2015-03-13 Device, method, and program for detecting state of imaging optical system

Publications (1)

Publication Number Publication Date
JP2016170061A true JP2016170061A (en) 2016-09-23

Family

ID=56982406

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015050239A Pending JP2016170061A (en) 2015-03-13 2015-03-13 Device, method, and program for detecting state of imaging optical system

Country Status (1)

Country Link
JP (1) JP2016170061A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020084957A1 (en) * 2018-10-25 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 Fault detecting device, fault detecting method, program, and range finding device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020084957A1 (en) * 2018-10-25 2020-04-30 ソニーセミコンダクタソリューションズ株式会社 Fault detecting device, fault detecting method, program, and range finding device

Similar Documents

Publication Publication Date Title
CA2934796C (en) Surface defect detecting method and surface defect detecting apparatus
JP6109357B2 (en) Information processing apparatus, information processing method, and program
JP2020008501A (en) Surface defect detection device and surface defect detection method
CN113570582B (en) Camera cover plate cleanliness detection method and detection device
JP6079948B1 (en) Surface defect detection device and surface defect detection method
JP2017524917A (en) Method for binning time-of-flight data
JP6070306B2 (en) Image processing apparatus, object detection method, and object detection program
KR20180128509A (en) A system, method and computer program product for correcting a differential image generated from a comparison of a target die with a reference die
JP7402160B2 (en) Distance measuring device and reliability determination method
JP2010181328A (en) Device, program and method for inspecting surface of solar battery wafer
US8805075B2 (en) Method and apparatus for identifying a vibrometry spectrum in imaging applications
JP6406076B2 (en) Object detection device, object detection method, and object detection program
JP7010213B2 (en) Cylindrical surface inspection device and cylindrical surface inspection method
JP2016170061A (en) Device, method, and program for detecting state of imaging optical system
KR102241989B1 (en) Semiconductor inspecting method, semiconductor inspecting apparatus and semiconductor manufacturing method
JP2014215217A (en) Object inspection device and object inspection method
US11022432B2 (en) Monitoring the scan volume of a 3D scanner
JP5802917B2 (en) Distance image camera and distance measuring method using the same
JP2014169878A (en) Apparatus for inspecting substrate
JP2017090272A (en) Shape measurement method and shape measurement device
JP6566903B2 (en) Surface defect detection method and surface defect detection apparatus
JP2014238298A (en) Measurement device, calculation device, and measurement method for inspected object, and method for manufacturing articles
JP3605579B2 (en) Dust detector, dust detection system, particle detector and dust detection method for clean room
WO2018207528A1 (en) Structure abnormality diagnosis device
KR101243126B1 (en) Apparatus for detecting defects of strip edge by using visible ray and thereof detecting method