JP6024349B2 - Monitoring device and monitoring system - Google Patents

Monitoring device and monitoring system Download PDF

Info

Publication number
JP6024349B2
JP6024349B2 JP2012216941A JP2012216941A JP6024349B2 JP 6024349 B2 JP6024349 B2 JP 6024349B2 JP 2012216941 A JP2012216941 A JP 2012216941A JP 2012216941 A JP2012216941 A JP 2012216941A JP 6024349 B2 JP6024349 B2 JP 6024349B2
Authority
JP
Japan
Prior art keywords
unit
image
irradiation
light
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012216941A
Other languages
Japanese (ja)
Other versions
JP2014072681A (en
Inventor
登 梨木
登 梨木
浩孝 矢島
浩孝 矢島
Original Assignee
サクサ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by サクサ株式会社 filed Critical サクサ株式会社
Priority to JP2012216941A priority Critical patent/JP6024349B2/en
Publication of JP2014072681A publication Critical patent/JP2014072681A/en
Application granted granted Critical
Publication of JP6024349B2 publication Critical patent/JP6024349B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、撮影した画像に基づいて物体を検出する監視装置及び監視システムに関する。   The present invention relates to a monitoring device and a monitoring system that detect an object based on a captured image.

従来、一方向から照射された光により生じた影を撮影することで物品の有無を検出する装置が知られている(例えば、特許文献1を参照)。従来の監視装置においては、撮影した画像と予め物品が存在しない状態で撮影された基準画像とを比較することにより物品の影の画像を特定し、影画像の有無によって物品の有無を検出する。   2. Description of the Related Art Conventionally, there is known an apparatus that detects the presence or absence of an article by photographing a shadow generated by light emitted from one direction (see, for example, Patent Document 1). In a conventional monitoring apparatus, a shadow image of an article is specified by comparing the photographed image with a reference image that has been photographed in advance in the absence of the article, and the presence or absence of the article is detected based on the presence or absence of the shadow image.

特開平8−146147号公報JP-A-8-146147

ところが、従来の監視装置においては一方向からの光照射によって生じる影に基づいて物体を検出するため、物体に光が照射される方向によっては影がほとんど生じない場合があった。例えば、物体が薄い形状をしている場合に、幅が小さな側面に向かって照射された光によって生じる影を検出することは困難であった。   However, in the conventional monitoring device, since an object is detected based on a shadow generated by light irradiation from one direction, there is a case where there is almost no shadow depending on the direction in which the object is irradiated with light. For example, when an object has a thin shape, it is difficult to detect a shadow caused by light irradiated toward a side surface having a small width.

また、従来の監視装置においては、黒く写っている画像領域が物体の影であるのか路面上の汚れであるのかを判別することが困難であった。したがって、単なる汚れであるにもかかわらず影であると誤認したり、物体の影であるにもかかわらず汚れであると誤認したりするという問題が生じていた。   Further, in the conventional monitoring device, it is difficult to determine whether the image area shown in black is a shadow of an object or dirt on the road surface. Therefore, there has been a problem that it is misidentified as a shadow in spite of being mere dirt, or misidentified as being dirt despite being a shadow of an object.

そこで、本発明はこれらの点を鑑みてなされたものであり、それぞれ異なる向きから複数の光を照射することによって、物体の形状によらず高い精度で物体を検出することができる監視装置を提供することを目的とする。   Therefore, the present invention has been made in view of these points, and provides a monitoring device that can detect an object with high accuracy regardless of the shape of the object by irradiating a plurality of lights from different directions. The purpose is to do.

上記課題を解決するために、本発明の第1の態様においては、物体を撮影して撮影画像を生成する撮影部から撮影画像を取得する取得部と、物体に対してそれぞれ異なる向きから複数の光を照射する照射部を制御する制御部と、撮影画像における、照射部が前記物体に複数の光を照射することにより生じた影の画像を認識する認識部と、認識部が認識した影に少なくとも基づいて物体を検出する検出部とを備える監視装置を提供する。   In order to solve the above problems, in the first aspect of the present invention, an acquisition unit that acquires a captured image from an imaging unit that captures an object and generates a captured image, and a plurality of objects from different directions with respect to the object A control unit that controls an irradiation unit that emits light, a recognition unit that recognizes an image of a shadow generated by the irradiation unit irradiating the object with a plurality of lights, and a shadow that is recognized by the recognition unit. There is provided a monitoring device including a detection unit that detects an object based on at least.

上記記載の監視装置において、制御部は、照射部に複数の光を順次異なる向きから照射させてもよい。監視装置は、照射部が光を照射したタイミングにおいて撮影された複数の撮影画像を抽出する撮影画像抽出部と、撮影画像抽出部が抽出した複数の撮影画像を比較することにより影の画像を抽出する影画像抽出部とをさらに有してもよい。   In the monitoring apparatus described above, the control unit may cause the irradiation unit to sequentially irradiate a plurality of lights from different directions. The monitoring device extracts a shadow image by comparing a captured image extraction unit that extracts a plurality of captured images captured at a timing when the irradiation unit emits light and a plurality of captured images extracted by the captured image extraction unit. And a shadow image extraction unit that performs the operation.

また、上記記載の監視装置において、制御部は、照射部が光を照射するタイミングに同期して撮影部に撮影させてもよい。監視装置は、撮影画像から物体の画像を抽出する物体画像抽出部をさらに有してもよく、検出部は、物体の画像及び影の画像のうちの少なくとも1つに基づいて、物体の高さ、面積及び体積のうちの少なくとも1つを検出してもよい。   Moreover, in the monitoring apparatus described above, the control unit may cause the imaging unit to capture images in synchronization with the timing at which the irradiation unit emits light. The monitoring apparatus may further include an object image extraction unit that extracts an image of the object from the captured image, and the detection unit detects the height of the object based on at least one of the image of the object and the image of the shadow. , At least one of area and volume may be detected.

監視装置において、照射部は、検出部が検出した物体の位置にコヒーレント光を照射し、検出部は、撮影画像に写ったコヒーレント光の形状に基づいて、物体の高さ、面積及び体積のうちの少なくとも1つを検出してもよい。また、監視装置において、撮影部は、道路を走行する車両を撮影し、照射部は、撮影部が撮影した撮影画像に車両が写っていない間に光を照射してもよい。   In the monitoring device, the irradiating unit irradiates the position of the object detected by the detecting unit with coherent light, and the detecting unit is based on the shape of the coherent light reflected in the photographed image, among the height, area, and volume of the object. At least one of the above may be detected. In the monitoring device, the photographing unit may photograph a vehicle traveling on the road, and the irradiating unit may irradiate light while the vehicle is not reflected in a photographed image photographed by the photographing unit.

本発明の第2の態様においては、物体を撮影して撮影画像を生成する撮影装置と、物体に光を照射する照射装置と、撮影画像を解析するデータ管理装置とを備える監視システムであって、物体に対してそれぞれ異なる向きから複数の光を照射するべく照射装置を制御する制御部と、撮影画像における、照射装置が物体に複数の光を照射することにより生じた影の画像を認識する認識部と、認識部が認識した影に少なくとも基づいて物体を検出する検出部とを有する監視システムを提供する。   According to a second aspect of the present invention, there is provided a monitoring system including an imaging device that captures an object and generates a captured image, an irradiation device that irradiates the object with light, and a data management device that analyzes the captured image. A control unit that controls the irradiation device to irradiate a plurality of lights from different directions on the object, and recognizes an image of a shadow generated by the irradiation device irradiating the object with a plurality of lights in the captured image Provided is a monitoring system including a recognition unit and a detection unit that detects an object based at least on a shadow recognized by the recognition unit.

本発明の第3の態様においては、物体を撮影して撮影画像を生成する撮影装置と、物体に光を照射する照射装置とを備える監視システムであって、撮影装置が、物体に対してそれぞれ異なる向きから複数の光を照射するべく照射装置を制御する制御部と、撮影画像における、照射装置が物体に複数の光を照射することにより生じた影の画像を認識する認識部と、認識部が認識した影に少なくとも基づいて物体を検出する検出部とを有する監視システムを提供する。   According to a third aspect of the present invention, there is provided a monitoring system including an imaging device that captures an object and generates a captured image, and an irradiation device that irradiates the object with light. A control unit that controls the irradiation device to irradiate a plurality of lights from different directions; a recognition unit that recognizes an image of a shadow generated by the irradiation device irradiating the object with a plurality of lights in the captured image; and a recognition unit And a detection unit that detects an object based at least on the shadow recognized by the computer.

本発明によれば、それぞれ異なる向きから複数の光を照射することによって、物体の形状によらず高い精度で物品を検出することができるという効果を奏する。   According to the present invention, it is possible to detect an article with high accuracy regardless of the shape of an object by irradiating a plurality of lights from different directions.

第1の実施形態における監視システムの構成例を示す。The structural example of the monitoring system in 1st Embodiment is shown. 第1の実施形態における監視システムの使用態様の一例を示す。An example of the usage aspect of the monitoring system in 1st Embodiment is shown. 第1の実施形態の監視装置の構成例を示す。1 shows a configuration example of a monitoring apparatus according to a first embodiment. 第1の実施形態の監視装置の他の構成例を示す。The other structural example of the monitoring apparatus of 1st Embodiment is shown. 撮影画像における位置座標を示す。The position coordinate in a picked-up image is shown. 撮影画像における位置座標と実際の撮影領域における位置との関係の一例を示す。An example of the relationship between the position coordinate in a picked-up image and the position in an actual imaging region is shown. 照射部が物体に光を照射している態様の上面視図である。It is a top view of the aspect in which the irradiation part is irradiating the object with light. 照射部が物体に光を照射している態様の側面視図である。It is a side view of the aspect in which the irradiation part is irradiating the object with light. 照射部がコヒーレント光を照射する態様を示す。The aspect which an irradiation part irradiates coherent light is shown. コヒーレント光が照射された物体が写っている撮影画像の一例を示す。An example of a captured image showing an object irradiated with coherent light is shown. 第2の実施形態の監視システムの構成例を示す。The structural example of the monitoring system of 2nd Embodiment is shown. 第3の実施形態の監視システムの構成例を示す。The structural example of the monitoring system of 3rd Embodiment is shown.

<第1の実施形態>
[監視システム10の構成]
図1は、第1の実施形態における監視システム10の構成例を示す。図2は、第1の実施形態における監視システム10の使用態様の一例を示す。
<First Embodiment>
[Configuration of the monitoring system 10]
FIG. 1 shows a configuration example of a monitoring system 10 in the first embodiment. FIG. 2 shows an example of how the monitoring system 10 is used in the first embodiment.

図1において、監視システム10は、例えばデイジーチェーン接続された複数の監視装置100(監視装置100−1、監視装置100−2、・・・、監視装置100−n、ただしnは3以上の自然数)と、複数の監視装置100と接続されたデータ管理装置400とを備える。データ管理装置400は、例えばサーバである。複数の監視装置100の間は、通信線50により接続されている。通信線50は、例えばLAN(ローカルエリアネットワーク)用の8芯ケーブルである。   In FIG. 1, a monitoring system 10 includes, for example, a plurality of monitoring devices 100 (monitoring device 100-1, monitoring device 100-2,..., Monitoring device 100-n connected in a daisy chain, where n is a natural number of 3 or more. And a data management device 400 connected to the plurality of monitoring devices 100. The data management device 400 is a server, for example. A plurality of monitoring devices 100 are connected by a communication line 50. The communication line 50 is an 8-core cable for LAN (local area network), for example.

監視システム10は、データ管理装置400と監視装置100−1との間にハブ500を備えてもよい。それぞれの監視装置100は、ハブ500を介してデータ管理装置400に接続してもよい。監視システム10は、ハブ500に接続された複数の監視装置100の群を複数備えてもよい。監視システム10は、監視装置100が撮影した画像を表示するモニタ600を備えてもよい。   The monitoring system 10 may include a hub 500 between the data management device 400 and the monitoring device 100-1. Each monitoring device 100 may be connected to the data management device 400 via the hub 500. The monitoring system 10 may include a plurality of groups of monitoring devices 100 connected to the hub 500. The monitoring system 10 may include a monitor 600 that displays an image captured by the monitoring device 100.

図2に示すように、監視装置100は、複数の異なる位置から照射された光によって生じた物体の影の画像と当該物体の画像とを含む撮影画像を生成する。具体的には、監視装置100は、第1の照射範囲に照射される第1の光、及び、第2の照射範囲に照射される第2の光により生じた影の画像に基づいて物体の有無を検出する。光は、監視装置100が設置された位置から照射されてもよく、監視装置100以外の位置から照射されてもよい。   As shown in FIG. 2, the monitoring apparatus 100 generates a captured image including an image of an object shadow caused by light emitted from a plurality of different positions and the image of the object. Specifically, the monitoring apparatus 100 detects the object based on the image of the shadow caused by the first light irradiated on the first irradiation range and the second light irradiated on the second irradiation range. Detect the presence or absence. The light may be emitted from a position where the monitoring apparatus 100 is installed, or may be emitted from a position other than the monitoring apparatus 100.

[監視装置100の基本構成]
図3は、第1の実施形態における監視装置100の構成例を示す。監視装置100は、撮影部110、取得部120、照射部130、制御部140、認識部142、検出部144及び送受信部150を備える。撮影部110は、例えばレンズ及びCCD(電荷結合素子)を有し、物体を撮影して撮影画像を生成する。撮影部110が複数のレンズを有し、立体画像を撮影することが好ましい。
[Basic configuration of monitoring apparatus 100]
FIG. 3 shows a configuration example of the monitoring apparatus 100 according to the first embodiment. The monitoring device 100 includes an imaging unit 110, an acquisition unit 120, an irradiation unit 130, a control unit 140, a recognition unit 142, a detection unit 144, and a transmission / reception unit 150. The photographing unit 110 includes, for example, a lens and a CCD (charge coupled device), and photographs an object to generate a photographed image. It is preferable that the imaging unit 110 has a plurality of lenses and captures a stereoscopic image.

取得部120は、撮影部110から撮影画像を取得する。取得部120は、撮影部110が生成した物体の撮影画像を取得し、取得した撮影画像に基づく画像信号をアナログ/デジタル変換して生成したデジタル画像を認識部142に送信してもよい。   The acquisition unit 120 acquires a captured image from the imaging unit 110. The acquisition unit 120 may acquire a captured image of the object generated by the imaging unit 110 and transmit a digital image generated by performing analog / digital conversion on an image signal based on the acquired captured image to the recognition unit 142.

照射部130は、物体に対してそれぞれ異なる向きから複数の光を照射する。例えば、照射部130は、照射方向を変化させることができる複数の光源を有する。複数の光源は、監視装置100の筐体内の異なる位置に設けられていてもよく、ケーブルを介して監視装置100の筐体に接続されていてもよい。照射部130が照射する光は可視光であってもよく、赤外光や紫外光であってもよい。   The irradiation unit 130 irradiates the object with a plurality of lights from different directions. For example, the irradiation unit 130 includes a plurality of light sources that can change the irradiation direction. The plurality of light sources may be provided at different positions in the casing of the monitoring apparatus 100, or may be connected to the casing of the monitoring apparatus 100 via a cable. The light irradiated by the irradiation unit 130 may be visible light, or may be infrared light or ultraviolet light.

制御部140は、照射部130を制御する。具体的には、制御部140は、照射部130が光を照射するタイミング、光を照射する向き及び光の強さの少なくとも1つを制御する。制御部140は、撮影部110が画像を撮影するタイミングを制御してもよい。   The control unit 140 controls the irradiation unit 130. Specifically, the control unit 140 controls at least one of the timing at which the irradiation unit 130 irradiates light, the direction in which light is irradiated, and the intensity of light. The control unit 140 may control the timing at which the imaging unit 110 captures an image.

撮影部110が道路を走行する車両を撮影する監視装置100において、制御部140は、例えば、照射部130が照射した光が届く範囲に車両がいない間に、照射部130に光を照射させる。具体的には、制御部140は、直前の所定の時間内に撮影した撮影画像に車両が写っていないことを確認すると、照射部130に光を照射させる。制御部140は、隣接する他の監視装置100が撮影した撮影画像に車両が写っていないタイミングで照射部130に光を照射させてもよい。   In the monitoring device 100 in which the imaging unit 110 captures a vehicle traveling on a road, the control unit 140 causes the irradiation unit 130 to irradiate light, for example, while the vehicle is not in a range where the light irradiated by the irradiation unit 130 reaches. Specifically, the control unit 140 causes the irradiating unit 130 to irradiate light when it is confirmed that the vehicle is not captured in the captured image captured within a predetermined time immediately before. The control unit 140 may cause the irradiation unit 130 to irradiate light at a timing at which the vehicle is not shown in a captured image captured by another adjacent monitoring device 100.

認識部142は、撮影画像における、照射部130が物体に複数の光を照射することにより生じた影の画像を認識する。照射部130が、それぞれ異なる向きから複数の光を照射するので、物体の形状によらず、認識部142が認識することができる大きさの影が生じる。   The recognition unit 142 recognizes an image of a shadow generated by the irradiation unit 130 irradiating the object with a plurality of lights in the captured image. Since the irradiation unit 130 irradiates a plurality of lights from different directions, a shadow having a size that can be recognized by the recognition unit 142 is generated regardless of the shape of the object.

例えば、認識部142は、撮影画像において輝度が比較的低い領域を影画像と認識する。照射部130が照射する光の強さが十分に強い場合は、物体自体の色が黒色だったとしても、光が当たることで影以外の領域が白く写る。そこで、認識部142は、撮影画像における所定の色の領域(例えば、黒色の領域)を影画像と認識してもよい。   For example, the recognition unit 142 recognizes a region having a relatively low luminance in the captured image as a shadow image. When the intensity of light emitted by the irradiating unit 130 is sufficiently strong, even if the color of the object itself is black, the area other than the shadow appears white when it hits the light. Therefore, the recognition unit 142 may recognize a predetermined color area (for example, a black area) in the captured image as a shadow image.

検出部144は、撮影画像における物体の有無を検出する。具体的には、検出部144は、認識部142が認識した影の画像に少なくとも基づいて物体を検出する。例えば、認識部142が影の画像を認識した場合、検出部144は立体的な物体が存在すると検出する。検出部144は、認識部142が認識した影の画像が所定の大きさよりも大きい場合に、物体があると判断してもよい。検出部144は、他の監視装置100及びデータ管理装置400に物体が検出されたことを通知してもよい。   The detection unit 144 detects the presence or absence of an object in the captured image. Specifically, the detection unit 144 detects an object based at least on the shadow image recognized by the recognition unit 142. For example, when the recognition unit 142 recognizes a shadow image, the detection unit 144 detects that a three-dimensional object exists. The detection unit 144 may determine that there is an object when the shadow image recognized by the recognition unit 142 is larger than a predetermined size. The detection unit 144 may notify the other monitoring device 100 and the data management device 400 that an object has been detected.

送受信部150は、検出部144が物体を検出したことをデータ管理装置400に送信するとともに、データ管理装置400から各種の情報を受信する。送受信部150は、デイジーチェーン接続された他の監視装置100との間でデータを送受信してもよい。例えば、監視装置100−2の送受信部150は、隣接する監視装置100−3の送受信部150から画像を受信するとともに、監視装置100−1の送受信部150を介してデータ管理装置400に送信する。   The transmission / reception unit 150 transmits to the data management device 400 that the detection unit 144 has detected an object, and receives various types of information from the data management device 400. The transmission / reception unit 150 may transmit / receive data to / from another monitoring device 100 connected in a daisy chain. For example, the transmission / reception unit 150 of the monitoring device 100-2 receives an image from the transmission / reception unit 150 of the adjacent monitoring device 100-3 and transmits the image to the data management device 400 via the transmission / reception unit 150 of the monitoring device 100-1. .

以上の通り、監視装置100が、複数の異なる向きから照射された光によって生じた影に基づいて物体を検出することにより、物体が薄い形状をしている場合であっても、高い精度で物体を検出することができる。   As described above, the monitoring device 100 detects an object based on a shadow generated by light irradiated from a plurality of different directions, so that even if the object has a thin shape, the object is highly accurate. Can be detected.

[光を順次異なる向きから照射させる]
図4は、第1の実施形態における監視装置100の他の構成例を示す。図4は、撮影画像抽出部170、影画像抽出部180及び物体画像抽出部190をさらに有する点で、図3に示した監視装置100と異なる。
[Light is emitted sequentially from different directions]
FIG. 4 shows another configuration example of the monitoring device 100 according to the first embodiment. 4 is different from the monitoring apparatus 100 shown in FIG. 3 in that it further includes a captured image extraction unit 170, a shadow image extraction unit 180, and an object image extraction unit 190.

制御部140は、照射部130に複数の光を順次異なる向きから照射させてもよい。照射部130が複数の光を順次異なる向きから物体に照射することで、撮影部110は、それぞれ異なる向きから光を照射させたときの物体の画像及び物体の影画像を含む撮影画像を複数生成することができる。   The control unit 140 may cause the irradiation unit 130 to sequentially irradiate a plurality of lights from different directions. When the irradiation unit 130 sequentially irradiates the object with a plurality of lights from different directions, the imaging unit 110 generates a plurality of captured images including an image of the object and a shadow image of the object when the light is irradiated from different directions. can do.

撮影画像抽出部170は、撮影部110が撮影した複数の撮影画像から、照射部130が光を照射したタイミングにおいて撮影された複数の撮影画像を抽出する。例えば、撮影画像抽出部170は、撮影画像の輝度に基づいて、照射部130が光を照射したタイミングで撮影された撮影画像を抽出する。   The captured image extraction unit 170 extracts a plurality of captured images captured at the timing when the irradiation unit 130 irradiates light from a plurality of captured images captured by the capturing unit 110. For example, the captured image extraction unit 170 extracts a captured image captured at the timing when the irradiation unit 130 irradiates light based on the luminance of the captured image.

影画像抽出部180は、撮影部110が撮影した撮影画像から影の画像を抽出する。具体的には、影画像抽出部180は、撮影画像抽出部170が抽出した複数の撮影画像を比較することにより影の画像を抽出する。例えば、影画像抽出部180は、撮影画像抽出部170が抽出した撮影画像のうち、照射された光の方向がそれぞれ異なる複数の撮影画像を比較し、複数の撮影画像の間で輝度及び色度の少なくとも1つが異なる領域を影画像と判断する。   The shadow image extraction unit 180 extracts a shadow image from the captured image captured by the imaging unit 110. Specifically, the shadow image extraction unit 180 extracts a shadow image by comparing a plurality of captured images extracted by the captured image extraction unit 170. For example, the shadow image extraction unit 180 compares a plurality of captured images with different directions of irradiated light among the captured images extracted by the captured image extraction unit 170, and brightness and chromaticity among the plurality of captured images. A region in which at least one of the two is different is determined as a shadow image.

制御部140は、照射部130が光を照射するタイミングに同期して撮影部110に撮影させてもよい。制御部140が、照射部130の光を照射するタイミングに同期して撮影部110に撮影させることによって、撮影画像抽出部170が大量の撮影画像から光が照射されたタイミングの画像を抽出する必要がなくなる。   The control unit 140 may cause the photographing unit 110 to photograph in synchronization with the timing when the irradiation unit 130 irradiates light. The control unit 140 causes the image capturing unit 110 to perform image capturing in synchronization with the light irradiation timing of the irradiation unit 130, so that the captured image extraction unit 170 needs to extract an image at the time when light is irradiated from a large number of captured images. Disappears.

[物体の大きさを検出する]
監視装置100は、物体の大きさを算出するために、撮影画像から物体の画像を抽出する物体画像抽出部190をさらに備えてもよい。物体画像抽出部190は、例えば、影画像抽出部180が抽出した複数の影画像に囲まれた領域を物体画像として抽出する。物体画像抽出部190は、撮影画像内の輝度及び色度の少なくとも1つに基づいて物体画像を抽出してもよい。
[Detect the size of an object]
The monitoring apparatus 100 may further include an object image extraction unit 190 that extracts an object image from the captured image in order to calculate the size of the object. For example, the object image extraction unit 190 extracts an area surrounded by a plurality of shadow images extracted by the shadow image extraction unit 180 as an object image. The object image extraction unit 190 may extract an object image based on at least one of luminance and chromaticity in the captured image.

検出部144は、物体画像抽出部190が抽出した物体の画像及び影画像抽出部180が抽出した影の画像のうちの少なくとも1つに基づいて、物体の高さ、面積、体積のうちの少なくとも1つを検出する。検出部144は、以下に説明する撮影画像における位置座標と道路上の実際の位置との関係に基づいて、物体の大きさを検出してもよい。   The detection unit 144 is based on at least one of the object image extracted by the object image extraction unit 190 and the shadow image extracted by the shadow image extraction unit 180, and includes at least one of the height, area, and volume of the object. Detect one. The detection unit 144 may detect the size of the object based on the relationship between the position coordinates in the captured image described below and the actual position on the road.

図5は、撮影画像における位置座標を示す。撮影画像における車両の進行方向に平行な方向にX軸が設けられ、X軸と垂直な方向にY軸が設けられている。撮影画像の解像度が例えばXGA(画素数1024×768)である場合には、X軸上の座標の最大値は1024であり、Y軸上の座標の最大値は768である。本明細書においては、X軸上の位置がx、Y軸上の位置がyの物体の位置座標を(x,y)と表記する。例えば、画素数1024×768の撮影画像の中央に写っている物体の位置座標は、(512,384)と表される。   FIG. 5 shows position coordinates in the captured image. An X axis is provided in a direction parallel to the traveling direction of the vehicle in the captured image, and a Y axis is provided in a direction perpendicular to the X axis. When the resolution of the captured image is, for example, XGA (number of pixels: 1024 × 768), the maximum value of coordinates on the X axis is 1024, and the maximum value of coordinates on the Y axis is 768. In this specification, the position coordinates of an object whose position on the X-axis is x and whose position on the Y-axis is y are expressed as (x, y). For example, the position coordinates of an object shown in the center of a 1024 × 768 captured image is represented as (512, 384).

図6は、撮影画像における位置座標と実際の撮影領域における位置との関係の一例を示す。図6に示す台形は、撮影部110が撮影した画像に写っている道路上の領域を示している。撮影された領域の境界線上のA、B、C、D、E、Fの各点は、それぞれ位置座標(0,0)、(0,384)、(0,768)、(1024,0)、(1024,384)、(1024,768)に対応する。   FIG. 6 shows an example of the relationship between the position coordinates in the captured image and the position in the actual capturing area. The trapezoid shown in FIG. 6 indicates an area on the road that is reflected in the image captured by the imaging unit 110. The points A, B, C, D, E, and F on the boundary line of the photographed area are the position coordinates (0, 0), (0, 384), (0, 768), (1024, 0), respectively. , (1024, 384), (1024, 768).

図6の例では、AD間の距離が5m、CF間の距離が10mであり、X軸方向の1画素あたりの実際の長さはY軸方向の位置によって異なることがわかる。同様に、AB間の画素数とBC間の画素数は等しいにもかかわらず、実際のAB間の距離はBC間の距離よりも短い。このように、Y軸方向の1画素あたりの実際の長さもY軸方向の位置によって異なる。   In the example of FIG. 6, the distance between AD is 5 m and the distance between CF is 10 m, and it can be seen that the actual length per pixel in the X-axis direction differs depending on the position in the Y-axis direction. Similarly, although the number of pixels between AB and the number of pixels between BC are equal, the actual distance between AB is shorter than the distance between BC. Thus, the actual length per pixel in the Y-axis direction also varies depending on the position in the Y-axis direction.

図7Aは、照射部130が物体に光を照射している態様の上面視図である。図7Bは、図7Aで示した照射部130が物体に対して光を照射している態様の側面視図である。監視装置100は、地面から高さhの位置から高さH、幅W、奥行きDの直方体形状の物体に光を照射している。監視装置100から影の先端のS点までの距離はdである。以下、本実施形態においては、撮影部110が物体の上部に設置されており、図7Aに示す撮影画像が撮影されたものとして説明する。   FIG. 7A is a top view of an aspect in which the irradiation unit 130 irradiates the object with light. FIG. 7B is a side view of the aspect in which the irradiation unit 130 shown in FIG. 7A irradiates the object with light. The monitoring device 100 irradiates light on a rectangular parallelepiped object having a height H, a width W, and a depth D from a position at a height h from the ground. The distance from the monitoring device 100 to the point S at the tip of the shadow is d. Hereinafter, in the present embodiment, it is assumed that the photographing unit 110 is installed on the top of the object and the photographed image illustrated in FIG. 7A is photographed.

図7Aに示されるように、光が照射されることにより、X座標方向の長さがHs、Y座標方向の最小長がW、最大長がWsの台形状の影が生じている。検出部144は、撮影画像における影のX座標方向の長さHsに基づいて、物体の高さHをH=Hs×h/dにより算出する。検出部144は、影のY座標方向の最小長Wに基づいて物体の幅Wを求めることができる。検出部144は、物体の高さH及び幅Wに基づいて、監視装置100から最も離れた第1の側面の面積A1を算出することができる。   As shown in FIG. 7A, irradiation with light causes a trapezoidal shadow having a length in the X coordinate direction of Hs, a minimum length in the Y coordinate direction of W, and a maximum length of Ws. The detection unit 144 calculates the height H of the object by H = Hs × h / d based on the length Hs of the shadow in the X coordinate direction in the captured image. The detection unit 144 can determine the width W of the object based on the minimum length W of the shadow in the Y coordinate direction. The detection unit 144 can calculate the area A1 of the first side surface farthest from the monitoring device 100 based on the height H and width W of the object.

同様にして、検出部144は、Y座標方向に照射される光に生じた影に基づいて、第1の側面と直交する方向の側面の長さLを算出することができる。検出部144は、面積A1×長さLによって物体の体積Vを算出することができる。   Similarly, the detection unit 144 can calculate the length L of the side surface in the direction orthogonal to the first side surface based on the shadow generated in the light irradiated in the Y coordinate direction. The detection unit 144 can calculate the volume V of the object by area A1 × length L.

検出部144は、物体の画像に基づいて物体の高さ、面積及び体積を算出してもよい。例えば、撮影画像に直方体形状の物体の3つの辺が写っている場合に、検出部144は、Y軸方向の辺の長さに基づいて物体の高さHを算出することができる。検出部144は、2つの辺の長さを積算することにより側面の面積を算出してもよく、物体の高さHと側面の面積とを積算することにより体積を算出してもよい。検出部144は、物体の画像及び影の画像に基づいて、物体の高さ、面積及び体積を算出してもよい。   The detection unit 144 may calculate the height, area, and volume of the object based on the image of the object. For example, when three sides of a rectangular parallelepiped object are captured in the captured image, the detection unit 144 can calculate the height H of the object based on the length of the side in the Y-axis direction. The detection unit 144 may calculate the area of the side surface by integrating the lengths of the two sides, or may calculate the volume by integrating the height H of the object and the area of the side surface. The detection unit 144 may calculate the height, area, and volume of the object based on the object image and the shadow image.

制御部140は、検出部144が検出した物体の大きさに基づいて、物体の危険度を算出してもよい。制御部140は、物体の大きさ及び危険度の少なくとも1つを出力してもよい。制御部140は、送受信部150を介して、他の監視装置100又はデータ管理装置400に物体の大きさ及び危険度の少なくとも1つを送信してもよい。   The control unit 140 may calculate the risk level of the object based on the size of the object detected by the detection unit 144. The control unit 140 may output at least one of the size and risk level of the object. The control unit 140 may transmit at least one of the size and the risk level of the object to another monitoring device 100 or the data management device 400 via the transmission / reception unit 150.

以上の通り、監視装置100が物体の大きさを検出することで、例えば車道に落下物がある場合に、監視装置100は物体の大きさに応じて情報を表示したり、他のデータ管理装置に情報を提供したりすることにより、運転手や道路の管理者に注意を促すことができる。   As described above, when the monitoring device 100 detects the size of the object, for example, when there is a falling object on the roadway, the monitoring device 100 displays information according to the size of the object, or other data management device. By providing information to the driver, the driver and the road manager can be alerted.

[コヒーレント光を照射して物体の大きさを検出する]
照射部130は、検出部144が検出した物体の位置にコヒーレント光を照射し、検出部144は、撮影画像に写ったコヒーレント光の形状に基づいて、物体の有無を検出してもよい。さらに、検出部144は、コヒーレント光の形状に基づいて、物体の高さ、面積及び体積のうちの少なくとも1つを検出してもよい。ここで、コヒーレント光とは、レーザー光のように、拡散しにくく遠方まで届く性質を持つ光である。
[Detect the size of an object by irradiating coherent light]
The irradiation unit 130 may irradiate the position of the object detected by the detection unit 144 with coherent light, and the detection unit 144 may detect the presence or absence of the object based on the shape of the coherent light reflected in the captured image. Furthermore, the detection unit 144 may detect at least one of the height, area, and volume of the object based on the shape of the coherent light. Here, the coherent light is light having a property of being difficult to diffuse and reaching far, like laser light.

図8は、トンネル内に設置された照射部130がコヒーレント光を照射する態様を示す。図9は、コヒーレント光が照射された物体が写っている撮影画像の一例を示す。照射部130は、撮影部110が撮影する範囲内の所定の領域にコヒーレント光が順次照射されるように、コヒーレント光を照射する方向を変化させる。コヒーレント光が物体に当たると、撮影部110は、物体上のコヒーレント光の筋を撮影することができる。   FIG. 8 shows a mode in which the irradiation unit 130 installed in the tunnel emits coherent light. FIG. 9 shows an example of a photographed image showing an object irradiated with coherent light. The irradiation unit 130 changes the direction in which the coherent light is irradiated so that the predetermined region within the range captured by the imaging unit 110 is sequentially irradiated with the coherent light. When the coherent light hits the object, the imaging unit 110 can capture the streaks of the coherent light on the object.

コヒーレント光は、物体の稜線において方向が変化する。図8の例においては、コヒーレント光は道路上を直進した後に、物体と地面が接する位置a点で進行方向が変化する。さらに、物体の複数の側面に沿って直進して物体の稜線上の位置bで進行方向が変化した後に、他の稜線上の位置cまで直進する。   The direction of the coherent light changes along the ridgeline of the object. In the example of FIG. 8, after the coherent light travels straight on the road, the traveling direction changes at a position a where the object and the ground contact. Furthermore, after moving straight along a plurality of side surfaces of the object and changing the traveling direction at a position b on the ridgeline of the object, the vehicle travels straight to a position c on another ridgeline.

検出部144は、位置aと位置bとの間のコヒーレント光の長さ、及び、位置bと位置cとの間のコヒーレント光の長さに基づいて、物体の高さ、面積及び体積を検出することができる。検出部144は、位置a、位置b及び位置cの位置座標と実際の撮影領域における位置の関係を示すテーブルを参照することにより算出した、位置aと位置bとの間の実際の長さ、及び、位置bと位置cとの間の実際の長さに基づいて、物体の大きさを算出してもよい。   The detection unit 144 detects the height, area, and volume of the object based on the length of the coherent light between the position a and the position b and the length of the coherent light between the position b and the position c. can do. The detection unit 144 calculates an actual length between the position a and the position b calculated by referring to a table indicating the relationship between the position coordinates of the position a, the position b, and the position c and the position in the actual imaging region. Further, the size of the object may be calculated based on the actual length between the position b and the position c.

具体的には、検出部144は、コヒーレント光が物体の側面を直進する長さに基づいて、物体の高さを算出することができる。検出部144は、異なる方向の複数のコヒーレント光が物体の側面を照射することにより生じる複数の直線の長さを用いて、側面の面積を算出することができる。例えば、検出部144は、互いに直交する2つのコヒーレント光により生じた直線を積算することにより、側面の面積を算出することができる。検出部144は、1つの側面の面積と他の側面の長さとを積算することにより、物体の体積を算出することもできる。   Specifically, the detection unit 144 can calculate the height of the object based on the length that the coherent light travels straight on the side surface of the object. The detection unit 144 can calculate the area of the side surface by using the lengths of a plurality of straight lines generated when a plurality of coherent lights in different directions irradiate the side surface of the object. For example, the detection unit 144 can calculate the area of the side surface by integrating the straight lines generated by two coherent lights orthogonal to each other. The detection unit 144 can also calculate the volume of the object by integrating the area of one side and the length of the other side.

検出部144は、さまざまな方向から照射されるコヒーレント光の進行方向が変化する位置を結ぶことにより、物体の輪郭線を検出してもよい。検出部144は、検出した輪郭線に基づいて、物体の高さ、面積及び体積の少なくとも1つを算出してもよい。   The detection unit 144 may detect the contour line of the object by connecting positions where the traveling direction of the coherent light irradiated from various directions changes. The detection unit 144 may calculate at least one of the height, area, and volume of the object based on the detected contour line.

以上のとおり、監視装置100がコヒーレント光を用いて物体の大きさを検出することで、拡散光が届きにくい遠方にある物体の有無を検出するとともに、物体の大きさを算出することができる。   As described above, the monitoring apparatus 100 detects the size of an object using coherent light, so that it is possible to detect the presence or absence of an object at a distant place where diffused light is difficult to reach and calculate the size of the object.

<第2の実施形態>
[撮影装置200及び照射装置300を含む監視システム10]
図10は、第2の実施形態に係る監視システム10の構成を示す。本実施形態に係る監視システム10は、物体を撮影する撮影装置200と、物体に光を照射する照射装置300と、撮影装置200から取得した撮影画像を解析するデータ管理装置400とを有する。
<Second Embodiment>
[Monitoring system 10 including photographing apparatus 200 and irradiation apparatus 300]
FIG. 10 shows a configuration of the monitoring system 10 according to the second embodiment. The monitoring system 10 according to the present embodiment includes an imaging device 200 that images an object, an irradiation device 300 that irradiates light on the object, and a data management device 400 that analyzes a captured image acquired from the imaging device 200.

データ管理装置400は、制御部440、認識部442、検出部444及び送受信部450を有する。制御部440、認識部442、検出部444及び送受信部450は、図3に示した制御部140、認識部142、検出部144及び送受信部150に対応し、同等の機能を有し、監視装置として機能する。   The data management apparatus 400 includes a control unit 440, a recognition unit 442, a detection unit 444, and a transmission / reception unit 450. The control unit 440, the recognition unit 442, the detection unit 444, and the transmission / reception unit 450 correspond to the control unit 140, the recognition unit 142, the detection unit 144, and the transmission / reception unit 150 illustrated in FIG. Function as.

制御部440は、送受信部450を介して、物体に対してそれぞれ異なる向きから複数の光を照射するべく照射装置300を制御する。例えば、照射装置300は物体に対して複数の方向から光を照射できるように、複数の異なる位置に設置されており、制御部440は、異なる位置に設置された複数の照射装置300を制御する。制御部440は、複数の照射装置300から物体に対して照射する複数の光の照射方向及び照射のタイミングを制御してもよい。   The control unit 440 controls the irradiation apparatus 300 to irradiate a plurality of lights on the object from different directions via the transmission / reception unit 450. For example, the irradiation device 300 is installed at a plurality of different positions so that light can be emitted to the object from a plurality of directions, and the control unit 440 controls the plurality of irradiation devices 300 installed at different positions. . The control unit 440 may control the irradiation direction and irradiation timing of a plurality of lights that are irradiated to the object from the plurality of irradiation apparatuses 300.

監視システム10は、物体を撮影する複数の撮影装置200を備えてもよい。複数の撮影装置200は、道路を走行する車両を撮影し、制御部440は、所定の範囲内の複数の撮影装置200が撮影した複数の撮影画像に車両が写っていない間に、照射装置300に光を照射させてもよい。例えば、制御部440は、複数の撮影装置200がそれぞれ撮影した撮影画像を取得し、照射装置300が設置されている地点より手前に設置された撮影装置200が生成した撮影画像に車両が写っていない場合、車両が接近していないと判断して、照射装置300に光を照射させるよう制御する。   The monitoring system 10 may include a plurality of photographing devices 200 that photograph an object. The plurality of imaging devices 200 capture a vehicle traveling on the road, and the controller 440 irradiates the irradiation device 300 while the vehicle is not captured in the plurality of captured images captured by the plurality of imaging devices 200 within a predetermined range. May be irradiated with light. For example, the control unit 440 acquires the captured images captured by the plurality of imaging devices 200, and the vehicle is reflected in the captured image generated by the imaging device 200 installed before the point where the irradiation device 300 is installed. If not, it is determined that the vehicle is not approaching, and the irradiation device 300 is controlled to emit light.

以上の通り、監視システム10において、データ管理装置400が撮影装置200から取得した画像に基づいて物体を検出することにより、画像を解析することができない安価な撮影装置200を用いて物体を検出することができる。   As described above, in the monitoring system 10, the data management apparatus 400 detects an object based on the image acquired from the imaging apparatus 200, thereby detecting the object using the inexpensive imaging apparatus 200 that cannot analyze the image. be able to.

<第3の実施形態>
[撮影装置200が照射装置300を制御する]
図11は、第3の実施形態に係る監視システム10の構成を示す。本実施形態に係る監視システム10は、物体を撮影する撮影装置200と、物体に光を照射する照射装置300を有する。
<Third Embodiment>
[Photographing apparatus 200 controls irradiation apparatus 300]
FIG. 11 shows the configuration of the monitoring system 10 according to the third embodiment. The monitoring system 10 according to the present embodiment includes an imaging device 200 that captures an object and an irradiation device 300 that irradiates the object with light.

撮影装置200は、撮影部210、制御部240、認識部242、検出部244及び送受信部250を有する。撮影部210、制御部240、認識部242、検出部244及び送受信部250は、図3に示した撮影部110、制御部140、認識部142、検出部144及び送受信部150に対応し、同等の機能を有する。   The imaging apparatus 200 includes an imaging unit 210, a control unit 240, a recognition unit 242, a detection unit 244 and a transmission / reception unit 250. The imaging unit 210, the control unit 240, the recognition unit 242, the detection unit 244, and the transmission / reception unit 250 correspond to the imaging unit 110, the control unit 140, the recognition unit 142, the detection unit 144, and the transmission / reception unit 150 illustrated in FIG. It has the function of.

制御部240は、照射装置300が光を照射するタイミング、方向及び強さの少なくとも1つを制御する。制御部は、照射装置300が光を照射するタイミングに同期して撮影部210に画像を撮影させてもよい。   The control unit 240 controls at least one of timing, direction, and intensity at which the irradiation apparatus 300 irradiates light. The control unit may cause the imaging unit 210 to capture an image in synchronization with the timing at which the irradiation apparatus 300 irradiates light.

以上の通り、本実施形態に係る監視システム10によれば、撮影装置200が照射装置300を制御するとともに、撮影画像を解析して物体を検出することにより、データ管理装置400を用いることなく物体を検出することができる。   As described above, according to the monitoring system 10 according to the present embodiment, the imaging apparatus 200 controls the irradiation apparatus 300 and analyzes the captured image to detect the object, thereby detecting the object without using the data management apparatus 400. Can be detected.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。そのような変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

10・・・監視システム、50・・・通信線、110・・・撮影部、120・・・取得部、130・・・照射部、140・・・制御部、142・・・認識部、144・・・検出部、150・・・送受信部、170・・・撮影画像抽出部、180・・・影画像抽出部、190・・・物体画像抽出部、200・・・撮影装置、210・・・撮影部、240・・・制御部、242・・・認識部、244・・・検出部、250・・・送受信部、300・・・照射装置、400・・・データ管理装置、440・・・制御部、442・・・認識部、444・・・検出部、450・・・送受信部、500・・・ハブ、600・・・モニタ DESCRIPTION OF SYMBOLS 10 ... Monitoring system, 50 ... Communication line, 110 ... Imaging | photography part, 120 ... Acquisition part, 130 ... Irradiation part, 140 ... Control part, 142 ... Recognition part, 144 ... Detection unit 150 ... Transmission / reception unit 170 ... Captured image extraction unit 180 ... Shadow image extraction unit 190 ... Object image extraction unit 200 ... Shooting device 210 ... Image capturing unit, 240 ... control unit, 242 ... recognition unit, 244 ... detection unit, 250 ... transmission / reception unit, 300 ... irradiation device, 400 ... data management device, 440 ... Control unit, 442 ... recognition unit, 444 ... detection unit, 450 ... transmission / reception unit, 500 ... hub, 600 ... monitor

Claims (8)

物体を撮影して撮影画像を生成する撮影部から前記撮影画像を取得する取得部と、
前記物体に対してそれぞれ異なる向きから複数の光を照射する照射部を制御する制御部と、
前記撮影画像における、前記照射部が前記物体に前記複数の拡散光を照射することにより生じた影の画像を認識する認識部と、
前記認識部が認識した前記影の画像に少なくとも基づいて前記物体を検出する検出部と
を備え
前記制御部は、前記照射部に、前記検出部が検出した前記物体の位置に複数の方向からコヒーレント光を更に照射させ、
前記検出部は、前記複数の方向から照射されるコヒーレント光の進行方向が変化する位置を結ぶことにより、物体の輪郭線を検出し、検出した輪郭線に基づいて、前記物体の高さ、面積及び体積のうちの少なくとも1つを検出する監視装置。
An acquisition unit that acquires the captured image from an imaging unit that captures an object and generates a captured image;
A control unit that controls an irradiation unit that irradiates a plurality of lights from different directions with respect to the object;
A recognition unit for recognizing an image of a shadow generated by the irradiation unit irradiating the object with the plurality of diffused lights in the captured image;
A detection unit that detects the object based at least on the shadow image recognized by the recognition unit ;
The control unit causes the irradiation unit to further irradiate coherent light from a plurality of directions to the position of the object detected by the detection unit,
The detection unit detects a contour line of the object by connecting positions where the traveling direction of the coherent light irradiated from the plurality of directions changes, and based on the detected contour line, the height and area of the object And a monitoring device for detecting at least one of the volumes .
前記制御部は、前記照射部に前記複数の光を順次異なる向きから照射させ、
前記監視装置は、
前記照射部が前記光を照射したタイミングにおいて撮影された複数の前記撮影画像を抽出する 撮影画像抽出部と、
前記撮影画像抽出部が抽出した前記複数の撮影画像を比較することにより前記影の画像を抽出する影画像抽出部と
をさらに備える請求項1に記載の監視装置。
The control unit causes the irradiation unit to irradiate the plurality of lights sequentially from different directions,
The monitoring device
A plurality of photographed images photographed at the timing when the irradiating unit radiates the light; a photographed image extracting unit;
The monitoring apparatus according to claim 1, further comprising: a shadow image extraction unit that extracts the shadow image by comparing the plurality of captured images extracted by the captured image extraction unit.
前記制御部は、前記照射部が前記光を照射するタイミングに同期して前記撮影部に撮影させる請求項1又は2に記載の監視装置。   The monitoring apparatus according to claim 1, wherein the control unit causes the imaging unit to perform imaging in synchronization with a timing at which the irradiation unit irradiates the light. 前記撮影画像から前記物体の画像を抽出する物体画像抽出部をさらに備え、
前記検出部は、前記物体の画像及び前記影の画像のうちの少なくとも1つに基づいて、前記物体の高さ、面積及び体積のうちの少なくとも1つを検出する請求項1から3のいずれか一項に記載の監視装置。
An object image extraction unit that extracts an image of the object from the captured image;
4. The detection unit according to claim 1, wherein the detection unit detects at least one of a height, an area, and a volume of the object based on at least one of the image of the object and the image of the shadow. The monitoring device according to one item.
前記撮影部は、道路を走行する車両を撮影し、
前記照射部は、前記撮影部が撮影した前記撮影画像に前記車両が写っていない間に前記光を照射する請求項1からのいずれか一項に記載の監視装置。
The photographing unit photographs a vehicle traveling on a road,
The monitoring device according to any one of claims 1 to 4 , wherein the irradiation unit irradiates the light while the vehicle is not reflected in the captured image captured by the imaging unit.
物体を撮影して撮影画像を生成する撮影装置と、
前記物体に光を照射する照射装置と、
前記撮影画像を解析するデータ管理装置と
を備える監視システムであって、
前記物体に対してそれぞれ異なる向きから複数の前記光を照射するべく前記照射装置を制御する制御部と、
前記撮影画像における、前記照射装置が前記物体に前記複数の拡散光を照射することにより生じた影の画像を認識する認識部と、
前記認識部が認識した前記影の画像に少なくとも基づいて前記物体を検出する検出部と
を有し、
前記制御部は、前記照射装置に、前記検出部が検出した前記物体の位置に複数の方向からコヒーレント光を更に照射させ、
前記検出部は、前記複数の方向から照射されるコヒーレント光の進行方向が変化する位置を結ぶことにより、物体の輪郭線を検出し、検出した輪郭線に基づいて、前記物体の高さ、面積及び体積のうちの少なくとも1つを検出する監視システム。
A photographing device for photographing an object and generating a photographed image;
An irradiation device for irradiating the object with light;
A monitoring system comprising a data management device for analyzing the captured image,
A control unit that controls the irradiation apparatus to irradiate the object with a plurality of light beams from different directions;
A recognition unit that recognizes an image of a shadow generated by the irradiation device irradiating the object with the plurality of diffused lights in the captured image;
A detection unit that detects the object based at least on the shadow image recognized by the recognition unit;
The control unit causes the irradiation device to further irradiate coherent light from a plurality of directions on the position of the object detected by the detection unit,
The detection unit detects a contour line of the object by connecting positions where the traveling direction of the coherent light irradiated from the plurality of directions changes, and based on the detected contour line, the height and area of the object And a monitoring system for detecting at least one of the volumes .
前記物体を撮影する複数の前記撮影装置を備え、
前記複数の撮影装置は、道路を走行する車両を撮影し、
前記制御部は、所定の範囲内の前記複数の撮影装置が撮影した複数の前記撮影画像に前記車両が写っていない間に、前記照射装置に前記光を照射させる請求項に記載の監視システム。
A plurality of the photographing devices for photographing the object;
The plurality of photographing devices photograph a vehicle traveling on a road,
The monitoring system according to claim 6 , wherein the control unit causes the irradiation apparatus to irradiate the light while the vehicle is not reflected in the plurality of captured images captured by the plurality of imaging apparatuses within a predetermined range. .
物体を撮影して撮影画像を生成する撮影装置と、
前記物体に光を照射する照射装置と
を備える監視システムであって、
前記撮影装置は、
前記物体に対してそれぞれ異なる向きから複数の前記光を照射するべく前記照射装置を制御する制御部と、
前記撮影画像における、前記照射装置が前記物体に前記複数の拡散光を照射することにより生じた影の画像を認識する認識部と、
前記認識部が認識した前記影の画像に少なくとも基づいて前記物体を検出する検出部と
を有し、
前記制御部は、前記照射装置に、前記検出部が検出した前記物体の位置に複数の方向からコヒーレント光を更に照射させ、
前記検出部は、前記複数の方向から照射されるコヒーレント光の進行方向が変化する位置を結ぶことにより、物体の輪郭線を検出し、検出した輪郭線に基づいて、前記物体の高さ、面積及び体積のうちの少なくとも1つを検出する監視システム。
A photographing device for photographing an object and generating a photographed image;
A monitoring system comprising: an irradiation device for irradiating the object with light,
The imaging device
A control unit that controls the irradiation apparatus to irradiate the object with a plurality of light beams from different directions;
A recognition unit that recognizes an image of a shadow generated by the irradiation device irradiating the object with the plurality of diffused lights in the captured image;
A detection unit that detects the object based at least on the shadow image recognized by the recognition unit;
The control unit causes the irradiation device to further irradiate coherent light from a plurality of directions on the position of the object detected by the detection unit,
The detection unit detects a contour line of the object by connecting positions where the traveling direction of the coherent light irradiated from the plurality of directions changes, and based on the detected contour line, the height and area of the object And a monitoring system for detecting at least one of the volumes .
JP2012216941A 2012-09-28 2012-09-28 Monitoring device and monitoring system Active JP6024349B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012216941A JP6024349B2 (en) 2012-09-28 2012-09-28 Monitoring device and monitoring system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012216941A JP6024349B2 (en) 2012-09-28 2012-09-28 Monitoring device and monitoring system

Publications (2)

Publication Number Publication Date
JP2014072681A JP2014072681A (en) 2014-04-21
JP6024349B2 true JP6024349B2 (en) 2016-11-16

Family

ID=50747513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012216941A Active JP6024349B2 (en) 2012-09-28 2012-09-28 Monitoring device and monitoring system

Country Status (1)

Country Link
JP (1) JP6024349B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2022176512A1 (en) * 2021-02-22 2022-08-25

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2532513B2 (en) * 1987-09-29 1996-09-11 松下電器産業株式会社 Object presence inspection method
JP2692147B2 (en) * 1988-06-29 1997-12-17 松下電器産業株式会社 Object detection method
JPH02262083A (en) * 1989-03-31 1990-10-24 Matsushita Electric Ind Co Ltd Method for detecting object by light projection
JPH0877487A (en) * 1994-09-01 1996-03-22 Toshiba Corp On-road obstacle detecting device
JPH0991433A (en) * 1995-09-28 1997-04-04 Fuji Electric Co Ltd Object monitor

Also Published As

Publication number Publication date
JP2014072681A (en) 2014-04-21

Similar Documents

Publication Publication Date Title
US10165202B2 (en) Method and system for performing alignment of a projection image to detected infrared (IR) radiation information
US10156437B2 (en) Control method of a depth camera
GB2503328B (en) Tire detection for accurate vehicle speed estimation
KR101652393B1 (en) Apparatus and Method for obtaining 3D image
US8929608B2 (en) Device and method for recognizing three-dimensional position and orientation of article
KR20220058947A (en) processing of lidar images
JP6782433B2 (en) Image recognition device
CN104769389A (en) Method and device for determining three-dimensional coordinates of an object
JP2007234019A (en) Vehicle image area specifying device and method for it
KR101371376B1 (en) Three dimensional shape measurment apparatus
US20200348127A1 (en) 3-d environment sensing by means of projector and camera modules
TW201250201A (en) Tire surface shape measuring device and tire surface shape measuring method
TWI458532B (en) System and method for detecting a shot direction of a light gun
BR112015001861A2 (en) Solid thing detecting device
US20190051005A1 (en) Image depth sensing method and image depth sensing apparatus
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
CN110651166B (en) Optoelectronic device for collecting three-dimensional data
JP6452361B2 (en) Information processing apparatus, information processing method, and program
JP6477348B2 (en) Self-position estimation apparatus and self-position estimation method
JP5482032B2 (en) Distance measuring device and distance measuring method
JP6024349B2 (en) Monitoring device and monitoring system
KR20130051134A (en) 3d location sensing system and method
JP5862217B2 (en) Marker detection and tracking device
JP2010002326A (en) Movement vector detector
KR101296365B1 (en) hologram touch detection method using camera

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160926

R150 Certificate of patent or registration of utility model

Ref document number: 6024349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111