JP2020190437A - Foreign body detection system and method - Google Patents
Foreign body detection system and method Download PDFInfo
- Publication number
- JP2020190437A JP2020190437A JP2019094735A JP2019094735A JP2020190437A JP 2020190437 A JP2020190437 A JP 2020190437A JP 2019094735 A JP2019094735 A JP 2019094735A JP 2019094735 A JP2019094735 A JP 2019094735A JP 2020190437 A JP2020190437 A JP 2020190437A
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreign matter
- target area
- matter detection
- detection system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000012545 processing Methods 0.000 claims abstract description 61
- 238000013135 deep learning Methods 0.000 claims abstract description 18
- 238000003384 imaging method Methods 0.000 claims abstract description 12
- 230000008569 process Effects 0.000 claims description 13
- 230000005540 biological transmission Effects 0.000 claims description 10
- 230000000873 masking effect Effects 0.000 claims description 6
- 230000002093 peripheral effect Effects 0.000 abstract 1
- 239000000126 substance Substances 0.000 description 7
- 238000012790 confirmation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000003213 activating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
Images
Classifications
-
- E—FIXED CONSTRUCTIONS
- E04—BUILDING
- E04H—BUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
- E04H6/00—Buildings for parking cars, rolling-stock, aircraft, vessels or like vehicles, e.g. garages
- E04H6/08—Garages for many vehicles
- E04H6/12—Garages for many vehicles with mechanical means for shifting or lifting vehicles
- E04H6/18—Garages for many vehicles with mechanical means for shifting or lifting vehicles with means for transport in vertical direction only or independently in vertical and horizontal directions
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01V—GEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
- G01V8/00—Prospecting or detecting by optical means
- G01V8/10—Detecting, e.g. by using light barriers
- G01V8/20—Detecting, e.g. by using light barriers using multiple transmitters or receivers
Landscapes
- Engineering & Computer Science (AREA)
- Architecture (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Geophysics (AREA)
- Mechanical Engineering (AREA)
- Civil Engineering (AREA)
- Structural Engineering (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Analysis (AREA)
Abstract
Description
本開示は、駐車場等の対象領域内の異物を検出するシステム、および方法に関する。 The present disclosure relates to a system and a method for detecting a foreign substance in a target area such as a parking lot.
車両が進入し、停止する空間、例えば機械式駐車場の入出庫スペース等においては、出入口の扉を開閉したり、車両を載せたパレットを運搬するといった操作を行うにあたり、車両の他に運転者や乗員、手荷物といった異物が存在しないことを確認する必要がある。こうした異物不在の確認作業は、運転者や施設の係員等が目視で行うことができるが、人力のみに頼った場合、不注意等により確認が徹底されない可能性がある。そこで、近年では、異物の不在確認を確実に行うよう、人力のみに頼ることなく、対象領域内の異物を自動で検出する技術が要請されている。 In a space where a vehicle enters and stops, for example, in a space for entering and exiting a mechanical parking lot, when opening and closing the door of the doorway and carrying a pallet on which the vehicle is placed, the driver in addition to the vehicle It is necessary to confirm that there are no foreign objects such as passengers, occupants, and baggage. Such confirmation work of the absence of foreign matter can be performed visually by the driver, facility staff, etc., but if only human power is relied on, the confirmation may not be thorough due to carelessness or the like. Therefore, in recent years, there has been a demand for a technique for automatically detecting a foreign substance in a target area without relying only on human power so as to reliably confirm the absence of the foreign substance.
また、現在、各国で開発が進められている自動運転技術が本格的に実用化されれば、車両の運転のみならず、上述の如き扉の開閉やパレットの運搬といった、車両周辺において行われる種々の操作についても自動化が進められることが想定できる。例えば、自動運転により車両が乗員を目的地に送り届けた後、自動で近傍の機械式駐車場へ移動し、格納スペースに格納されるといったケースが考えられる。この場合、車両は乗員が不在の状態で移動し、入出庫スペースに停止することになる。このとき、扉の開閉、パレットの移動の開始といった操作は、係員が異物の不在を目視で確認し、操作ボタンを入力することで実行されるようにすればよい。しかし、異物の不在を自動で確認し、操作を開始する仕組みがあればよりスムーズである。 In addition, if the automated driving technology currently being developed in each country is put into practical use in earnest, not only driving the vehicle but also various things such as opening and closing doors and transporting pallets as described above will be performed around the vehicle. It can be assumed that automation will be promoted for the operation of. For example, there may be a case where the vehicle delivers the occupant to the destination by automatic driving, then automatically moves to a nearby mechanical parking lot and is stored in the storage space. In this case, the vehicle moves in the absence of the occupants and stops in the entry / exit space. At this time, operations such as opening and closing the door and starting the movement of the pallet may be executed by the person in charge visually confirming the absence of foreign matter and inputting the operation button. However, it will be smoother if there is a mechanism to automatically confirm the absence of foreign matter and start the operation.
このような異物の検出を行う仕組みは、機械式駐車場だけでなく、例えば電気自動車の給電設備等、停止した車両の周辺で何らかの操作を行う場所において広く必要とされ得る。また、同様の仕組みは、車両に限らず何らかの物体の周辺において異物を検出したい局面に広く適用され得る。 Such a mechanism for detecting a foreign substance may be widely required not only in a mechanical parking lot but also in a place where some operation is performed in the vicinity of a stopped vehicle such as a power supply facility for an electric vehicle. Further, the same mechanism can be widely applied not only to a vehicle but also to a situation where foreign matter is desired to be detected around some object.
対象領域内の異物を自動的に検出するための技術として、カメラ等を用いて対象領域内の画像を取得し、該画像内に写り込んだ異物を検出する方法が種々提案されている。こうした技術を記載した技術文献としては、例えば下記特許文献1〜6が挙げられる。
As a technique for automatically detecting foreign matter in the target area, various methods have been proposed in which an image in the target area is acquired by using a camera or the like and the foreign matter reflected in the image is detected. Examples of technical documents describing such techniques include the following
上述の如き異物検出のための技術においては、検出に最低限の精度が要求されることは勿論であるが、それに加え、なるべく装置構成を簡素にすることが、建設あるいはメンテナンス等にかかるコストの面で重要である。しかしながら、上記特許文献1〜6に記載の如き技術は、いずれも精度とコストの両面を十分に満足するには必ずしも至っていなかった。
In the above-mentioned technology for detecting foreign matter, it goes without saying that the minimum accuracy is required for detection, but in addition, simplifying the device configuration as much as possible increases the cost of construction or maintenance. It is important in terms of aspects. However, all of the techniques described in
そこで、本開示においては、極力簡単な構成により高い精度で異物を検出し得る異物検出システムおよび方法を説明する。 Therefore, in the present disclosure, a foreign matter detection system and a method capable of detecting a foreign matter with high accuracy with a structure as simple as possible will be described.
本開示は、対象領域内の画像を取得する撮像装置と、前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成された異物検出システムにかかるものである。 The present disclosure includes an image pickup device for acquiring an image in a target area, an image processing unit for storing a program for detecting an object in an image acquired by the image pickup device by using deep learning, and an image processing unit from the inside of the target area. It is provided with a boundary determination unit that determines the positional relationship between the transparent unit that can visually recognize the outside and surrounding objects, and masks the area occupied by the transparent unit on the image acquired by the imaging device. This applies to a foreign matter detection system configured to detect an object by a program using deep learning based on the image that has passed through.
上述の異物検出システムにおいて、前記マスク処理は前記撮像装置にて行われるよう構成してもよい。 In the above-mentioned foreign matter detection system, the mask processing may be configured to be performed by the image pickup apparatus.
上述の異物検出システムにおいて、前記マスク処理は前記画像処理部にて行われるよう構成してもよい。 In the above-mentioned foreign matter detection system, the mask processing may be configured to be performed by the image processing unit.
上述の異物検出システムにおいて、前記境界判定部は、前記対象領域における外部空間との境界域における物体の有無を検出可能に構成された物体センサとすることができる。 In the above-mentioned foreign matter detection system, the boundary determination unit can be an object sensor configured to be able to detect the presence or absence of an object in the boundary area with the external space in the target area.
上述の異物検出システムにおいて、前記物体センサは、前記透過部のなす面に沿って照射された照射波を検出するよう構成することができる。 In the above-mentioned foreign matter detection system, the object sensor can be configured to detect an irradiation wave irradiated along a surface formed by the transmission portion.
上述の異物検出システムにおいて、前記境界判定部は、前記撮像装置により取得された画像内における物体の位置と、前記画像内に前記透過部の占める領域との位置関係に基づき、前記撮像装置により取得された画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定するよう構成することができる。 In the above-mentioned foreign matter detection system, the boundary determination unit is acquired by the image pickup apparatus based on the positional relationship between the position of the object in the image acquired by the image pickup apparatus and the region occupied by the transmission portion in the image. It can be configured to determine whether the object detected in the image is inside or outside the target area.
上述の異物検出システムにおいて、前記対象領域は機械式駐車場の入出庫スペースとすることができる。 In the above-mentioned foreign matter detection system, the target area can be an entry / exit space for a mechanical parking lot.
また、本開示は、対象領域内の画像を取得する画像取得工程と、前記画像取得工程で取得された画像に対し、前記対象領域の内側から外部を視認できる透過部の占める領域にマスク処理を施すマスク処理工程と、前記マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する第一の物体検出工程と、前記対象領域の境界域における物体の有無を検出する第二の物体検出工程とを含む異物検出方法にかかるものである。 Further, in the present disclosure, an image acquisition step of acquiring an image in the target area and a masking process are applied to an area occupied by a transparent portion that can visually recognize the outside from the inside of the target area with respect to the image acquired in the image acquisition step. The mask processing step to be applied, the first object detection step of detecting an object by a program using deep learning based on the image obtained through the mask processing step, and the second detection of the presence or absence of an object in the boundary region of the target region. It relates to a foreign matter detection method including the object detection step of the above.
また、本開示は、対象領域内の画像を取得する画像取得工程と、前記画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する物体検出工程と、前記画像内における物体の位置と、前記対象領域の内側から外部を視認できる透過部が前記画像内に占める領域との位置関係に基づき、前記画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定する位置判定工程とを含む異物検出方法にかかるものである。 Further, the present disclosure includes an image acquisition step of acquiring an image in a target region, an object detection step of detecting an object by a program using deep learning based on the image acquired in the image acquisition step, and the inside of the image. The object detected in the image is inside or outside the target area based on the positional relationship between the position of the object in the image and the area occupied by the transmissive portion that can visually recognize the outside from the inside of the target area. It relates to a foreign matter detection method including a position determination step of determining whether or not the object is present.
上述の異物検出方法において、前記対象領域は機械式駐車場の入出庫スペースとすることができる。 In the above-mentioned foreign matter detection method, the target area can be an entry / exit space for a mechanical parking lot.
本発明の異物検出システムおよび方法によれば、極力簡単な構成により高い精度で異物を検出し得るという優れた効果を奏し得る。 According to the foreign matter detection system and method of the present invention, it is possible to obtain an excellent effect that foreign matter can be detected with high accuracy by the simplest possible configuration.
以下、本開示における実施例の形態を添付図面を参照して説明する。図1に示す第一実施例の異物検出システムでは、対象領域Aとして機械式駐車設備の入出庫スペースを想定している。そして、対象領域A内に車両1以外の物体(異物F)が存在する場合に、該異物Fを検出するようになっている。入出庫スペースである対象領域Aは、四方を壁で囲まれた空間であり、手前側(図中下側)に透過部としての入出庫口4が設けられ、ここから車両1が出入りするようになっている。
Hereinafter, embodiments of the embodiments in the present disclosure will be described with reference to the accompanying drawings. In the foreign matter detection system of the first embodiment shown in FIG. 1, the entry / exit space of the mechanical parking facility is assumed as the target area A. Then, when an object (foreign matter F) other than the
尚、本明細書において「異物」とは、対象領域内に存在する目的物(この場合は、搬送の目的物である車両1)以外の物体であって、対象領域にもとより配置された物体以外の物体を指し、代表的には、車両の運転者、乗員、設備の係員といった人である。また、対象領域A内に持ち込まれ、車両1の外に置かれる手荷物等も「異物」の例として挙げられる。図1には、一例として対象領域Aの内部に2個の異物Fを図示している。また、対象領域Aの外部に1個の物体Oを図示している。
In the present specification, the "foreign substance" is an object other than the target object (in this case, the
「透過部」は、対象領域の内側から外部を視認できる光学的な開口部を指す。つまり、本第一実施例における透過部は外部空間と光学的にも物質的にも連通する入出庫口4であるが、この他に、例えば光の透過するガラス窓、隣接する空間との間を柵で仕切った部分等も「透過部」として想定できる。
The “transmissive portion” refers to an optical opening in which the outside can be visually recognized from the inside of the target area. That is, the transmissive portion in the first embodiment is the entrance /
車両1を搬送するパレット2は、対象領域A外の格納スペース(図示せず)から入出庫スペースである対象領域Aに出入りする。対象領域Aにおけるパレット2の定位置は、対象領域Aの中央部である。入庫時において、車両1は、入出庫口4を通じて対象領域A内に進入し、パレット2上に停止し、パレット2と共に前記格納スペースへ搬送され、格納される。出庫時には、車両1はパレット2と共に前記格納スペースから対象領域A内に搬送された後、入出庫口4から対象領域A外へ退出する。
The
対象領域A内には、該対象領域A内の画像を取得するカメラ等である撮像装置5が配置される。本第一実施例の場合、撮像装置5として図1に示す如く、車両1の停止位置の周辺に、合計2台の撮像装置5a,5bが設置されている。2台の撮像装置5のうち、撮像装置5aは車両1の停止位置から見て左前方に、撮像装置5bは右後方にそれぞれ設置されている。このように、互いに車両1の停止位置を挟むように、斜め前方および斜め後方に撮像装置5a,5bを設置することで、対象領域A内における車両1の周囲全体について画像を取得できるようにしている。
In the target area A, an
透過部である入出庫口4近傍の内壁には、境界判定部としての物体センサ6が設けられている。本明細書における「境界判定部」とは、光学的な開口部である透過部(入出庫口4)と、周囲の物体(異物Fまたは物体O)との位置関係を判定する装置、またはその部分を指す。本第一実施例の場合、境界判定部である物体センサ6を入出庫口4の近傍に設置し、入出庫口4によって定義される対象領域Aの内外の境界線上に何らかの物体が位置する場合に、該物体を検出するようにしている。このように、境界判定部として物体センサ6を設けると、異物検出システムを実施するにあたり、装置構成を簡易にすることができる。
An
物体センサ6は、例えば透過型の光電センサである。物体センサ6は、入出庫口4の左右一側に設けられた照射部6aと、左右他側に設けられた受光部6bを備えており、照射部6aから入出庫口4のなす面に沿って照射波としての照射光を照射し、受光部6bにて検出するようになっている。照射部6aと受光部6bの間に何らかの物体が存在すれば、受光部6bにて検出される照射光の量が変化する。こうして、物体センサ6は、照射部6aと受光部6bの間に存在する物体を検出できるようになっている。
The
ここで、「境界域」とは、透過部によって定義される対象領域と外部空間との境界近傍の領域を指す。より具体的には、対象領域Aのうち、後述する異物検出工程において、画像の透過部にあたる領域マスク処理を施した場合に、目的の異物が検出されにくくなる領域を指す。図1に示した例では、入出庫口4により定義される境界線に沿って照射波を照射するように物体センサ6を配置しているが、これに代えてあるいは加えて、より対象領域Aの内側寄りの境界域にある異物Fを物体センサ6により検出可能にしてもよい。マスク処理による検出漏れをより確実に防止するためである(このような物体センサ6の配置については、後に再度説明する)。尚、物体センサ6としては、透過型の光電センサ以外にも、特定の領域内における物体の有無を検出可能な装置であれば適宜利用することができる。例えば、透過型以外の形式の光電センサを使用してもよいし、超音波センサ等を使用することもできる。
Here, the "boundary area" refers to an area near the boundary between the target area and the external space defined by the transparent portion. More specifically, it refers to a region of the target region A in which the target foreign matter is less likely to be detected when the region mask processing corresponding to the transparent portion of the image is performed in the foreign matter detecting step described later. In the example shown in FIG. 1, the
入出庫口4近傍の外壁には、操作部7、表示部8、警報部9が備えられている。操作部7は、入出庫口4の開閉、パレット2の搬送といった各部の操作を入力する入力装置である。表示部8は、撮像装置5において取得された対象領域A内の画像、その他の情報を、必要に応じて表示するよう構成されたディスプレイである。警報部9は、対象領域A、あるいは対象領域Aを含む設備の何処かにおいて、人員に対して注意を促すべき何らかの事態が生じた場合に警報を発する装置である。「人員に対して注意を促すべき何らかの事態」とは、例えば車両1を対象領域A外の格納スペースへ搬送するにあたり、対象領域Aに車両1以外の異物Fが検出された場合などである。警報の内容は、アラーム音、警告灯の点灯、警告メッセージの表示など、人員に対して注意を喚起できればよく、適当な形式を選択することができる。
An
尚、操作部7、表示部8、警報部9を設置する位置は、ここに示した位置に限定されない。例えば、これらに相当する装置を図示しない管理室等に備えてもよいし、これらの装置のうちいずれかを複数、別々の場所に備えてもよい。また、ここでは説明の便宜のために操作部7、表示部8、警報部9をそれぞれ別々に図示したが、例えば操作部7と表示部8の機能を一体に備えたタッチパネルディスプレイを設けてもよい。また、警報部9の機能を表示部8が兼ねる(すなわち、警報にあたる情報を表示部8に表示する)ようにしてもよい。その他、操作部7、表示部8、警報部9に関しては、対象領域Aのレイアウトやその他の条件に応じて適宜変更することができる。
The positions where the
図2には、撮像装置5、物体センサ6、操作部7、表示部8、警報部9の制御に係るシステム構成の一例を示している。撮像装置5、物体センサ6、操作部7、警報部9は、Ethernet(登録商標)等の通信バスを介し、制御装置10と情報的に接続されている。制御装置10は、入出庫スペースである対象領域Aを含む機械式駐車場全体を監視し、各部の運転を行う装置であり、入出庫口4の開閉、パレット2の搬送、撮像装置5および物体センサ6の作動等を制御する。
FIG. 2 shows an example of a system configuration related to the control of the
また、表示部8は、画像処理部11を介して前記通信バスに接続されている。画像処理部11は、撮像装置5において取得された対象領域Aの画像に対し適宜の処理を行う情報処理装置であり、必要に応じ、表示部8に画像データを送信して表示部8に画像を表示させるようにもなっている。
Further, the
画像処理部11において行われる画像処理として、本第一実施例において特に想定されるのは異物F(図1参照)の検出である。すなわち、画像処理部11では、撮像装置5により取得された対象領域Aの画像を解析し、画像内に人等の物体が存在するか否かを判定する。制御装置10は、画像処理部11において処理対象の画像から物体が検出された場合、または、前述の物体センサ6により対象領域Aの境界域に物体が検出された場合に、異物Fを検出したと判断し、警報部9を通じて警報を発報する。
As the image processing performed by the
画像処理部11には、画像内に写り込んだ物体を検出するプログラムPが格納されている。このプログラムPは、多層のニューラルネットワークを用いたディープラーニングの手法により、特定の種類の物体を検出するよう構成されている。ディープラーニングのアルゴリズムとしては、例えばR−CNN(Regional-Convolutional Neural Network)、Fast R−CNN、Faster R−CNN、YOLO(You Only Look Once)、SSD(Single Shot Multibox Detector)といった各種のアルゴリズムを用いることができるが、この他の適当なアルゴリズムを使用してもよい。
The
プログラムPは、こうしたアルゴリズムを用い、画像内に写り込んだ物体の種類を特定すると共に、該物体がその種類の物体である確率、物体の重心の座標、物体の幅および高さ等を出力できるようになっている。機械式駐車場の入出庫スペースである対象領域Aにおいて想定される異物Fの種類は、第一に人物であるので、プログラムPは、画像から少なくとも人物を判別できるように構成されるべきである。その他に、車両1と共に対象領域Aに入り込む可能性のある物体としては、ペット等の動物、バッグ、ベビーカーなど、各種の物体が想定されるので、プログラムPは、人物の他にこれらの物体をも検出できるようになっていてもよい。また、異物検出システムの設置対象である対象領域の種類が異なれば、異物として検出される物体の種類も異なることが考えられる。プログラムPは、人物に限らず、対象領域の種類に応じて想定される各種の物体を検出可能に構成すればよい。
Program P can use such an algorithm to identify the type of object reflected in the image and output the probability that the object is that type of object, the coordinates of the center of gravity of the object, the width and height of the object, and the like. It has become like. Since the type of foreign matter F assumed in the target area A, which is the entry / exit space of the mechanical parking lot, is firstly a person, the program P should be configured so that at least a person can be identified from the image. .. In addition, various objects such as animals such as pets, bags, strollers, etc. are assumed as objects that may enter the target area A together with the
車両1の入庫を行う際には、車両1の運転者、乗員、施設の係員といった人員が操作部7を操作し、入庫の開始を指示する。制御装置10は、指示に応じて入出庫口4を開放する。入庫の開始にあたっては、空のパレット2が対象領域A内の定位置である中央部に配備された状態で入出庫口4を開放する。
When warehousing the
入出庫口4が開放されたら、運転者が車両1を対象領域A内に移動させ、パレット2上で停止させる。停止後、運転者やその他の乗員が降車し、対象領域Aから退出する。運転者等の人員が全て退出したら、運転者等は対象領域A内を目視し、人物や手荷物等の異物Fが対象領域A内に存在しないかどうかを確認のうえ、操作部7を操作し、車両1がパレット2上に停止した旨を入力する。制御装置10は、入出庫口4を閉鎖し、車両1を積載したパレット2を対象領域A外の格納スペースへ搬送する。
When the entry /
車両1の出庫を行う際には、車両1の運転者、乗員、施設の係員といった人員が操作部7を操作し、出庫の開始を指示する。制御装置10は、指示に応じて該当するパレット2を対象領域A内に搬送し、入出庫口4を開放する。入出庫口4が開放されたら、運転者がパレット2上の車両1に乗り込み、対象領域Aの外へ移動する。車両1が外へ出た段階で、車両1の運転者や係員等が再び操作部7を操作し、出庫が完了した旨を入力する。制御装置10は、指示に応じて入出庫口4を閉鎖する。
When leaving the
尚、上の一連の動作は運転者が車両1を運転する場合を例に説明したが、車両1が自動運転車である場合もあり得る。その場合、上記した車両1の動作の一部または全部が、運転者を介さずに行われる。
Although the above series of operations has been described by taking the case where the driver drives the
画像処理部11(図2参照)では、適宜のタイミングで異物検出を実行する。例えば、入庫の際、車両1がパレット2上に停止し、その旨を運転者が操作部7に入力した時に異物検出を行う。このとき、運転者は目視により対象領域A内の異物Fの不在を確認するが、同時に物体センサ6と撮像装置5および画像処理部11を用いて機械的に異物検出を実行すれば、確認を徹底できる。その他、例えば出庫の開始指示が入力された時や、出庫の完了が入力されて入出庫口4を閉鎖する時、あるいは特に操作を行わない平常時など、対象領域A内の状態を確認する必要があると考えられる任意のタイミングにおいて、異物検出を行うことができる。
The image processing unit 11 (see FIG. 2) executes foreign matter detection at an appropriate timing. For example, when the
異物検出を行う場合、制御装置10は、各撮像装置5を作動させ、対象領域A内の画像を取得する。画像処理部11では、プログラムPにより、各撮像装置5が取得した画像に対し物体検出処理を実行する。また、制御装置10は、物体センサ6を作動させ、対象領域Aの境界域に物体が存在しないかどうかを確認する。
When detecting a foreign object, the
画像処理の結果、取得された画像のうち少なくとも1枚の画像中に、異物Fとして想定される種類の物体(例えば、人物)が検出された場合には、制御装置10は警報部9を作動させ、警報を発報する。同時に、パレット2、入出庫口4あるいはその他の各部の動作を禁止する。また、異物Fが検出された旨を表示部8に表示してもよい。また、物体センサ6により物体が検出された場合にも、制御装置10は同様の動作を行う。
As a result of image processing, when an object (for example, a person) of a type assumed to be a foreign matter F is detected in at least one of the acquired images, the
このように、プログラムPを用いて異物検出を行うにあたり、物体センサ6による物体検出を併せて実行すれば、異物検出の精度を高めることができる。以下に詳しく説明する。
As described above, when the foreign matter is detected by using the program P, if the object detection by the
撮像装置5によって取得された対象領域A内の画像に基づき、図1に示す如き対象領域A内の異物Fを検出したい場合、まず、死角を作らないことが重要である。一方で、システムを構成する装置類は極力少ないことが望ましく、特に、撮像装置5の台数は、異物検出の精度を確保可能な範囲でなるべく少なくすべきである。上述の如きディープラーニングを用いたプログラムPにより画像処理を行う場合、画像処理部11に相当量の計算負荷が発生する。図2では画像処理部11を1個のブロックとして表示しているが、実際には、例えば1台の撮像装置5につき1台程度の情報処理装置が必要となる場合もあり得る。このように、撮像装置5の台数を抑えることは、特にディープラーニングを用いたプログラムPを用いて異物検出を行う場合、コストの面で非常に重要である。図1に示す2台の撮像装置5の配置は、少ない台数の撮像装置5により、対象領域A内の画像を死角を作らないように取得するための一案である(尚、ここでは2台の撮像装置5を備えた異物検出システムを例示したが、この2台の撮像装置5は死角をなくすための必要最小限の台数であって、検出精度をいっそう高める等の目的で、さらに撮像装置等を追加することを妨げるものではない)。
When it is desired to detect a foreign matter F in the target area A as shown in FIG. 1 based on the image in the target area A acquired by the
さらに、異物検出にあたっては、検出漏れと過検出の両方を極力減らす必要がある。ここで、図1に示す如く撮像装置5を配置した場合、各撮像装置5の画角には、入出庫口4が大きく入り込んでしまう。その結果として、例えば撮像装置5bにより取得される画像では、図3に示す如く、透過部である入出庫口4を通し、対象領域Aの外部にある物体Oが画像内に写り込む可能性がある。物体OがプログラムPによって検出可能な種類の物体(ここでは、人物)である場合には、過検出が生じるおそれがある。
Furthermore, when detecting foreign matter, it is necessary to reduce both detection omission and over-detection as much as possible. Here, when the
過検出を防止するためには、例えば図4に示す如く、画像内に写り込む透過部(入出庫口4)にあたる領域にマスク処理を施したうえで、プログラムPによる異物検出を実行する方法が考えられる。しかしながら、このようにした場合、入出庫口4の近傍にある異物Fの一部もマスクされてしまう。マスクされた量あるいは位置が図4に示す程度であれば、マスクされた物体FをプログラムPによって検出することは可能であるが、異物Fの位置がさらに外側寄りである場合には、図5に示す如く異物Fの大半がマスクされてしまう場合もあり得る。図5に示す例では、入出庫口4の近傍の異物Fは対象領域Aの内側に位置しているが、マスク処理によって大半がマスクされてしまっているため、プログラムPでは検出できない可能性がある。そこで、図1に示す如く配置した物体センサ6を作動させることで、マスク処理により検出されない可能性のある境界域の異物Fを確実に検出するのである。つまり、プログラムPを用いて異物検出を行うにあたり、画像処理部11によるマスク処理で過検出を、境界判定部である物体センサ6で検出漏れをそれぞれ防ぐことにより、異物検出の精度を高めているのである。
In order to prevent over-detection, for example, as shown in FIG. 4, a method of performing foreign matter detection by program P after masking the area corresponding to the transparent portion (entrance / exit port 4) reflected in the image is used. Conceivable. However, in this case, a part of the foreign matter F in the vicinity of the warehousing /
ところで、図1に示す如く対象領域Aの内外の境界線に沿って照射波を照射するように物体センサ6を配置した場合、境界線上にある異物Fは物体センサ6により好適に検出できる。一方で、入出庫口のすぐ内側に位置する異物Fは、物体センサ6の照射波が当たらず、しかも撮像装置5によって取得された画像中では、マスク処理を経て大部分がマスクされてしまうといった場合も想定される。こういった場合、検出漏れが生じてしまう可能性も否定できない。そこで、図1に示す位置の物体センサ6に代えてあるいは加えて、より内側の境界域についても異物Fを検出できるよう、物体センサ6を設置しても良い。このように、入出庫口4により定義される境界線よりも内側の境界域に対して物体センサ6を設置する場合、該物体センサ6の配置は、次のように設定することが最適である。
・物体センサ6による物体検出の対象となり得る領域より内側に位置する異物Fであれば、マスク処理を経た画像からでもプログラムPにより検出できるよう、物体センサ6を配置する。
すなわち、
・物体センサ6により、境界域が異物検出の対象となるよう、物体センサ6を配置する。
By the way, when the
-If the foreign matter F is located inside the region that can be the target of object detection by the
That is,
-The
尚、「物体センサ6による異物検出の対象となり得る領域」と、「マスク処理を経た画像からでもプログラムPにより異物Fを検出できる領域」とは、互いに重複部分があっても差し支えない。
It should be noted that the "region that can be the target of foreign matter detection by the
以上の如き撮像装置5、画像処理部11および物体センサ6による異物検出工程の手順の一例を、図6のフローチャートを参照しながら説明する。以下に説明する異物検出工程は、画像取得工程(ステップS1)と、マスク処理工程(ステップS2)と、第一の物体検出工程(ステップS3)と、第二の物体検出工程(ステップS4)とを含んでいる。
An example of the procedure of the foreign matter detection process by the
まず、撮像装置5により、対象領域A内の画像を取得する(ステップS1)。続いて、取得した画像に対し、透過部(入出庫口4)の占める領域にマスク処理を施す(ステップS2)。尚、マスク処理は、撮像装置5で行ってもよいし、画像処理部11で行ってもよい。さらに、マスク処理を経た画像に対し、画像処理部11に格納されたプログラムPにより、物体検出処理を実行する(ステップS3)。
First, the
一方で、物体センサ6を作動させ、照射波の照射領域における物体の有無を検出する(ステップS4)。ステップS5では、プログラムPにより画像内に特定の種類の物体が検出されたか、あるいは物体センサ6により照射領域に何らかの物体が検出されたかを判定する。いずれか一方、あるいは両方にて物体が検出されていれば、対象領域A内に異物Fが存在すると判断される(ステップS6)。異物Fが存在すると判断されたら、制御装置10は、異物Fを検出した場合に行うべき各種の動作を行う。例えば、異物が検出された旨を表示部8に表示する。このとき、文字あるいは音声によるメッセージを流したり、表示部8の背景色を変更し、操作者(車両1の運転者、あるいは施設の係員等の人員)に対し注意を促す。また、必要に応じ、機器類の操作(例えば、入庫口4の開閉、パレット2の搬送など)を禁止しても良い。
On the other hand, the
プログラムPおよび物体センサ6のいずれによっても物体が検出されていなければ、異物は存在しないとして、異物検出工程を終了する(ステップS7)。
If no object is detected by either the program P or the
尚、ここに説明した手順は一例であって、各ステップの順序は適宜入れ替えたり、別のステップを追加するなど、変更を加えることができる。例えば、画像処理部11およびプログラムPによる物体検出を行うステップS1〜S3と、物体センサ6による物体検出を行うステップS4とは順序を入れ替えてもよいし、並行して実行してもよい。また、ここでは物体検出の結果を判定するステップをステップS5としてまとめて説明したが、画像処理部11およびプログラムPによる物体検出の結果の判定と、物体センサ6による物体検出の結果の判定は別々に行ってもよい。
The procedure described here is an example, and changes can be made such as changing the order of each step as appropriate or adding another step. For example, steps S1 to S3 for detecting an object by the
以上のように、上記本第一実施例の異物検出システムは、対象領域A内の画像を取得する撮像装置5と、撮像装置5により取得された画像内の物体をディープラーニングを用いて検出するプログラムPを格納する画像処理部11と、対象領域Aの内側から外部を視認できる透過部4と周囲の物体との位置関係を判定する境界判定部6とを備え、撮像装置5で取得された画像に対し、透過部4の占める領域にマスク処理を施し、該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成されている。このようにすれば、プログラムPを用いて異物検出を行うにあたり、境界判定部6による物体検出を併せて実行することで、異物検出の精度を高めることができる。
As described above, the foreign matter detection system of the first embodiment detects the
上述の異物検出システムにおいて、マスク処理は前記撮像装置にて行われるようにすることができる。 In the above-mentioned foreign matter detection system, the mask processing can be performed by the image pickup apparatus.
上述の異物検出システムにおいて、マスク処理は前記画像処理部にて行われるようにすることもできる。 In the above-mentioned foreign matter detection system, the mask processing may be performed by the image processing unit.
上述の異物検出システムにおいて、境界判定部6は、対象領域Aにおける外部空間との境界域における物体の有無を検出可能に構成された物体センサとすることができる。このようにすれば、簡易な装置構成により異物検出システムを実施することができる。
In the above-mentioned foreign matter detection system, the
上述の異物検出システムにおいて、物体センサ6は、透過部4のなす面に沿って照射された照射波を検出するよう構成することができる。このようにすれば、境界線上にある異物Fを物体センサ6により好適に検出することができる。
In the above-mentioned foreign matter detection system, the
上述の異物検出システムおよび方法において、対象領域Aは機械式駐車場の入出庫スペースとすることができ、このようにすれば、機械式駐車場の入出庫スペースにおいて好適に異物検出を実行することができる。 In the above-mentioned foreign matter detection system and method, the target area A can be the entry / exit space of the mechanical parking lot, and in this way, the foreign matter detection can be suitably performed in the entry / exit space of the mechanical parking lot. Can be done.
また、上記本第一実施例の異物検出方法は、対象領域A内の画像を取得する画像取得工程(ステップS1)と、画像取得工程で取得された画像に対し、対象領域Aの内側から外部を視認できる透過部4の占める領域にマスク処理を施すマスク処理工程(ステップS2)と、マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムPにより物体を検出する第一の物体検出工程(ステップS3)と、対象領域Aの境界域における物体の有無を検出する第二の物体検出工程(ステップS4)とを含んでいる。このようにすれば、プログラムPを用いて異物検出を行うにあたり、マスク処理で過検出を、境物体センサ6で検出漏れをそれぞれ防ぐことにより、異物検出の精度を高めることができる。
Further, in the foreign matter detection method of the first embodiment, the image acquisition step (step S1) of acquiring the image in the target area A and the image acquired in the image acquisition step are external to the inside of the target area A. A first object detection step of detecting an object by a program P using deep learning based on an image that has undergone the mask processing step (step S2) and a mask processing step (step S2) in which the area occupied by the
したがって、上記本第一実施例によれば、極力簡単な構成により高い精度で異物を検出し得る。 Therefore, according to the first embodiment described above, foreign matter can be detected with high accuracy with a configuration as simple as possible.
図7、図8は本開示の第二実施例による異物検出システムの構成を示している。本第二実施例の異物検出システムは、基本的な構成は上述の第一実施例(図1、図2参照)と共通しているが、物体センサ6の代わりに、画像処理部11に境界判定部12を備えている。この境界判定部12は、撮像装置5により取得された画像に基づき、透過部(入出庫口4)と、周囲の物体(異物Fまたは物体O)との位置関係を判定するようになっている。より具体的には、境界判定部12は、画像内に写り込んだ物体(異物Fまたは物体O)の透過部(入出庫口4)に対する位置関係から、対象領域Aに対し前記物体が内外のいずれかにあるかを判定するようになっている。
7 and 8 show the configuration of the foreign matter detection system according to the second embodiment of the present disclosure. The foreign matter detection system of the second embodiment has the same basic configuration as that of the first embodiment (see FIGS. 1 and 2) described above, but instead of the
図7に示す異物検出システムにおいて、撮像装置5により画像を取得した場合、例えば撮像装置5aにおいては、図9に示す如き画像が取得される。このような画像に対し、画像処理部11のプログラムPにより物体検出の処理を実行すると、対象領域A内の2個の異物F、および入出庫口4の外側にある物体Oが検出される。
When an image is acquired by the
プログラムPは、各物体の種類と共に、画像内に占める位置を特定する。物体の種類および位置は、例えば図10に示す如く、画像に重ねて表示することができる。ここでは、検出された各異物Fおよび物体Oの周囲に、それらが占める範囲が方形の枠によって図示され、特定された物体の種類(ここでは、人物)、および各物体がその種類の物体である確率が一緒に表示されている。 Program P identifies the type of each object as well as its position in the image. The type and position of the object can be displayed superimposed on the image, for example, as shown in FIG. Here, around each of the detected foreign objects F and object O, the range they occupy is illustrated by a rectangular frame, the type of object identified (here, a person), and each object is an object of that type. A certain probability is displayed together.
境界判定部12では、これらの物体が、対象領域Aと外部空間との境界である入出庫口4に対しどの位置にあるかにより、各異物Fおよび物体Oが対象領域Aの内側にあるか、外側にあるか否かを判定する。
In the
内外の判定は、例えば、各物体の占める範囲を表示するそれぞれの枠と、入出庫口4の占める領域との上下関係によって行うことができる。図10において、入出庫口4の占める領域は、図中に破線で示す略四角形の部分である。この略四角形の画素領域に対し、各物体の位置を示す枠の下辺にあたる線分がどの程度重なっているかによって、各物体が入出庫口4よりも内側にあるか、外側にあるかを判定することができる。
The inside / outside determination can be made, for example, by the hierarchical relationship between each frame displaying the range occupied by each object and the area occupied by the warehousing /
内外の判定にあたっては、例えば、各異物Fまたは物体Oの周囲に表示された枠の下辺にあたる線分のうち、ある閾値(例えば、80%)以上の部分が入出庫口4の占める画素領域の内側にあれば、その物体は対象領域Aの外にあると判定する。前記枠のうち、前記画素領域の内側にある部分の割合が前記閾値未満であば、その物体は対象領域A内にあると判定する。図10に示す例では、手前側に位置する2個の異物Fは対象領域Aの内側に、奥側の物体Oは外側に位置すると判断することができる。尚、ここに説明した判定方法はあくまで一例であって、画像に基づいて各物体の内外を判定する方法としては、その他、適宜の方法を採用することができる。
In determining the inside and outside, for example, among the line segments corresponding to the lower side of the frame displayed around each foreign matter F or object O, the portion of a certain threshold value (for example, 80%) or more is the pixel area occupied by the warehousing /
以上の如き画像処理部11のプログラムPおよび境界判定部12による異物検出工程の手順の一例を、図11のフローチャートを参照しながら説明する。以下に説明する異物検出工程は、画像取得工程(ステップS11)と、物体検出工程(ステップS12)と、位置判定工程(ステップS15)とを含んでいる。
An example of the procedure of the foreign matter detection step by the program P of the
まず、撮像装置5により、対象領域A内の画像を取得する(ステップS11)。続いて、取得した画像に対し、プログラムPにより物体検出処理を実行する(ステップS12)。
First, the
ステップS13では、物体検出処理の結果、プログラムPにより画像内に異物Fと見なし得る何らかの物体(異物Fまたは物体O)が検出されたか否かを判定する。特定の種類の物体が存在しなければ、異物は存在しないとして、異物検出工程を終了する(ステップS14)。 In step S13, as a result of the object detection process, it is determined whether or not any object (foreign matter F or object O) that can be regarded as the foreign matter F is detected in the image by the program P. If a specific type of object does not exist, it is assumed that no foreign matter exists, and the foreign matter detection step ends (step S14).
画像中に何らかの物体が検出された場合、ステップS15に進む。ステップS15では、境界判定部12により、検出された各物体の対象領域Aに対する位置を判定する。ステップS16では、ステップS12で検出された物体の中に、対象領域A内に位置すると判定された物体が存在したか否かを判定する。前記物体のうち、いずれもが対象領域Aの外にあると判定された場合は、異物は存在しないとして、異物検出工程を終了する(ステップS14)。前記物体のうち、少なくとも一部が対象領域A内にあると判定された場合は、異物Fが存在したと判定して、異物検出工程を終了する(ステップS17)。尚、ここに説明した手順は一例であって、各ステップの順序は適宜入れ替えたり、別のステップを追加するなど、変更を加えることができることは、上記第一実施例について説明した通りである。
If any object is detected in the image, the process proceeds to step S15. In step S15, the
このように、本第二実施例では、プログラムPを用いた異物検出を実行するにあたり、境界判定部12による位置判定を併せて実行することで、異物検出の精度を高めるようにしている。
As described above, in the second embodiment, when the foreign matter detection using the program P is executed, the position determination by the
尚、上記第一実施例では境界判定部として物体センサ6を、本第二実施例では画像処理部11内に格納された境界判定部12をそれぞれ説明したが、これらを適宜組み合わせて異物検出システムを実施することも可能である。また、異物検出の精度を高める等の目的のため、その他のセンサ類等を適宜併用してもよい。
In the first embodiment, the
また、上記第一および第二実施例では対象領域Aとして機械式駐車場の入出庫スペースを想定したが、同様の異物検出システムは、異物の検出が必要とされる空間であれば種類を問わず適用することができる。例えば、電気自動車の給電設備等を想定することもできるし、また、例えば窓のある倉庫内の警備などにも応用できる。 Further, in the first and second embodiments, the entry / exit space of the mechanical parking lot is assumed as the target area A, but the same foreign matter detection system can be of any type as long as it is a space where foreign matter detection is required. Can be applied without. For example, it can be assumed that a power supply facility for an electric vehicle or the like is used, and it can also be applied to security in a warehouse with a window, for example.
以上のように、上記本第二実施例の異物検出システムにおいて、境界判定部12は、撮像装置5により取得された画像内における物体の位置と、前記画像内に透過部4の占める領域との位置関係に基づき、撮像装置5により取得された画像内に検出された物体が対象領域Aの内側にあるか外側にあるかを判定するよう構成されている。このようにすれば、プログラムPを用いて異物検出を行うにあたり、境界判定部12による位置判定を併せて実行することで、異物検出の精度を高めることができる。
As described above, in the foreign matter detection system of the second embodiment, the
また、本第二実施例の異物検出方法は、対象領域内Aの画像を取得する画像取得工程(ステップS11)と、画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムPにより物体を検出する物体検出工程(ステップS12)と、前記画像内における物体の位置と、対象領域Aの内側から外部を視認できる透過部4が画像内に占める領域との位置関係に基づき、画像内に検出された物体が対象領域の内側にあるか外側にあるかを判定する位置判定工程(ステップS15)とを含んでいる。このようにすれば、プログラムPを用いて異物検出を行うにあたり、検出された物体の位置判定を併せて実行することで、異物検出の精度を高めることができる。
Further, the foreign matter detection method of the second embodiment is performed by an image acquisition step (step S11) for acquiring an image of A in the target region and a program P using deep learning based on the image acquired in the image acquisition step. In the image, based on the object detection step (step S12) of detecting the object, the position of the object in the image, and the area occupied by the
その他の構成および作用効果等については上記第一実施例と共通するため説明を省略するが、本第二実施例によっても、極力簡単な構成により高い精度で異物を検出し得る。 Since other configurations, actions and effects, etc. are the same as those in the first embodiment, the description thereof will be omitted. However, even in the second embodiment, foreign matter can be detected with high accuracy by the simplest configuration possible.
尚、本開示において説明した本発明の異物検出システムおよび方法は、上述の実施例にのみ限定されるものではなく、要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 It should be noted that the foreign matter detection system and method of the present invention described in the present disclosure are not limited to the above-described examples, and it goes without saying that various modifications can be made without departing from the gist.
1 遮蔽物(車両)
2 パレット
4 透過部(入出庫口)
5 撮像装置
5a 撮像装置
5b 撮像装置
6 境界判定部(物体センサ)
7 操作部
8 表示部
9 警報部
10 制御装置
11 画像処理部
12 境界判定部
A 対象領域
F 物体(異物)
O 物体
P プログラム
1 Shield (vehicle)
2
5
7
O object P program
Claims (10)
前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、
前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、
前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、
該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成された異物検出システム。 An image pickup device that acquires an image in the target area,
An image processing unit that stores a program that detects an object in an image acquired by the image pickup device using deep learning, and an image processing unit.
It is provided with a boundary determination unit that determines the positional relationship between a transparent unit that can visually recognize the outside from the inside of the target area and surrounding objects.
The image acquired by the imaging device is masked in the area occupied by the transmissive portion.
A foreign matter detection system configured to detect an object by a program using deep learning based on the image that has undergone the mask processing.
前記画像取得工程で取得された画像に対し、前記対象領域の内側から外部を視認できる透過部の占める領域にマスク処理を施すマスク処理工程と、
前記マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する第一の物体検出工程と、
前記対象領域の境界域における物体の有無を検出する第二の物体検出工程と
を含む異物検出方法。 The image acquisition process to acquire the image in the target area and
A mask processing step of masking an area occupied by a transparent portion that allows the outside to be visually recognized from the inside of the target area with respect to the image acquired in the image acquisition step.
The first object detection step of detecting an object by a program using deep learning based on the image that has undergone the mask processing step, and
A foreign matter detection method including a second object detection step of detecting the presence or absence of an object in the boundary area of the target region.
前記画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する物体検出工程と、
前記画像内における物体の位置と、前記対象領域の内側から外部を視認できる透過部が前記画像内に占める領域との位置関係に基づき、前記画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定する位置判定工程と
を含む異物検出方法。 The image acquisition process to acquire the image in the target area and
An object detection step of detecting an object by a program using deep learning based on the image acquired in the image acquisition step, and an object detection step.
An object detected in the image is inside the target area based on the positional relationship between the position of the object in the image and the area occupied by the transparent portion that can be visually recognized from the inside of the target area in the image. A foreign matter detection method including a position determination step of determining whether the object is present or outside.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019094735A JP7292102B2 (en) | 2019-05-20 | 2019-05-20 | Foreign object detection system and method |
SG11202110452QA SG11202110452QA (en) | 2019-05-20 | 2020-04-28 | Foreign body detection system and method |
PCT/JP2020/018166 WO2020235320A1 (en) | 2019-05-20 | 2020-04-28 | Foreign body detection system and method |
TW109116233A TW202103056A (en) | 2019-05-20 | 2020-05-15 | Foreign object detection system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019094735A JP7292102B2 (en) | 2019-05-20 | 2019-05-20 | Foreign object detection system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020190437A true JP2020190437A (en) | 2020-11-26 |
JP7292102B2 JP7292102B2 (en) | 2023-06-16 |
Family
ID=73454477
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019094735A Active JP7292102B2 (en) | 2019-05-20 | 2019-05-20 | Foreign object detection system and method |
Country Status (4)
Country | Link |
---|---|
JP (1) | JP7292102B2 (en) |
SG (1) | SG11202110452QA (en) |
TW (1) | TW202103056A (en) |
WO (1) | WO2020235320A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023175848A1 (en) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | Display assistance device, display assistance method, and recording medium |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117523318B (en) * | 2023-12-26 | 2024-04-16 | 宁波微科光电股份有限公司 | Anti-light interference subway shielding door foreign matter detection method, device and medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069497A (en) * | 2002-08-06 | 2004-03-04 | Sumitomo Osaka Cement Co Ltd | Monitoring apparatus and monitoring method |
JP2007243509A (en) * | 2006-03-08 | 2007-09-20 | Hitachi Ltd | Image processing device |
JP2009124618A (en) * | 2007-11-19 | 2009-06-04 | Hitachi Ltd | Camera apparatus, and image processing device |
JP2010193227A (en) * | 2009-02-19 | 2010-09-02 | Hitachi Kokusai Electric Inc | Video processing system |
JP2017190639A (en) * | 2016-04-15 | 2017-10-19 | Ihi運搬機械株式会社 | Safety confirmation method and control method for parking device |
JP2017224925A (en) * | 2016-06-14 | 2017-12-21 | 株式会社エンルートM’s | Monitoring device and monitoring method |
WO2018030337A1 (en) * | 2016-08-08 | 2018-02-15 | ナブテスコ株式会社 | Automatic door system, program used in automatic door system, method for collecting information in automatic door, sensor device used in automatic door |
JP2019073968A (en) * | 2018-12-21 | 2019-05-16 | 三菱重工機械システム株式会社 | Safety confirmation system of mechanical parking facility, mechanical parking facility having this and safety confirmation method of mechanical parking facility |
-
2019
- 2019-05-20 JP JP2019094735A patent/JP7292102B2/en active Active
-
2020
- 2020-04-28 WO PCT/JP2020/018166 patent/WO2020235320A1/en active Application Filing
- 2020-04-28 SG SG11202110452QA patent/SG11202110452QA/en unknown
- 2020-05-15 TW TW109116233A patent/TW202103056A/en unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004069497A (en) * | 2002-08-06 | 2004-03-04 | Sumitomo Osaka Cement Co Ltd | Monitoring apparatus and monitoring method |
JP2007243509A (en) * | 2006-03-08 | 2007-09-20 | Hitachi Ltd | Image processing device |
JP2009124618A (en) * | 2007-11-19 | 2009-06-04 | Hitachi Ltd | Camera apparatus, and image processing device |
JP2010193227A (en) * | 2009-02-19 | 2010-09-02 | Hitachi Kokusai Electric Inc | Video processing system |
JP2017190639A (en) * | 2016-04-15 | 2017-10-19 | Ihi運搬機械株式会社 | Safety confirmation method and control method for parking device |
JP2017224925A (en) * | 2016-06-14 | 2017-12-21 | 株式会社エンルートM’s | Monitoring device and monitoring method |
WO2018030337A1 (en) * | 2016-08-08 | 2018-02-15 | ナブテスコ株式会社 | Automatic door system, program used in automatic door system, method for collecting information in automatic door, sensor device used in automatic door |
JP2019073968A (en) * | 2018-12-21 | 2019-05-16 | 三菱重工機械システム株式会社 | Safety confirmation system of mechanical parking facility, mechanical parking facility having this and safety confirmation method of mechanical parking facility |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023175848A1 (en) * | 2022-03-17 | 2023-09-21 | 日本電気株式会社 | Display assistance device, display assistance method, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
SG11202110452QA (en) | 2021-10-28 |
WO2020235320A1 (en) | 2020-11-26 |
TW202103056A (en) | 2021-01-16 |
JP7292102B2 (en) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5911147B2 (en) | Mechanical parking device, method for controlling mechanical parking device, and method for providing safety confirmation function of mechanical parking device | |
WO2020235320A1 (en) | Foreign body detection system and method | |
JP2016003493A (en) | Safety check system of mechanical parking facility, mechanical parking facility including the same, and safety check method of mechanical parking facility | |
JP6093811B2 (en) | Mechanical parking device, method for controlling mechanical parking device, and method for providing safety confirmation function of mechanical parking device | |
JP6533330B1 (en) | Inspection system | |
JP2018112048A (en) | Warehousing control method and leaving control method of mechanical parking device | |
JP7011463B2 (en) | Foreign object detection system and method | |
TWI712527B (en) | System and method for controlling platform door | |
JP6175321B2 (en) | In-house confirmation device for mechanical parking | |
JP2018199999A (en) | Mechanical parking device and its control method and control program | |
CN116490801A (en) | Screening device and method for screening persons | |
WO2020235321A1 (en) | Foreign matter detection system | |
JP7233529B2 (en) | Foreign object detection system | |
JP2023001935A (en) | Unmanned confirmation device, parking device, and method of controlling parking device | |
JP6951872B2 (en) | Parking support device | |
JP7442381B2 (en) | Warehousing support method and warehousing support device | |
JP6595523B2 (en) | Mechanical parking apparatus, control method therefor, and control program | |
JP6416299B2 (en) | Mechanical parking apparatus, control method therefor, and control program | |
JP2019214936A (en) | Mechanical parking device and control method of mechanical parking device | |
JP2022051143A (en) | Entry safety verification device and method | |
CN117049109A (en) | Control method, control device, electronic equipment, storage medium and transmission system | |
JP2020172853A (en) | Mechanical parking device and its control method and control program | |
JP2019031884A (en) | Boarding room confirmation device and mechanical parking device | |
JP2020133326A (en) | Vehicle stop determination method, foreign matter detection method, and system using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220124 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230224 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20230320 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20230321 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230530 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230606 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7292102 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |