JP7292102B2 - Foreign object detection system and method - Google Patents

Foreign object detection system and method Download PDF

Info

Publication number
JP7292102B2
JP7292102B2 JP2019094735A JP2019094735A JP7292102B2 JP 7292102 B2 JP7292102 B2 JP 7292102B2 JP 2019094735 A JP2019094735 A JP 2019094735A JP 2019094735 A JP2019094735 A JP 2019094735A JP 7292102 B2 JP7292102 B2 JP 7292102B2
Authority
JP
Japan
Prior art keywords
image
target area
imaging device
foreign
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019094735A
Other languages
Japanese (ja)
Other versions
JP2020190437A (en
Inventor
浩昭 今泉
謙一 ▲濱▼口
賢貴 西村
健一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Transport Machinery Co Ltd
Original Assignee
IHI Transport Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Transport Machinery Co Ltd filed Critical IHI Transport Machinery Co Ltd
Priority to JP2019094735A priority Critical patent/JP7292102B2/en
Priority to SG11202110452QA priority patent/SG11202110452QA/en
Priority to PCT/JP2020/018166 priority patent/WO2020235320A1/en
Priority to TW109116233A priority patent/TW202103056A/en
Publication of JP2020190437A publication Critical patent/JP2020190437A/en
Application granted granted Critical
Publication of JP7292102B2 publication Critical patent/JP7292102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04HBUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
    • E04H6/00Buildings for parking cars, rolling-stock, aircraft, vessels or like vehicles, e.g. garages
    • E04H6/08Garages for many vehicles
    • E04H6/12Garages for many vehicles with mechanical means for shifting or lifting vehicles
    • E04H6/18Garages for many vehicles with mechanical means for shifting or lifting vehicles with means for transport in vertical direction only or independently in vertical and horizontal directions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers

Description

本開示は、駐車場等の対象領域内の異物を検出するシステム、および方法に関する。 The present disclosure relates to systems and methods for detecting foreign objects in areas of interest, such as parking lots.

車両が進入し、停止する空間、例えば機械式駐車場の入出庫スペース等においては、出入口の扉を開閉したり、車両を載せたパレットを運搬するといった操作を行うにあたり、車両の他に運転者や乗員、手荷物といった異物が存在しないことを確認する必要がある。こうした異物不在の確認作業は、運転者や施設の係員等が目視で行うことができるが、人力のみに頼った場合、不注意等により確認が徹底されない可能性がある。そこで、近年では、異物の不在確認を確実に行うよう、人力のみに頼ることなく、対象領域内の異物を自動で検出する技術が要請されている。 In a space where a vehicle enters and stops, such as an entry/exit space in a mechanical parking lot, the operator must be present in addition to the vehicle when performing operations such as opening and closing the entrance door and transporting a pallet on which the vehicle is placed. It is necessary to confirm that there are no foreign objects such as passengers, passengers, or baggage. Such confirmation work for the absence of foreign matter can be performed visually by the driver or facility staff. Therefore, in recent years, there has been a demand for a technique for automatically detecting foreign matter in a target area without relying only on human power, so as to reliably confirm the absence of foreign matter.

また、現在、各国で開発が進められている自動運転技術が本格的に実用化されれば、車両の運転のみならず、上述の如き扉の開閉やパレットの運搬といった、車両周辺において行われる種々の操作についても自動化が進められることが想定できる。例えば、自動運転により車両が乗員を目的地に送り届けた後、自動で近傍の機械式駐車場へ移動し、格納スペースに格納されるといったケースが考えられる。この場合、車両は乗員が不在の状態で移動し、入出庫スペースに停止することになる。このとき、扉の開閉、パレットの移動の開始といった操作は、係員が異物の不在を目視で確認し、操作ボタンを入力することで実行されるようにすればよい。しかし、異物の不在を自動で確認し、操作を開始する仕組みがあればよりスムーズである。 In addition, if the autonomous driving technology that is currently being developed in various countries is put into practical use, it will not only be possible to drive the vehicle, but also various things around the vehicle such as opening and closing the door and transporting pallets as described above. It can be assumed that automation will also be promoted for the operation of For example, after the vehicle delivers the passengers to the destination by automatic driving, it may automatically move to a nearby mechanical parking lot and be stored in the storage space. In this case, the vehicle will move without a passenger and stop in the loading/unloading space. At this time, operations such as opening and closing the door and starting movement of the pallet may be performed by the staff visually confirming the absence of the foreign object and pressing the operation button. However, it would be smoother if there was a mechanism to automatically confirm the presence of a foreign object and start the operation.

このような異物の検出を行う仕組みは、機械式駐車場だけでなく、例えば電気自動車の給電設備等、停止した車両の周辺で何らかの操作を行う場所において広く必要とされ得る。また、同様の仕組みは、車両に限らず何らかの物体の周辺において異物を検出したい局面に広く適用され得る。 Such a mechanism for detecting a foreign object may be widely required not only in a mechanical parking lot but also in a place where some kind of operation is performed around a stopped vehicle, such as a power feeding facility for an electric vehicle. Moreover, a similar mechanism can be widely applied to situations in which it is desired to detect a foreign object not only in a vehicle but also in the vicinity of some object.

対象領域内の異物を自動的に検出するための技術として、カメラ等を用いて対象領域内の画像を取得し、該画像内に写り込んだ異物を検出する方法が種々提案されている。こうした技術を記載した技術文献としては、例えば下記特許文献1~6が挙げられる。 2. Description of the Related Art As techniques for automatically detecting a foreign object in a target area, various methods have been proposed in which an image within the target area is acquired using a camera or the like, and the foreign material reflected in the image is detected. Technical documents describing such techniques include, for example, Patent Documents 1 to 6 below.

特開2016-3493号公報JP 2016-3493 A 特開2015-55073号公報JP 2015-55073 A 特開2014-80735号公報JP 2014-80735 A 特開平08-42184号公報JP-A-08-42184 特開昭62-194366号公報JP-A-62-194366 特開2012-158968号公報JP 2012-158968 A

上述の如き異物検出のための技術においては、検出に最低限の精度が要求されることは勿論であるが、それに加え、なるべく装置構成を簡素にすることが、建設あるいはメンテナンス等にかかるコストの面で重要である。しかしながら、上記特許文献1~6に記載の如き技術は、いずれも精度とコストの両面を十分に満足するには必ずしも至っていなかった。 In the technology for foreign matter detection as described above, the minimum accuracy is of course required for detection. important in terms of However, none of the techniques described in Patent Literatures 1 to 6 has necessarily come to fully satisfy both the accuracy and the cost.

そこで、本開示においては、極力簡単な構成により高い精度で異物を検出し得る異物検出システムおよび方法を説明する。 Therefore, in the present disclosure, a foreign object detection system and method capable of detecting foreign objects with high accuracy with a simple configuration as much as possible will be described.

本開示は、対象領域内の画像を取得する撮像装置と、前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成され、前記境界判定部は、前記対象領域における外部空間との境界域における物体の有無を検出可能に構成された物体センサであるか、または、前記撮像装置により取得された画像内における物体の位置と、前記画像内に前記透過部の占める領域との同一画像内における位置関係に基づき、前記撮像装置により取得された画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定するよう構成されている、異物検出システムにかかるものである。 The present disclosure includes an imaging device that acquires an image within a target region, an image processing unit that stores a program for detecting an object in the image acquired by the imaging device using deep learning, and from inside the target region A transparent part for visually recognizing the outside and a boundary determination part for judging a positional relationship between a surrounding object, masking the area occupied by the transparent part in the image acquired by the imaging device, and performing the masking process. an object sensor configured to detect an object by a program using deep learning based on an image that has undergone or an image acquired by the imaging device based on the positional relationship within the same image between the position of the object in the image acquired by the imaging device and the area occupied by the transparent portion in the image A foreign object detection system configured to determine whether an object detected within is inside or outside said region of interest .

上述の異物検出システムにおいて、前記マスク処理は前記撮像装置にて行われるよう構成してもよい。 In the foreign matter detection system described above, the mask processing may be performed by the imaging device.

上述の異物検出システムにおいて、前記マスク処理は前記画像処理部にて行われるよう構成してもよい。 In the foreign matter detection system described above, the mask processing may be performed by the image processing section.

上述の異物検出システムにおいて、前記物体センサは、前記透過部のなす面に沿って照射された照射波を検出するよう構成することができる。 In the foreign object detection system described above, the object sensor can be configured to detect an irradiation wave irradiated along a plane formed by the transmission section.

上述の異物検出システムにおいて、前記対象領域は機械式駐車場の入出庫スペースとすることができる。 In the foreign matter detection system described above, the target area can be an entry/exit space of a mechanical parking lot.

また、本開示は、対象領域内の画像を取得する画像取得工程と、前記画像取得工程で取得された画像に対し、前記対象領域の内側から外部を視認できる透過部の占める領域にマスク処理を施すマスク処理工程と、前記マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する第一の物体検出工程と、前記対象領域の境界域における物体の有無を物体センサにより検出する第二の物体検出工程とを含む異物検出方法にかかるものである。 In addition, the present disclosure includes an image acquisition step of acquiring an image within a target region, and masking an area occupied by a transparent portion in which the outside of the target region can be visually recognized from the inside of the image acquired in the image acquisition step. a first object detection step of detecting an object by a program using deep learning based on the image that has undergone the mask processing step; and detecting the presence or absence of an object in the boundary area of the target region by an object sensor. and a second object detection step for detecting a foreign object.

また、本開示は、対象領域内の画像を取得する画像取得工程と、前記画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する物体検出工程と、前記画像内における物体の位置と、前記対象領域の内側から外部を視認できる透過部が前記画像内に占める領域との同一画像内における位置関係に基づき、前記画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定する位置判定工程とを含む異物検出方法にかかるものである。 Further, the present disclosure includes an image acquisition step of acquiring an image in a target region, an object detection step of detecting an object by a program using deep learning based on the image acquired in the image acquisition step, and and the position of the object detected in the image based on the positional relationship in the same image between the position of the object in the image and the area occupied in the image by the transparent portion where the outside can be visually recognized from the inside of the target area. It relates to a foreign matter detection method including a position determination step of determining whether it is on or outside.

上述の異物検出方法において、前記対象領域は機械式駐車場の入出庫スペースとすることができる。 In the foreign object detection method described above, the target area may be an entry/exit space of a mechanical parking lot.

本発明の異物検出システムおよび方法によれば、極力簡単な構成により高い精度で異物を検出し得るという優れた効果を奏し得る。 According to the foreign matter detection system and method of the present invention, an excellent effect can be obtained in that a foreign matter can be detected with high accuracy with a configuration that is as simple as possible.

本開示の第一実施例による異物検出システムにおける装置の配置を説明する概要平面図である。1 is a schematic plan view for explaining the arrangement of devices in the foreign object detection system according to the first embodiment of the present disclosure; FIG. 本開示の第一実施例による異物検出システムのシステム構成を説明するブロック図である。1 is a block diagram illustrating the system configuration of a foreign object detection system according to a first embodiment of the present disclosure; FIG. 本開示の第一実施例において取得される画像の一例を示す図である。FIG. 4 is a diagram showing an example of an image acquired in the first embodiment of the present disclosure; FIG. 本開示の第一実施例において取得され、一部にマスク処理を施された画像の一例を示す図である。FIG. 2 is a diagram showing an example of an image acquired in the first embodiment of the present disclosure and partially subjected to mask processing; FIG. 本開示の第一実施例において取得され、一部にマスク処理を施された画像の別の一例を示す図である。FIG. 4 is a diagram showing another example of an image obtained in the first embodiment of the present disclosure and partially subjected to mask processing; 本開示の第一実施例による異物検出方法の手順の一例を説明するフローチャートである。4 is a flow chart illustrating an example of the procedure of a foreign object detection method according to the first embodiment of the present disclosure; 本開示の第二実施例による異物検出システムにおける装置の配置を説明する概要平面図である。FIG. 5 is a schematic plan view for explaining the arrangement of devices in the foreign object detection system according to the second embodiment of the present disclosure; 本開示の第二実施例による異物検出システムのシステム構成を説明するブロック図である。FIG. 3 is a block diagram illustrating the system configuration of a foreign object detection system according to a second embodiment of the present disclosure; FIG. 本開示の第二実施例において取得される画像の一例を示す図である。FIG. 4 is a diagram showing an example of an image acquired in the second embodiment of the present disclosure; FIG. 本開示の第二実施例において取得され、プログラムによる物体検出処理が施された画像の一例を示す図である。FIG. 10 is a diagram showing an example of an image acquired in the second embodiment of the present disclosure and subjected to object detection processing by a program; 本開示の第二実施例による異物検出方法の手順の一例を説明するフローチャートである。7 is a flow chart explaining an example of the procedure of a foreign object detection method according to the second embodiment of the present disclosure;

以下、本開示における実施例の形態を添付図面を参照して説明する。図1に示す第一実施例の異物検出システムでは、対象領域Aとして機械式駐車設備の入出庫スペースを想定している。そして、対象領域A内に車両1以外の物体(異物F)が存在する場合に、該異物Fを検出するようになっている。入出庫スペースである対象領域Aは、四方を壁で囲まれた空間であり、手前側(図中下側)に透過部としての入出庫口4が設けられ、ここから車両1が出入りするようになっている。 Hereinafter, embodiments of the present disclosure will be described with reference to the accompanying drawings. In the foreign object detection system of the first embodiment shown in FIG. 1, the target area A is assumed to be a parking space for mechanical parking equipment. When an object (foreign object F) other than the vehicle 1 exists within the target area A, the foreign object F is detected. The target area A, which is a parking space, is a space surrounded by walls on all four sides, and is provided with a parking opening 4 as a transparent part on the front side (lower side in the drawing), through which the vehicle 1 can enter and exit. It has become.

尚、本明細書において「異物」とは、対象領域内に存在する目的物(この場合は、搬送の目的物である車両1)以外の物体であって、対象領域にもとより配置された物体以外の物体を指し、代表的には、車両の運転者、乗員、設備の係員といった人である。また、対象領域A内に持ち込まれ、車両1の外に置かれる手荷物等も「異物」の例として挙げられる。図1には、一例として対象領域Aの内部に2個の異物Fを図示している。また、対象領域Aの外部に1個の物体Oを図示している。 In this specification, the term "foreign matter" refers to an object other than the object (in this case, the vehicle 1, which is the object of transportation) existing within the target area, and an object other than the object originally placed in the target area. It refers to an object, typically a person such as a vehicle driver, crew member, or facility staff. Baggage or the like that is brought into the target area A and placed outside the vehicle 1 is also an example of the "foreign matter." FIG. 1 shows two foreign substances F inside the target area A as an example. Also, one object O is illustrated outside the target area A. FIG.

「透過部」は、対象領域の内側から外部を視認できる光学的な開口部を指す。つまり、本第一実施例における透過部は外部空間と光学的にも物質的にも連通する入出庫口4であるが、この他に、例えば光の透過するガラス窓、隣接する空間との間を柵で仕切った部分等も「透過部」として想定できる。 A “transmissive portion” refers to an optical opening through which the outside can be seen from inside the target area. In other words, the transmissive part in the first embodiment is the entrance/exit opening 4 that communicates with the external space both optically and physically. A part partitioned by a fence can also be assumed as a "transmission part".

車両1を搬送するパレット2は、対象領域A外の格納スペース(図示せず)から入出庫スペースである対象領域Aに出入りする。対象領域Aにおけるパレット2の定位置は、対象領域Aの中央部である。入庫時において、車両1は、入出庫口4を通じて対象領域A内に進入し、パレット2上に停止し、パレット2と共に前記格納スペースへ搬送され、格納される。出庫時には、車両1はパレット2と共に前記格納スペースから対象領域A内に搬送された後、入出庫口4から対象領域A外へ退出する。 A pallet 2 for transporting a vehicle 1 moves in and out of a storage space (not shown) outside the target area A into and out of the target area A, which is a loading/unloading space. The home position of the pallet 2 in the target area A is the central part of the target area A. FIG. At the time of warehousing, the vehicle 1 enters the object area A through the entrance/exit 4, stops on the pallet 2, is conveyed to the storage space together with the pallet 2, and is stored. When leaving the warehouse, the vehicle 1 is transported from the storage space into the target area A together with the pallet 2, and then leaves the target area A through the entrance/exit 4.例文帳に追加

対象領域A内には、該対象領域A内の画像を取得するカメラ等である撮像装置5が配置される。本第一実施例の場合、撮像装置5として図1に示す如く、車両1の停止位置の周辺に、合計2台の撮像装置5a,5bが設置されている。2台の撮像装置5のうち、撮像装置5aは車両1の停止位置から見て左前方に、撮像装置5bは右後方にそれぞれ設置されている。このように、互いに車両1の停止位置を挟むように、斜め前方および斜め後方に撮像装置5a,5bを設置することで、対象領域A内における車両1の周囲全体について画像を取得できるようにしている。 In the target area A, an imaging device 5 such as a camera for acquiring an image within the target area A is arranged. In the case of the first embodiment, a total of two imaging devices 5a and 5b are installed around the stopping position of the vehicle 1 as the imaging device 5 as shown in FIG. Of the two imaging devices 5, the imaging device 5a is installed on the left front and the imaging device 5b is installed on the right rear when viewed from the stop position of the vehicle 1. As shown in FIG. In this way, by installing the imaging devices 5a and 5b obliquely forward and obliquely rearward so as to sandwich the stop position of the vehicle 1, images of the entire surroundings of the vehicle 1 within the target area A can be acquired. there is

透過部である入出庫口4近傍の内壁には、境界判定部としての物体センサ6が設けられている。本明細書における「境界判定部」とは、光学的な開口部である透過部(入出庫口4)と、周囲の物体(異物Fまたは物体O)との位置関係を判定する装置、またはその部分を指す。本第一実施例の場合、境界判定部である物体センサ6を入出庫口4の近傍に設置し、入出庫口4によって定義される対象領域Aの内外の境界線上に何らかの物体が位置する場合に、該物体を検出するようにしている。このように、境界判定部として物体センサ6を設けると、異物検出システムを実施するにあたり、装置構成を簡易にすることができる。 An object sensor 6 as a boundary determination section is provided on the inner wall near the entrance/exit 4, which is a transmission section. In this specification, the term “boundary determination unit” refers to a device that determines the positional relationship between the transmission unit (the entrance/exit port 4), which is an optical opening, and the surrounding object (foreign object F or object O). point to the part In the case of the first embodiment, when the object sensor 6, which is the boundary determination unit, is installed near the entrance/exit 4, and some object is located on the boundary between the inside and outside of the target area A defined by the entrance/exit 4. , the object is detected. By providing the object sensor 6 as the boundary determination section in this manner, the device configuration can be simplified when implementing the foreign object detection system.

物体センサ6は、例えば透過型の光電センサである。物体センサ6は、入出庫口4の左右一側に設けられた照射部6aと、左右他側に設けられた受光部6bを備えており、照射部6aから入出庫口4のなす面に沿って照射波としての照射光を照射し、受光部6bにて検出するようになっている。照射部6aと受光部6bの間に何らかの物体が存在すれば、受光部6bにて検出される照射光の量が変化する。こうして、物体センサ6は、照射部6aと受光部6bの間に存在する物体を検出できるようになっている。 The object sensor 6 is, for example, a transmissive photoelectric sensor. The object sensor 6 includes an irradiation unit 6a provided on one of the left and right sides of the entrance/exit 4 and a light receiving unit 6b provided on the other left and right side. irradiating light as an irradiation wave, and detected by the light receiving part 6b. If any object exists between the irradiation unit 6a and the light receiving unit 6b, the amount of irradiation light detected by the light receiving unit 6b changes. Thus, the object sensor 6 can detect an object existing between the irradiation section 6a and the light receiving section 6b.

ここで、「境界域」とは、透過部によって定義される対象領域と外部空間との境界近傍の領域を指す。より具体的には、対象領域Aのうち、後述する異物検出工程において、画像の透過部にあたる領域マスク処理を施した場合に、目的の異物が検出されにくくなる領域を指す。図1に示した例では、入出庫口4により定義される境界線に沿って照射波を照射するように物体センサ6を配置しているが、これに代えてあるいは加えて、より対象領域Aの内側寄りの境界域にある異物Fを物体センサ6により検出可能にしてもよい。マスク処理による検出漏れをより確実に防止するためである(このような物体センサ6の配置については、後に再度説明する)。尚、物体センサ6としては、透過型の光電センサ以外にも、特定の領域内における物体の有無を検出可能な装置であれば適宜利用することができる。例えば、透過型以外の形式の光電センサを使用してもよいし、超音波センサ等を使用することもできる。 Here, the “boundary region” refers to a region near the boundary between the target region defined by the transmissive portion and the external space. More specifically, it refers to an area in the target area A in which the target foreign matter is less likely to be detected when the area mask processing corresponding to the transmissive portion of the image is performed in the foreign matter detection step described later. In the example shown in FIG. 1, the object sensor 6 is arranged so as to irradiate the irradiation wave along the boundary line defined by the entrance/exit 4. The object sensor 6 may detect a foreign object F in the boundary area on the inner side of the . This is to more reliably prevent omissions in detection due to mask processing (such arrangement of the object sensors 6 will be described again later). As the object sensor 6, other than a transmissive photoelectric sensor, any device capable of detecting the presence or absence of an object within a specific area can be appropriately used. For example, a photoelectric sensor of a type other than a transmissive type may be used, or an ultrasonic sensor or the like may be used.

入出庫口4近傍の外壁には、操作部7、表示部8、警報部9が備えられている。操作部7は、入出庫口4の開閉、パレット2の搬送といった各部の操作を入力する入力装置である。表示部8は、撮像装置5において取得された対象領域A内の画像、その他の情報を、必要に応じて表示するよう構成されたディスプレイである。警報部9は、対象領域A、あるいは対象領域Aを含む設備の何処かにおいて、人員に対して注意を促すべき何らかの事態が生じた場合に警報を発する装置である。「人員に対して注意を促すべき何らかの事態」とは、例えば車両1を対象領域A外の格納スペースへ搬送するにあたり、対象領域Aに車両1以外の異物Fが検出された場合などである。警報の内容は、アラーム音、警告灯の点灯、警告メッセージの表示など、人員に対して注意を喚起できればよく、適当な形式を選択することができる。 An operation unit 7 , a display unit 8 , and an alarm unit 9 are provided on the outer wall near the entrance/exit 4 . The operation unit 7 is an input device for inputting operations of each unit such as opening/closing of the entrance/exit 4 and transportation of the pallet 2 . The display unit 8 is a display configured to display an image within the target area A acquired by the imaging device 5 and other information as necessary. The alarm unit 9 is a device that issues an alarm when a situation requiring the attention of personnel occurs in the target area A or somewhere in the equipment including the target area A. "Some situation that calls attention to personnel" is, for example, a case where a foreign object F other than the vehicle 1 is detected in the target area A when the vehicle 1 is transported to a storage space outside the target area A. The content of the alarm may be an alarm sound, lighting of a warning light, display of a warning message, etc., as long as it can call attention to personnel, and an appropriate format can be selected.

尚、操作部7、表示部8、警報部9を設置する位置は、ここに示した位置に限定されない。例えば、これらに相当する装置を図示しない管理室等に備えてもよいし、これらの装置のうちいずれかを複数、別々の場所に備えてもよい。また、ここでは説明の便宜のために操作部7、表示部8、警報部9をそれぞれ別々に図示したが、例えば操作部7と表示部8の機能を一体に備えたタッチパネルディスプレイを設けてもよい。また、警報部9の機能を表示部8が兼ねる(すなわち、警報にあたる情報を表示部8に表示する)ようにしてもよい。その他、操作部7、表示部8、警報部9に関しては、対象領域Aのレイアウトやその他の条件に応じて適宜変更することができる。 The positions where the operation unit 7, the display unit 8, and the alarm unit 9 are installed are not limited to the positions shown here. For example, devices corresponding to these may be provided in a management room (not shown), or a plurality of these devices may be provided in separate locations. For convenience of explanation, the operation unit 7, the display unit 8, and the alarm unit 9 are shown separately, but for example, a touch panel display integrally having the functions of the operation unit 7 and the display unit 8 may be provided. good. Further, the display unit 8 may also serve as the function of the alarm unit 9 (that is, the information corresponding to the alarm may be displayed on the display unit 8). In addition, the operation unit 7, the display unit 8, and the alarm unit 9 can be appropriately changed according to the layout of the target area A and other conditions.

図2には、撮像装置5、物体センサ6、操作部7、表示部8、警報部9の制御に係るシステム構成の一例を示している。撮像装置5、物体センサ6、操作部7、警報部9は、Ethernet(登録商標)等の通信バスを介し、制御装置10と情報的に接続されている。制御装置10は、入出庫スペースである対象領域Aを含む機械式駐車場全体を監視し、各部の運転を行う装置であり、入出庫口4の開閉、パレット2の搬送、撮像装置5および物体センサ6の作動等を制御する。 FIG. 2 shows an example of a system configuration related to control of the imaging device 5, the object sensor 6, the operation section 7, the display section 8, and the alarm section 9. As shown in FIG. The imaging device 5, the object sensor 6, the operation unit 7, and the alarm unit 9 are informationally connected to the control device 10 via a communication bus such as Ethernet (registered trademark). The control device 10 is a device that monitors the entire mechanical parking lot including the target area A, which is the parking space for entering and leaving, and operates each part. It controls the operation of the sensor 6 and the like.

また、表示部8は、画像処理部11を介して前記通信バスに接続されている。画像処理部11は、撮像装置5において取得された対象領域Aの画像に対し適宜の処理を行う情報処理装置であり、必要に応じ、表示部8に画像データを送信して表示部8に画像を表示させるようにもなっている。 Also, the display unit 8 is connected to the communication bus via the image processing unit 11 . The image processing unit 11 is an information processing device that performs appropriate processing on the image of the target region A acquired by the imaging device 5, and transmits image data to the display unit 8 as necessary to display the image on the display unit 8. is also displayed.

画像処理部11において行われる画像処理として、本第一実施例において特に想定されるのは異物F(図1参照)の検出である。すなわち、画像処理部11では、撮像装置5により取得された対象領域Aの画像を解析し、画像内に人等の物体が存在するか否かを判定する。制御装置10は、画像処理部11において処理対象の画像から物体が検出された場合、または、前述の物体センサ6により対象領域Aの境界域に物体が検出された場合に、異物Fを検出したと判断し、警報部9を通じて警報を発報する。 As image processing performed in the image processing unit 11, detection of a foreign object F (see FIG. 1) is particularly assumed in the first embodiment. That is, the image processing unit 11 analyzes the image of the target area A acquired by the imaging device 5 and determines whether or not an object such as a person exists in the image. The control device 10 detects the foreign object F when the image processing unit 11 detects an object from the image to be processed, or when the object sensor 6 detects an object in the boundary area of the target area A. , and issue an alarm through the alarm unit 9 .

画像処理部11には、画像内に写り込んだ物体を検出するプログラムPが格納されている。このプログラムPは、多層のニューラルネットワークを用いたディープラーニングの手法により、特定の種類の物体を検出するよう構成されている。ディープラーニングのアルゴリズムとしては、例えばR-CNN(Regional-Convolutional Neural Network)、Fast R-CNN、Faster R-CNN、YOLO(You Only Look Once)、SSD(Single Shot Multibox Detector)といった各種のアルゴリズムを用いることができるが、この他の適当なアルゴリズムを使用してもよい。 The image processing unit 11 stores a program P for detecting an object reflected in an image. This program P is configured to detect a specific type of object by a deep learning method using a multi-layered neural network. As deep learning algorithms, various algorithms such as R-CNN (Regional-Convolutional Neural Network), Fast R-CNN, Faster R-CNN, YOLO (You Only Look Once), and SSD (Single Shot Multibox Detector) are used. can be used, but other suitable algorithms may be used.

プログラムPは、こうしたアルゴリズムを用い、画像内に写り込んだ物体の種類を特定すると共に、該物体がその種類の物体である確率、物体の重心の座標、物体の幅および高さ等を出力できるようになっている。機械式駐車場の入出庫スペースである対象領域Aにおいて想定される異物Fの種類は、第一に人物であるので、プログラムPは、画像から少なくとも人物を判別できるように構成されるべきである。その他に、車両1と共に対象領域Aに入り込む可能性のある物体としては、ペット等の動物、バッグ、ベビーカーなど、各種の物体が想定されるので、プログラムPは、人物の他にこれらの物体をも検出できるようになっていてもよい。また、異物検出システムの設置対象である対象領域の種類が異なれば、異物として検出される物体の種類も異なることが考えられる。プログラムPは、人物に限らず、対象領域の種類に応じて想定される各種の物体を検出可能に構成すればよい。 Using such an algorithm, the program P can identify the type of object in the image and output the probability that the object is that type of object, the coordinates of the center of gravity of the object, the width and height of the object, etc. It's like Since the first type of foreign matter F assumed in the target area A, which is the entering/exiting space of the mechanical parking lot, is a person, the program P should be configured so that at least a person can be identified from the image. . In addition, as objects that may enter the target area A together with the vehicle 1, various objects such as animals such as pets, bags, and strollers are assumed. can also be detected. In addition, if the type of target area where the foreign object detection system is installed is different, it is conceivable that the type of object detected as a foreign object is also different. The program P may be configured to be capable of detecting not only a person but also various objects assumed according to the type of target area.

車両1の入庫を行う際には、車両1の運転者、乗員、施設の係員といった人員が操作部7を操作し、入庫の開始を指示する。制御装置10は、指示に応じて入出庫口4を開放する。入庫の開始にあたっては、空のパレット2が対象領域A内の定位置である中央部に配備された状態で入出庫口4を開放する。 When the vehicle 1 is to be parked, personnel such as the driver of the vehicle 1, the crew members, and the staff of the facility operate the operation unit 7 to instruct the start of the warehousing. The controller 10 opens the entrance/exit 4 according to the instruction. At the start of warehousing, the entry/exit port 4 is opened with an empty pallet 2 arranged at the central portion, which is a fixed position within the target area A.

入出庫口4が開放されたら、運転者が車両1を対象領域A内に移動させ、パレット2上で停止させる。停止後、運転者やその他の乗員が降車し、対象領域Aから退出する。運転者等の人員が全て退出したら、運転者等は対象領域A内を目視し、人物や手荷物等の異物Fが対象領域A内に存在しないかどうかを確認のうえ、操作部7を操作し、車両1がパレット2上に停止した旨を入力する。制御装置10は、入出庫口4を閉鎖し、車両1を積載したパレット2を対象領域A外の格納スペースへ搬送する。 When the entrance/exit 4 is opened, the driver moves the vehicle 1 into the target area A and stops it on the pallet 2 . After stopping, the driver and other passengers get off the vehicle and exit the target area A. After all the personnel such as the driver have left, the driver or the like visually checks the target area A to confirm whether or not foreign matter F such as a person or baggage exists in the target area A, and then operates the operation unit 7. , that the vehicle 1 has stopped on the pallet 2 is input. The control device 10 closes the entrance/exit 4 and transports the pallet 2 loaded with the vehicle 1 to a storage space outside the target area A.

車両1の出庫を行う際には、車両1の運転者、乗員、施設の係員といった人員が操作部7を操作し、出庫の開始を指示する。制御装置10は、指示に応じて該当するパレット2を対象領域A内に搬送し、入出庫口4を開放する。入出庫口4が開放されたら、運転者がパレット2上の車両1に乗り込み、対象領域Aの外へ移動する。車両1が外へ出た段階で、車両1の運転者や係員等が再び操作部7を操作し、出庫が完了した旨を入力する。制御装置10は、指示に応じて入出庫口4を閉鎖する。 When the vehicle 1 is to leave the garage, personnel such as the driver of the vehicle 1, the crew members, and the staff of the facility operate the operation unit 7 to instruct the start of leaving the garage. The control device 10 conveys the corresponding pallet 2 into the target area A according to the instruction, and opens the entrance/exit 4 . When the entrance/exit 4 is opened, the driver gets into the vehicle 1 on the pallet 2 and moves out of the target area A. When the vehicle 1 has left the vehicle, the driver of the vehicle 1, a staff member, or the like operates the operation unit 7 again to input that the vehicle has left the garage. The control device 10 closes the entrance/exit 4 according to the instruction.

尚、上の一連の動作は運転者が車両1を運転する場合を例に説明したが、車両1が自動運転車である場合もあり得る。その場合、上記した車両1の動作の一部または全部が、運転者を介さずに行われる。 Although the above series of operations has been described as an example in which the driver drives the vehicle 1, the vehicle 1 may be an automatic driving vehicle. In that case, some or all of the above-described operations of the vehicle 1 are performed without intervention of the driver.

画像処理部11(図2参照)では、適宜のタイミングで異物検出を実行する。例えば、入庫の際、車両1がパレット2上に停止し、その旨を運転者が操作部7に入力した時に異物検出を行う。このとき、運転者は目視により対象領域A内の異物Fの不在を確認するが、同時に物体センサ6と撮像装置5および画像処理部11を用いて機械的に異物検出を実行すれば、確認を徹底できる。その他、例えば出庫の開始指示が入力された時や、出庫の完了が入力されて入出庫口4を閉鎖する時、あるいは特に操作を行わない平常時など、対象領域A内の状態を確認する必要があると考えられる任意のタイミングにおいて、異物検出を行うことができる。 The image processing unit 11 (see FIG. 2) executes foreign matter detection at appropriate timing. For example, when the vehicle 1 stops on the pallet 2 at the time of warehousing, foreign matter detection is performed when the driver inputs that fact to the operation unit 7 . At this time, the driver visually confirms the absence of the foreign object F in the target area A. At the same time, the object sensor 6, the imaging device 5, and the image processing unit 11 can be used to mechanically detect the foreign object. can be thorough. In addition, it is necessary to confirm the state of the target area A, for example, when an instruction to start unloading is input, when the completion of unloading is input and the entrance/exit door 4 is closed, or during normal times when no particular operation is performed. A foreign object can be detected at any timing when it is thought that there is.

異物検出を行う場合、制御装置10は、各撮像装置5を作動させ、対象領域A内の画像を取得する。画像処理部11では、プログラムPにより、各撮像装置5が取得した画像に対し物体検出処理を実行する。また、制御装置10は、物体センサ6を作動させ、対象領域Aの境界域に物体が存在しないかどうかを確認する。 When performing foreign object detection, the control device 10 operates each imaging device 5 to acquire an image within the target region A. FIG. The image processing unit 11 executes object detection processing on the image acquired by each imaging device 5 by the program P. FIG. Further, the control device 10 activates the object sensor 6 to check whether or not an object exists in the boundary area of the target area A.

画像処理の結果、取得された画像のうち少なくとも1枚の画像中に、異物Fとして想定される種類の物体(例えば、人物)が検出された場合には、制御装置10は警報部9を作動させ、警報を発報する。同時に、パレット2、入出庫口4あるいはその他の各部の動作を禁止する。また、異物Fが検出された旨を表示部8に表示してもよい。また、物体センサ6により物体が検出された場合にも、制御装置10は同様の動作を行う。 As a result of the image processing, when an object of a type assumed to be a foreign object F (for example, a person) is detected in at least one of the acquired images, the control device 10 activates the alarm unit 9. and issue an alarm. At the same time, the operation of the pallet 2, the entrance/exit 4, or other parts is prohibited. Further, the display unit 8 may display that the foreign object F has been detected. Also, when an object is detected by the object sensor 6, the control device 10 performs the same operation.

このように、プログラムPを用いて異物検出を行うにあたり、物体センサ6による物体検出を併せて実行すれば、異物検出の精度を高めることができる。以下に詳しく説明する。 In this way, when foreign object detection is performed using the program P, if object detection by the object sensor 6 is also executed, the accuracy of foreign object detection can be improved. A detailed description is given below.

撮像装置5によって取得された対象領域A内の画像に基づき、図1に示す如き対象領域A内の異物Fを検出したい場合、まず、死角を作らないことが重要である。一方で、システムを構成する装置類は極力少ないことが望ましく、特に、撮像装置5の台数は、異物検出の精度を確保可能な範囲でなるべく少なくすべきである。上述の如きディープラーニングを用いたプログラムPにより画像処理を行う場合、画像処理部11に相当量の計算負荷が発生する。図2では画像処理部11を1個のブロックとして表示しているが、実際には、例えば1台の撮像装置5につき1台程度の情報処理装置が必要となる場合もあり得る。このように、撮像装置5の台数を抑えることは、特にディープラーニングを用いたプログラムPを用いて異物検出を行う場合、コストの面で非常に重要である。図1に示す2台の撮像装置5の配置は、少ない台数の撮像装置5により、対象領域A内の画像を死角を作らないように取得するための一案である(尚、ここでは2台の撮像装置5を備えた異物検出システムを例示したが、この2台の撮像装置5は死角をなくすための必要最小限の台数であって、検出精度をいっそう高める等の目的で、さらに撮像装置等を追加することを妨げるものではない)。 When it is desired to detect a foreign object F within the target area A as shown in FIG. 1 based on the image within the target area A acquired by the imaging device 5, it is first important not to create a blind spot. On the other hand, it is desirable that the number of devices constituting the system is as small as possible, and in particular, the number of imaging devices 5 should be as small as possible within the range where the foreign matter detection accuracy can be ensured. When image processing is performed by the program P using deep learning as described above, the image processing unit 11 is subjected to a considerable amount of computational load. Although the image processing unit 11 is shown as one block in FIG. 2, in practice, for example, one imaging device 5 may require about one information processing device. Reducing the number of imaging devices 5 in this way is very important in terms of cost, especially when foreign matter detection is performed using the program P using deep learning. The arrangement of the two imaging devices 5 shown in FIG. 1 is one proposal for acquiring an image in the target area A using a small number of imaging devices 5 without creating a blind spot (here, two imaging devices 5 are arranged). However, these two imaging devices 5 are the minimum number necessary to eliminate blind spots, and for the purpose of further increasing the detection accuracy, further imaging devices etc.).

さらに、異物検出にあたっては、検出漏れと過検出の両方を極力減らす必要がある。ここで、図1に示す如く撮像装置5を配置した場合、各撮像装置5の画角には、入出庫口4が大きく入り込んでしまう。その結果として、例えば撮像装置5bにより取得される画像では、図3に示す如く、透過部である入出庫口4を通し、対象領域Aの外部にある物体Oが画像内に写り込む可能性がある。物体OがプログラムPによって検出可能な種類の物体(ここでは、人物)である場合には、過検出が生じるおそれがある。 Furthermore, in foreign matter detection, it is necessary to reduce both detection omissions and over-detections as much as possible. Here, when the imaging devices 5 are arranged as shown in FIG. As a result, for example, in the image acquired by the imaging device 5b, as shown in FIG. be. If the object O is of a type detectable by the program P (here, a person), overdetection may occur.

過検出を防止するためには、例えば図4に示す如く、画像内に写り込む透過部(入出庫口4)にあたる領域にマスク処理を施したうえで、プログラムPによる異物検出を実行する方法が考えられる。しかしながら、このようにした場合、入出庫口4の近傍にある異物Fの一部もマスクされてしまう。マスクされた量あるいは位置が図4に示す程度であれば、マスクされた物体FをプログラムPによって検出することは可能であるが、異物Fの位置がさらに外側寄りである場合には、図5に示す如く異物Fの大半がマスクされてしまう場合もあり得る。図5に示す例では、入出庫口4の近傍の異物Fは対象領域Aの内側に位置しているが、マスク処理によって大半がマスクされてしまっているため、プログラムPでは検出できない可能性がある。そこで、図1に示す如く配置した物体センサ6を作動させることで、マスク処理により検出されない可能性のある境界域の異物Fを確実に検出するのである。つまり、プログラムPを用いて異物検出を行うにあたり、画像処理部11によるマスク処理で過検出を、境界判定部である物体センサ6で検出漏れをそれぞれ防ぐことにより、異物検出の精度を高めているのである。 In order to prevent over-detection, for example, as shown in FIG. 4, there is a method in which a region corresponding to the transmissive portion (entry/exit door 4) reflected in the image is masked, and then foreign matter detection is executed by the program P. Conceivable. However, in this case, part of the foreign matter F in the vicinity of the entrance/exit 4 is also masked. If the masked amount or position is as shown in FIG. 4, the masked object F can be detected by the program P. Most of the foreign matter F may be masked as shown in FIG. In the example shown in FIG. 5, the foreign matter F near the entrance/exit 4 is located inside the target area A, but most of it is masked by the masking process, so there is a possibility that it cannot be detected by the program P. be. Therefore, by activating the object sensor 6 arranged as shown in FIG. 1, the foreign matter F in the boundary area, which may not be detected by the mask processing, can be reliably detected. In other words, when foreign matter is detected using the program P, the mask processing by the image processing unit 11 prevents over-detection, and the object sensor 6, which is the boundary determination unit, prevents detection omissions, thereby increasing the accuracy of foreign matter detection. of.

ところで、図1に示す如く対象領域Aの内外の境界線に沿って照射波を照射するように物体センサ6を配置した場合、境界線上にある異物Fは物体センサ6により好適に検出できる。一方で、入出庫口のすぐ内側に位置する異物Fは、物体センサ6の照射波が当たらず、しかも撮像装置5によって取得された画像中では、マスク処理を経て大部分がマスクされてしまうといった場合も想定される。こういった場合、検出漏れが生じてしまう可能性も否定できない。そこで、図1に示す位置の物体センサ6に代えてあるいは加えて、より内側の境界域についても異物Fを検出できるよう、物体センサ6を設置しても良い。このように、入出庫口4により定義される境界線よりも内側の境界域に対して物体センサ6を設置する場合、該物体センサ6の配置は、次のように設定することが最適である。
・物体センサ6による物体検出の対象となり得る領域より内側に位置する異物Fであれば、マスク処理を経た画像からでもプログラムPにより検出できるよう、物体センサ6を配置する。
すなわち、
・物体センサ6により、境界域が異物検出の対象となるよう、物体センサ6を配置する。
By the way, when the object sensor 6 is arranged so as to irradiate the irradiation wave along the boundary between the inside and outside of the target area A as shown in FIG. On the other hand, the foreign matter F located just inside the entrance/exit is not hit by the irradiation wave of the object sensor 6, and moreover, most of it is masked in the image acquired by the imaging device 5 through the masking process. case is also assumed. In such a case, it cannot be denied that there is a possibility that detection omissions may occur. Therefore, instead of or in addition to the object sensor 6 at the position shown in FIG. 1, the object sensor 6 may be installed so that the foreign matter F can be detected even in the inner boundary area. In this way, when the object sensor 6 is installed in the boundary area inside the boundary line defined by the entrance/exit 4, the placement of the object sensor 6 is optimally set as follows. .
The object sensor 6 is arranged so that the program P can detect the foreign matter F located inside the area that can be detected by the object sensor 6, even from the masked image.
i.e.
- The object sensor 6 is arranged so that the boundary area is the target of foreign matter detection by the object sensor 6 .

尚、「物体センサ6による異物検出の対象となり得る領域」と、「マスク処理を経た画像からでもプログラムPにより異物Fを検出できる領域」とは、互いに重複部分があっても差し支えない。 It should be noted that there is no problem even if there is an overlap between "the area that can be detected by the object sensor 6" and "the area where the program P can detect the foreign matter F even from the masked image".

以上の如き撮像装置5、画像処理部11および物体センサ6による異物検出工程の手順の一例を、図6のフローチャートを参照しながら説明する。以下に説明する異物検出工程は、画像取得工程(ステップS1)と、マスク処理工程(ステップS2)と、第一の物体検出工程(ステップS3)と、第二の物体検出工程(ステップS4)とを含んでいる。 An example of the procedure of the foreign object detection process by the imaging device 5, the image processing unit 11 and the object sensor 6 as described above will be described with reference to the flow chart of FIG. The foreign matter detection process described below includes an image acquisition process (step S1), a mask processing process (step S2), a first object detection process (step S3), and a second object detection process (step S4). contains.

まず、撮像装置5により、対象領域A内の画像を取得する(ステップS1)。続いて、取得した画像に対し、透過部(入出庫口4)の占める領域にマスク処理を施す(ステップS2)。尚、マスク処理は、撮像装置5で行ってもよいし、画像処理部11で行ってもよい。さらに、マスク処理を経た画像に対し、画像処理部11に格納されたプログラムPにより、物体検出処理を実行する(ステップS3)。 First, the imaging device 5 acquires an image within the target area A (step S1). Subsequently, mask processing is applied to the area occupied by the transmissive portion (the entrance/exit 4) of the acquired image (step S2). The mask processing may be performed by the imaging device 5 or may be performed by the image processing section 11 . Furthermore, an object detection process is performed on the image that has undergone the mask process by the program P stored in the image processing section 11 (step S3).

一方で、物体センサ6を作動させ、照射波の照射領域における物体の有無を検出する(ステップS4)。ステップS5では、プログラムPにより画像内に特定の種類の物体が検出されたか、あるいは物体センサ6により照射領域に何らかの物体が検出されたかを判定する。いずれか一方、あるいは両方にて物体が検出されていれば、対象領域A内に異物Fが存在すると判断される(ステップS6)。異物Fが存在すると判断されたら、制御装置10は、異物Fを検出した場合に行うべき各種の動作を行う。例えば、異物が検出された旨を表示部8に表示する。このとき、文字あるいは音声によるメッセージを流したり、表示部8の背景色を変更し、操作者(車両1の運転者、あるいは施設の係員等の人員)に対し注意を促す。また、必要に応じ、機器類の操作(例えば、入庫口4の開閉、パレット2の搬送など)を禁止しても良い。 On the other hand, the object sensor 6 is operated to detect the presence or absence of an object in the irradiation area of the irradiation wave (step S4). In step S5, it is determined whether the program P has detected a particular type of object in the image, or whether the object sensor 6 has detected any object in the illuminated area. If an object is detected in either one or both, it is determined that a foreign object F exists within the target area A (step S6). When it is determined that the foreign object F exists, the control device 10 performs various operations that should be performed when the foreign object F is detected. For example, the display unit 8 displays that a foreign object has been detected. At this time, a text or voice message is played or the background color of the display unit 8 is changed to call attention to the operator (the driver of the vehicle 1 or the staff of the facility, etc.). Further, if necessary, the operation of equipment (for example, opening and closing the entrance 4, transporting the pallet 2, etc.) may be prohibited.

プログラムPおよび物体センサ6のいずれによっても物体が検出されていなければ、異物は存在しないとして、異物検出工程を終了する(ステップS7)。 If neither the program P nor the object sensor 6 detects an object, it is determined that no foreign object exists, and the foreign object detection process ends (step S7).

尚、ここに説明した手順は一例であって、各ステップの順序は適宜入れ替えたり、別のステップを追加するなど、変更を加えることができる。例えば、画像処理部11およびプログラムPによる物体検出を行うステップS1~S3と、物体センサ6による物体検出を行うステップS4とは順序を入れ替えてもよいし、並行して実行してもよい。また、ここでは物体検出の結果を判定するステップをステップS5としてまとめて説明したが、画像処理部11およびプログラムPによる物体検出の結果の判定と、物体センサ6による物体検出の結果の判定は別々に行ってもよい。 It should be noted that the procedure described here is just an example, and changes can be made such as changing the order of each step or adding another step. For example, steps S1 to S3 for object detection by the image processing unit 11 and the program P and step S4 for object detection by the object sensor 6 may be switched in order or executed in parallel. Also, although the step of determining the result of object detection has been collectively described here as step S5, the determination of the result of object detection by the image processing unit 11 and the program P and the determination of the result of object detection by the object sensor 6 are performed separately. You can go to

以上のように、上記本第一実施例の異物検出システムは、対象領域A内の画像を取得する撮像装置5と、撮像装置5により取得された画像内の物体をディープラーニングを用いて検出するプログラムPを格納する画像処理部11と、対象領域Aの内側から外部を視認できる透過部4と周囲の物体との位置関係を判定する境界判定部6とを備え、撮像装置5で取得された画像に対し、透過部4の占める領域にマスク処理を施し、該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成されている。このようにすれば、プログラムPを用いて異物検出を行うにあたり、境界判定部6による物体検出を併せて実行することで、異物検出の精度を高めることができる。 As described above, the foreign matter detection system of the first embodiment uses the imaging device 5 that acquires the image within the target area A and the object in the image acquired by the imaging device 5 using deep learning. An image processing unit 11 that stores a program P, a boundary determination unit 6 that determines the positional relationship between a transmission unit 4 that allows the outside to be visually recognized from the inside of the target area A, and surrounding objects. The area occupied by the transmissive portion 4 is masked in the image, and the object is detected by a program using deep learning based on the masked image. In this way, when foreign matter is detected using the program P, the accuracy of foreign matter detection can be improved by also executing object detection by the boundary determination unit 6 .

上述の異物検出システムにおいて、マスク処理は前記撮像装置にて行われるようにすることができる。 In the foreign matter detection system described above, mask processing can be performed by the imaging device.

上述の異物検出システムにおいて、マスク処理は前記画像処理部にて行われるようにすることもできる。 In the foreign matter detection system described above, mask processing may be performed in the image processing section.

上述の異物検出システムにおいて、境界判定部6は、対象領域Aにおける外部空間との境界域における物体の有無を検出可能に構成された物体センサとすることができる。このようにすれば、簡易な装置構成により異物検出システムを実施することができる。 In the foreign matter detection system described above, the boundary determination unit 6 can be an object sensor configured to detect the presence or absence of an object in the boundary area between the target area A and the external space. In this way, a foreign object detection system can be implemented with a simple device configuration.

上述の異物検出システムにおいて、物体センサ6は、透過部4のなす面に沿って照射された照射波を検出するよう構成することができる。このようにすれば、境界線上にある異物Fを物体センサ6により好適に検出することができる。 In the foreign matter detection system described above, the object sensor 6 can be configured to detect an irradiation wave irradiated along the plane formed by the transmission section 4 . In this way, the object sensor 6 can suitably detect the foreign matter F on the boundary line.

上述の異物検出システムおよび方法において、対象領域Aは機械式駐車場の入出庫スペースとすることができ、このようにすれば、機械式駐車場の入出庫スペースにおいて好適に異物検出を実行することができる。 In the foreign object detection system and method described above, the target area A can be the entering/exiting space of the mechanical parking lot. can be done.

また、上記本第一実施例の異物検出方法は、対象領域A内の画像を取得する画像取得工程(ステップS1)と、画像取得工程で取得された画像に対し、対象領域Aの内側から外部を視認できる透過部4の占める領域にマスク処理を施すマスク処理工程(ステップS2)と、マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムPにより物体を検出する第一の物体検出工程(ステップS3)と、対象領域Aの境界域における物体の有無を検出する第二の物体検出工程(ステップS4)とを含んでいる。このようにすれば、プログラムPを用いて異物検出を行うにあたり、マスク処理で過検出を、境物体センサ6で検出漏れをそれぞれ防ぐことにより、異物検出の精度を高めることができる。 Further, the foreign matter detection method of the first embodiment includes an image acquisition step (step S1) for acquiring an image within the target region A, and an image acquired in the image acquisition step from the inside of the target region A to the outside. A masking process (step S2) for masking the area occupied by the transparent part 4 that can be visually recognized, and a first object detection process for detecting an object by a program P using deep learning based on the image that has undergone the masking process. (Step S3), and a second object detection step (Step S4) of detecting the presence or absence of an object in the boundary area of the target area A. In this way, when foreign matter is detected using the program P, the accuracy of foreign matter detection can be improved by preventing over-detection by the mask processing and omission of detection by the boundary object sensor 6 .

したがって、上記本第一実施例によれば、極力簡単な構成により高い精度で異物を検出し得る。 Therefore, according to the first embodiment described above, a foreign object can be detected with high accuracy with the simplest possible configuration.

図7、図8は本開示の第二実施例による異物検出システムの構成を示している。本第二実施例の異物検出システムは、基本的な構成は上述の第一実施例(図1、図2参照)と共通しているが、物体センサ6の代わりに、画像処理部11に境界判定部12を備えている。この境界判定部12は、撮像装置5により取得された画像に基づき、透過部(入出庫口4)と、周囲の物体(異物Fまたは物体O)との位置関係を判定するようになっている。より具体的には、境界判定部12は、画像内に写り込んだ物体(異物Fまたは物体O)の透過部(入出庫口4)に対する位置関係から、対象領域Aに対し前記物体が内外のいずれかにあるかを判定するようになっている。 7 and 8 show the configuration of a foreign object detection system according to a second embodiment of the present disclosure. The foreign object detection system of the second embodiment has the same basic configuration as that of the first embodiment described above (see FIGS. 1 and 2). A determination unit 12 is provided. This boundary determination unit 12 determines the positional relationship between the transmissive portion (entry/exit door 4) and surrounding objects (foreign matter F or object O) based on the image acquired by the imaging device 5. . More specifically, the boundary determining unit 12 determines whether the object (foreign object F or object O) reflected in the image is inside or outside the target area A based on the positional relationship of the object (foreign object F or object O) with respect to the transmissive part (the entrance/exit door 4). It is determined whether there is any one of them.

図7に示す異物検出システムにおいて、撮像装置5により画像を取得した場合、例えば撮像装置5aにおいては、図9に示す如き画像が取得される。このような画像に対し、画像処理部11のプログラムPにより物体検出の処理を実行すると、対象領域A内の2個の異物F、および入出庫口4の外側にある物体Oが検出される。 In the foreign object detection system shown in FIG. 7, when an image is acquired by the imaging device 5, for example, an image as shown in FIG. 9 is acquired by the imaging device 5a. When the program P of the image processing unit 11 executes object detection processing on such an image, two foreign objects F within the target area A and an object O outside the entrance/exit 4 are detected.

プログラムPは、各物体の種類と共に、画像内に占める位置を特定する。物体の種類および位置は、例えば図10に示す如く、画像に重ねて表示することができる。ここでは、検出された各異物Fおよび物体Oの周囲に、それらが占める範囲が方形の枠によって図示され、特定された物体の種類(ここでは、人物)、および各物体がその種類の物体である確率が一緒に表示されている。 The program P identifies the position that each object occupies in the image along with its type. The type and position of the object can be superimposed on the image, as shown in FIG. 10, for example. Here, the range occupied by each detected foreign object F and object O is illustrated by a square frame, and the type of the identified object (here, a person) and each object is an object of that type. Certain probabilities are displayed together.

境界判定部12では、これらの物体が、対象領域Aと外部空間との境界である入出庫口4に対しどの位置にあるかにより、各異物Fおよび物体Oが対象領域Aの内側にあるか、外側にあるか否かを判定する。 The boundary determining unit 12 determines whether each foreign object F and the object O are inside the target area A based on the positions of these objects with respect to the entrance/exit 4, which is the boundary between the target area A and the external space. , is outside.

内外の判定は、例えば、各物体の占める範囲を表示するそれぞれの枠と、入出庫口4の占める領域との上下関係によって行うことができる。図10において、入出庫口4の占める領域は、図中に破線で示す略四角形の部分である。この略四角形の画素領域に対し、各物体の位置を示す枠の下辺にあたる線分がどの程度重なっているかによって、各物体が入出庫口4よりも内側にあるか、外側にあるかを判定することができる。 The inside/outside determination can be made, for example, by the vertical relationship between each frame displaying the range occupied by each object and the area occupied by the entrance/exit 4 . In FIG. 10, the area occupied by the entrance/exit 4 is a substantially rectangular portion indicated by broken lines in the drawing. It is determined whether each object is inside or outside the entrance/exit 4 depending on how much the line segment corresponding to the lower side of the frame indicating the position of each object overlaps with this substantially rectangular pixel area. be able to.

内外の判定にあたっては、例えば、各異物Fまたは物体Oの周囲に表示された枠の下辺にあたる線分のうち、ある閾値(例えば、80%)以上の部分が入出庫口4の占める画素領域の内側にあれば、その物体は対象領域Aの外にあると判定する。前記枠のうち、前記画素領域の内側にある部分の割合が前記閾値未満であば、その物体は対象領域A内にあると判定する。図10に示す例では、手前側に位置する2個の異物Fは対象領域Aの内側に、奥側の物体Oは外側に位置すると判断することができる。尚、ここに説明した判定方法はあくまで一例であって、画像に基づいて各物体の内外を判定する方法としては、その他、適宜の方法を採用することができる。 In determining the inside/outside, for example, of the line segment corresponding to the lower side of the frame displayed around each foreign object F or object O, a portion exceeding a certain threshold value (for example, 80%) is the pixel area occupied by the entrance/exit 4. If it is inside, the object is determined to be outside the target region A. It is determined that the object is within the target region A if the ratio of the portion of the frame that is inside the pixel region is less than the threshold value. In the example shown in FIG. 10, it can be determined that the two foreign objects F located on the front side are located inside the target area A, and the object O on the back side is located outside. It should be noted that the determination method described here is merely an example, and other appropriate methods can be adopted as the method for determining the inside and outside of each object based on the image.

以上の如き画像処理部11のプログラムPおよび境界判定部12による異物検出工程の手順の一例を、図11のフローチャートを参照しながら説明する。以下に説明する異物検出工程は、画像取得工程(ステップS11)と、物体検出工程(ステップS12)と、位置判定工程(ステップS15)とを含んでいる。 An example of the procedure of the foreign matter detection process by the program P of the image processing section 11 and the boundary determination section 12 as described above will be described with reference to the flow chart of FIG. The foreign matter detection process described below includes an image acquisition process (step S11), an object detection process (step S12), and a position determination process (step S15).

まず、撮像装置5により、対象領域A内の画像を取得する(ステップS11)。続いて、取得した画像に対し、プログラムPにより物体検出処理を実行する(ステップS12)。 First, the imaging device 5 acquires an image within the target area A (step S11). Subsequently, object detection processing is performed on the acquired image by the program P (step S12).

ステップS13では、物体検出処理の結果、プログラムPにより画像内に異物Fと見なし得る何らかの物体(異物Fまたは物体O)が検出されたか否かを判定する。特定の種類の物体が存在しなければ、異物は存在しないとして、異物検出工程を終了する(ステップS14)。 In step S13, as a result of the object detection process, it is determined whether or not the program P has detected any object (foreign object F or object O) that can be regarded as the foreign object F in the image. If the specific type of object does not exist, it is determined that no foreign object exists, and the foreign object detection process ends (step S14).

画像中に何らかの物体が検出された場合、ステップS15に進む。ステップS15では、境界判定部12により、検出された各物体の対象領域Aに対する位置を判定する。ステップS16では、ステップS12で検出された物体の中に、対象領域A内に位置すると判定された物体が存在したか否かを判定する。前記物体のうち、いずれもが対象領域Aの外にあると判定された場合は、異物は存在しないとして、異物検出工程を終了する(ステップS14)。前記物体のうち、少なくとも一部が対象領域A内にあると判定された場合は、異物Fが存在したと判定して、異物検出工程を終了する(ステップS17)。尚、ここに説明した手順は一例であって、各ステップの順序は適宜入れ替えたり、別のステップを追加するなど、変更を加えることができることは、上記第一実施例について説明した通りである。 If any object is detected in the image, go to step S15. In step S15, the position of each detected object with respect to the target area A is determined by the boundary determination unit 12 . In step S16, it is determined whether or not there is an object determined to be located within the target area A among the objects detected in step S12. If any of the objects is determined to be outside the target area A, the foreign object detection process is terminated assuming that no foreign object exists (step S14). If it is determined that at least part of the object is within the target region A, it is determined that the foreign matter F is present, and the foreign matter detection step is terminated (step S17). It should be noted that the procedure described here is only an example, and as described in the first embodiment, the order of each step can be changed as appropriate, or other steps can be added.

このように、本第二実施例では、プログラムPを用いた異物検出を実行するにあたり、境界判定部12による位置判定を併せて実行することで、異物検出の精度を高めるようにしている。 As described above, in the second embodiment, when executing the foreign object detection using the program P, the position determination by the boundary determination unit 12 is also executed, thereby increasing the accuracy of the foreign object detection.

尚、上記第一実施例では境界判定部として物体センサ6を、本第二実施例では画像処理部11内に格納された境界判定部12をそれぞれ説明したが、これらを適宜組み合わせて異物検出システムを実施することも可能である。また、異物検出の精度を高める等の目的のため、その他のセンサ類等を適宜併用してもよい。 In the first embodiment, the object sensor 6 is used as the boundary determination unit, and in the second embodiment, the boundary determination unit 12 stored in the image processing unit 11 is described. It is also possible to implement Further, for the purpose of improving the accuracy of foreign matter detection, etc., other sensors may be used together as appropriate.

また、上記第一および第二実施例では対象領域Aとして機械式駐車場の入出庫スペースを想定したが、同様の異物検出システムは、異物の検出が必要とされる空間であれば種類を問わず適用することができる。例えば、電気自動車の給電設備等を想定することもできるし、また、例えば窓のある倉庫内の警備などにも応用できる。 In addition, in the first and second embodiments, the entry/exit space of a mechanical parking lot was assumed as the target area A, but a similar foreign matter detection system can be applied to any space in which detection of foreign matter is required. can be applied without For example, it is possible to envision a power supply facility for an electric vehicle, and it can also be applied to security in a warehouse with windows, for example.

以上のように、上記本第二実施例の異物検出システムにおいて、境界判定部12は、撮像装置5により取得された画像内における物体の位置と、前記画像内に透過部4の占める領域との位置関係に基づき、撮像装置5により取得された画像内に検出された物体が対象領域Aの内側にあるか外側にあるかを判定するよう構成されている。このようにすれば、プログラムPを用いて異物検出を行うにあたり、境界判定部12による位置判定を併せて実行することで、異物検出の精度を高めることができる。 As described above, in the foreign object detection system of the second embodiment, the boundary determination unit 12 determines the position of the object in the image acquired by the imaging device 5 and the area occupied by the transmission unit 4 in the image. It is configured to determine whether the object detected in the image acquired by the imaging device 5 is inside or outside the target area A based on the positional relationship. In this way, when foreign matter is detected using the program P, the position determination by the boundary determination unit 12 is also performed, thereby improving the accuracy of foreign matter detection.

また、本第二実施例の異物検出方法は、対象領域内Aの画像を取得する画像取得工程(ステップS11)と、画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムPにより物体を検出する物体検出工程(ステップS12)と、前記画像内における物体の位置と、対象領域Aの内側から外部を視認できる透過部4が画像内に占める領域との位置関係に基づき、画像内に検出された物体が対象領域の内側にあるか外側にあるかを判定する位置判定工程(ステップS15)とを含んでいる。このようにすれば、プログラムPを用いて異物検出を行うにあたり、検出された物体の位置判定を併せて実行することで、異物検出の精度を高めることができる。 Further, the foreign matter detection method of the second embodiment includes an image acquisition step (step S11) for acquiring an image of the target region A, and a program P using deep learning based on the image acquired in the image acquisition step. Based on the positional relationship between the object detection step (step S12) of detecting an object and the position of the object in the image and the area occupied in the image by the transparent part 4 where the outside can be visually recognized from the inside of the target area A, and a position determination step (step S15) for determining whether the detected object is inside or outside the target area. In this way, when foreign matter is detected using the program P, the accuracy of foreign matter detection can be improved by also executing the position determination of the detected object.

その他の構成および作用効果等については上記第一実施例と共通するため説明を省略するが、本第二実施例によっても、極力簡単な構成により高い精度で異物を検出し得る。 Other configurations, functions and effects are the same as those of the first embodiment, so description thereof will be omitted. However, according to the second embodiment as well, a foreign object can be detected with a high degree of accuracy with a configuration that is as simple as possible.

尚、本開示において説明した本発明の異物検出システムおよび方法は、上述の実施例にのみ限定されるものではなく、要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 The foreign matter detection system and method of the present invention described in the present disclosure are not limited to the above-described embodiments, and can of course be modified in various ways without departing from the scope of the invention.

1 遮蔽物(車両)
2 パレット
4 透過部(入出庫口)
5 撮像装置
5a 撮像装置
5b 撮像装置
6 境界判定部(物体センサ)
7 操作部
8 表示部
9 警報部
10 制御装置
11 画像処理部
12 境界判定部
A 対象領域
F 物体(異物)
O 物体
P プログラム
1 Shield (vehicle)
2 pallet 4 transparent part (entry/exit port)
5 Imaging Device 5a Imaging Device 5b Imaging Device 6 Boundary Determination Unit (Object Sensor)
7 operation unit 8 display unit 9 alarm unit 10 control device 11 image processing unit 12 boundary determination unit A target area F object (foreign matter)
O object P program

Claims (9)

対象領域内の画像を取得する撮像装置と、
前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、
前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、
前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、
該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成され
前記境界判定部は、前記対象領域における外部空間との境界域における物体の有無を検出可能に構成された物体センサである異物検出システム。
an imaging device that acquires an image within a target region;
an image processing unit that stores a program for detecting an object in an image acquired by the imaging device using deep learning;
A boundary determination unit that determines a positional relationship between a transmission unit that can visually recognize the outside from the inside of the target area and a surrounding object,
performing mask processing on the area occupied by the transparent portion of the image acquired by the imaging device;
Configured to detect an object by a program using deep learning based on the masked image ,
The foreign matter detection system, wherein the boundary determination unit is an object sensor capable of detecting the presence or absence of an object in a boundary area between the target area and the external space.
前記物体センサは、前記透過部のなす面に沿って照射された照射波を検出するよう構成されている、請求項1に記載の異物検出システム。 2. The foreign matter detection system according to claim 1, wherein said object sensor is configured to detect an irradiation wave irradiated along a plane formed by said transmission section. 対象領域内の画像を取得する撮像装置と、 an imaging device that acquires an image within a target region;
前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、 an image processing unit that stores a program for detecting an object in an image acquired by the imaging device using deep learning;
前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、 A boundary determination unit that determines the positional relationship between a transmission unit that can visually recognize the outside from the inside of the target area and a surrounding object,
前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、 performing mask processing on the area occupied by the transparent portion of the image acquired by the imaging device;
該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成され、 Configured to detect an object by a program using deep learning based on the masked image,
前記境界判定部は、前記撮像装置により取得された画像内における物体の位置と、前記画像内に前記透過部の占める領域との同一画像内における位置関係に基づき、前記撮像装置により取得された画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定するよう構成されている異物検出システム。 The boundary determining unit is configured to determine the image obtained by the imaging device based on the positional relationship within the same image between the position of the object in the image obtained by the imaging device and the area occupied by the transparent portion in the image. A foreign object detection system configured to determine whether an object detected therein is inside or outside the region of interest.
前記マスク処理は前記撮像装置にて行われる、請求項1~3のいずれか一項に記載の異物検出システム。 4. The foreign matter detection system according to claim 1, wherein said mask processing is performed by said imaging device. 前記マスク処理は前記画像処理部にて行われる、請求項1~3のいずれか一項に記載の異物検出システム。 4. The foreign matter detection system according to claim 1, wherein said mask processing is performed by said image processing unit. 前記対象領域は機械式駐車場の入出庫スペースである、請求項1~のいずれか一項に記載の異物検出システム。 The foreign object detection system according to any one of claims 1 to 5 , wherein the target area is an entry/exit space of a mechanical parking lot. 対象領域内の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像に対し、前記対象領域の内側から外部を視認できる透過部の占める領域にマスク処理を施すマスク処理工程と、
前記マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する第一の物体検出工程と、
前記対象領域の境界域における物体の有無を物体センサにより検出する第二の物体検出工程と
を含む異物検出方法。
an image acquisition step of acquiring an image within the region of interest;
a masking step of masking an area occupied by a transmissive portion that allows the outside to be seen from inside the target area, on the image obtained in the image obtaining step;
A first object detection step of detecting an object by a program using deep learning based on the image that has undergone the mask processing step;
and a second object detection step of detecting presence/absence of an object in the boundary area of the target area with an object sensor .
対象領域内の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する物体検出工程と、
前記画像内における物体の位置と、前記対象領域の内側から外部を視認できる透過部が前記画像内に占める領域との同一画像内における位置関係に基づき、前記画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定する位置判定工程と
を含む異物検出方法。
an image acquisition step of acquiring an image within the region of interest;
An object detection step of detecting an object by a program using deep learning based on the image acquired in the image acquisition step;
Based on the positional relationship in the same image between the position of the object in the image and the area occupied in the image by the transparent portion where the outside can be visually recognized from the inside of the target area, the object detected in the image is the target. and a position determining step for determining whether the foreign object is inside or outside the area.
前記対象領域は機械式駐車場の入出庫スペースである、請求項またはに記載の異物検出方法。 9. The foreign object detection method according to claim 7 , wherein said target area is an entry/exit space of a mechanical parking lot.
JP2019094735A 2019-05-20 2019-05-20 Foreign object detection system and method Active JP7292102B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019094735A JP7292102B2 (en) 2019-05-20 2019-05-20 Foreign object detection system and method
SG11202110452QA SG11202110452QA (en) 2019-05-20 2020-04-28 Foreign body detection system and method
PCT/JP2020/018166 WO2020235320A1 (en) 2019-05-20 2020-04-28 Foreign body detection system and method
TW109116233A TW202103056A (en) 2019-05-20 2020-05-15 Foreign object detection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019094735A JP7292102B2 (en) 2019-05-20 2019-05-20 Foreign object detection system and method

Publications (2)

Publication Number Publication Date
JP2020190437A JP2020190437A (en) 2020-11-26
JP7292102B2 true JP7292102B2 (en) 2023-06-16

Family

ID=73454477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019094735A Active JP7292102B2 (en) 2019-05-20 2019-05-20 Foreign object detection system and method

Country Status (4)

Country Link
JP (1) JP7292102B2 (en)
SG (1) SG11202110452QA (en)
TW (1) TW202103056A (en)
WO (1) WO2020235320A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175848A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Display assistance device, display assistance method, and recording medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069497A (en) 2002-08-06 2004-03-04 Sumitomo Osaka Cement Co Ltd Monitoring apparatus and monitoring method
JP2007243509A (en) 2006-03-08 2007-09-20 Hitachi Ltd Image processing device
JP2009124618A (en) 2007-11-19 2009-06-04 Hitachi Ltd Camera apparatus, and image processing device
JP2010193227A (en) 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc Video processing system
JP2017190639A (en) 2016-04-15 2017-10-19 Ihi運搬機械株式会社 Safety confirmation method and control method for parking device
JP2017224925A (en) 2016-06-14 2017-12-21 株式会社エンルートM’s Monitoring device and monitoring method
WO2018030337A1 (en) 2016-08-08 2018-02-15 ナブテスコ株式会社 Automatic door system, program used in automatic door system, method for collecting information in automatic door, sensor device used in automatic door
JP2019073968A (en) 2018-12-21 2019-05-16 三菱重工機械システム株式会社 Safety confirmation system of mechanical parking facility, mechanical parking facility having this and safety confirmation method of mechanical parking facility

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069497A (en) 2002-08-06 2004-03-04 Sumitomo Osaka Cement Co Ltd Monitoring apparatus and monitoring method
JP2007243509A (en) 2006-03-08 2007-09-20 Hitachi Ltd Image processing device
JP2009124618A (en) 2007-11-19 2009-06-04 Hitachi Ltd Camera apparatus, and image processing device
JP2010193227A (en) 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc Video processing system
JP2017190639A (en) 2016-04-15 2017-10-19 Ihi運搬機械株式会社 Safety confirmation method and control method for parking device
JP2017224925A (en) 2016-06-14 2017-12-21 株式会社エンルートM’s Monitoring device and monitoring method
WO2018030337A1 (en) 2016-08-08 2018-02-15 ナブテスコ株式会社 Automatic door system, program used in automatic door system, method for collecting information in automatic door, sensor device used in automatic door
JP2019073968A (en) 2018-12-21 2019-05-16 三菱重工機械システム株式会社 Safety confirmation system of mechanical parking facility, mechanical parking facility having this and safety confirmation method of mechanical parking facility

Also Published As

Publication number Publication date
WO2020235320A1 (en) 2020-11-26
TW202103056A (en) 2021-01-16
SG11202110452QA (en) 2021-10-28
JP2020190437A (en) 2020-11-26

Similar Documents

Publication Publication Date Title
JP5911147B2 (en) Mechanical parking device, method for controlling mechanical parking device, and method for providing safety confirmation function of mechanical parking device
EP2266911B1 (en) Slide door device and elevator
JP2018112048A (en) Warehousing control method and leaving control method of mechanical parking device
JP6093811B2 (en) Mechanical parking device, method for controlling mechanical parking device, and method for providing safety confirmation function of mechanical parking device
JP7292102B2 (en) Foreign object detection system and method
JP7011463B2 (en) Foreign object detection system and method
JP2015055073A (en) Confirmation device for inside of garage of mechanical parking facility
JP2024014887A (en) Safety confirmation system, safety confirmation method, and mechanical parking lot equipment
JP7199304B2 (en) Foreign object detection system
JP7233529B2 (en) Foreign object detection system
JP2020012269A (en) Mechanical parking device
JP2002308552A (en) Door opening and closing controller
JP2010195537A (en) Monitoring device in car of elevator
JP7126436B2 (en) Foreign object detection method and system
JP2005330685A (en) Automatic door closing device of parking equipment
JP2023001935A (en) Unmanned confirmation device, parking device, and method of controlling parking device
JP7383655B2 (en) Mechanical parking lot equipment, its control method, and control program
JP7442381B2 (en) Warehousing support method and warehousing support device
JP6868070B2 (en) Mechanical parking device and control method of mechanical parking device
JP7176925B2 (en) Foreign object detection method and system
JP2001349083A (en) Method of detecting re-entry into multistory parking garage
JP2017002524A (en) Mechanical parking device and control method thereof
JP2022051143A (en) Entry safety verification device and method
JP6595523B2 (en) Mechanical parking apparatus, control method therefor, and control program
JP2020133326A (en) Vehicle stop determination method, foreign matter detection method, and system using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7292102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150