JP2020190437A - Foreign body detection system and method - Google Patents

Foreign body detection system and method Download PDF

Info

Publication number
JP2020190437A
JP2020190437A JP2019094735A JP2019094735A JP2020190437A JP 2020190437 A JP2020190437 A JP 2020190437A JP 2019094735 A JP2019094735 A JP 2019094735A JP 2019094735 A JP2019094735 A JP 2019094735A JP 2020190437 A JP2020190437 A JP 2020190437A
Authority
JP
Japan
Prior art keywords
image
foreign matter
target area
matter detection
detection system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019094735A
Other languages
Japanese (ja)
Other versions
JP7292102B2 (en
Inventor
浩昭 今泉
Hiroaki Imaizumi
浩昭 今泉
謙一 ▲濱▼口
謙一 ▲濱▼口
Kenichi Hamaguchi
賢貴 西村
Masaki Nishimura
賢貴 西村
中村 健一
Kenichi Nakamura
健一 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IHI Corp
IHI Transport Machinery Co Ltd
Original Assignee
IHI Corp
IHI Transport Machinery Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IHI Corp, IHI Transport Machinery Co Ltd filed Critical IHI Corp
Priority to JP2019094735A priority Critical patent/JP7292102B2/en
Priority to SG11202110452QA priority patent/SG11202110452QA/en
Priority to PCT/JP2020/018166 priority patent/WO2020235320A1/en
Priority to TW109116233A priority patent/TW202103056A/en
Publication of JP2020190437A publication Critical patent/JP2020190437A/en
Application granted granted Critical
Publication of JP7292102B2 publication Critical patent/JP7292102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04HBUILDINGS OR LIKE STRUCTURES FOR PARTICULAR PURPOSES; SWIMMING OR SPLASH BATHS OR POOLS; MASTS; FENCING; TENTS OR CANOPIES, IN GENERAL
    • E04H6/00Buildings for parking cars, rolling-stock, aircraft, vessels or like vehicles, e.g. garages
    • E04H6/08Garages for many vehicles
    • E04H6/12Garages for many vehicles with mechanical means for shifting or lifting vehicles
    • E04H6/18Garages for many vehicles with mechanical means for shifting or lifting vehicles with means for transport in vertical direction only or independently in vertical and horizontal directions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/20Detecting, e.g. by using light barriers using multiple transmitters or receivers

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Geophysics (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Geophysics And Detection Of Objects (AREA)
  • Image Analysis (AREA)

Abstract

To provide a foreign body detection system and a method capable of detecting a foreign body with high accuracy by a structure as simple as possible.SOLUTION: A foreign body detection system comprises an imaging device 5 that acquires an image in a target area A, an image processing section that stores a program for detecting objects in the image acquired by the imaging device 5 using deep learning, and a boundary determination section 6 that determines a positional relationship between a transparent section 4 allowing viewing the outside from the inside of the target area A and a peripheral object. The system is configured so as to implement mask processing in an area occupied by the transparent section 4 with respect to the image acquired by the imaging device 5 and detect an object with the program using deep learning on the basis of the image on which mask processing has been implemented.SELECTED DRAWING: Figure 1

Description

本開示は、駐車場等の対象領域内の異物を検出するシステム、および方法に関する。 The present disclosure relates to a system and a method for detecting a foreign substance in a target area such as a parking lot.

車両が進入し、停止する空間、例えば機械式駐車場の入出庫スペース等においては、出入口の扉を開閉したり、車両を載せたパレットを運搬するといった操作を行うにあたり、車両の他に運転者や乗員、手荷物といった異物が存在しないことを確認する必要がある。こうした異物不在の確認作業は、運転者や施設の係員等が目視で行うことができるが、人力のみに頼った場合、不注意等により確認が徹底されない可能性がある。そこで、近年では、異物の不在確認を確実に行うよう、人力のみに頼ることなく、対象領域内の異物を自動で検出する技術が要請されている。 In a space where a vehicle enters and stops, for example, in a space for entering and exiting a mechanical parking lot, when opening and closing the door of the doorway and carrying a pallet on which the vehicle is placed, the driver in addition to the vehicle It is necessary to confirm that there are no foreign objects such as passengers, occupants, and baggage. Such confirmation work of the absence of foreign matter can be performed visually by the driver, facility staff, etc., but if only human power is relied on, the confirmation may not be thorough due to carelessness or the like. Therefore, in recent years, there has been a demand for a technique for automatically detecting a foreign substance in a target area without relying only on human power so as to reliably confirm the absence of the foreign substance.

また、現在、各国で開発が進められている自動運転技術が本格的に実用化されれば、車両の運転のみならず、上述の如き扉の開閉やパレットの運搬といった、車両周辺において行われる種々の操作についても自動化が進められることが想定できる。例えば、自動運転により車両が乗員を目的地に送り届けた後、自動で近傍の機械式駐車場へ移動し、格納スペースに格納されるといったケースが考えられる。この場合、車両は乗員が不在の状態で移動し、入出庫スペースに停止することになる。このとき、扉の開閉、パレットの移動の開始といった操作は、係員が異物の不在を目視で確認し、操作ボタンを入力することで実行されるようにすればよい。しかし、異物の不在を自動で確認し、操作を開始する仕組みがあればよりスムーズである。 In addition, if the automated driving technology currently being developed in each country is put into practical use in earnest, not only driving the vehicle but also various things such as opening and closing doors and transporting pallets as described above will be performed around the vehicle. It can be assumed that automation will be promoted for the operation of. For example, there may be a case where the vehicle delivers the occupant to the destination by automatic driving, then automatically moves to a nearby mechanical parking lot and is stored in the storage space. In this case, the vehicle moves in the absence of the occupants and stops in the entry / exit space. At this time, operations such as opening and closing the door and starting the movement of the pallet may be executed by the person in charge visually confirming the absence of foreign matter and inputting the operation button. However, it will be smoother if there is a mechanism to automatically confirm the absence of foreign matter and start the operation.

このような異物の検出を行う仕組みは、機械式駐車場だけでなく、例えば電気自動車の給電設備等、停止した車両の周辺で何らかの操作を行う場所において広く必要とされ得る。また、同様の仕組みは、車両に限らず何らかの物体の周辺において異物を検出したい局面に広く適用され得る。 Such a mechanism for detecting a foreign substance may be widely required not only in a mechanical parking lot but also in a place where some operation is performed in the vicinity of a stopped vehicle such as a power supply facility for an electric vehicle. Further, the same mechanism can be widely applied not only to a vehicle but also to a situation where foreign matter is desired to be detected around some object.

対象領域内の異物を自動的に検出するための技術として、カメラ等を用いて対象領域内の画像を取得し、該画像内に写り込んだ異物を検出する方法が種々提案されている。こうした技術を記載した技術文献としては、例えば下記特許文献1〜6が挙げられる。 As a technique for automatically detecting foreign matter in the target area, various methods have been proposed in which an image in the target area is acquired by using a camera or the like and the foreign matter reflected in the image is detected. Examples of technical documents describing such techniques include the following Patent Documents 1 to 6.

特開2016−3493号公報JP-A-2016-3493 特開2015−55073号公報JP-A-2015-55073 特開2014−80735号公報Japanese Unexamined Patent Publication No. 2014-80735 特開平08−42184号公報Japanese Unexamined Patent Publication No. 08-42184 特開昭62−194366号公報Japanese Unexamined Patent Publication No. 62-194366 特開2012−158968号公報Japanese Unexamined Patent Publication No. 2012-158868

上述の如き異物検出のための技術においては、検出に最低限の精度が要求されることは勿論であるが、それに加え、なるべく装置構成を簡素にすることが、建設あるいはメンテナンス等にかかるコストの面で重要である。しかしながら、上記特許文献1〜6に記載の如き技術は、いずれも精度とコストの両面を十分に満足するには必ずしも至っていなかった。 In the above-mentioned technology for detecting foreign matter, it goes without saying that the minimum accuracy is required for detection, but in addition, simplifying the device configuration as much as possible increases the cost of construction or maintenance. It is important in terms of aspects. However, all of the techniques described in Patent Documents 1 to 6 have not always sufficiently satisfied both accuracy and cost.

そこで、本開示においては、極力簡単な構成により高い精度で異物を検出し得る異物検出システムおよび方法を説明する。 Therefore, in the present disclosure, a foreign matter detection system and a method capable of detecting a foreign matter with high accuracy with a structure as simple as possible will be described.

本開示は、対象領域内の画像を取得する撮像装置と、前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成された異物検出システムにかかるものである。 The present disclosure includes an image pickup device for acquiring an image in a target area, an image processing unit for storing a program for detecting an object in an image acquired by the image pickup device by using deep learning, and an image processing unit from the inside of the target area. It is provided with a boundary determination unit that determines the positional relationship between the transparent unit that can visually recognize the outside and surrounding objects, and masks the area occupied by the transparent unit on the image acquired by the imaging device. This applies to a foreign matter detection system configured to detect an object by a program using deep learning based on the image that has passed through.

上述の異物検出システムにおいて、前記マスク処理は前記撮像装置にて行われるよう構成してもよい。 In the above-mentioned foreign matter detection system, the mask processing may be configured to be performed by the image pickup apparatus.

上述の異物検出システムにおいて、前記マスク処理は前記画像処理部にて行われるよう構成してもよい。 In the above-mentioned foreign matter detection system, the mask processing may be configured to be performed by the image processing unit.

上述の異物検出システムにおいて、前記境界判定部は、前記対象領域における外部空間との境界域における物体の有無を検出可能に構成された物体センサとすることができる。 In the above-mentioned foreign matter detection system, the boundary determination unit can be an object sensor configured to be able to detect the presence or absence of an object in the boundary area with the external space in the target area.

上述の異物検出システムにおいて、前記物体センサは、前記透過部のなす面に沿って照射された照射波を検出するよう構成することができる。 In the above-mentioned foreign matter detection system, the object sensor can be configured to detect an irradiation wave irradiated along a surface formed by the transmission portion.

上述の異物検出システムにおいて、前記境界判定部は、前記撮像装置により取得された画像内における物体の位置と、前記画像内に前記透過部の占める領域との位置関係に基づき、前記撮像装置により取得された画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定するよう構成することができる。 In the above-mentioned foreign matter detection system, the boundary determination unit is acquired by the image pickup apparatus based on the positional relationship between the position of the object in the image acquired by the image pickup apparatus and the region occupied by the transmission portion in the image. It can be configured to determine whether the object detected in the image is inside or outside the target area.

上述の異物検出システムにおいて、前記対象領域は機械式駐車場の入出庫スペースとすることができる。 In the above-mentioned foreign matter detection system, the target area can be an entry / exit space for a mechanical parking lot.

また、本開示は、対象領域内の画像を取得する画像取得工程と、前記画像取得工程で取得された画像に対し、前記対象領域の内側から外部を視認できる透過部の占める領域にマスク処理を施すマスク処理工程と、前記マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する第一の物体検出工程と、前記対象領域の境界域における物体の有無を検出する第二の物体検出工程とを含む異物検出方法にかかるものである。 Further, in the present disclosure, an image acquisition step of acquiring an image in the target area and a masking process are applied to an area occupied by a transparent portion that can visually recognize the outside from the inside of the target area with respect to the image acquired in the image acquisition step. The mask processing step to be applied, the first object detection step of detecting an object by a program using deep learning based on the image obtained through the mask processing step, and the second detection of the presence or absence of an object in the boundary region of the target region. It relates to a foreign matter detection method including the object detection step of the above.

また、本開示は、対象領域内の画像を取得する画像取得工程と、前記画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する物体検出工程と、前記画像内における物体の位置と、前記対象領域の内側から外部を視認できる透過部が前記画像内に占める領域との位置関係に基づき、前記画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定する位置判定工程とを含む異物検出方法にかかるものである。 Further, the present disclosure includes an image acquisition step of acquiring an image in a target region, an object detection step of detecting an object by a program using deep learning based on the image acquired in the image acquisition step, and the inside of the image. The object detected in the image is inside or outside the target area based on the positional relationship between the position of the object in the image and the area occupied by the transmissive portion that can visually recognize the outside from the inside of the target area. It relates to a foreign matter detection method including a position determination step of determining whether or not the object is present.

上述の異物検出方法において、前記対象領域は機械式駐車場の入出庫スペースとすることができる。 In the above-mentioned foreign matter detection method, the target area can be an entry / exit space for a mechanical parking lot.

本発明の異物検出システムおよび方法によれば、極力簡単な構成により高い精度で異物を検出し得るという優れた効果を奏し得る。 According to the foreign matter detection system and method of the present invention, it is possible to obtain an excellent effect that foreign matter can be detected with high accuracy by the simplest possible configuration.

本開示の第一実施例による異物検出システムにおける装置の配置を説明する概要平面図である。It is a schematic plan view explaining the arrangement of the apparatus in the foreign matter detection system according to 1st Embodiment of this disclosure. 本開示の第一実施例による異物検出システムのシステム構成を説明するブロック図である。It is a block diagram explaining the system structure of the foreign matter detection system by 1st Embodiment of this disclosure. 本開示の第一実施例において取得される画像の一例を示す図である。It is a figure which shows an example of the image acquired in the 1st Example of this disclosure. 本開示の第一実施例において取得され、一部にマスク処理を施された画像の一例を示す図である。It is a figure which shows an example of the image which was acquired in the 1st Example of this disclosure and was partially masked. 本開示の第一実施例において取得され、一部にマスク処理を施された画像の別の一例を示す図である。It is a figure which shows another example of the image which was acquired in 1st Example of this disclosure and was partially masked. 本開示の第一実施例による異物検出方法の手順の一例を説明するフローチャートである。It is a flowchart explaining an example of the procedure of the foreign matter detection method by 1st Example of this disclosure. 本開示の第二実施例による異物検出システムにおける装置の配置を説明する概要平面図である。It is a schematic plan view explaining the arrangement of the apparatus in the foreign matter detection system according to 2nd Embodiment of this disclosure. 本開示の第二実施例による異物検出システムのシステム構成を説明するブロック図である。It is a block diagram explaining the system structure of the foreign matter detection system according to the 2nd Example of this disclosure. 本開示の第二実施例において取得される画像の一例を示す図である。It is a figure which shows an example of the image acquired in the 2nd Example of this disclosure. 本開示の第二実施例において取得され、プログラムによる物体検出処理が施された画像の一例を示す図である。It is a figure which shows an example of the image which was acquired in the 2nd Example of this disclosure and was subjected to the object detection processing by a program. 本開示の第二実施例による異物検出方法の手順の一例を説明するフローチャートである。It is a flowchart explaining an example of the procedure of the foreign matter detection method by 2nd Example of this disclosure.

以下、本開示における実施例の形態を添付図面を参照して説明する。図1に示す第一実施例の異物検出システムでは、対象領域Aとして機械式駐車設備の入出庫スペースを想定している。そして、対象領域A内に車両1以外の物体(異物F)が存在する場合に、該異物Fを検出するようになっている。入出庫スペースである対象領域Aは、四方を壁で囲まれた空間であり、手前側(図中下側)に透過部としての入出庫口4が設けられ、ここから車両1が出入りするようになっている。 Hereinafter, embodiments of the embodiments in the present disclosure will be described with reference to the accompanying drawings. In the foreign matter detection system of the first embodiment shown in FIG. 1, the entry / exit space of the mechanical parking facility is assumed as the target area A. Then, when an object (foreign matter F) other than the vehicle 1 exists in the target area A, the foreign matter F is detected. The target area A, which is an entry / exit space, is a space surrounded by walls on all sides, and an entry / exit port 4 as a transparent portion is provided on the front side (lower side in the figure) so that the vehicle 1 can enter and exit from here. It has become.

尚、本明細書において「異物」とは、対象領域内に存在する目的物(この場合は、搬送の目的物である車両1)以外の物体であって、対象領域にもとより配置された物体以外の物体を指し、代表的には、車両の運転者、乗員、設備の係員といった人である。また、対象領域A内に持ち込まれ、車両1の外に置かれる手荷物等も「異物」の例として挙げられる。図1には、一例として対象領域Aの内部に2個の異物Fを図示している。また、対象領域Aの外部に1個の物体Oを図示している。 In the present specification, the "foreign substance" is an object other than the target object (in this case, the vehicle 1 which is the target object of transportation) existing in the target area, and is not an object originally arranged in the target area. It refers to the object of the vehicle, and is typically a person such as a vehicle driver, a occupant, or an equipment clerk. In addition, baggage and the like brought into the target area A and placed outside the vehicle 1 are also examples of "foreign substances". FIG. 1 illustrates two foreign objects F inside the target region A as an example. Further, one object O is illustrated outside the target area A.

「透過部」は、対象領域の内側から外部を視認できる光学的な開口部を指す。つまり、本第一実施例における透過部は外部空間と光学的にも物質的にも連通する入出庫口4であるが、この他に、例えば光の透過するガラス窓、隣接する空間との間を柵で仕切った部分等も「透過部」として想定できる。 The “transmissive portion” refers to an optical opening in which the outside can be visually recognized from the inside of the target area. That is, the transmissive portion in the first embodiment is the entrance / exit 4 that optically and materially communicates with the external space, but in addition to this, for example, between a glass window through which light transmits and an adjacent space. A part separated by a fence can also be assumed as a "transparent part".

車両1を搬送するパレット2は、対象領域A外の格納スペース(図示せず)から入出庫スペースである対象領域Aに出入りする。対象領域Aにおけるパレット2の定位置は、対象領域Aの中央部である。入庫時において、車両1は、入出庫口4を通じて対象領域A内に進入し、パレット2上に停止し、パレット2と共に前記格納スペースへ搬送され、格納される。出庫時には、車両1はパレット2と共に前記格納スペースから対象領域A内に搬送された後、入出庫口4から対象領域A外へ退出する。 The pallet 2 that conveys the vehicle 1 enters and exits the target area A, which is a warehousing / delivery space, from a storage space (not shown) outside the target area A. The fixed position of the pallet 2 in the target area A is the central portion of the target area A. At the time of warehousing, the vehicle 1 enters the target area A through the warehousing / delivery port 4, stops on the pallet 2, is transported to the storage space together with the pallet 2, and is stored. At the time of delivery, the vehicle 1 is transported from the storage space into the target area A together with the pallet 2, and then exits from the target area A through the entry / exit port 4.

対象領域A内には、該対象領域A内の画像を取得するカメラ等である撮像装置5が配置される。本第一実施例の場合、撮像装置5として図1に示す如く、車両1の停止位置の周辺に、合計2台の撮像装置5a,5bが設置されている。2台の撮像装置5のうち、撮像装置5aは車両1の停止位置から見て左前方に、撮像装置5bは右後方にそれぞれ設置されている。このように、互いに車両1の停止位置を挟むように、斜め前方および斜め後方に撮像装置5a,5bを設置することで、対象領域A内における車両1の周囲全体について画像を取得できるようにしている。 In the target area A, an image pickup device 5 such as a camera that acquires an image in the target area A is arranged. In the case of the first embodiment, as the image pickup device 5, as shown in FIG. 1, a total of two image pickup devices 5a and 5b are installed around the stop position of the vehicle 1. Of the two image pickup devices 5, the image pickup device 5a is installed on the left front side when viewed from the stop position of the vehicle 1, and the image pickup device 5b is installed on the right rear side. In this way, by installing the image pickup devices 5a and 5b diagonally forward and diagonally rearward so as to sandwich the stop position of the vehicle 1 with each other, it is possible to acquire an image of the entire circumference of the vehicle 1 in the target area A. There is.

透過部である入出庫口4近傍の内壁には、境界判定部としての物体センサ6が設けられている。本明細書における「境界判定部」とは、光学的な開口部である透過部(入出庫口4)と、周囲の物体(異物Fまたは物体O)との位置関係を判定する装置、またはその部分を指す。本第一実施例の場合、境界判定部である物体センサ6を入出庫口4の近傍に設置し、入出庫口4によって定義される対象領域Aの内外の境界線上に何らかの物体が位置する場合に、該物体を検出するようにしている。このように、境界判定部として物体センサ6を設けると、異物検出システムを実施するにあたり、装置構成を簡易にすることができる。 An object sensor 6 as a boundary determination unit is provided on the inner wall near the entrance / exit 4 which is a transmission unit. The "boundary determination unit" in the present specification is a device for determining the positional relationship between a transmission unit (entrance / exit port 4), which is an optical opening, and a surrounding object (foreign matter F or object O), or a device thereof. Refers to the part. In the case of the first embodiment, when the object sensor 6 which is the boundary determination unit is installed in the vicinity of the entry / exit port 4, and some object is located on the boundary line inside and outside the target area A defined by the entry / exit port 4. In addition, the object is detected. As described above, if the object sensor 6 is provided as the boundary determination unit, the device configuration can be simplified when the foreign matter detection system is implemented.

物体センサ6は、例えば透過型の光電センサである。物体センサ6は、入出庫口4の左右一側に設けられた照射部6aと、左右他側に設けられた受光部6bを備えており、照射部6aから入出庫口4のなす面に沿って照射波としての照射光を照射し、受光部6bにて検出するようになっている。照射部6aと受光部6bの間に何らかの物体が存在すれば、受光部6bにて検出される照射光の量が変化する。こうして、物体センサ6は、照射部6aと受光部6bの間に存在する物体を検出できるようになっている。 The object sensor 6 is, for example, a transmissive photoelectric sensor. The object sensor 6 includes an irradiation unit 6a provided on one left and right sides of the warehousing / delivery port 4 and a light receiving unit 6b provided on the other left and right sides, and is along a surface formed by the irradiation unit 6a to the warehousing / delivery port 4. The irradiation light as an irradiation wave is irradiated and detected by the light receiving unit 6b. If any object exists between the irradiation unit 6a and the light receiving unit 6b, the amount of irradiation light detected by the light receiving unit 6b changes. In this way, the object sensor 6 can detect an object existing between the irradiation unit 6a and the light receiving unit 6b.

ここで、「境界域」とは、透過部によって定義される対象領域と外部空間との境界近傍の領域を指す。より具体的には、対象領域Aのうち、後述する異物検出工程において、画像の透過部にあたる領域マスク処理を施した場合に、目的の異物が検出されにくくなる領域を指す。図1に示した例では、入出庫口4により定義される境界線に沿って照射波を照射するように物体センサ6を配置しているが、これに代えてあるいは加えて、より対象領域Aの内側寄りの境界域にある異物Fを物体センサ6により検出可能にしてもよい。マスク処理による検出漏れをより確実に防止するためである(このような物体センサ6の配置については、後に再度説明する)。尚、物体センサ6としては、透過型の光電センサ以外にも、特定の領域内における物体の有無を検出可能な装置であれば適宜利用することができる。例えば、透過型以外の形式の光電センサを使用してもよいし、超音波センサ等を使用することもできる。 Here, the "boundary area" refers to an area near the boundary between the target area and the external space defined by the transparent portion. More specifically, it refers to a region of the target region A in which the target foreign matter is less likely to be detected when the region mask processing corresponding to the transparent portion of the image is performed in the foreign matter detecting step described later. In the example shown in FIG. 1, the object sensor 6 is arranged so as to irradiate the irradiation wave along the boundary line defined by the entry / exit port 4, but instead of or in addition to this, the target area A is more. The foreign matter F in the boundary region near the inside of the object F may be detected by the object sensor 6. This is to more reliably prevent detection omission due to mask processing (the arrangement of such an object sensor 6 will be described again later). As the object sensor 6, in addition to the transmissive photoelectric sensor, any device capable of detecting the presence or absence of an object in a specific region can be appropriately used. For example, a photoelectric sensor of a type other than the transmission type may be used, or an ultrasonic sensor or the like may be used.

入出庫口4近傍の外壁には、操作部7、表示部8、警報部9が備えられている。操作部7は、入出庫口4の開閉、パレット2の搬送といった各部の操作を入力する入力装置である。表示部8は、撮像装置5において取得された対象領域A内の画像、その他の情報を、必要に応じて表示するよう構成されたディスプレイである。警報部9は、対象領域A、あるいは対象領域Aを含む設備の何処かにおいて、人員に対して注意を促すべき何らかの事態が生じた場合に警報を発する装置である。「人員に対して注意を促すべき何らかの事態」とは、例えば車両1を対象領域A外の格納スペースへ搬送するにあたり、対象領域Aに車両1以外の異物Fが検出された場合などである。警報の内容は、アラーム音、警告灯の点灯、警告メッセージの表示など、人員に対して注意を喚起できればよく、適当な形式を選択することができる。 An operation unit 7, a display unit 8, and an alarm unit 9 are provided on the outer wall in the vicinity of the entry / exit port 4. The operation unit 7 is an input device for inputting operations of each unit such as opening / closing the warehousing / delivery port 4 and transporting the pallet 2. The display unit 8 is a display configured to display the image in the target area A acquired by the image pickup apparatus 5 and other information as needed. The alarm unit 9 is a device that issues an alarm when some situation that should call attention to personnel occurs in the target area A or somewhere in the equipment including the target area A. “Some situation that should call attention to personnel” is, for example, a case where a foreign matter F other than the vehicle 1 is detected in the target area A when the vehicle 1 is transported to a storage space outside the target area A. As for the content of the alarm, an appropriate format can be selected as long as it can call attention to personnel such as an alarm sound, lighting of a warning light, and display of a warning message.

尚、操作部7、表示部8、警報部9を設置する位置は、ここに示した位置に限定されない。例えば、これらに相当する装置を図示しない管理室等に備えてもよいし、これらの装置のうちいずれかを複数、別々の場所に備えてもよい。また、ここでは説明の便宜のために操作部7、表示部8、警報部9をそれぞれ別々に図示したが、例えば操作部7と表示部8の機能を一体に備えたタッチパネルディスプレイを設けてもよい。また、警報部9の機能を表示部8が兼ねる(すなわち、警報にあたる情報を表示部8に表示する)ようにしてもよい。その他、操作部7、表示部8、警報部9に関しては、対象領域Aのレイアウトやその他の条件に応じて適宜変更することができる。 The positions where the operation unit 7, the display unit 8, and the alarm unit 9 are installed are not limited to the positions shown here. For example, devices corresponding to these may be provided in a management room or the like (not shown), or any one of these devices may be provided in a plurality of different places. Further, although the operation unit 7, the display unit 8, and the alarm unit 9 are shown separately here for convenience of explanation, for example, a touch panel display having the functions of the operation unit 7 and the display unit 8 may be provided. Good. Further, the display unit 8 may also serve as the function of the alarm unit 9 (that is, the information corresponding to the alarm is displayed on the display unit 8). In addition, the operation unit 7, the display unit 8, and the alarm unit 9 can be appropriately changed according to the layout of the target area A and other conditions.

図2には、撮像装置5、物体センサ6、操作部7、表示部8、警報部9の制御に係るシステム構成の一例を示している。撮像装置5、物体センサ6、操作部7、警報部9は、Ethernet(登録商標)等の通信バスを介し、制御装置10と情報的に接続されている。制御装置10は、入出庫スペースである対象領域Aを含む機械式駐車場全体を監視し、各部の運転を行う装置であり、入出庫口4の開閉、パレット2の搬送、撮像装置5および物体センサ6の作動等を制御する。 FIG. 2 shows an example of a system configuration related to the control of the image pickup device 5, the object sensor 6, the operation unit 7, the display unit 8, and the alarm unit 9. The image pickup device 5, the object sensor 6, the operation unit 7, and the alarm unit 9 are informationally connected to the control device 10 via a communication bus such as Ethernet (registered trademark). The control device 10 is a device that monitors the entire mechanical parking lot including the target area A, which is the warehousing / delivery space, and operates each part, and opens / closes the warehousing / delivery port 4, transports the pallet 2, the image pickup device 5, and the object. It controls the operation of the sensor 6.

また、表示部8は、画像処理部11を介して前記通信バスに接続されている。画像処理部11は、撮像装置5において取得された対象領域Aの画像に対し適宜の処理を行う情報処理装置であり、必要に応じ、表示部8に画像データを送信して表示部8に画像を表示させるようにもなっている。 Further, the display unit 8 is connected to the communication bus via the image processing unit 11. The image processing unit 11 is an information processing device that appropriately processes the image of the target area A acquired by the image pickup device 5, and transmits image data to the display unit 8 as necessary to send the image to the display unit 8. Is also displayed.

画像処理部11において行われる画像処理として、本第一実施例において特に想定されるのは異物F(図1参照)の検出である。すなわち、画像処理部11では、撮像装置5により取得された対象領域Aの画像を解析し、画像内に人等の物体が存在するか否かを判定する。制御装置10は、画像処理部11において処理対象の画像から物体が検出された場合、または、前述の物体センサ6により対象領域Aの境界域に物体が検出された場合に、異物Fを検出したと判断し、警報部9を通じて警報を発報する。 As the image processing performed by the image processing unit 11, the detection of the foreign matter F (see FIG. 1) is particularly assumed in the first embodiment. That is, the image processing unit 11 analyzes the image of the target region A acquired by the image pickup apparatus 5 and determines whether or not an object such as a person exists in the image. The control device 10 detects the foreign matter F when the image processing unit 11 detects an object from the image to be processed, or when the object sensor 6 detects an object in the boundary area of the target area A. It is determined that the alarm is issued through the alarm unit 9.

画像処理部11には、画像内に写り込んだ物体を検出するプログラムPが格納されている。このプログラムPは、多層のニューラルネットワークを用いたディープラーニングの手法により、特定の種類の物体を検出するよう構成されている。ディープラーニングのアルゴリズムとしては、例えばR−CNN(Regional-Convolutional Neural Network)、Fast R−CNN、Faster R−CNN、YOLO(You Only Look Once)、SSD(Single Shot Multibox Detector)といった各種のアルゴリズムを用いることができるが、この他の適当なアルゴリズムを使用してもよい。 The image processing unit 11 stores a program P for detecting an object reflected in the image. This program P is configured to detect a specific type of object by a deep learning method using a multi-layer neural network. As a deep learning algorithm, various algorithms such as R-CNN (Regional-Convolutional Neural Network), Fast R-CNN, Faster R-CNN, YOLO (You Only Look Once), and SSD (Single Shot Multibox Detector) are used. However, other suitable algorithms may be used.

プログラムPは、こうしたアルゴリズムを用い、画像内に写り込んだ物体の種類を特定すると共に、該物体がその種類の物体である確率、物体の重心の座標、物体の幅および高さ等を出力できるようになっている。機械式駐車場の入出庫スペースである対象領域Aにおいて想定される異物Fの種類は、第一に人物であるので、プログラムPは、画像から少なくとも人物を判別できるように構成されるべきである。その他に、車両1と共に対象領域Aに入り込む可能性のある物体としては、ペット等の動物、バッグ、ベビーカーなど、各種の物体が想定されるので、プログラムPは、人物の他にこれらの物体をも検出できるようになっていてもよい。また、異物検出システムの設置対象である対象領域の種類が異なれば、異物として検出される物体の種類も異なることが考えられる。プログラムPは、人物に限らず、対象領域の種類に応じて想定される各種の物体を検出可能に構成すればよい。 Program P can use such an algorithm to identify the type of object reflected in the image and output the probability that the object is that type of object, the coordinates of the center of gravity of the object, the width and height of the object, and the like. It has become like. Since the type of foreign matter F assumed in the target area A, which is the entry / exit space of the mechanical parking lot, is firstly a person, the program P should be configured so that at least a person can be identified from the image. .. In addition, various objects such as animals such as pets, bags, strollers, etc. are assumed as objects that may enter the target area A together with the vehicle 1. Therefore, the program P sets these objects in addition to the person. May also be detected. Further, if the type of the target area to which the foreign matter detection system is installed is different, the type of the object detected as the foreign matter may be different. The program P may be configured to be capable of detecting various objects assumed according to the type of the target area, not limited to the person.

車両1の入庫を行う際には、車両1の運転者、乗員、施設の係員といった人員が操作部7を操作し、入庫の開始を指示する。制御装置10は、指示に応じて入出庫口4を開放する。入庫の開始にあたっては、空のパレット2が対象領域A内の定位置である中央部に配備された状態で入出庫口4を開放する。 When warehousing the vehicle 1, personnel such as the driver, occupants, and facility staff of the vehicle 1 operate the operation unit 7 to instruct the start of warehousing. The control device 10 opens the entry / exit port 4 in response to an instruction. At the start of warehousing, the warehousing / delivery port 4 is opened with the empty pallet 2 deployed in the central portion, which is a fixed position in the target area A.

入出庫口4が開放されたら、運転者が車両1を対象領域A内に移動させ、パレット2上で停止させる。停止後、運転者やその他の乗員が降車し、対象領域Aから退出する。運転者等の人員が全て退出したら、運転者等は対象領域A内を目視し、人物や手荷物等の異物Fが対象領域A内に存在しないかどうかを確認のうえ、操作部7を操作し、車両1がパレット2上に停止した旨を入力する。制御装置10は、入出庫口4を閉鎖し、車両1を積載したパレット2を対象領域A外の格納スペースへ搬送する。 When the entry / exit port 4 is opened, the driver moves the vehicle 1 into the target area A and stops it on the pallet 2. After the stop, the driver and other occupants get off and exit the target area A. When all the personnel such as the driver have left, the driver or the like visually inspects the target area A, confirms whether or not a foreign object F such as a person or baggage exists in the target area A, and then operates the operation unit 7. , Input that the vehicle 1 has stopped on the pallet 2. The control device 10 closes the entry / exit port 4 and conveys the pallet 2 loaded with the vehicle 1 to the storage space outside the target area A.

車両1の出庫を行う際には、車両1の運転者、乗員、施設の係員といった人員が操作部7を操作し、出庫の開始を指示する。制御装置10は、指示に応じて該当するパレット2を対象領域A内に搬送し、入出庫口4を開放する。入出庫口4が開放されたら、運転者がパレット2上の車両1に乗り込み、対象領域Aの外へ移動する。車両1が外へ出た段階で、車両1の運転者や係員等が再び操作部7を操作し、出庫が完了した旨を入力する。制御装置10は、指示に応じて入出庫口4を閉鎖する。 When leaving the vehicle 1, personnel such as the driver, crew, and facility staff of the vehicle 1 operate the operation unit 7 to instruct the start of the delivery. The control device 10 conveys the corresponding pallet 2 into the target area A in response to an instruction, and opens the warehousing / delivery port 4. When the entry / exit port 4 is opened, the driver gets into the vehicle 1 on the pallet 2 and moves out of the target area A. When the vehicle 1 goes out, the driver, the staff, etc. of the vehicle 1 operate the operation unit 7 again, and input that the delivery is completed. The control device 10 closes the entry / exit port 4 in response to an instruction.

尚、上の一連の動作は運転者が車両1を運転する場合を例に説明したが、車両1が自動運転車である場合もあり得る。その場合、上記した車両1の動作の一部または全部が、運転者を介さずに行われる。 Although the above series of operations has been described by taking the case where the driver drives the vehicle 1 as an example, the vehicle 1 may be an autonomous driving vehicle. In that case, a part or all of the above-mentioned operation of the vehicle 1 is performed without the intervention of the driver.

画像処理部11(図2参照)では、適宜のタイミングで異物検出を実行する。例えば、入庫の際、車両1がパレット2上に停止し、その旨を運転者が操作部7に入力した時に異物検出を行う。このとき、運転者は目視により対象領域A内の異物Fの不在を確認するが、同時に物体センサ6と撮像装置5および画像処理部11を用いて機械的に異物検出を実行すれば、確認を徹底できる。その他、例えば出庫の開始指示が入力された時や、出庫の完了が入力されて入出庫口4を閉鎖する時、あるいは特に操作を行わない平常時など、対象領域A内の状態を確認する必要があると考えられる任意のタイミングにおいて、異物検出を行うことができる。 The image processing unit 11 (see FIG. 2) executes foreign matter detection at an appropriate timing. For example, when the vehicle 1 stops on the pallet 2 at the time of warehousing and the driver inputs the fact to the operation unit 7, the foreign matter is detected. At this time, the driver visually confirms the absence of the foreign matter F in the target area A, but at the same time, if the object sensor 6, the imaging device 5, and the image processing unit 11 are used to mechanically detect the foreign matter, the confirmation can be confirmed. You can do it thoroughly. In addition, it is necessary to check the state in the target area A, for example, when an instruction to start shipping is input, when the completion of shipping is input and the loading / unloading port 4 is closed, or in normal times when no particular operation is performed. Foreign matter can be detected at any time when it is considered that there is.

異物検出を行う場合、制御装置10は、各撮像装置5を作動させ、対象領域A内の画像を取得する。画像処理部11では、プログラムPにより、各撮像装置5が取得した画像に対し物体検出処理を実行する。また、制御装置10は、物体センサ6を作動させ、対象領域Aの境界域に物体が存在しないかどうかを確認する。 When detecting a foreign object, the control device 10 operates each image pickup device 5 to acquire an image in the target area A. The image processing unit 11 executes object detection processing on the images acquired by each image pickup device 5 by the program P. Further, the control device 10 operates the object sensor 6 and confirms whether or not an object exists in the boundary area of the target area A.

画像処理の結果、取得された画像のうち少なくとも1枚の画像中に、異物Fとして想定される種類の物体(例えば、人物)が検出された場合には、制御装置10は警報部9を作動させ、警報を発報する。同時に、パレット2、入出庫口4あるいはその他の各部の動作を禁止する。また、異物Fが検出された旨を表示部8に表示してもよい。また、物体センサ6により物体が検出された場合にも、制御装置10は同様の動作を行う。 As a result of image processing, when an object (for example, a person) of a type assumed to be a foreign matter F is detected in at least one of the acquired images, the control device 10 activates the alarm unit 9. And issue an alarm. At the same time, the operation of the pallet 2, the entrance / exit 4 or other parts is prohibited. Further, the display unit 8 may indicate that the foreign matter F has been detected. Further, when an object is detected by the object sensor 6, the control device 10 performs the same operation.

このように、プログラムPを用いて異物検出を行うにあたり、物体センサ6による物体検出を併せて実行すれば、異物検出の精度を高めることができる。以下に詳しく説明する。 As described above, when the foreign matter is detected by using the program P, if the object detection by the object sensor 6 is also executed, the accuracy of the foreign matter detection can be improved. This will be described in detail below.

撮像装置5によって取得された対象領域A内の画像に基づき、図1に示す如き対象領域A内の異物Fを検出したい場合、まず、死角を作らないことが重要である。一方で、システムを構成する装置類は極力少ないことが望ましく、特に、撮像装置5の台数は、異物検出の精度を確保可能な範囲でなるべく少なくすべきである。上述の如きディープラーニングを用いたプログラムPにより画像処理を行う場合、画像処理部11に相当量の計算負荷が発生する。図2では画像処理部11を1個のブロックとして表示しているが、実際には、例えば1台の撮像装置5につき1台程度の情報処理装置が必要となる場合もあり得る。このように、撮像装置5の台数を抑えることは、特にディープラーニングを用いたプログラムPを用いて異物検出を行う場合、コストの面で非常に重要である。図1に示す2台の撮像装置5の配置は、少ない台数の撮像装置5により、対象領域A内の画像を死角を作らないように取得するための一案である(尚、ここでは2台の撮像装置5を備えた異物検出システムを例示したが、この2台の撮像装置5は死角をなくすための必要最小限の台数であって、検出精度をいっそう高める等の目的で、さらに撮像装置等を追加することを妨げるものではない)。 When it is desired to detect a foreign matter F in the target area A as shown in FIG. 1 based on the image in the target area A acquired by the image pickup apparatus 5, it is important not to create a blind spot first. On the other hand, it is desirable that the number of devices constituting the system is as small as possible, and in particular, the number of image pickup devices 5 should be as small as possible within the range in which the accuracy of foreign matter detection can be ensured. When image processing is performed by the program P using deep learning as described above, a considerable amount of calculation load is generated on the image processing unit 11. In FIG. 2, the image processing unit 11 is displayed as one block, but in reality, for example, one information processing device may be required for each image pickup device 5. As described above, it is very important to reduce the number of image pickup devices 5 in terms of cost, especially when the foreign matter is detected by using the program P using deep learning. The arrangement of the two image pickup devices 5 shown in FIG. 1 is an idea for acquiring an image in the target area A without creating a blind spot by a small number of image pickup devices 5 (note that, here, two devices). Although the foreign matter detection system provided with the image pickup device 5 of the above is illustrated, the number of these two image pickup devices 5 is the minimum necessary for eliminating the blind spot, and the image pickup device is further for the purpose of further improving the detection accuracy. It does not prevent the addition of etc.).

さらに、異物検出にあたっては、検出漏れと過検出の両方を極力減らす必要がある。ここで、図1に示す如く撮像装置5を配置した場合、各撮像装置5の画角には、入出庫口4が大きく入り込んでしまう。その結果として、例えば撮像装置5bにより取得される画像では、図3に示す如く、透過部である入出庫口4を通し、対象領域Aの外部にある物体Oが画像内に写り込む可能性がある。物体OがプログラムPによって検出可能な種類の物体(ここでは、人物)である場合には、過検出が生じるおそれがある。 Furthermore, when detecting foreign matter, it is necessary to reduce both detection omission and over-detection as much as possible. Here, when the image pickup apparatus 5 is arranged as shown in FIG. 1, the entrance / exit port 4 is largely inserted into the angle of view of each image pickup apparatus 5. As a result, for example, in the image acquired by the image pickup apparatus 5b, as shown in FIG. 3, there is a possibility that the object O outside the target area A is reflected in the image through the entrance / exit 4 which is a transparent portion. is there. If the object O is a type of object (here, a person) that can be detected by the program P, overdetection may occur.

過検出を防止するためには、例えば図4に示す如く、画像内に写り込む透過部(入出庫口4)にあたる領域にマスク処理を施したうえで、プログラムPによる異物検出を実行する方法が考えられる。しかしながら、このようにした場合、入出庫口4の近傍にある異物Fの一部もマスクされてしまう。マスクされた量あるいは位置が図4に示す程度であれば、マスクされた物体FをプログラムPによって検出することは可能であるが、異物Fの位置がさらに外側寄りである場合には、図5に示す如く異物Fの大半がマスクされてしまう場合もあり得る。図5に示す例では、入出庫口4の近傍の異物Fは対象領域Aの内側に位置しているが、マスク処理によって大半がマスクされてしまっているため、プログラムPでは検出できない可能性がある。そこで、図1に示す如く配置した物体センサ6を作動させることで、マスク処理により検出されない可能性のある境界域の異物Fを確実に検出するのである。つまり、プログラムPを用いて異物検出を行うにあたり、画像処理部11によるマスク処理で過検出を、境界判定部である物体センサ6で検出漏れをそれぞれ防ぐことにより、異物検出の精度を高めているのである。 In order to prevent over-detection, for example, as shown in FIG. 4, a method of performing foreign matter detection by program P after masking the area corresponding to the transparent portion (entrance / exit port 4) reflected in the image is used. Conceivable. However, in this case, a part of the foreign matter F in the vicinity of the warehousing / delivery port 4 is also masked. If the masked amount or position is as shown in FIG. 4, the masked object F can be detected by the program P, but if the position of the foreign matter F is further outward, FIG. 5 As shown in the above, most of the foreign matter F may be masked. In the example shown in FIG. 5, the foreign matter F in the vicinity of the warehousing / delivery port 4 is located inside the target area A, but since most of the foreign matter F has been masked by the masking process, it may not be detected by the program P. is there. Therefore, by activating the object sensor 6 arranged as shown in FIG. 1, the foreign matter F in the boundary region that may not be detected by the mask processing is reliably detected. That is, when the foreign matter is detected by using the program P, the accuracy of foreign matter detection is improved by preventing over-detection by mask processing by the image processing unit 11 and detection omission by the object sensor 6 which is the boundary determination unit. It is.

ところで、図1に示す如く対象領域Aの内外の境界線に沿って照射波を照射するように物体センサ6を配置した場合、境界線上にある異物Fは物体センサ6により好適に検出できる。一方で、入出庫口のすぐ内側に位置する異物Fは、物体センサ6の照射波が当たらず、しかも撮像装置5によって取得された画像中では、マスク処理を経て大部分がマスクされてしまうといった場合も想定される。こういった場合、検出漏れが生じてしまう可能性も否定できない。そこで、図1に示す位置の物体センサ6に代えてあるいは加えて、より内側の境界域についても異物Fを検出できるよう、物体センサ6を設置しても良い。このように、入出庫口4により定義される境界線よりも内側の境界域に対して物体センサ6を設置する場合、該物体センサ6の配置は、次のように設定することが最適である。
・物体センサ6による物体検出の対象となり得る領域より内側に位置する異物Fであれば、マスク処理を経た画像からでもプログラムPにより検出できるよう、物体センサ6を配置する。
すなわち、
・物体センサ6により、境界域が異物検出の対象となるよう、物体センサ6を配置する。
By the way, when the object sensor 6 is arranged so as to irradiate the irradiation wave along the boundary line inside and outside the target region A as shown in FIG. 1, the foreign matter F on the boundary line can be suitably detected by the object sensor 6. On the other hand, the foreign matter F located just inside the entrance / exit port is not exposed to the irradiation wave of the object sensor 6, and most of the image acquired by the image pickup device 5 is masked through the masking process. A case is also assumed. In such a case, the possibility of omission of detection cannot be denied. Therefore, instead of or in addition to the object sensor 6 at the position shown in FIG. 1, the object sensor 6 may be installed so that the foreign matter F can be detected even in the inner boundary region. In this way, when the object sensor 6 is installed in the boundary area inside the boundary line defined by the entry / exit port 4, it is optimal to set the arrangement of the object sensor 6 as follows. ..
-If the foreign matter F is located inside the region that can be the target of object detection by the object sensor 6, the object sensor 6 is arranged so that the object sensor 6 can be detected by the program P even from the image that has undergone mask processing.
That is,
-The object sensor 6 is arranged so that the boundary area is the target of foreign matter detection by the object sensor 6.

尚、「物体センサ6による異物検出の対象となり得る領域」と、「マスク処理を経た画像からでもプログラムPにより異物Fを検出できる領域」とは、互いに重複部分があっても差し支えない。 It should be noted that the "region that can be the target of foreign matter detection by the object sensor 6" and the "region where the foreign matter F can be detected by the program P even from the image that has undergone mask processing" may overlap with each other.

以上の如き撮像装置5、画像処理部11および物体センサ6による異物検出工程の手順の一例を、図6のフローチャートを参照しながら説明する。以下に説明する異物検出工程は、画像取得工程(ステップS1)と、マスク処理工程(ステップS2)と、第一の物体検出工程(ステップS3)と、第二の物体検出工程(ステップS4)とを含んでいる。 An example of the procedure of the foreign matter detection process by the image pickup apparatus 5, the image processing unit 11, and the object sensor 6 as described above will be described with reference to the flowchart of FIG. The foreign matter detection step described below includes an image acquisition step (step S1), a mask processing step (step S2), a first object detection step (step S3), and a second object detection step (step S4). Includes.

まず、撮像装置5により、対象領域A内の画像を取得する(ステップS1)。続いて、取得した画像に対し、透過部(入出庫口4)の占める領域にマスク処理を施す(ステップS2)。尚、マスク処理は、撮像装置5で行ってもよいし、画像処理部11で行ってもよい。さらに、マスク処理を経た画像に対し、画像処理部11に格納されたプログラムPにより、物体検出処理を実行する(ステップS3)。 First, the image pickup apparatus 5 acquires an image in the target area A (step S1). Subsequently, the acquired image is masked in the area occupied by the transparent portion (entrance / exit port 4) (step S2). The mask processing may be performed by the image pickup apparatus 5 or the image processing unit 11. Further, the object detection process is executed by the program P stored in the image processing unit 11 on the image that has undergone the mask processing (step S3).

一方で、物体センサ6を作動させ、照射波の照射領域における物体の有無を検出する(ステップS4)。ステップS5では、プログラムPにより画像内に特定の種類の物体が検出されたか、あるいは物体センサ6により照射領域に何らかの物体が検出されたかを判定する。いずれか一方、あるいは両方にて物体が検出されていれば、対象領域A内に異物Fが存在すると判断される(ステップS6)。異物Fが存在すると判断されたら、制御装置10は、異物Fを検出した場合に行うべき各種の動作を行う。例えば、異物が検出された旨を表示部8に表示する。このとき、文字あるいは音声によるメッセージを流したり、表示部8の背景色を変更し、操作者(車両1の運転者、あるいは施設の係員等の人員)に対し注意を促す。また、必要に応じ、機器類の操作(例えば、入庫口4の開閉、パレット2の搬送など)を禁止しても良い。 On the other hand, the object sensor 6 is operated to detect the presence or absence of an object in the irradiation region of the irradiation wave (step S4). In step S5, it is determined whether the program P has detected an object of a specific type in the image, or the object sensor 6 has detected any object in the irradiation area. If the object is detected in either one or both, it is determined that the foreign matter F exists in the target area A (step S6). If it is determined that the foreign matter F is present, the control device 10 performs various operations to be performed when the foreign matter F is detected. For example, the display unit 8 displays that a foreign substance has been detected. At this time, a message in characters or voice is played, or the background color of the display unit 8 is changed to call attention to the operator (the driver of the vehicle 1 or the staff of the facility). Further, if necessary, the operation of the equipment (for example, opening / closing the storage port 4, transporting the pallet 2 and the like) may be prohibited.

プログラムPおよび物体センサ6のいずれによっても物体が検出されていなければ、異物は存在しないとして、異物検出工程を終了する(ステップS7)。 If no object is detected by either the program P or the object sensor 6, it is assumed that no foreign matter exists, and the foreign matter detection step is terminated (step S7).

尚、ここに説明した手順は一例であって、各ステップの順序は適宜入れ替えたり、別のステップを追加するなど、変更を加えることができる。例えば、画像処理部11およびプログラムPによる物体検出を行うステップS1〜S3と、物体センサ6による物体検出を行うステップS4とは順序を入れ替えてもよいし、並行して実行してもよい。また、ここでは物体検出の結果を判定するステップをステップS5としてまとめて説明したが、画像処理部11およびプログラムPによる物体検出の結果の判定と、物体センサ6による物体検出の結果の判定は別々に行ってもよい。 The procedure described here is an example, and changes can be made such as changing the order of each step as appropriate or adding another step. For example, steps S1 to S3 for detecting an object by the image processing unit 11 and the program P and steps S4 for detecting an object by the object sensor 6 may be ordered or executed in parallel. Further, although the step of determining the object detection result is collectively described as step S5, the determination of the object detection result by the image processing unit 11 and the program P and the determination of the object detection result by the object sensor 6 are separately described here. You may go to.

以上のように、上記本第一実施例の異物検出システムは、対象領域A内の画像を取得する撮像装置5と、撮像装置5により取得された画像内の物体をディープラーニングを用いて検出するプログラムPを格納する画像処理部11と、対象領域Aの内側から外部を視認できる透過部4と周囲の物体との位置関係を判定する境界判定部6とを備え、撮像装置5で取得された画像に対し、透過部4の占める領域にマスク処理を施し、該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成されている。このようにすれば、プログラムPを用いて異物検出を行うにあたり、境界判定部6による物体検出を併せて実行することで、異物検出の精度を高めることができる。 As described above, the foreign matter detection system of the first embodiment detects the image pickup device 5 that acquires the image in the target area A and the object in the image acquired by the image pickup device 5 by using deep learning. An image processing unit 11 for storing the program P, a boundary determination unit 6 for determining the positional relationship between the transparent unit 4 capable of visually recognizing the outside from the inside of the target area A and surrounding objects, and acquired by the image pickup apparatus 5. The image is masked in the area occupied by the transparent portion 4, and the object is detected by a program using deep learning based on the image that has undergone the masking process. In this way, when the foreign matter is detected by using the program P, the accuracy of the foreign matter detection can be improved by also executing the object detection by the boundary determination unit 6.

上述の異物検出システムにおいて、マスク処理は前記撮像装置にて行われるようにすることができる。 In the above-mentioned foreign matter detection system, the mask processing can be performed by the image pickup apparatus.

上述の異物検出システムにおいて、マスク処理は前記画像処理部にて行われるようにすることもできる。 In the above-mentioned foreign matter detection system, the mask processing may be performed by the image processing unit.

上述の異物検出システムにおいて、境界判定部6は、対象領域Aにおける外部空間との境界域における物体の有無を検出可能に構成された物体センサとすることができる。このようにすれば、簡易な装置構成により異物検出システムを実施することができる。 In the above-mentioned foreign matter detection system, the boundary determination unit 6 can be an object sensor configured to be able to detect the presence or absence of an object in the boundary area with the external space in the target area A. In this way, the foreign matter detection system can be implemented with a simple device configuration.

上述の異物検出システムにおいて、物体センサ6は、透過部4のなす面に沿って照射された照射波を検出するよう構成することができる。このようにすれば、境界線上にある異物Fを物体センサ6により好適に検出することができる。 In the above-mentioned foreign matter detection system, the object sensor 6 can be configured to detect the irradiation wave irradiated along the surface formed by the transmission unit 4. In this way, the foreign matter F on the boundary line can be suitably detected by the object sensor 6.

上述の異物検出システムおよび方法において、対象領域Aは機械式駐車場の入出庫スペースとすることができ、このようにすれば、機械式駐車場の入出庫スペースにおいて好適に異物検出を実行することができる。 In the above-mentioned foreign matter detection system and method, the target area A can be the entry / exit space of the mechanical parking lot, and in this way, the foreign matter detection can be suitably performed in the entry / exit space of the mechanical parking lot. Can be done.

また、上記本第一実施例の異物検出方法は、対象領域A内の画像を取得する画像取得工程(ステップS1)と、画像取得工程で取得された画像に対し、対象領域Aの内側から外部を視認できる透過部4の占める領域にマスク処理を施すマスク処理工程(ステップS2)と、マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムPにより物体を検出する第一の物体検出工程(ステップS3)と、対象領域Aの境界域における物体の有無を検出する第二の物体検出工程(ステップS4)とを含んでいる。このようにすれば、プログラムPを用いて異物検出を行うにあたり、マスク処理で過検出を、境物体センサ6で検出漏れをそれぞれ防ぐことにより、異物検出の精度を高めることができる。 Further, in the foreign matter detection method of the first embodiment, the image acquisition step (step S1) of acquiring the image in the target area A and the image acquired in the image acquisition step are external to the inside of the target area A. A first object detection step of detecting an object by a program P using deep learning based on an image that has undergone the mask processing step (step S2) and a mask processing step (step S2) in which the area occupied by the transparent portion 4 is visible. (Step S3) and a second object detection step (step S4) of detecting the presence or absence of an object in the boundary region of the target region A are included. In this way, when the foreign matter is detected by using the program P, the accuracy of foreign matter detection can be improved by preventing over-detection by mask processing and detection omission by the boundary object sensor 6.

したがって、上記本第一実施例によれば、極力簡単な構成により高い精度で異物を検出し得る。 Therefore, according to the first embodiment described above, foreign matter can be detected with high accuracy with a configuration as simple as possible.

図7、図8は本開示の第二実施例による異物検出システムの構成を示している。本第二実施例の異物検出システムは、基本的な構成は上述の第一実施例(図1、図2参照)と共通しているが、物体センサ6の代わりに、画像処理部11に境界判定部12を備えている。この境界判定部12は、撮像装置5により取得された画像に基づき、透過部(入出庫口4)と、周囲の物体(異物Fまたは物体O)との位置関係を判定するようになっている。より具体的には、境界判定部12は、画像内に写り込んだ物体(異物Fまたは物体O)の透過部(入出庫口4)に対する位置関係から、対象領域Aに対し前記物体が内外のいずれかにあるかを判定するようになっている。 7 and 8 show the configuration of the foreign matter detection system according to the second embodiment of the present disclosure. The foreign matter detection system of the second embodiment has the same basic configuration as that of the first embodiment (see FIGS. 1 and 2) described above, but instead of the object sensor 6, it is bounded by the image processing unit 11. A determination unit 12 is provided. The boundary determination unit 12 determines the positional relationship between the transmission unit (entrance / exit port 4) and the surrounding object (foreign matter F or object O) based on the image acquired by the image pickup device 5. .. More specifically, in the boundary determination unit 12, the object is inside or outside the target area A based on the positional relationship of the object (foreign matter F or object O) reflected in the image with respect to the transmission unit (entrance / exit port 4). It is designed to determine whether it is in one of them.

図7に示す異物検出システムにおいて、撮像装置5により画像を取得した場合、例えば撮像装置5aにおいては、図9に示す如き画像が取得される。このような画像に対し、画像処理部11のプログラムPにより物体検出の処理を実行すると、対象領域A内の2個の異物F、および入出庫口4の外側にある物体Oが検出される。 When an image is acquired by the image pickup device 5 in the foreign matter detection system shown in FIG. 7, for example, the image pickup device 5a acquires an image as shown in FIG. When the object detection process is executed by the program P of the image processing unit 11 for such an image, two foreign objects F in the target area A and an object O outside the entry / exit port 4 are detected.

プログラムPは、各物体の種類と共に、画像内に占める位置を特定する。物体の種類および位置は、例えば図10に示す如く、画像に重ねて表示することができる。ここでは、検出された各異物Fおよび物体Oの周囲に、それらが占める範囲が方形の枠によって図示され、特定された物体の種類(ここでは、人物)、および各物体がその種類の物体である確率が一緒に表示されている。 Program P identifies the type of each object as well as its position in the image. The type and position of the object can be displayed superimposed on the image, for example, as shown in FIG. Here, around each of the detected foreign objects F and object O, the range they occupy is illustrated by a rectangular frame, the type of object identified (here, a person), and each object is an object of that type. A certain probability is displayed together.

境界判定部12では、これらの物体が、対象領域Aと外部空間との境界である入出庫口4に対しどの位置にあるかにより、各異物Fおよび物体Oが対象領域Aの内側にあるか、外側にあるか否かを判定する。 In the boundary determination unit 12, whether the foreign matter F and the object O are inside the target area A depending on the position of these objects with respect to the entrance / exit 4 which is the boundary between the target area A and the external space. , Determine if it is on the outside.

内外の判定は、例えば、各物体の占める範囲を表示するそれぞれの枠と、入出庫口4の占める領域との上下関係によって行うことができる。図10において、入出庫口4の占める領域は、図中に破線で示す略四角形の部分である。この略四角形の画素領域に対し、各物体の位置を示す枠の下辺にあたる線分がどの程度重なっているかによって、各物体が入出庫口4よりも内側にあるか、外側にあるかを判定することができる。 The inside / outside determination can be made, for example, by the hierarchical relationship between each frame displaying the range occupied by each object and the area occupied by the warehousing / delivery port 4. In FIG. 10, the area occupied by the warehousing / delivery port 4 is a substantially quadrangular portion shown by a broken line in the figure. It is determined whether each object is inside or outside the entrance / exit 4 depending on how much the line segment corresponding to the lower side of the frame indicating the position of each object overlaps the pixel area of this substantially quadrangle. be able to.

内外の判定にあたっては、例えば、各異物Fまたは物体Oの周囲に表示された枠の下辺にあたる線分のうち、ある閾値(例えば、80%)以上の部分が入出庫口4の占める画素領域の内側にあれば、その物体は対象領域Aの外にあると判定する。前記枠のうち、前記画素領域の内側にある部分の割合が前記閾値未満であば、その物体は対象領域A内にあると判定する。図10に示す例では、手前側に位置する2個の異物Fは対象領域Aの内側に、奥側の物体Oは外側に位置すると判断することができる。尚、ここに説明した判定方法はあくまで一例であって、画像に基づいて各物体の内外を判定する方法としては、その他、適宜の方法を採用することができる。 In determining the inside and outside, for example, among the line segments corresponding to the lower side of the frame displayed around each foreign matter F or object O, the portion of a certain threshold value (for example, 80%) or more is the pixel area occupied by the warehousing / delivery port 4. If it is inside, it is determined that the object is outside the target area A. If the ratio of the portion inside the pixel region in the frame is less than the threshold value, it is determined that the object is in the target region A. In the example shown in FIG. 10, it can be determined that the two foreign objects F located on the front side are located inside the target area A and the object O on the back side is located outside. The determination method described here is merely an example, and any other appropriate method can be adopted as the method for determining the inside and outside of each object based on the image.

以上の如き画像処理部11のプログラムPおよび境界判定部12による異物検出工程の手順の一例を、図11のフローチャートを参照しながら説明する。以下に説明する異物検出工程は、画像取得工程(ステップS11)と、物体検出工程(ステップS12)と、位置判定工程(ステップS15)とを含んでいる。 An example of the procedure of the foreign matter detection step by the program P of the image processing unit 11 and the boundary determination unit 12 as described above will be described with reference to the flowchart of FIG. The foreign matter detection step described below includes an image acquisition step (step S11), an object detection step (step S12), and a position determination step (step S15).

まず、撮像装置5により、対象領域A内の画像を取得する(ステップS11)。続いて、取得した画像に対し、プログラムPにより物体検出処理を実行する(ステップS12)。 First, the image pickup apparatus 5 acquires an image in the target area A (step S11). Subsequently, the object detection process is executed by the program P on the acquired image (step S12).

ステップS13では、物体検出処理の結果、プログラムPにより画像内に異物Fと見なし得る何らかの物体(異物Fまたは物体O)が検出されたか否かを判定する。特定の種類の物体が存在しなければ、異物は存在しないとして、異物検出工程を終了する(ステップS14)。 In step S13, as a result of the object detection process, it is determined whether or not any object (foreign matter F or object O) that can be regarded as the foreign matter F is detected in the image by the program P. If a specific type of object does not exist, it is assumed that no foreign matter exists, and the foreign matter detection step ends (step S14).

画像中に何らかの物体が検出された場合、ステップS15に進む。ステップS15では、境界判定部12により、検出された各物体の対象領域Aに対する位置を判定する。ステップS16では、ステップS12で検出された物体の中に、対象領域A内に位置すると判定された物体が存在したか否かを判定する。前記物体のうち、いずれもが対象領域Aの外にあると判定された場合は、異物は存在しないとして、異物検出工程を終了する(ステップS14)。前記物体のうち、少なくとも一部が対象領域A内にあると判定された場合は、異物Fが存在したと判定して、異物検出工程を終了する(ステップS17)。尚、ここに説明した手順は一例であって、各ステップの順序は適宜入れ替えたり、別のステップを追加するなど、変更を加えることができることは、上記第一実施例について説明した通りである。 If any object is detected in the image, the process proceeds to step S15. In step S15, the boundary determination unit 12 determines the position of each detected object with respect to the target area A. In step S16, it is determined whether or not there is an object determined to be located in the target area A among the objects detected in step S12. When it is determined that all of the objects are outside the target area A, it is considered that there is no foreign matter, and the foreign matter detection step is terminated (step S14). When it is determined that at least a part of the object is in the target region A, it is determined that the foreign matter F is present, and the foreign matter detection step is terminated (step S17). It should be noted that the procedure described here is an example, and changes can be made such as changing the order of each step as appropriate or adding another step, as described in the first embodiment.

このように、本第二実施例では、プログラムPを用いた異物検出を実行するにあたり、境界判定部12による位置判定を併せて実行することで、異物検出の精度を高めるようにしている。 As described above, in the second embodiment, when the foreign matter detection using the program P is executed, the position determination by the boundary determination unit 12 is also executed to improve the accuracy of the foreign matter detection.

尚、上記第一実施例では境界判定部として物体センサ6を、本第二実施例では画像処理部11内に格納された境界判定部12をそれぞれ説明したが、これらを適宜組み合わせて異物検出システムを実施することも可能である。また、異物検出の精度を高める等の目的のため、その他のセンサ類等を適宜併用してもよい。 In the first embodiment, the object sensor 6 is described as the boundary determination unit, and in the second embodiment, the boundary determination unit 12 stored in the image processing unit 11 is described. However, these are appropriately combined to describe a foreign matter detection system. It is also possible to carry out. In addition, other sensors and the like may be used in combination as appropriate for the purpose of improving the accuracy of foreign matter detection.

また、上記第一および第二実施例では対象領域Aとして機械式駐車場の入出庫スペースを想定したが、同様の異物検出システムは、異物の検出が必要とされる空間であれば種類を問わず適用することができる。例えば、電気自動車の給電設備等を想定することもできるし、また、例えば窓のある倉庫内の警備などにも応用できる。 Further, in the first and second embodiments, the entry / exit space of the mechanical parking lot is assumed as the target area A, but the same foreign matter detection system can be of any type as long as it is a space where foreign matter detection is required. Can be applied without. For example, it can be assumed that a power supply facility for an electric vehicle or the like is used, and it can also be applied to security in a warehouse with a window, for example.

以上のように、上記本第二実施例の異物検出システムにおいて、境界判定部12は、撮像装置5により取得された画像内における物体の位置と、前記画像内に透過部4の占める領域との位置関係に基づき、撮像装置5により取得された画像内に検出された物体が対象領域Aの内側にあるか外側にあるかを判定するよう構成されている。このようにすれば、プログラムPを用いて異物検出を行うにあたり、境界判定部12による位置判定を併せて実行することで、異物検出の精度を高めることができる。 As described above, in the foreign matter detection system of the second embodiment, the boundary determination unit 12 determines the position of the object in the image acquired by the image pickup apparatus 5 and the area occupied by the transmission unit 4 in the image. Based on the positional relationship, it is configured to determine whether the object detected in the image acquired by the image pickup apparatus 5 is inside or outside the target area A. In this way, when the foreign matter is detected by using the program P, the accuracy of the foreign matter detection can be improved by also executing the position determination by the boundary determination unit 12.

また、本第二実施例の異物検出方法は、対象領域内Aの画像を取得する画像取得工程(ステップS11)と、画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムPにより物体を検出する物体検出工程(ステップS12)と、前記画像内における物体の位置と、対象領域Aの内側から外部を視認できる透過部4が画像内に占める領域との位置関係に基づき、画像内に検出された物体が対象領域の内側にあるか外側にあるかを判定する位置判定工程(ステップS15)とを含んでいる。このようにすれば、プログラムPを用いて異物検出を行うにあたり、検出された物体の位置判定を併せて実行することで、異物検出の精度を高めることができる。 Further, the foreign matter detection method of the second embodiment is performed by an image acquisition step (step S11) for acquiring an image of A in the target region and a program P using deep learning based on the image acquired in the image acquisition step. In the image, based on the object detection step (step S12) of detecting the object, the position of the object in the image, and the area occupied by the transparent portion 4 in which the outside can be visually recognized from the inside of the target area A in the image. Includes a position determination step (step S15) for determining whether the detected object is inside or outside the target area. In this way, when the foreign matter is detected by using the program P, the accuracy of the foreign matter detection can be improved by also executing the position determination of the detected object.

その他の構成および作用効果等については上記第一実施例と共通するため説明を省略するが、本第二実施例によっても、極力簡単な構成により高い精度で異物を検出し得る。 Since other configurations, actions and effects, etc. are the same as those in the first embodiment, the description thereof will be omitted. However, even in the second embodiment, foreign matter can be detected with high accuracy by the simplest configuration possible.

尚、本開示において説明した本発明の異物検出システムおよび方法は、上述の実施例にのみ限定されるものではなく、要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。 It should be noted that the foreign matter detection system and method of the present invention described in the present disclosure are not limited to the above-described examples, and it goes without saying that various modifications can be made without departing from the gist.

1 遮蔽物(車両)
2 パレット
4 透過部(入出庫口)
5 撮像装置
5a 撮像装置
5b 撮像装置
6 境界判定部(物体センサ)
7 操作部
8 表示部
9 警報部
10 制御装置
11 画像処理部
12 境界判定部
A 対象領域
F 物体(異物)
O 物体
P プログラム
1 Shield (vehicle)
2 Pallet 4 Transparency (entrance / exit)
5 Imaging device 5a Imaging device 5b Imaging device 6 Boundary determination unit (object sensor)
7 Operation unit 8 Display unit 9 Alarm unit 10 Control device 11 Image processing unit 12 Boundary judgment unit A Target area F Object (foreign matter)
O object P program

Claims (10)

対象領域内の画像を取得する撮像装置と、
前記撮像装置により取得された画像内の物体をディープラーニングを用いて検出するプログラムを格納する画像処理部と、
前記対象領域の内側から外部を視認できる透過部と周囲の物体との位置関係を判定する境界判定部とを備え、
前記撮像装置で取得された画像に対し、前記透過部の占める領域にマスク処理を施し、
該マスク処理を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出するよう構成された異物検出システム。
An image pickup device that acquires an image in the target area,
An image processing unit that stores a program that detects an object in an image acquired by the image pickup device using deep learning, and an image processing unit.
It is provided with a boundary determination unit that determines the positional relationship between a transparent unit that can visually recognize the outside from the inside of the target area and surrounding objects.
The image acquired by the imaging device is masked in the area occupied by the transmissive portion.
A foreign matter detection system configured to detect an object by a program using deep learning based on the image that has undergone the mask processing.
前記マスク処理は前記撮像装置にて行われる、請求項1に記載の異物検出システム。 The foreign matter detection system according to claim 1, wherein the mask processing is performed by the imaging device. 前記マスク処理は前記画像処理部にて行われる、請求項1に記載の異物検出システム。 The foreign matter detection system according to claim 1, wherein the mask processing is performed by the image processing unit. 前記境界判定部は、前記対象領域における外部空間との境界域における物体の有無を検出可能に構成された物体センサである、請求項1〜3のいずれか一項に記載の異物検出システム。 The foreign matter detection system according to any one of claims 1 to 3, wherein the boundary determination unit is an object sensor configured to be able to detect the presence or absence of an object in a boundary area with an external space in the target area. 前記物体センサは、前記透過部のなす面に沿って照射された照射波を検出するよう構成されている、請求項4に記載の異物検出システム。 The foreign matter detection system according to claim 4, wherein the object sensor is configured to detect an irradiation wave emitted along a surface formed by the transmission portion. 前記境界判定部は、前記撮像装置により取得された画像内における物体の位置と、前記画像内に前記透過部の占める領域との位置関係に基づき、前記撮像装置により取得された画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定するよう構成されている、請求項1〜3のいずれか一項に記載の異物検出システム。 The boundary determination unit is detected in the image acquired by the imaging device based on the positional relationship between the position of the object in the image acquired by the imaging device and the area occupied by the transmissive portion in the image. The foreign matter detection system according to any one of claims 1 to 3, wherein it is configured to determine whether the object is inside or outside the target area. 前記対象領域は機械式駐車場の入出庫スペースである、請求項1〜6のいずれか一項に記載の異物検出システム。 The foreign matter detection system according to any one of claims 1 to 6, wherein the target area is an entry / exit space for a mechanical parking lot. 対象領域内の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像に対し、前記対象領域の内側から外部を視認できる透過部の占める領域にマスク処理を施すマスク処理工程と、
前記マスク処理工程を経た画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する第一の物体検出工程と、
前記対象領域の境界域における物体の有無を検出する第二の物体検出工程と
を含む異物検出方法。
The image acquisition process to acquire the image in the target area and
A mask processing step of masking an area occupied by a transparent portion that allows the outside to be visually recognized from the inside of the target area with respect to the image acquired in the image acquisition step.
The first object detection step of detecting an object by a program using deep learning based on the image that has undergone the mask processing step, and
A foreign matter detection method including a second object detection step of detecting the presence or absence of an object in the boundary area of the target region.
対象領域内の画像を取得する画像取得工程と、
前記画像取得工程で取得された画像に基づき、ディープラーニングを用いたプログラムにより物体を検出する物体検出工程と、
前記画像内における物体の位置と、前記対象領域の内側から外部を視認できる透過部が前記画像内に占める領域との位置関係に基づき、前記画像内に検出された物体が前記対象領域の内側にあるか外側にあるかを判定する位置判定工程と
を含む異物検出方法。
The image acquisition process to acquire the image in the target area and
An object detection step of detecting an object by a program using deep learning based on the image acquired in the image acquisition step, and an object detection step.
An object detected in the image is inside the target area based on the positional relationship between the position of the object in the image and the area occupied by the transparent portion that can be visually recognized from the inside of the target area in the image. A foreign matter detection method including a position determination step of determining whether the object is present or outside.
前記対象領域は機械式駐車場の入出庫スペースである、請求項8または9に記載の異物検出方法。 The foreign matter detection method according to claim 8 or 9, wherein the target area is an entry / exit space for a mechanical parking lot.
JP2019094735A 2019-05-20 2019-05-20 Foreign object detection system and method Active JP7292102B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2019094735A JP7292102B2 (en) 2019-05-20 2019-05-20 Foreign object detection system and method
SG11202110452QA SG11202110452QA (en) 2019-05-20 2020-04-28 Foreign body detection system and method
PCT/JP2020/018166 WO2020235320A1 (en) 2019-05-20 2020-04-28 Foreign body detection system and method
TW109116233A TW202103056A (en) 2019-05-20 2020-05-15 Foreign object detection system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019094735A JP7292102B2 (en) 2019-05-20 2019-05-20 Foreign object detection system and method

Publications (2)

Publication Number Publication Date
JP2020190437A true JP2020190437A (en) 2020-11-26
JP7292102B2 JP7292102B2 (en) 2023-06-16

Family

ID=73454477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019094735A Active JP7292102B2 (en) 2019-05-20 2019-05-20 Foreign object detection system and method

Country Status (4)

Country Link
JP (1) JP7292102B2 (en)
SG (1) SG11202110452QA (en)
TW (1) TW202103056A (en)
WO (1) WO2020235320A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175848A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Display assistance device, display assistance method, and recording medium

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117523318B (en) * 2023-12-26 2024-04-16 宁波微科光电股份有限公司 Anti-light interference subway shielding door foreign matter detection method, device and medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069497A (en) * 2002-08-06 2004-03-04 Sumitomo Osaka Cement Co Ltd Monitoring apparatus and monitoring method
JP2007243509A (en) * 2006-03-08 2007-09-20 Hitachi Ltd Image processing device
JP2009124618A (en) * 2007-11-19 2009-06-04 Hitachi Ltd Camera apparatus, and image processing device
JP2010193227A (en) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc Video processing system
JP2017190639A (en) * 2016-04-15 2017-10-19 Ihi運搬機械株式会社 Safety confirmation method and control method for parking device
JP2017224925A (en) * 2016-06-14 2017-12-21 株式会社エンルートM’s Monitoring device and monitoring method
WO2018030337A1 (en) * 2016-08-08 2018-02-15 ナブテスコ株式会社 Automatic door system, program used in automatic door system, method for collecting information in automatic door, sensor device used in automatic door
JP2019073968A (en) * 2018-12-21 2019-05-16 三菱重工機械システム株式会社 Safety confirmation system of mechanical parking facility, mechanical parking facility having this and safety confirmation method of mechanical parking facility

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004069497A (en) * 2002-08-06 2004-03-04 Sumitomo Osaka Cement Co Ltd Monitoring apparatus and monitoring method
JP2007243509A (en) * 2006-03-08 2007-09-20 Hitachi Ltd Image processing device
JP2009124618A (en) * 2007-11-19 2009-06-04 Hitachi Ltd Camera apparatus, and image processing device
JP2010193227A (en) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc Video processing system
JP2017190639A (en) * 2016-04-15 2017-10-19 Ihi運搬機械株式会社 Safety confirmation method and control method for parking device
JP2017224925A (en) * 2016-06-14 2017-12-21 株式会社エンルートM’s Monitoring device and monitoring method
WO2018030337A1 (en) * 2016-08-08 2018-02-15 ナブテスコ株式会社 Automatic door system, program used in automatic door system, method for collecting information in automatic door, sensor device used in automatic door
JP2019073968A (en) * 2018-12-21 2019-05-16 三菱重工機械システム株式会社 Safety confirmation system of mechanical parking facility, mechanical parking facility having this and safety confirmation method of mechanical parking facility

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023175848A1 (en) * 2022-03-17 2023-09-21 日本電気株式会社 Display assistance device, display assistance method, and recording medium

Also Published As

Publication number Publication date
SG11202110452QA (en) 2021-10-28
WO2020235320A1 (en) 2020-11-26
TW202103056A (en) 2021-01-16
JP7292102B2 (en) 2023-06-16

Similar Documents

Publication Publication Date Title
JP5911147B2 (en) Mechanical parking device, method for controlling mechanical parking device, and method for providing safety confirmation function of mechanical parking device
WO2020235320A1 (en) Foreign body detection system and method
JP2016003493A (en) Safety check system of mechanical parking facility, mechanical parking facility including the same, and safety check method of mechanical parking facility
JP6093811B2 (en) Mechanical parking device, method for controlling mechanical parking device, and method for providing safety confirmation function of mechanical parking device
JP6533330B1 (en) Inspection system
JP2018112048A (en) Warehousing control method and leaving control method of mechanical parking device
JP7011463B2 (en) Foreign object detection system and method
TWI712527B (en) System and method for controlling platform door
JP6175321B2 (en) In-house confirmation device for mechanical parking
JP2018199999A (en) Mechanical parking device and its control method and control program
CN116490801A (en) Screening device and method for screening persons
WO2020235321A1 (en) Foreign matter detection system
JP7233529B2 (en) Foreign object detection system
JP2023001935A (en) Unmanned confirmation device, parking device, and method of controlling parking device
JP6951872B2 (en) Parking support device
JP7442381B2 (en) Warehousing support method and warehousing support device
JP6595523B2 (en) Mechanical parking apparatus, control method therefor, and control program
JP6416299B2 (en) Mechanical parking apparatus, control method therefor, and control program
JP2019214936A (en) Mechanical parking device and control method of mechanical parking device
JP2022051143A (en) Entry safety verification device and method
CN117049109A (en) Control method, control device, electronic equipment, storage medium and transmission system
JP2020172853A (en) Mechanical parking device and its control method and control program
JP2019031884A (en) Boarding room confirmation device and mechanical parking device
JP2020133326A (en) Vehicle stop determination method, foreign matter detection method, and system using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230224

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20230320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230606

R150 Certificate of patent or registration of utility model

Ref document number: 7292102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150