JP2021034010A - Mobile body and user identification management system - Google Patents
Mobile body and user identification management system Download PDFInfo
- Publication number
- JP2021034010A JP2021034010A JP2020070104A JP2020070104A JP2021034010A JP 2021034010 A JP2021034010 A JP 2021034010A JP 2020070104 A JP2020070104 A JP 2020070104A JP 2020070104 A JP2020070104 A JP 2020070104A JP 2021034010 A JP2021034010 A JP 2021034010A
- Authority
- JP
- Japan
- Prior art keywords
- transmitter
- line sensor
- user
- receiver
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000004891 communication Methods 0.000 claims abstract description 60
- 230000004044 response Effects 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 abstract description 52
- 238000007726 management method Methods 0.000 description 65
- 230000005856 abnormality Effects 0.000 description 33
- 238000012545 processing Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 20
- 230000006870 function Effects 0.000 description 13
- 238000003745 diagnosis Methods 0.000 description 10
- 230000002159 abnormal effect Effects 0.000 description 6
- 230000004397 blinking Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005070 sampling Methods 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 230000008439 repair process Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000036544 posture Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 208000028752 abnormal posture Diseases 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000005357 flat glass Substances 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 241000132456 Haplocarpha Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Images
Landscapes
- Devices For Checking Fares Or Tickets At Control Points (AREA)
Abstract
Description
本発明は、物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する技術を用いることにより、指定された施設に入場しまたはその施設から退場する移動体およびその移動体の使用者であるユーザを識別して管理する技術に関するものである。 The present invention enters or enters a designated facility by using a technique of non-contact shape identification of the object by scanning the object in one direction with a line sensor without using a camera. It relates to a technique for identifying and managing a moving object leaving the vehicle and a user who is a user of the moving object.
物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する技術が既に存在する。 There is already a technique for visually identifying an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor.
その一例が、特許文献1に開示されている。この技術においては、水平の支持面(例えば、路面)上を走行する車体の車種を判定することを目的として、垂直方向に1次元的に配列された複数の発光素子と、垂直方向に1次元的に配列された複数の受光素子とを、それぞれ互いに水平方向に対向するように配置することにより、シルエットセンサがラインセンサとして構成される。
An example thereof is disclosed in
しかしながら、特許文献1に開示されている技術では、前記シルエットセンサにより、識別すべき物体の形状を精度よく測定することができないという問題がある。
However, the technique disclosed in
具体的には、そのシルエットセンサにおいては、発光素子が光、電波または音波という電磁波を受光素子に向けて出射するが、その電磁波が通常のものである限り、発光素子も受光素子も、通常は、指向性を有する。 Specifically, in the silhouette sensor, the light emitting element emits electromagnetic waves such as light, radio waves, or sound waves toward the light receiving element, but as long as the electromagnetic waves are normal, both the light emitting element and the light receiving element are usually emitted. , Has directivity.
その電磁波をレーザー光として選択すれば、発光素子も受光素子も指向性を有せずに済む。しかし、その場合には、システムが高価であること、素子の消費電力が増加すること、出射されたレーザー光が万一人間の眼に入射すると危険であることなどの問題がある。 If the electromagnetic wave is selected as the laser light, neither the light emitting element nor the light receiving element has directivity. However, in that case, there are problems that the system is expensive, the power consumption of the element is increased, and it is dangerous if the emitted laser light is incident on the eyes of everybody.
そのため、それらの問題がないように通常の電磁波を使用すると、1つの発光素子から出射した電磁波が、拡がり角をもって空間を進行し、そのため、1つの電磁波が、意に反して複数の受光素子によって同時に受光されてしまう可能性がある。 Therefore, if ordinary electromagnetic waves are used so as not to cause these problems, the electromagnetic waves emitted from one light emitting element travel in space with a spreading angle. Therefore, one electromagnetic wave is unexpectedly caused by a plurality of light receiving elements. It may be received at the same time.
その結果、通常の電磁波を使用すると、複数の受光素子のうち、識別すべき物体によって遮蔽されて電磁波を受光できないものにより表現される1次元模様が、識別すべき物体の実際シルエットを正確に反映しないおそれがある。 As a result, when ordinary electromagnetic waves are used, the one-dimensional pattern represented by the plurality of light receiving elements that are shielded by the object to be identified and cannot receive the electromagnetic waves accurately reflects the actual silhouette of the object to be identified. There is a risk of not doing so.
よって、特許文献1に開示されている技術では、受光素子が、予定外の発光素子からの光を受光してしまうと、その光をノイズ光として除去できないため、識別すべき物体の形状を精度よく測定することができないという問題がある。
Therefore, in the technique disclosed in
なお、物体を識別するという機能(用途)は、特許文献1に開示されているように、有料道路において、走行する自動車の車種を判別するという機能として具体化され、また、例えば、駐車場において、その駐車場に対して入出庫する車両を識別して分類するという機能として具体化される。
As disclosed in
さらに、そのようにして識別された車両を、その車両の乗員としてのユーザに正確に紐付けしたいというニーズがある。 Further, there is a need to accurately associate the vehicle identified in this way with the user as the occupant of the vehicle.
このような事情を背景とし、本発明は、物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する技術を用いることにより、指定された施設に入場しまたはその施設から退場する移動体およびその移動体の使用者であるユーザを識別して管理する技術を提供することを課題としてなされたものである。 Against this background, the present invention is specified by using a technique for identifying the object in a non-contact manner by scanning the object in one direction with a line sensor without using a camera. It is an object of the present invention to provide a technique for identifying and managing a moving object that enters or exits a facility and a user who is a user of the moving object.
その課題を解決するために、本発明の一側面によれば、管理サーバによって遠隔的に管理されるべき施設に入場しまたはその施設から退場する移動体およびその移動体の使用者であるユーザを識別して管理するシステムであって、In order to solve the problem, according to one aspect of the present invention, a mobile body that enters or leaves a facility that should be remotely managed by a management server and a user who is a user of the mobile body. A system that identifies and manages
前記施設に設けられ、移動体およびユーザに共通の通路と、 A passage provided in the facility and common to mobiles and users,
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得するものと、 A line sensor installed in the passage and extending in a direction intersecting the traveling direction of an object passing through the passage, and scans the object relative to the traveling direction to acquire a silhouette of the object. things and,
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が移動体であるか否かを判定する判定部と、 A determination unit provided in the facility or the management server to determine whether or not the object is a moving object based on the acquired silhouette.
前記施設または前記管理サーバに設けられ、前記物体が移動体であると判定された場合に、前記取得されたシルエットに基づき、前記移動体の種類の判別を行う判別部と、 A discriminating unit provided in the facility or the management server and discriminating the type of the moving body based on the acquired silhouette when the object is determined to be a moving body.
前記施設に設けられ、固有の信号を発信する発信機と、 A transmitter installed in the facility and transmitting a unique signal,
ユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記受信した信号によって特定される前記施設に固有の施設IDに関連付けて前記管理サーバに送信するものと When a signal is received from the transmitter of the user's communication terminal, the user ID or the terminal ID of the communication terminal is associated with the facility ID unique to the facility specified by the received signal in response to the signal. To be sent to the management server
を含み、 Including
その管理サーバは、前記施設IDと、前記移動体の種類と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する移動体・ユーザ識別管理システムが提供される。 The management server provides a mobile / user identification management system that associates the facility ID, the type of the mobile body, and the user ID or the terminal ID with each other, and registers these elements in a list.
本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用することは妨げられないと解釈すべきなのである。 According to the present invention, the following aspects can be obtained. Each aspect is divided into sections, each section is numbered, and the numbers of other sections are cited as necessary. This is to facilitate understanding of some of the technical features that can be adopted by the present invention and combinations thereof, and the technical features that can be adopted by the present invention and combinations thereof are limited to the following aspects. Should not be interpreted as. That is, it should be interpreted that it is not hindered from appropriately extracting and adopting the technical features described in the present specification as the technical features of the present invention, which are not described in the following aspects.
さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げることを意味するわけではなく、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能であると解釈すべきである。 Furthermore, describing each term in the form of quoting the numbers of the other sections does not necessarily prevent the technical features described in each section from being separated and independent from the technical features described in the other sections. It does not mean, and it should be interpreted that the technical features described in each section can be made independent as appropriate according to their properties.
(1) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別方法であって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサの前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動する相対移動中に実施され、
前記複数の発信機を連続的にまたは時間離散的に作動させてそれら発信機から複数の信号を発信させる発信工程と、
前記発信された複数の信号を前記複数の受信機によって時間離散的に複数回受信することを試行し、それにより、結果的に複数回の受信イベントを実行する標的受信工程であって、各受信機が2以上の発信機から2以上の信号を同時に受信すると、それら発信機のうち、各受信機に1対1に対応するように予め割り当てられた対向発信機を標的発信機とし、その標的発信機から発信された信号を有効信号として選択するものと、
各回の受信イベントにおいて、前記複数の受信機のうち、それぞれの対向発信機から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報を生成し、前記複数回の受信イベントにおいてそれぞれ生成された複数の1次元情報を配列することによって2次元情報に変換し、その2次元情報に基づいて前記物体の実際シルエットを推定するシルエット推定工程と、
その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別工程と
を含む物体識別方法。
(1) An object identification method for identifying an object in a non-contact manner by scanning the object in one direction with a line sensor without using a camera.
The central space of a line sensor formed by arranging a row of transmitters, which is a row of a plurality of transmitters, and a row of receivers, which is a row of a plurality of receivers, so as to face each other with a central space in between. It is carried out during relative movement in which the object moves relative to the line sensor in a direction intersecting the length direction of the line sensor so as to pass through.
A transmission step in which the plurality of transmitters are continuously or time-discretely operated to transmit a plurality of signals from the transmitters.
A target reception step in which the plurality of transmitted signals are attempted to be received a plurality of times in a time-discrete manner by the plurality of receivers, and as a result, a plurality of reception events are executed, and each reception is performed. When the machine receives two or more signals from two or more transmitters at the same time, the oncoming transmitter that is pre-assigned to each receiver so as to have a one-to-one correspondence is set as the target transmitter, and the target is the target. The one that selects the signal transmitted from the transmitter as the valid signal, and the one that selects it.
In each reception event, among the plurality of receivers, those that received the valid signal from each opposite transmitter and those that did not receive the valid signal are distinguished from each other, and one-dimensional information is generated from the result, and the plurality of receivers are generated. A silhouette estimation step of converting a plurality of one-dimensional information generated in each reception event into two-dimensional information and estimating the actual silhouette of the object based on the two-dimensional information.
An object identification method including an object identification step of identifying an object based on a degree of shape approximation between the estimated actual silhouette and a plurality of predetermined reference silhouettes.
(2) 各発信機は、固有の発信機IDを表す信号を発信するように構成され、
前記標的受信工程は、各受信機が各発信機から受信した信号から発信機IDを抽出し、各受信機が複数の発信機から同時に受信した複数の信号によってそれぞれ表される複数の発信機IDのうち、前記対向発信機に割り当てられた正規発信機IDと一致するものを表す信号を前記有効信号として選択する工程を含む(1)項に記載の物体識別方法。
(2) Each transmitter is configured to transmit a signal representing a unique transmitter ID.
In the target receiving step, a transmitter ID is extracted from a signal received by each receiver from each transmitter, and a plurality of transmitter IDs represented by a plurality of signals received by each receiver at the same time from a plurality of transmitters. The object identification method according to item (1), which includes a step of selecting a signal representing a signal that matches the regular transmitter ID assigned to the opposite transmitter as the valid signal.
(3) 各受信機(例えば、ビーコン受信機)は、各発信機(例えば、ビーコン発信機)からの信号を近距離無線通信方式で受信するように構成される(1)または(2)項に記載の物体識別方法。 (3) Item (1) or (2), wherein each receiver (for example, a beacon receiver) receives a signal from each transmitter (for example, a beacon transmitter) by a short-range wireless communication method. The object identification method described in 1.
(4) 各発信機は、可視光または赤外光である光を固有の点滅パターンで発光する発光器(例えば、LED光源、レーザー光源など)であり、
各受信機は、各発光器から発光された光を受光する受光器(例えば、フォトダイオード、光センサなど)であり、
前記標的受信工程は、各受光器が受光した光から点滅パターンを抽出し、その点滅パターンを発光器IDに変換する工程を含む(1)または(2)項に記載の物体識別方法。
(4) Each transmitter is a light emitter (for example, LED light source, laser light source, etc.) that emits light that is visible light or infrared light in a unique blinking pattern.
Each receiver is a receiver (for example, a photodiode, an optical sensor, etc.) that receives the light emitted from each light emitter.
The object identification method according to item (1) or (2), wherein the target receiving step includes a step of extracting a blinking pattern from the light received by each receiver and converting the blinking pattern into a light emitter ID.
(5) 前記複数の基準シルエットは、前記物体が識別される複数の候補としての複数の物体カテゴリーにそれぞれ固有な形状を有する(1)ないし(4)項のいずれかに記載の物体識別方法。 (5) The object identification method according to any one of (1) to (4), wherein the plurality of reference silhouettes have shapes unique to each of a plurality of object categories as a plurality of candidates for which the object is identified.
(6) さらに、
前記相対移動中に、前記物体が前記ラインセンサの前記中央空間を通過する際の移動速度を取得する速度取得工程を含み、
前記シルエット推定工程は、前記取得された移動速度を用いて、前記複数の1次元情報間の空間間隔を決定し、前記複数の1次元情報を、前記決定された空間間隔をあけて配列することにより、前記2次元情報に変換する(1)ないし(5)項のいずれかに記載の物体識別方法。
(6) Furthermore
A speed acquisition step of acquiring the moving speed of the object as it passes through the central space of the line sensor during the relative movement is included.
In the silhouette estimation step, the spatial interval between the plurality of one-dimensional information is determined using the acquired moving speed, and the plurality of one-dimensional information is arranged at the determined spatial interval. The object identification method according to any one of (1) to (5), which is converted into the two-dimensional information by the above method.
(7) 前記複数の発信機のうち一端部に位置する端部発信機が発信した信号は、前記ラインセンサの長さ方向における前記物体の実際シルエット寸法が予め定められた上限寸法を超えない限り、前記物体によって遮断されることなく、前記複数の受信機のうち一端部に位置する端部受信機であって前記端部発信機に対向するものによって受信される(1)ないし(6)項のいずれかに記載の物体識別方法。 (7) The signal transmitted by the end transmitter located at one end of the plurality of transmitters is as long as the actual silhouette dimension of the object in the length direction of the line sensor does not exceed a predetermined upper limit dimension. (1) to (6), which are received by an end receiver located at one end of the plurality of receivers facing the end transmitter without being blocked by the object. The object identification method according to any one of.
(8) さらに、前記端部受信機が前記端部発信機から信号を受信しなかった場合には、前記ラインセンサの作動状態に異常があると判定する第1異常判定部を含む(7)項に記載の物体識別方法。 (8) Further, when the end receiver does not receive a signal from the end transmitter, it includes a first abnormality determination unit that determines that there is an abnormality in the operating state of the line sensor (7). The object identification method described in the section.
(9) さらに、前記端部受信機が前記端部発信機から信号を受信しなかった場合には、前記ラインセンサの姿勢に異常があると判定する第2異常判定部を含む(7)または(8)項に記載の物体識別方法。 (9) Further, the second abnormality determination unit for determining that the posture of the line sensor is abnormal when the end receiver does not receive a signal from the end transmitter is included (7) or The object identification method according to item (8).
(10) さらに、物体識別という本番動作に先立ち、前記ラインセンサの作動状態について故障診断を行う故障診断工程を含み、
その故障診断工程は、発信機と受信機との間の対応関係を無視して、各受信機ごとに、その受信機が、前記複数の発信機からすべての信号を受信したか否かを判定し、すべての受信機が同じ発信機から信号を受信していない場合には、その発信機が故障していると判定し、一方、いずれかの受信機がいずれの発信機からも信号を受信していない場合には、そのいずれかの受信機が故障していると判定する(1)ないし(9)項のいずれかに記載の物体識別方法。
(10) Further, a failure diagnosis step of performing a failure diagnosis on the operating state of the line sensor prior to the actual operation of object identification is included.
The failure diagnosis process ignores the correspondence between the transmitter and the receiver, and determines for each receiver whether or not the receiver has received all the signals from the plurality of transmitters. However, if not all receivers receive the signal from the same transmitter, it is determined that the transmitter is out of order, while one of the receivers receives the signal from any of the transmitters. If not, the object identification method according to any one of (1) to (9), wherein it is determined that one of the receivers is out of order.
(11) (1)ないし(10)項のいずれかに記載の物体識別方法を実施するためにコンピュータによって実行されるプログラム。 (11) A program executed by a computer to carry out the object identification method according to any one of (1) to (10).
本明細書の全体を通じて、「プログラム」という用語は、例えば、それの機能を果たすためにコンピュータにより実行される指令の組合せを意味するように解釈したり、それら指令の組合せのみならず、各指令に従って処理されるファイルやデータをも含むように解釈することが可能であるが、それらに限定されない。 Throughout this specification, the term "program" may be interpreted to mean, for example, a combination of instructions executed by a computer to perform its function, or not only a combination of those instructions, but also each instruction. It can be interpreted to include, but is not limited to, files and data processed according to.
また、このプログラムは、それ単独でコンピュータにより実行されることにより、所期の目的を達するものとしたり、他のプログラムと共にコンピュータにより実行されることにより、所期の目的を達するものとすることができるが、それらに限定されない。後者の場合、本項に係るプログラムは、データを主体とするものとすることができるが、それに限定されない。 In addition, this program may achieve its intended purpose by being executed by a computer alone, or by being executed by a computer together with other programs. Yes, but not limited to them. In the latter case, the program according to this section may be based on data, but is not limited thereto.
(12) (11)項に記載のプログラムをコンピュータ読み取り可能に記録した記録媒体。 (12) A recording medium on which the program described in item (11) is recorded so as to be readable by a computer.
本明細書の全体を通じて、「記録媒体」という用語は、種々な形式の記録媒体を意味するように解釈することが可能であり、そのような記録媒体は、例えば、フレキシブル・ディスク等の磁気記録媒体、CD、CD−ROM等の光記録媒体、MO等の光磁気記録媒体、ROM等のアンリムーバブル・ストレージ等を含むが、それらに限定されない。 Throughout the specification, the term "recording medium" can be interpreted to mean various types of recording media, such recording media being magnetic recordings such as, for example, flexible discs. It includes, but is not limited to, media, optical recording media such as CDs and CD-ROMs, magneto-optical recording media such as MOs, and unremovable storage such as ROMs.
(13) 前記発信機列と前記受信機列との間における前記中央空間の最低寸法は、30cm、50cm、1mまたは2mである(1)ないし(10)項のいずれかに記載の物体識別方法。 (13) The object identification method according to any one of (1) to (10), wherein the minimum dimension of the central space between the transmitter row and the receiver row is 30 cm, 50 cm, 1 m or 2 m. ..
(14) 前記物体は、自転車、自動二輪車および自動車を含む車両を含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (14) The object identification method according to any one of (1) to (10), wherein the object includes a vehicle including a bicycle, a motorcycle and an automobile.
(15) 前記複数の基準シルエットは、車両、人間および動物のそれぞれについての複数の標準的なシルエットを含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (15) The object identification method according to any one of (1) to (10), wherein the plurality of reference silhouettes include a plurality of standard silhouettes for each of a vehicle, a human being, and an animal.
(16) 前記ラインセンサは、前記物体の進行方向において互いに隔たった2か所にそれぞれ設置される第1ラインセンサおよび第2ラインセンサを含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (16) The item according to any one of (1) to (10), wherein the line sensor includes a first line sensor and a second line sensor installed at two positions separated from each other in the traveling direction of the object. Object identification method.
(17) 前記物体は、所定の通路を進行し、
前記発信機列および前記受信機列は、前記通路を挟むように互いに対向する2か所にそれぞれ設置され、
前記物体は、その物体が前記通路を一方向に進行中に識別される(1)ないし(10)項のいずれかに記載の物体識別方法。
(17) The object travels in a predetermined passage and
The transmitter row and the receiver row are installed at two locations facing each other so as to sandwich the passage.
The object identification method according to any one of (1) to (10), wherein the object is identified while the object is traveling in one direction in the passage.
(18) 前記通路は、開放空間と行き止まり空間とを互いに接続するように配置され、
前記物体は、前記通路を正逆双方向に進行し、
前記ラインセンサは、前記通路のうち、前記開放空間の側に設置された外側ラインセンサと、前記行き止まり空間の側に設置された内側ラインセンサとを含む(17)項に記載の物体識別方法。
(18) The passage is arranged so as to connect the open space and the dead end space to each other.
The object travels in both forward and reverse directions in the passage.
The object identification method according to item (17), wherein the line sensor includes an outer line sensor installed on the side of the open space and an inner line sensor installed on the side of the dead end space in the passage.
(19) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別システムであって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサであって、前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動するものと、
前記発信された複数の信号を前記複数の受信機によって時間離散的に複数回受信することを試行し、それにより、結果的に複数回の受信イベントを実行する標的受信部であって、各受信機が2以上の発信機から2以上の信号を同時に受信すると、それら発信機のうち、各受信機に1対1に対応するように予め割り当てられた対向発信機を標的発信機とし、その標的発信機から発信された信号を有効信号として選択するものと、
各回の受信イベントにおいて、前記複数の受信機のうち、それぞれの対向発信機から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報を生成し、前記複数回の受信イベントにおいてそれぞれ生成された複数の1次元情報を配列することによって2次元情報に変換し、その2次元情報に基づいて前記物体の実際シルエットを推定するシルエット推定部と、
その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別部と
を含む物体識別システム。
(19) An object identification system that identifies an object in a non-contact manner by scanning the object in one direction with a line sensor without using a camera.
A line sensor in which a row of transmitters, which is a row of a plurality of transmitters, and a row of receivers, which is a row of a plurality of receivers, are arranged in a space so as to face each other across a central space. An object that moves relative to the line sensor in a direction that intersects the length direction of the line sensor so as to pass through the central space.
A target receiver that attempts to receive the plurality of transmitted signals multiple times in a time-discrete manner by the plurality of receivers, thereby executing a plurality of reception events, and each reception. When the machine receives two or more signals from two or more transmitters at the same time, the oncoming transmitter that is pre-assigned to each receiver so as to have a one-to-one correspondence is set as the target transmitter, and the target is the target. The one that selects the signal transmitted from the transmitter as the valid signal, and the one that selects it.
In each reception event, among the plurality of receivers, those that received the valid signal from each opposite transmitter and those that did not receive the valid signal are distinguished from each other, and one-dimensional information is generated from the result, and the plurality of receivers are generated. A silhouette estimation unit that converts a plurality of one-dimensional information generated in each reception event into two-dimensional information and estimates the actual silhouette of the object based on the two-dimensional information.
An object identification system including an object identification unit that identifies an object based on the degree of shape approximation between the estimated actual silhouette and a plurality of predetermined reference silhouettes.
(20) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別システムであって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサであって、前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動し、前記複数の発信機から発信された複数の信号は少なくとも部分的に前記物体によって遮断されて前記受信機列に到達しないものと、
そのラインセンサの受信結果に基づき、前記物体の実際シルエットを推定し、その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別部と
を含み、
前記物体は、車両を含み、
前記通信端末は、前記車両の乗員であるユーザによって乗車中に携帯されるか、または前記車両に搭載されており、
各発信機は、固有の発信機IDを表す信号を発信し、
前記通信端末は、前記乗車中に、前記複数の発信機からの複数の信号のうち前記車両内に進入する部分を受信し、
当該物体識別システムは、さらに、
前記通信端末と通信可能な管理サーバと、
前記複数の受信機の受信状態および/または前記物体識別部の物体識別結果を表す信号を前記管理サーバに送信することが可能な通信部と
を含み、
前記通信端末は、前記複数の発信機のうちの少なくとも1つからの信号を受信すると、その信号から発信機IDを抽出し、その発信機IDをユーザ識別情報に関連付けて前記管理サーバに送信し、
前記管理サーバは、前記ラインセンサが前記物体を検出し、かつ、その物体が車両であると識別された状態において、前記通信端末から前記発信機IDを受信すると、その発信機IDが前記ラインセンサに帰属する場合には、ユーザと前記車両とを紐付けするユーザ・車両紐付け部を含むを物体識別システム。
(20) An object identification system that identifies an object in a non-contact manner by scanning the object in one direction with a line sensor without using a camera.
A line sensor in which a row of transmitters, which is a row of a plurality of transmitters, and a row of receivers, which is a row of a plurality of receivers, are arranged in a space so as to face each other across a central space. The object moves relative to the line sensor in a direction intersecting the length direction of the line sensor so as to pass through the central space, and the plurality of signals transmitted from the plurality of transmitters are at least partially. That is blocked by the object and does not reach the receiver row,
An object that estimates the actual silhouette of the object based on the reception result of the line sensor, and identifies the object based on the degree of shape approximation between the estimated actual silhouette and a plurality of predetermined reference silhouettes. Including the identification part
The object includes a vehicle
The communication terminal is carried by a user who is an occupant of the vehicle while riding, or is mounted on the vehicle.
Each transmitter emits a signal representing a unique transmitter ID,
The communication terminal receives a portion of a plurality of signals from the plurality of transmitters that enter the vehicle during the boarding.
The object identification system further
A management server capable of communicating with the communication terminal,
Including a communication unit capable of transmitting a signal representing the reception status of the plurality of receivers and / or the object identification result of the object identification unit to the management server.
When the communication terminal receives a signal from at least one of the plurality of transmitters, the communication terminal extracts a transmitter ID from the signal, associates the transmitter ID with user identification information, and transmits the signal to the management server. ,
When the management server receives the transmitter ID from the communication terminal in a state where the line sensor detects the object and the object is identified as a vehicle, the transmitter ID becomes the line sensor. In the case of belonging to, the object identification system includes a user / vehicle linking portion that links the user and the vehicle.
以下、本発明のさらに具体的な例示的な実施の形態のうちのいくつかを図面に基づいて詳細に説明する。 Hereinafter, some of the more specific exemplary embodiments of the present invention will be described in detail with reference to the drawings.
[第1の実施形態] [First Embodiment]
図1には、本発明の例示的な第1の実施形態に従う物体識別システム10(以下、単に「システム10」という。)のうちのハードウエア構成が概略的に平面図で表されている。このシステム10は、本発明の例示的な一実施形態に従う物体識別方法を実施するように設計されたものである。
FIG. 1 schematically shows a hardware configuration of an object identification system 10 (hereinafter, simply referred to as “
このシステム10は、本実施形態においては、駐車場20を無人でかつ遠隔的に管理する駐車場管理システム1000の一部に組み込まれている。
In the present embodiment, this
概略的に説明するに、このシステム10は、3次元の物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別するように設計されている。
Briefly, the
このシステム10は、駐車場20に出入りする物体が車両30であるのか、人間であるのか、動物であるのかを識別するために実施される。駐車場20は、複数の車両を収容可能な複数の車室32を有する内側領域(行き止まり空間)34と、駐車場20に隣接する道路36である外側領域(開放空間)38とを互いに接続する出入り通路40を有する。
This
車両30は、駐車場20への入庫時にも駐車場20からの出庫時にも、共通の出入り通路40に沿って進行する。具体的には、車両30は、入庫時には、出入り通路40を一方向に(外側から内側に向かう向き)に進行し、一方、出庫時には、出入り通路40を逆方向に(内側から外側に向かう向き)に進行する。
The
図1に示すように、このシステム10は、出入り通路40のうち、外側領域38の側に設置された外側ラインセンサ50と、内側領域34の側に設置された内側ラインセンサ52とを備えている。外側ラインセンサ50も内側ラインセンサ52も、駐車場20の支持面(例えば、路面や地面など)54に、その支持面54から概して垂直に延びる正立姿勢で設置されている。
As shown in FIG. 1, the
図2および図3に示すように、外側ラインセンサ50についても内側ラインセンサ52についても、複数の発信機60の列である発信機列がハウジング74内に収容されて成る発信機ポスト62と、複数の受信機70の列である受信機列がハウジング76内に収容されて成る受信機ポスト72とが中央空間77を隔てて互いに対向するように空間上に配置されて構成されている。発信機ポスト62も受信機ポスト72も、複数のセンサ素子(この用語は、発信機60および受信機70を総称するために使用される)が1次元的に(例えば、真っ直ぐかまたは曲がった中心線に沿って)配列されて構成されている。
As shown in FIGS. 2 and 3, both the
さらに、外側ラインセンサ50についても内側ラインセンサ52についても、複数の発信機60と複数の受信機70とのうち互いにペアを成す1つの発信機60と1つの受信機70とは、図3に示すように、水平方向において互いに対向するように配置されている。
Further, regarding the
発信機ポスト62および受信機ポスト72は、それぞれ、支持面54から概して垂直に延びる柱状のハウジング74および76を有し、それらハウジング74および76内にそれぞれ、複数の発信機60および複数の受信機70が防水機能を有するように(雨水、水たまりの侵入によって故障しないように)収容されている。
The
本実施形態においては、発信機60も受信機70も、非可視光(例えば、電波)を用いて通信を行うタイプのセンサ素子(例えば、ビーコン発信機およびビーコン受信機)であるが、それに代えて、可視光、赤外光、音波または超音波を用いるタイプのセンサ素子、例えば、LED光源および光センサの組合せ、赤外光源および赤外センサの組合せ、レーザー光源および光センサの組合せや、音波発生器および音波センサの組合せなどを用いてもよい。
In the present embodiment, both the
一例においては、各発信機60が、可視光または赤外光である光を固有の点滅パターンで発光する発光器60である。これに対し、各受信機70は、各発光器60から発光された光を受光する受光器70である。この場合、標的受信部108は、各受光器70が受光した光から点滅パターンを抽出し、その点滅パターンを発光器IDに変換し、それにより、その受光した光を発光した発光器60が、対向発光器(正規発信機の一例)すなわち正規発光器(正規発信機の一例)であるか否かを判定する。
In one example, each
図3に正面図で示すように、複数の発信機60は、物体識別動作中、それぞれ複数の信号を一斉に発信する。それら信号のうち、車両30によって遮断される部分は、対向する受信機70に入射せず、一方、車両30によって遮断されない部分は、中央空間77内を透過して、対向する受信機70に入射する。
As shown in the front view of FIG. 3, the plurality of
図4に側面図で示すように、外側ラインセンサ50についても内側ラインセンサ52についても、また、発信機ポスト62も受信機ポスト72も、一列に並んだ複数のセンサ素子60,70のうちの最上端のもの(最上端発信機(前記「端部発信機」の一例)60および最上端受信機(前記「端部受信機」の一例)70)は、図2および図3に示すように、サイズ的に適合するすべての種類の車両30について、最上端発信機60が発信した信号が最上端受信機70によって受信されるように、最上端発信機60および最上端受信機70の高さ方向位置が選択されている。
As shown in the side view in FIG. 4, the
したがって、最上端発信機60が発信した信号は、各ラインセンサ50,52の長さ方向における物体30の実際シルエット寸法が予め定められた上限寸法を超えない限り、物体30によって遮断されることなく、最上端受信機70であって最上端発信機60に対向するものによって受信される。
Therefore, the signal transmitted by the
さらに、図4に側面図で示すように、外側ラインセンサ50についても内側ラインセンサ52についても、また、発信機ポスト62も受信機ポスト72も、一列に並んだ複数のセンサ素子60,70のうちの最下端のもの(最下端発信機60および最下端受信機70)は、すべての種類の車両30について、その車両30のタイヤ(車輪、ホイール)78がラインセンサ50,52を通過する際に、最下端発信機60から発信した信号がタイヤ78によって遮断されて最下端受信機70によって受信されないように、最下端発信機60および最下端受信機70の高さ方向位置が選択されている。これにより、車両30のうち、タイヤ78が各ラインセンサ50,52を通過したタイミングを検出することが可能である。
Further, as shown in the side view in FIG. 4, the
図5に正面図で示すように、外側ラインセンサ50についても内側ラインセンサ60についても、発信機ポスト62のうちの各発信機60が無指向性で(例えば、放射状に)信号を発信する。そのため、1つの発信機60から発信された信号が、その発信機60に対向する対向受信機(例えば、1つの対向受信機)70のみならず、その周辺に位置する複数の受信機70によっても、同時に受信される可能性がある。
As shown in the front view of FIG. 5, for both the
その可能性を排除するために、本実施形態においては、各受信機70ごとに標的受信が行われる。具体的には、各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、それら発信機60のうち、各受信機70に1対1に対応するように予め割り当てられた対向発信機60から発信された信号を有効信号として選択し、それ以外の信号は無効信号として除外する信号処理が行われる。これは、フィリタリング処理とも称される。
In order to eliminate this possibility, in the present embodiment, target reception is performed for each
これに関連し、図6には、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、複数の受信機70の番号と、それら受信機70にそれぞれ1対1に対応する複数の発信機(正規発信機)60の番号と、発信機60ごとの複数の発信機ID(正規発信機ID)との間の関係が表形式で表されている。
In this regard, FIG. 6 shows the numbers of the plurality of
具体的には、上述の標的受信においては、各受信機70ごとに、それに対応する1つの対向発信機60と、その対向発信機60に割り当てられた発信機IDすなわち正規発信機IDとを決定する。各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、それら発信機60のうち、正規発信機IDを表す信号を有効信号として選択する一方、それ以外の信号を無視する。これを、ソフト的なフィルタリング処理とも称する。
Specifically, in the above-mentioned target reception, for each
すなわち、上述の標的受信においては、各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、1つの正規発信機IDを割り当てられた1つの対向発信機60を1つの標的発信機60に選択し、事実上、その標的発信機60のみから信号を受信することを試行するのである。
That is, in the above-mentioned target reception, when each
これに対し、ランダム受信とは、各受信機70が、いずれの発信機60が前述の正規発信機であるか否かを無視して、ランダムに受信した少なくとも1つの信号をそれぞれ少なくとも1つの実発信機IDに変換して、各受信機70に、その少なくとも1つの実発信機IDを割り当てることを意味する。
On the other hand, in random reception, each
本実施形態においては、複数の受信機70に対し、上述の標的受信が、最上端受信機70から最下端受信機70に向かって(これとは逆向きでもよいし、別の向きでもよい)順次行われるが、これは、外側ラインセンサ50と物体30との間の相対移動が物理的なスキャン(x方向スキャン、前後方向スキャン)と称される場合には、外側ラインセンサ50すなわち複数の受信機70に対するソフト的なスキャン(y方向スキャン、垂直方向スキャン)と称される。
In the present embodiment, for the plurality of
なお、本実施形態においては、内側ラインセンサ52が、外側ラインセンサ50と共通の構成を有するように設計される。しかし、本実施形態においては、専ら外側ラインセンサ50を用いて物体識別が行われる。ただし、これに代えて、専ら内側ラインセンサ52を用いて物体識別が行われる態様で本発明を実施してもよいし、また、双方のラインセンサ50および52を用いて物体識別が行われる態様で本発明を実施してもよい。
In this embodiment, the inner line sensor 52 is designed to have the same configuration as the
よって、内側ラインセンサ52は、後述のように、入出庫判別を外側ラインセンサ50と共同して行うために必要最低限の構成を有するように、外側ラインセンサ50より単純化して(例えば、互いに対向する発信機60および受信機70より成るセンサ素子対(透過型対向センサ素子)の数を1つとか複数とか、外側ラインセンサ50におけるセンサ素子対の数より減らす)設計してもよい。
Therefore, as will be described later, the inner line sensor 52 is simplified from the
前述のように、このシステム10は、3次元の物体30を外側ラインセンサ50で一方向に物理的にスキャンすることにより、カメラを用いずに非接触式で物体30を形状的に識別するように設計されている。
As described above, the
具体的には、図7に側面図で示すように、物体の一例としての車両30が駐車場20の出入り通路40を一方向に進行中にその車両30が外側ラインセンサ50によって一方向にスキャンされてその車両30が識別される。
Specifically, as shown in the side view in FIG. 7, the
移動体としての車両30が、静止物体としての外側ラインセンサ50に対して相対的に、中央空間77を通過するように移動することにより、車両30が外側ラインセンサ50の長さ方向と交差する方向(スキャン方向)において外側ラインセンサ50に対して相対的に移動する相対移動が実現される。
The
図8に、各受信機70ごとの受信の有無をドットパターン(受信機70ごとに、信号遮断による非受信状態、すなわち、受信機70のオフ(OFF)状態がドットで示される)で示すように、車両30が外側ラインセンサ50によって一方向にスキャンされる結果、車両30について複数の1次元情報が時間離散的に生成される。それら1次元情報は、所定のサンプリング周期Δtで順次生成される。
FIG. 8 shows the presence or absence of reception for each
図8に示す例において、時刻t1は、図7に示す例における時刻t1に関連付けられる。図7においては、物体30のうち、時刻t1で示す部位が外側ラインセンサ50によって測定されたときに取得される1次元情報がドットパターンで図8に示されている。同様に、図8において時刻t2は、図7において時刻t2で示す部位に関連付けられる。他の時刻t3およびt4についても同様である。
In the example shown in FIG. 8, time t 1 is associated with time t 1 in the example shown in FIG. 7. 7, of the
さらに、図8に示すように、上述の一方向スキャンによって生成された複数の1次元情報(1本のドット列)が2次元情報(複数本のドット列)に合成され、それにより、物体30の実際シルエットが推定される。その実際シルエットの形状は、例えば、2次元情報を表す複数個のドットに外接する包絡線によって表現される。
Further, as shown in FIG. 8, a plurality of one-dimensional information (one dot sequence) generated by the above-mentioned one-way scan is combined with two-dimensional information (a plurality of dot sequences), whereby the
複数の1次元情報の合成は、それら1次元情報をそれらに共通の空間間隔で均等に配列することによって行ってもよい。そのときの空間間隔の長さは、固定値であっても、物体30の移動速度の測定値に応じて設定される可変値であってもよい。
The composition of a plurality of one-dimensional information may be performed by evenly arranging the one-dimensional information at a space interval common to them. The length of the space interval at that time may be a fixed value or a variable value set according to the measured value of the moving speed of the
これに代えて、物体30の移動速度(例えば、車両走行速度、車速)を、1次元情報のサンプリング・タイミングと概して同じタイミングで取得し、取得された複数の実際速度に応じた複数の空間間隔で不均等に複数の1次元情報を配列してもよい。 Instead of this, the moving speed of the object 30 (for example, vehicle traveling speed, vehicle speed) is acquired at substantially the same timing as the sampling timing of the one-dimensional information, and a plurality of spatial intervals corresponding to the acquired multiple actual speeds are acquired. You may arrange a plurality of one-dimensional information unevenly with.
具体的には、前記取得された複数の移動速度を用いて、複数の1次元情報間の空間間隔を決定し、それら1次元情報を、前記決定された空間間隔をあけて配列することにより、2次元情報に変換してもよい。 Specifically, the spatial intervals between the plurality of one-dimensional information are determined using the acquired plurality of moving speeds, and the one-dimensional information is arranged at the determined spatial intervals. It may be converted into two-dimensional information.
前述のように、このシステム10は、駐車場20に出入りする物体30が車両であるのか、人間であるのか、動物であるのかを識別するために実施される。一方、物品識別のため、複数の基準シルエットが用意され、上述のようにして推定された実際シルエットが、それら基準シルエットのうちのいずれに、最も形状が似ているか否かが判定され、最も近似している基準シルエットに対応する物体カテゴリーが、今回の物体30であると判別される。
As described above, this
そのため、本実施形態においては、図9に例示するように、複数の基準シルエットが、車両、人間(例えば、縦に細長い単純な形状のシルエット)および動物(例えば、横に細長い単純な形状のシルエット)のそれぞれについての複数の標準的なシルエットを含む。 Therefore, in the present embodiment, as illustrated in FIG. 9, a plurality of reference silhouettes are a vehicle, a human (for example, a silhouette having a simple shape elongated vertically) and an animal (for example, a silhouette having a simple shape elongated horizontally). ) Includes multiple standard silhouettes for each.
実際シルエットと各基準シルエットとの間の形状に関する近似度(または類似度)は、例えば、各基準シルエットごとに、実際シルエットと各基準シルエットとの間の形状近似度を計算する。その形状近似度は、例えば、実際シルエットを表すビットマップデータと、各基準シルエットを表すビットマップデータとが互いにオーバーラップする領域を占有する複数個のビットの数として計算することが可能である。 The degree of approximation (or similarity) regarding the shape between the actual silhouette and each reference silhouette is calculated, for example, for each reference silhouette, the degree of shape approximation between the actual silhouette and each reference silhouette. The shape approximation degree can be calculated as, for example, the number of a plurality of bits occupying an area in which the bitmap data representing the actual silhouette and the bitmap data representing each reference silhouette overlap each other.
さらに、実際シルエットと各基準シルエットとの間の形状近似度を計算する際に、実際シルエットのベースライン(支持面54の位置を表す)と各基準シルエットのベースラインとが互いに一致するように、実際シルエットと各基準シルエットとがビットマップメモリ上で重ね合わせられる。その結果、実際シルエットと各基準シルエットとが、垂直方向(y方向)に関して相対的に位置決めされる。これに対し、水平方向(x方向)に関する相対的な位置決めは、実際シルエットと各基準シルエットとの重なり面積が最大化するように、計算により、行われる。 Further, when calculating the shape approximation between the actual silhouette and each reference silhouette, the baseline of the actual silhouette (representing the position of the support surface 54) and the baseline of each reference silhouette are aligned with each other. The actual silhouette and each reference silhouette are superimposed on the bitmap memory. As a result, the actual silhouette and each reference silhouette are relatively positioned with respect to the vertical direction (y direction). On the other hand, the relative positioning in the horizontal direction (x direction) is performed by calculation so that the overlapping area between the actual silhouette and each reference silhouette is maximized.
さらに、各基準シルエットごとに、実際シルエットの倍率を変えながら各基準シルエットとの間の形状近似度を最大化し、その最大値を代表近似度とする。その基準シルエットの代表近似度を、残りの基準シルエットについて同様にして計算された代表近似度と比較し、すべての基準シルエットのうち、最大の代表近似度が取得されたものに対応する物体カテゴリーとして今回の物体30を識別する。
Further, for each reference silhouette, the shape approximation degree with each reference silhouette is maximized while changing the magnification of the actual silhouette, and the maximum value is used as the representative approximation degree. The representative approximation of the reference silhouette is compared with the representative approximation calculated in the same manner for the remaining reference silhouettes, and as the object category corresponding to the one for which the maximum representative approximation is obtained among all the reference silhouettes. Identify the
図9には、複数の物体カテゴリーと複数の基準シルエットとの間の例示的な関係が概念的に表形式で表されている。同図に示すように、人間のための基準シルエットは、(例えば、縦に細長い単純な形状のシルエットである。また、動物のための基準シルエットは、例えば、横に細長い単純な形状のシルエットである。各基準シルエットは、支持面54を表す直線をベースラインとし、そのベースラインを基準に相対的に位置決めされる。
FIG. 9 conceptually represents an exemplary relationship between a plurality of object categories and a plurality of reference silhouettes. As shown in the figure, the reference silhouette for humans is (for example, a silhouette with a simple shape elongated vertically, and the reference silhouette for animals is, for example, a silhouette with a simple shape elongated horizontally. Each reference silhouette has a straight line representing the
図9に示す例においては、車両の複数の基準シルエットとして、複数の標準的なシルエット(車両をその形状から標準的に分類する際に使用される形状上の分類に従う)が選択されている。しかし、これに代えて、車種ごとの複数の個別シルエットを選択してもよい。そうすれば、物体30が車両として識別される場合に、さらに、その車両30がいずれの車種(例えば、さらに車両メーカー名も)であるかについても識別することが可能となる。
In the example shown in FIG. 9, as the plurality of reference silhouettes of the vehicle, a plurality of standard silhouettes (according to the shape classification used when the vehicle is standardly classified from its shape) are selected. However, instead of this, a plurality of individual silhouettes for each vehicle type may be selected. Then, when the
図2の下側には、このシステム10のうちのソフトウエア構成が機能ブロック図で概念的に表されている。
At the lower side of FIG. 2, the software configuration of the
ユーザは、通信端末90を使用する。その通信端末90は、ユーザによって携帯されるとともに無線通信機能を有するデバイス、例えば、携帯電話機、スマートフォン、ラップトップ型コンピュータ、タブレット型コンピュータ、PDAなどでもよい。これに代えて、通信端末90は、ユーザによって携帯されないもの、例えば、車両30に搭載される車載通信端末、車載コンピュータであってもよい。
The user uses the
このシステム10は、各ラインセンサ50,52のうちの発信機ポスト62,62および受信機ポスト72,72にそれぞれ接続された信号処理ユニット100を有する。この信号処理ユニット100は、各ラインセンサ50,52のうちの受信機ポスト72,72からの複数の信号に基づき、物体識別および入出庫判別を行うように構成されている。
The
具体的には、信号処理ユニット100は、ハードウエア構成上、コンピュータ(プロセッサ)160と、メモリ162とを含むように構成される。メモリ162は、図6に例示的に示す関係を保存する第1保存部102と、図9に例示的に示す関係を保存する第2保存部104とを有する。
Specifically, the
信号処理ユニット100は、さらに、複数の発信機60を一斉にかつ連続的に(時間離散的にでも可)作動させる発信部106と、前述の標的受信を行うための標的受信部(フィルタリング部を含む)108とを有する。
The
信号処理ユニット100は、さらに、標的受信部108による受信結果に基づいて車両30の実際シルエットを推定するためのシルエット推定部110と、その推定された実際シルエットに基づいて物体30の識別を行う物体識別部112とを有する。
The
信号処理ユニット100は、さらに、2つのラインセンサ50および52を用いて車両30(物体30が車両であると識別された後に)が入庫ステージにあるのか出庫ステージにあるのかを判別する入出庫判別部114と、物体30の移動速度を取得するための速度取得部116とを有するように構成されている。その取得された移動速度は、例えば、シルエット推定部110により、前述のように、複数の1次元情報を合成して2次元情報に変換する際に用いられる。
The
シルエット推定部110は、支持面54を表す直線をベースラインとし(図9参照)、2次元情報を、そのベースラインを基準に相対的に位置決めすることにより、物体30の実際シルエットを推定する。
The
速度取得部116は、例えば、物体30から、その移動速度を表す信号を受信し、その信号から物体30の移動速度を取得するように構成してもよいし、ドップラ式の速度計として構成してもよい。
The
これらに代えて、速度取得部116は、物体30が外側ラインセンサ50を通過したタイミング(外側ラインセンサ50におけるいずれかの受信機72または互いに連続した所定複数個の受信機72がいずれも最初にOFFになったタイミング)と、同じ物体30が内側ラインセンサ52を通過したタイミング(内側ラインセンサ52におけるいずれかの受信機72または互いに連続した所定複数個の受信機72がいずれも最初にOFFになったタイミング)との間の時間差で、外側ラインセンサ50の設置位置と内側ラインセンサ52の設置位置との間の距離を割り算することにより、物体30の平均的な移動速度を取得するように構成してもよい。
Instead of these, in the
信号処理ユニット100は、さらに、少なくとも物体識別部112の実行結果および入出庫判別部114の実行結果を管理サーバ130に送信するための通信機器300(図18参照)を有する。通信機器300は、例えば、遠距離無線通信機能を有する。
The
このシステム10は、さらに、各ラインセンサ50,52のうちの発信機ポスト62,62および受信機ポスト72,72にそれぞれ接続された駆動ユニット120と、電源ユニット122とを有する。駆動ユニット120は、それぞれの発信機60および受信機70に電源ユニット(商用電源、太陽電池、バッテリなど)122から電力を供給する。それにより、駆動ユニット120は、発信機60にあっては、信号を発信する状態に移行させ、また、受信機70にあっては、いくつかの発信機60から信号を受信することを試行する状態に移行させる。
The
ただし、発信機60および受信機70は、太陽電池および充電可能なバッテリ(充電池)の組合せにより、外部からの給電なしで作動可能な自立型タイプとしてもよい。
However, the
このシステム10は、さらに、駐車場20からの遠隔地に設置された管理センタ124によって運営される管理サーバ130を有する。管理サーバ130は、信号処理ユニット100との間で遠距離無線通信が可能である。
The
管理サーバ130は、信号処理ユニット(例えば、駐車場20に設置されているが、駐車場20の外部に設置されてもよい)100から受信した信号と、ユーザの通信端末90から受信した信号とに基づき、駐車場20を管理する駐車場管理部132を有する。
The
管理サーバ130は、ユーザによる駐車料金の電子決済を行うために、決済サーバ140に接続されている。
The
<物体識別> <Object identification>
図10には、図2に示す信号処理ユニット100のうちの物体識別部112において実行される例示的な物体識別プログラムが概念的にフローチャートで表されている。本実施形態においては、物体識別のために外側ラインセンサ50のみが利用され、残りの内側ラインセンサ52は、外側ラインセンサ50と共に入出庫判別のときに利用される。
In FIG. 10, an exemplary object identification program executed by the
この物体識別プログラムは、メモリ162に予め記憶されていて、適宜、コンピュータ(特にプロセッサ)160によって実行される。
This object identification program is stored in
この物体識別プログラムが実行されると、まず、ステップS1001において、外側ラインセンサ50における複数の発信機60が一斉に駆動され、それにより、それら発信機60が、それぞれ固有の発信機IDを表す複数の信号を発信する。
When this object identification program is executed, first, in step S1001, a plurality of
次に、ステップS1002において、物体30に対して(厳密には、常に外側ラインセンサ50の近傍に物体30が存在するとは限らない)今回のスキャンを開始し、現在時刻を今回のスキャン・タイミングtn(今回は、n=1であり、図7に示す例においては、n=1,2,3,4,・・・)として計時してメモリ162に保存する。ここに、「スキャン」は、ソフト的なスキャン(受信機70ごとのシーケンシャルな標的受信)ではなく、物理的なスキャンであり、例えば、ある瞬間において、複数の発信機60と複数の受信機70とを用いて物体30を撮影することを試行するイベントに似ている。
Next, in step S1002, the current scan is started for the object 30 (strictly speaking, the
続いて、ステップS1003において、各受信機70ごとに順次、前述の標的受信を行うモードに移行する。
Subsequently, in step S1003, the mode shifts to the above-mentioned target reception mode for each
その後、ステップS1004において、複数の1次元情報を2次元情報(物体30の実際シルエット)に変換する後述の合成処理(ステップS1016)に備えて、速度取得部116を用いて、車両30の現在の車両速度を取得し、今回のスキャン・タイミングtnに関連付けてメモリ162に保存する。
After that, in step S1004, the
続いて、ステップS1005において、複数の受信機70のうちのいずれか(例えば、最上端受信機70または最下端受信機70)を今回の実施対象として選択し、その今回の1つの受信機70につき、対応する正規発信機ID、すなわち、図6に示すように、各受信機70に対向する1つの発信機(正規発信機)60に予め割り当てられている正規発信機IDをメモリ162から読み出す。
Subsequently, in step S1005, any one of the plurality of receivers 70 (for example, the
その後、ステップS1006において、今回の受信機70が少なくとも1つの発信機60から受信した少なくとも1つの信号をそれぞれ実発信機IDに変換し、いずれかの実発信機IDが、前記読み出された正規発信機IDと一致するか否かを判定する。一致すれば、そのステップS1006の判定がYESとなり、ステップS1007において、今回の受信機70は有効信号を受信したと判定する。続いて、ステップS1008において、今回の受信機70はON状態にあると判定する。
After that, in step S1006, at least one signal received by the
これに対し、今回の受信機70が受信した信号から変換された少なくとも1つの実発信機IDのうちのいずれも、前記読み出された正規発信機IDと一致しない場合(今回の受信機70がいずれの発信機60からも信号を受信しない場合も含まれる)には、ステップS1006の判定がNOとなり、続いて、ステップS1009において、今回の受信機70は有効信号を受信しなかったと判定する。続いて、ステップS1010において、今回の受信機70はOFF状態にあると判定する。
On the other hand, when none of at least one actual transmitter ID converted from the signal received by the
いずれの場合にも、その後、ステップS1011において、すべての受信機70について標的受信が終了したか否か、すなわち、今回のスキャンに属する複数回の標的受信(1回分の受信イベント)が終了したか否かを判定する。終了しない場合には、そのステップS1011の判定がNOとなり、ステップS1005に戻り、次の受信機70について標的受信を行う。
In any case, after that, in step S1011 whether or not the target reception for all the
すべての受信機70について標的受信(1回分の受信イベント)が終了すると、ステップS1011の判定がYESとなり、続いて、S1012において、複数の受信機70が有効信号を受信したか否かについての上述の複数の判定結果が、例えば図8において左側に示すように、ビットマップ形式で、各受信機70の高さ位置に関連付けて、ON状態にあるかまたはOFF状態にあるかを区別して表すように、メモリ162に記憶する。これにより、今回の受信イベントについて1列分の1次元情報が生成される。すなわち、複数の受信機70のうち、それぞれの対向発信機60から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報が生成されるのである。
When the target reception (one reception event) for all the
その後、ステップS1013において、物体30のうち、前後方向に空間離散的に並んだ複数の箇所のすべてについてスキャン(時間離散的な所定複数回の物理的なスキャン)が終了したか否かを判定する。具体的には、例えば、スキャン回数nが、予め設定された上限値nmaxに達したか否かを判定する。
After that, in step S1013, it is determined whether or not all of the plurality of locations of the
今回は、スキャン回数nが上限値nmaxに達していないと仮定すると、ステップS1013の判定がNOとなり、ステップS1014において、今回のスキャン・タイミングtnから、互いに隣接した複数回のスキャン間の所定の時間間隔、すなわち、1回分のサンプリング周期Δt(図8参照)が経過するのを待つ。そのサンプリング周期Δtは、すべてのスキャン間時間間隔(スキャン周期)の間で互いに共通である1つの固定値であるが、例えば、可変値としてもよい。 This time, assuming that the number of scans n has not reached the upper limit value n max , the determination in step S1013 becomes NO, and in step S1014, the predetermined interval between a plurality of scans adjacent to each other is determined from the current scan timing t n. Wait for the time interval, that is, one sampling cycle Δt (see FIG. 8) to elapse. The sampling period Δt is one fixed value that is common to each other during all scan-to-scan time intervals (scan periods), but may be, for example, a variable value.
1回分のサンプリング周期Δtが経過すると、ステップS1014の判定がYESとなり、ステップS1002に戻り、同じ物体30のうちの別の部位についての次回のスキャンが開始される。
When the sampling cycle Δt for one time elapses, the determination in step S1014 becomes YES, the process returns to step S1002, and the next scan for another part of the
ステップS1002−S1012の実行が必要回数反復された結果、スキャン回数nが上限値nmaxに達すると、ステップS1013の判定がYESとなり、ステップS1015において、図11に例示するように、前述の複数列の1次元情報(ドット列)をそれぞれのx方向間隔Δxを空けてビットマップ180上に展開ないしは配列し、それにより、1つの2次元情報としてのビットマップデータを生成する。
As a result of repeating the execution of steps S1002-S1012 the required number of times, when the number of scans n reaches the upper limit value n max , the determination in step S1013 becomes YES, and in step S1015, as illustrated in FIG. 11, the above-mentioned plurality of columns The one-dimensional information (dot sequence) of the above is expanded or arranged on the
図8に例示するように、ビットマップ180上のビットマップデータは、2次元的に並んだ複数の黒ドットと複数の白ドットとを有する。
As illustrated in FIG. 8, the bitmap data on the
ビットマップデータのうち、複数の黒ドットは、それぞれ対応する受信機70がOFF状態(発信機信号遮断状態)にあることを表す。これに対し、複数の白ドットは、それぞれ対応する受信機70がON状態(発信機信号透過状態)にあることを表す。
A plurality of black dots in the bitmap data indicate that the corresponding
ビットマップ180は、メモリ162上に形成される仮想の2次元マップであり、具体的には、横軸に物体30の進行方向寸法(x方向寸法)、縦軸に物体30の高さ方向寸法(y方向寸法)がそれぞれ割り当てられた2次元座標面である。物体30の各部位の高さ方向寸法は、支持面54の高さを表す前記ベースラインからの各部位、すなわち、各受信機70の高さ寸法位置に相当する。
The
これに対し、物体30の進行方向寸法について説明すると、ビットマップ180上において、複数のドット列のうち、互いに隣接するものの間の間隔Δxは、複数のドット列について共通の固定値であってもよいが、本実施形態においては、複数のドット列について共通の可変値となっている。
On the other hand, when the traveling direction dimension of the
具体的には、Δxは、物体30の移動速度vと、サンプリング周期Δtとの積として計算され、その結果、移動速度vが大きいほど、Δxが長くなる。物体30の移動速度vは、物体30が出入り通路40を通過する際の平均移動速度として定義される。
Specifically, Δx is calculated as the product of the moving speed v of the
これに対し、物体30の移動速度vは、例えば、物体30が出入り通路40上の各スキャン位置をそれぞれ通過する際の個別移動速度として定義してもよく、この場合には、図8に例示するように、各スキャンごとに、すなわち、各ドット列ごとに個別にΔxの値が計算される。
On the other hand, the moving speed v of the
さらに、このステップS1015においては、ビットマップデータのうちの複数の黒ドットの集まりの外形線に外接する包絡線が、物体30の実際シルエットとして推定される。
Further, in step S1015, the envelope circumscribing the outer line of a collection of a plurality of black dots in the bitmap data is estimated as the actual silhouette of the
その後、ステップS1016において、前述のようにして、前記推定された実際シルエットと、複数の候補としての複数の基準シルエット(図9参照)のそれぞれのとの間の形状近似度を計算する。 Then, in step S1016, as described above, the degree of shape approximation between the estimated actual silhouette and each of the plurality of reference silhouettes (see FIG. 9) as the plurality of candidates is calculated.
続いて、ステップS1017において、複数の基準シルエットのうち、それぞれ計算された複数の形状近似度のうち最大のものを有するものが、今回の物体30の実際シルエットを代表する1つの基準シルエットとして選択される。
Subsequently, in step S1017, the one having the largest of the plurality of calculated shape approximations among the plurality of reference silhouettes is selected as one reference silhouette representing the actual silhouette of the
その後、ステップS1018において、選択された1つの基準シルエットから、図9に例示する関係に従い、今回の物体30が、車両であるのか、人間であるのか、人間以外の動物であるのかが識別される。今回の物体30は、図示の例については、車両として識別される。その識別結果は、メモリ142に保存され、絶えず、最新の識別結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。
Then, in step S1018, from one selected reference silhouette, it is identified whether the
なお、いずれの受信機70もON状態にある場合には、いずれの基準シルエットも選択されず、このとき、このプログラムは、ステップS1018において、いずれの物体も出入り通路40内に存在しないと判定する。
When any of the
このプログラムは、その後、ステップS1002に戻り、次回のスキャン処理を開始する。 The program then returns to step S1002 to start the next scan process.
以上の説明から明らかなように、本実施形態によれば、各受信機70が、予定外の発信機60からの信号を受信しても、その信号をノイズ信号(各受信機70ごとの複数の受信信号のうち前記有効信号に該当しないもの)として除去できるため、識別すべき物体の形状を精度よく測定することができる。
As is clear from the above description, according to the present embodiment, even if each
<入出庫判別> <Delivery / delivery discrimination>
図11には、図2に示す信号処理ユニット100のうちの入出庫判別部114において実行される例示的な入出庫判別プログラムが概念的にフローチャートで表されている。本実施形態においては、入出庫判別のために外側ラインセンサ50と内側ラインセンサ52との双方が利用される。
In FIG. 11, an exemplary warehousing / delivery discriminating program executed by the warehousing /
この入出庫判別プログラムは、メモリ162に予め記憶されていて、適宜、コンピュータ(特にプロセッサ)160によって実行される。
This warehousing / delivery determination program is stored in the
<初期状態の検出> <Detection of initial state>
この入出庫判別プログラムが実行されると、まず、ステップS1101において、外側ラインセンサ50が完全にON状態(いずれの物体も外側ラインセンサ50の近傍位置に存在しないから、いずれの受信機70もON状態にある状態)にあるか否かを判定する。外側ラインセンサ50が少なくとも部分的にOFF状態(いずれかの物体が外側ラインセンサ50の近傍位置に存在するから、いずれかの受信機70がOFF状態にある状態)にあれば、物体が存在する可能性があるから、判定がNOとなり、ステップS1101に戻る。
When this warehousing / delivery determination program is executed, first, in step S1101, the
これに対し、外側ラインセンサ50が完全にON状態にあれば、ステップS1101の判定がYESとなり、続いて、ステップS1102において、今度は、内側ラインセンサ52が完全にON状態(いずれの物体も内側ラインセンサ52の近傍位置に存在しない状態)にあるか否かを判定する。内側ラインセンサ52が少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がNOとなり、ステップS1101に戻る。
On the other hand, if the
これに対し、外側ラインセンサ50も内側ラインセンサ52も完全にON状態にあれば、ステップS1101の判定もステップS1102の判定もYESとなり、入出庫判別のための初期状態、すなわち、出入り通路40内のいずれの箇所にもいずれの物体も存在しない状態が成立していることが確認される。この初期状態は、図12(a)および同図(b)に示すそれぞれの例において、「t1」で示されている。
On the other hand, if both the
<入庫ステージの検出> <Detection of warehousing stage>
続いて、ステップS1103において、外側ラインセンサ50が少なくとも部分的にOFF状態(いずれかの物体が外側ラインセンサ50の近傍位置に存在する状態)にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなり、ステップS1104に移行する。
Subsequently, in step S1103, it is determined whether or not the
ステップS1104においては、内側ラインセンサ52が完全にON状態(いずれの物体も内側ラインセンサ52の近傍位置に存在しない状態)にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなる。この状態は、図12(a)に示す例において、「t2」で示されている。 In step S1104, it is determined whether or not the inner line sensor 52 is in a completely ON state (a state in which none of the objects exists in the vicinity of the inner line sensor 52). If it is completely ON, there is a possibility that the object does not exist, so the determination is YES. This state is indicated by "t 2 " in the example shown in FIG. 12 (a).
続いて、ステップS1105において、外側ラインセンサ50が完全にON状態(いずれの物体も外側ラインセンサ50の近傍位置に存在しない状態)にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなり、ステップS1106に移行する。
Subsequently, in step S1105, it is determined whether or not the
そのステップS1106においては、内側ラインセンサ52が少なくとも部分的にOFF状態(いずれかの物体が内側ラインセンサ52の近傍位置に存在する状態)にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなる。この状態は、図12(a)に示す例において、「t3」で示されている。 In step S1106, it is determined whether or not the inner line sensor 52 is at least partially OFF (a state in which any object exists in the vicinity of the inner line sensor 52). If it is in the OFF state at least partially, there is a possibility that an object exists, so the determination is YES. This state is indicated by "t 3 " in the example shown in FIG. 12 (a).
その後、ステップS1107において、今回の物体は入庫ステージにあると判定する。その判定結果は、メモリ142に保存され、絶えず、最新の判定結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。
After that, in step S1107, it is determined that the object this time is in the warehousing stage. The determination result is stored in the memory 142, and the latest determination result is constantly shared with other programs in the
続いて、このプログラムはステージS1101に戻る。 The program then returns to stage S1101.
<出庫ステージの検出> <Detection of delivery stage>
ステップS1103または1104の判定がNOであると、ステップS1108において、外側ラインセンサ50が完全にON状態にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなり、ステップS1109に移行する。
If the determination in step S1103 or 1104 is NO, in step S1108, it is determined whether or not the
そのステップS1109においては、内側ラインセンサ52が少なくとも部分的にOFF状態にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなる。この状態は、図12(b)に示す例において、「t2」で示されている。 In step S1109, it is determined whether or not the inner line sensor 52 is at least partially turned off. If it is in the OFF state at least partially, there is a possibility that an object exists, so the determination is YES. This state is indicated by "t 2 " in the example shown in FIG. 12 (b).
続いて、ステップS1110において、外側ラインセンサ50が少なくとも部分的にOFF状態にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなり、ステップS1111に移行する。
Subsequently, in step S1110, it is determined whether or not the
そのステップS1111においては、内側ラインセンサ52が完全にON状態にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなる。この状態は、図12(b)に示す例において、「t3」で示されている。 In step S1111, it is determined whether or not the inner line sensor 52 is completely in the ON state. If it is completely ON, there is a possibility that the object does not exist, so the determination is YES. This state is indicated by "t 3 " in the example shown in FIG. 12 (b).
その後、ステップS1112において、今回の物体は出庫ステージにあると判定する。その判定結果は、メモリ142に保存され、絶えず、最新の判定結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。
After that, in step S1112, it is determined that the object this time is in the delivery stage. The determination result is stored in the memory 142, and the latest determination result is constantly shared with other programs in the
続いて、このプログラムはステージS1101に戻る。 The program then returns to stage S1101.
<第1異常判定> <First abnormality judgment>
図14には、図13に示すように、信号処理ユニット100のうちの第1異常判定部200において実行される例示的な第1異常判定プログラムが概念的にフローチャートで表されている。この第1異常判定プログラムは、各ラインセンサ50,52ごとに、最上端発信機60および最上端受信機70の作動状態が正常か異常かを判定するために実行される。
As shown in FIG. 13, an exemplary first abnormality determination program executed by the first
この第1異常判定プログラムが実行されると、まず、ステップS1401において、外側ラインセンサ50を今回の判定対象ラインセンサに選択する。
When this first abnormality determination program is executed, first, in step S1401, the
次に、ステップS1402において、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信しているか否かを判定する。有効に受信していれば、ステップS1402の判定がYESとなり、ステップS1403において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70の作動状態がいずれも正常であると判定する。
Next, in step S1402, it is determined whether or not the
これに対し、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信していない場合には、ステップS1402の判定がNOとなり、ステップS1404において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70のうちの少なくとも一方の作動状態が異常であると判定する。
On the other hand, for the line sensor to be determined this time, when the
その後、ステップS1405において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70のうちの少なくとも一方の作動状態が異常である旨の異常判定結果を管理サーバ130に送信する。
After that, in step S1405, the abnormality determination result indicating that at least one of the
その異常判定結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70の点検、修理および交換を行わせる。
In response to the abnormality determination result, the
いずれの場合にも、その後、ステップS1406において、今回の判定対象ラインセンサとは反対側のラインセンサを次回の判定対象ラインセンサに選択する。続いて、このプログラムはステップS1402に移行し、ステップS1402−S1405が、今度は、外側ラインセンサ50および内側ラインセンサ52のうち、前回とは異なるものについて実行される。
In either case, after that, in step S1406, the line sensor on the side opposite to the current determination target line sensor is selected as the next determination target line sensor. Subsequently, this program proceeds to step S1402, and steps S1402-S1405 are executed for the
<第2異常判定> <Second abnormality judgment>
図15には、図13に示すように、信号処理ユニット100のうちの第2異常判定部202において実行される例示的な第2異常判定プログラムが概念的にフローチャートで表されている。この第2異常判定プログラムは、各ラインセンサ50,52の設置状態での姿勢が正常か異常かを判定するために実行される。
As shown in FIG. 13, an exemplary second abnormality determination program executed by the second
この第1異常判定プログラムが実行されると、まず、ステップS1501において、外側ラインセンサ50を今回の判定対象ラインセンサに選択する。
When this first abnormality determination program is executed, first, in step S1501, the
次に、ステップS1502において、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信しているか否かを判定する。有効に受信していれば、ステップS1502の判定がYESとなり、ステップS1503において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のいずれも正立していると判定する。
Next, in step S1502, it is determined whether or not the
なぜなら、今回の判定対象ラインセンサの作動状態が正常である限りにおいて、発信機ポスト62および受信機ポスト72のいずれも正立していれば、最上端受信機70および最上端発信機60は互いに対向し、かつ、両者間に障害物は存在しないからである。
This is because, as long as the operating state of the line sensor to be determined this time is normal, if both the
これに対し、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信していない場合には、ステップS1502の判定がNOとなり、ステップS1504において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒している可能性があると判定する。
On the other hand, for the line sensor to be determined this time, when the
なぜなら、今回の判定対象ラインセンサの作動状態が正常である限りにおいて、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒していれば、最上端受信機70および最上端発信機60は互いに対向しないか、または、両者間に障害物が存在してしまう可能性があるからである。
This is because, as long as the operating state of the line sensor to be determined this time is normal, if at least one of the
その後、ステップS1505において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒している可能性がある旨の異常判定結果を管理サーバ130に送信する。
After that, in step S1505, the abnormality determination result indicating that at least one of the
その異常判定結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72の点検、修理および交換を行わせる。
In response to the abnormality determination result, the
いずれの場合にも、その後、ステップS1506において、今回の判定対象ラインセンサとは反対側のラインセンサを次回の判定対象ラインセンサに選択する。続いて、このプログラムはステップS1502に移行し、ステップS1502−S1505が、今度は、外側ラインセンサ50および内側ラインセンサ52のうち、前回とは異なるものについて実行される。
In either case, after that, in step S1506, the line sensor on the side opposite to the current determination target line sensor is selected as the next determination target line sensor. Subsequently, this program proceeds to step S1502, and steps S1502-S1505 are executed for the
なお付言するに、本実施形態においては、第1異常判定部200が端部発信機および端部受信機の作動状態の異常の有無を判定するために存在し、また、第2異常判定部202がラインセンサ50,52の姿勢の異常の有無を判定するために存在する。
In addition, in the present embodiment, the first
しかし、それら第1異常判定部200および第2異常判定部202は、端部発信機と端部受信機との間での通信の有無という同じ現象に着目するため、厳密には、それら端部発信機および端部受信機の作動状態の異常という現象と、ラインセンサ50,52の姿勢の異常という現象とを切り離して検知することができない。
However, since the first
よって、それら第1異常判定部200および第2異常判定部202を合体させ、端部発信機と端部受信機との間での通信がないと、端部発信機および端部受信機側のデバイス異常と、ラインセンサ50,52側の姿勢異常とのうちの少なくとも一方が存在すると判定する態様で本発明を実施してもよい。
Therefore, if the first
この態様であっても、真の異常の種類は遠隔的に正確に判明しないかもしれないが、作業者を駐車場20に派遣する必要性の有無を遠隔的に正確に判定することが可能となるから、無駄があることを覚悟して作業者を定期的に駐車場20に派遣する場合より、作業者にかかる人件費を削減することが容易となる。
Even in this embodiment, the true type of abnormality may not be determined remotely and accurately, but it is possible to remotely and accurately determine whether or not it is necessary to dispatch a worker to the
<故障診断> <Failure diagnosis>
図16には、図13に示すように、信号処理ユニット100のうちの故障診断部204において実行される例示的な故障診断プログラムが概念的にフローチャートで表されている。
As shown in FIG. 13, an exemplary failure diagnosis program executed by the
この故障診断プログラムが実行されると、まず、ステップS1601において、別の起動タイミング・コントロール・プログラム(図示しない)の実行によって割込み信号が発生したか否かを判定する。その割込み信号は、この故障診断プログラムの起動タイミングをコントロールするための信号である。 When this failure diagnosis program is executed, first, in step S1601, it is determined whether or not an interrupt signal is generated by executing another start timing control program (not shown). The interrupt signal is a signal for controlling the start timing of this failure diagnosis program.
その割込み信号が存在しないと、ステップS1601の判定がNOとなり、同じステップの実行が反復されるが、その割込み信号が存在すると、ステップS1601の判定がYESとなり、ステップS1602において、図10に示す物体識別プログラム、図11に示す入出庫判別プログラム、図12に示す第1異常判定プログラムおよび図13に示す第2異常判定プログラムの実行、すなわち、当該物体識別システム10の本番動作(ラインセンサ50および52を用いた処理)が一時的に禁止される。
If the interrupt signal does not exist, the determination in step S1601 becomes NO, and the execution of the same step is repeated. However, if the interrupt signal exists, the determination in step S1601 becomes YES, and in step S1602, the object shown in FIG. Execution of the identification program, the warehousing / delivery determination program shown in FIG. 11, the first abnormality determination program shown in FIG. 12, and the second abnormality determination program shown in FIG. 13, that is, the actual operation of the object identification system 10 (
続いて、ステップS1603において、外側ラインセンサ50における複数の発信機60および内側ラインセンサ52における複数の発信機60が一斉に駆動され、それにより、それら発信機60が、それぞれ固有の発信機IDを表す複数の信号を発信する。
Subsequently, in step S1603, the plurality of
その後、ステップS1604において、外側ラインセンサ50における複数の受信機70および内側ラインセンサ52における複数の受信機70について順次、すなわち、シーケンシャに、前述のランダム受信を行う。その結果、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、各受信機70に少なくとも1つの実発信機IDが割り当てられることが本来であれば期待される。
Then, in step S1604, the above-mentioned random reception is sequentially performed on the plurality of
続いて、ステップS1605において、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、上述のようにして各受信機70ごとに割り当てられた複数の実発信機IDを参照することにより、すべての受信機70が同じ発信機60から信号を受信しないか否かを判定する。
Subsequently, in step S1605, for each of the
外側ラインセンサ50および内側ラインセンサ52の双方またはいずれかにつき、すべての受信機70が同じ発信機60から信号を受信しない場合には、ステップS1605の判定がYESとなり、ステップS1606において、外側ラインセンサ50および内側ラインセンサ52のうち該当するものにつき、その発信機60が故障していると判定する。すなわち、その発信機60が故障発信機であると判定するのである。
If all
続いて、ステップS1607において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障発信機60が存在するもの)につき、その発信機60が故障している旨の故障診断結果を、その発信機60を識別するための発信機IDに関連付けて管理サーバ130に送信する。その後、このプログラムはステップS1601に戻る。
Subsequently, in step S1607, with respect to the corresponding one of the
その故障診断結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、故障発信機60の点検、修理および交換を行わせる。
Upon receiving the failure diagnosis result, the
これに対し、ステップS1605の判定がNOである場合には、ステップS1608において、前記複数の実発信機IDを参照することにより、いずれかの受信機70がいずれの発信機60からも信号を受信していないか否かを判定する。
On the other hand, when the determination in step S1605 is NO, in step S1608, by referring to the plurality of actual transmitter IDs, any
外側ラインセンサ50および内側ラインセンサ52の双方またはいずれかにつき、いずれかの受信機70がいずれの発信機60からも信号を受信していない場合には、ステップS1608の判定がYESとなり、ステップS1609において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70が存在するもの)につき、その受信機70が故障していると判定する。すなわち、その受信機70が故障受信機であると判定するのである。
If either
続いて、ステップS1610において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70が存在するもの)につき、その受信機70が故障している旨の故障診断結果を、その受信機70を識別するための発信機IDに関連付けて管理サーバ130に送信する。その後、このプログラムはステップS1601に戻る。
Subsequently, in step S1610, with respect to the corresponding one of the
その故障診断結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、故障受信機70の点検、修理および交換を行わせる。
Upon receiving the failure diagnosis result, the
これに対し、ステップS1605の判定もステップS1708の判定もNOである場合には、ステップS1611において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70も故障発信機60も存在しないもの)につき、すべての発信機60およびすべての受信機70が正常であると判定する。
On the other hand, when the determination in step S1605 and the determination in step S1708 are NO, in step S1611, the corresponding
その後、ステップS1612において、前記本番動作の再開を許可する。続いて、このプログラムはステップS1601に戻る。 Then, in step S1612, the resumption of the production operation is permitted. Subsequently, this program returns to step S1601.
<駐車場管理> <Parking lot management>
図17には、図13に示す管理サーバ130のうちの駐車場管理部132において実行される例示的な駐車場管理プログラムが概念的にフローチャートで表されている。
In FIG. 17, an exemplary parking lot management program executed by the parking
この駐車場管理プログラムが実行されると、まず、ユーザの通信端末90が、ステップS1701において、管理サーバ130にログインするためのリクエスト信号をユーザIDなどの必要な個人情報と共にその管理サーバ130に送信する。これに対し、そのリクエスト信号を受信すると、管理サーバ130は、通信端末90を認識し、その通信端末90との間で通信を確立する。
When this parking lot management program is executed, first, in step S1701, the user's
管理サーバ130は、ステップS1711において、信号処理ユニット100と通信し、メモリ162から前記物体識別結果を受信し、それを参照することにより、駐車場20の出入り通路40を通過する物体30が車両であるか否かを判定する。その物体30が車両でなければ、判定がNOとなり、ステップS1711に戻るが、その物体30が車両であれば、判定がYESとなり、ステップS1712に進む。
In step S1711, the
そのステップS1712においては、管理サーバ130が信号処理ユニット100と通信し、メモリ162から前記入出庫判別結果を受信し、それを参照することにより、車両30が駐車場20に入庫したか否かを判定する。車両30が駐車場20に入庫したと判定されると、ステップS1712の判定がYESとなり、ステップS1713に進む。
In step S1712, the
そのステップS1713においては、管理サーバ130が、駐車場20における複数の空室のうちのいずれかを、今回のユーザの車室として選択する。ユーザIDと、使用中の車室の番号との間の関係は、管理サーバ130のメモリに保存されている。
In step S1713, the
今回のユーザの車室が選択されると、ステップS1714において、管理サーバ130が、その選択した車室を今回のユーザの通信端末90に送信する。
When the user's cabin is selected, the
これに対し、通信端末90は、ステップS1702において、その車室に関する情報を管理サーバ130から受信し、続いて、ステップS1703において、入庫リクエストを管理サーバ130に送信する。
On the other hand, the
その入庫リクエストを受信すると、管理サーバ130は、ステップS1715において、現在時刻を計測し、その現在時刻として入庫時刻を前記メモリに保存する。続いて、ステップS1716において、入庫手続が完了したことを表す入庫完了信号を今回のユーザの通信端末90に送信する。
Upon receiving the warehousing request, the
これに対し、通信端末90は、ステップS1704において、その入庫完了信号を管理サーバ130から受信する。
On the other hand, in step S1704, the
以上、ステップS1712において、管理サーバ130が、車両30が駐車場20に入庫したと判定した場合を説明したが、出庫したと判定した場合には、ステップS1712の判定がNOとなり、続いて、ステップS1717において、管理サーバ130が、車両30が駐車場20から出庫したか否かを判定すれば、その判定はYESとなる。なお、このステップS1717の判定がNOとなった場合には、ステップS1711に戻る。
As described above, in step S1712, the case where the
その後、ステップS1718において、管理サーバ130が、現在時刻を計測し、その現在時刻として出庫時刻を前記メモリに保存する。続いて、ステップS1719において、前記メモリから、今回のユーザについての入庫時刻を読み出し、その入庫時刻から今回の出庫時刻までの経過時間として駐車時間を計算する。
After that, in step S1718, the
その後、ステップS1720において、管理サーバ130が、その計算された駐車時間の長さに見合う額の駐車料金を計算し、その駐車料金を表すデータを、今回のユーザの通信端末90に送信する。
After that, in step S1720, the
これに対し、通信端末90は、ステップS1705において、その駐車料金を表すデータを管理サーバ130から受信し、続いて、ステップS1706において、出庫リクエストを管理サーバ130に送信する。
On the other hand, the
その出庫リクエストを受信すると、管理サーバ130は、ステップS1721において、決済サーバ140と通信することにより、前記駐車料金を電子決済する。続いて、ステップS1722において、出庫手続が完了したことを表す出庫完了信号を今回のユーザの通信端末90に送信する。
Upon receiving the delivery request, the
これに対し、通信端末90は、ステップS1707において、その出庫完了信号を管理サーバ130から受信する。
On the other hand, in step S1707, the
ところで、車両30が駐車場20に入庫するステージにおいては、通常、最初に、車両30が、駐車場20の外部からその駐車場20の出入り通路40に接近し、やがて、車両30は、その車両30にユーザが乗車している状態で、外側ラインセンサ50を内向きに通過する。
By the way, in the stage where the
その後、ユーザが車両30を所定の車室まで運転してそこに進入して駐車すると、その車両30からユーザが降車する。続いて、ユーザは単独で、駐車場20内を歩行して出入り通路40まで移動し、やがて外側ラインセンサ50をさきほどとは逆向きに、すなわち、外向きに通過する。
After that, when the user drives the
このとき、ユーザの通信端末90は、外側ラインセンサ50を外向きに通過し、そのときにそれの少なくとも1つの発信機60からの信号を受信するから、前記少なくとも1つの発信機60の実発信機IDを取得できる。
At this time, the user's
よって、通信端末90は、図17に示す前述のステップS1701(ただし、入庫時)において、前記取得できた実発信機IDをユーザID(ユーザ識別情報の一例)と共に管理サーバ130に送信してもよい。
Therefore, even if the
この場合、管理サーバ130は、通信端末90から受信した実発信機IDが、駐車場20の外側ラインセンサ50に帰属するものであるか否かを判定してもよい。
In this case, the
その実発信機IDが駐車場20の外側ラインセンサ50に帰属すると判定される場合には、管理サーバ130は、受信したユーザIDと、図9に示す複数の車両カテゴリーのうち前記物体識別プログラムの実行によって識別されたもの(例えば、図2に示す例においては、物体カテゴリーNo.1)とを紐付けし、それらユーザと車両30とのペアを前記メモリに保存してもよい。
When it is determined that the actual transmitter ID belongs to the
同様に、車両30が駐車場20から出庫するステージにおいては、通常、最初に、ユーザが単独で、駐車場20の外部から歩行して出入り通路40に接近し、やがて外側ラインセンサ50を内向きに通過する。
Similarly, in the stage where the
その後、ユーザは、駐車場20内を自分の車室まで歩行し、そこに駐車してある車両30に乗車する。続いて、ユーザは、車両30を発車させて、駐車場20内を走行させて出入り通路40に接近する。その後、車両30は、外側ラインセンサ50を外向きに通過する。
After that, the user walks in the
このとき、ユーザの通信端末90は、外側ラインセンサ50を内向きに通過し、そのときにそれの少なくとも1つの発信機60からの信号を受信するから、前記少なくとも1つの発信機60の実発信機IDを取得できる。
At this time, the user's
よって、通信端末90は、前述のステップS1701(ただし、出庫時)において、その取得できた実発信機IDをユーザIDと共に管理サーバ130に送信してもよい。
Therefore, the
この場合、管理サーバ130は、通信端末90から受信した実発信機IDが、駐車場20の外側ラインセンサ50に帰属するものであるか否かを判定してもよい。
In this case, the
その実発信機IDが駐車場20の外側ラインセンサ50に帰属すると判定される場合には、管理サーバ130は、受信したユーザIDと、図9に示す複数の車両カテゴリーのうち前記物体識別プログラムの実行によって識別されたもの(例えば、図2に示す例においては、物体カテゴリーNo.1)とを紐付けし、それらユーザと車両30とのペアを前記メモリに保存してもよい。
When it is determined that the actual transmitter ID belongs to the
入庫時に前記メモリに保存されたペアと、出庫時に前記メモリに保存されたペアとが互いに一致する場合には、今回のユーザが、同じ車両カテゴリーに分類されたと判定できる。これは、物体識別の精度が高かったこと、ひいては、ユーザと車両30との紐付けの精度が高かったことを意味すると解釈してもよい。
When the pair stored in the memory at the time of warehousing and the pair stored in the memory at the time of warehousing match each other, it can be determined that the user this time is classified into the same vehicle category. This may be interpreted as meaning that the accuracy of object identification was high, and by extension, the accuracy of linking the user and the
その結果、例えば、ユーザが駐車場20を反復的に利用する場合に、管理センタ124は、個別のユーザに関する個人情報として、使用する車両30の種類という貴重な情報を取得することが可能となる。管理センタ124は、この個人情報を今後の駐車場マーケティングに活用することも可能である。
As a result, for example, when the user repeatedly uses the
また、前記複数の基準シルエットが、図9に例示する複数の標準的シルエットより多数の車種シルエット(例えば、日本で販売されているすべての車種についてのシルエット)である場合には、同じ車両が駐車場20に複数回駐車した場合に、本来であれば、その車両は、同じ車種シルエットとして分類されるところ、外側ラインセンサ50の測定誤差に起因し、複数の車種シルエットに分散して分類される可能性がある。
Further, when the plurality of reference silhouettes are more vehicle model silhouettes (for example, silhouettes for all vehicle models sold in Japan) than the plurality of standard silhouettes illustrated in FIG. 9, the same vehicle is parked. When parked in the
しかし、同じ車両が駐車場20に駐車するごとに、ユーザと車種カテゴリーとの紐付けを行い、その結果、同じユーザが、複数の車種カテゴリーに関連付けられる場合に、最も頻繁に同じユーザに関連付けられる1つの車種カテゴリーを真の車種カテゴリーとして識別することが可能である。この場合、前記紐付けの数、すなわち、サンプルデータの数が増加するほど、車両の識別精度が向上する。
However, every time the same vehicle parks in the
[第2の実施形態] [Second Embodiment]
次に、本発明の例示的な第2の実施形態に従う物体識別システム10を説明するが、第1の実施形態と共通する要素については、同一の名称または符号を使用して引用することにより、重複した説明を省略し、異なる要素についてのみ詳細に説明する。
Next, the
第1の実施形態においては、外側ラインセンサ50が、物体識別という機能(用途)と、入出庫判別という機能(用途)とを実現するために利用されるが、本実施形態においては、さらに、ユーザの識別およびユーザと車両との紐付けという機能(用途)をも実現するために利用される。
In the first embodiment, the
本実施形態に従うシステム10のうち、物体識別という機能(用途)と、入出庫判別という機能(用途)とを実現するための部分は、第1の実施形態と共通するため、重複した説明を省略するが、ユーザの識別およびユーザと車両との紐付けという機能(用途)を実現するための部分を詳細に説明する。
Of the
図18には、本実施形態に従う物体識別システム10のうちの外側ラインセンサ50が正面図で示されている。同図に示す発信機ポスト62から発信された複数の信号は、車両30のアウタパネルによって遮断されずに空間を透過して受信機ポスト72に到達するものと、車両30のアウタパネルによって遮断されるものと、車両30の窓ガラスを透過してその車室内に進入して乗員としてのユーザの通信端末90によって受信されるものとに分類される。
FIG. 18 shows a front view of the
同図に示すように、信号処理ユニット100は、通信機器300を有し、また、管理サーバ130は、ユーザ・車両紐付け部310を有する。信号処理ユニット100は、必要な情報を、通信機器300を介して、管理サーバ130に送信し、前記必要な情報に基づき、ユーザ・車両紐付け部310が起動する。管理サーバ130は、ユーザの通信端末90とも通信する。
As shown in the figure, the
図19には、ユーザ・車両紐付け部310において実行される例示的なユーザ・車両紐付けプログラムが、ユーザの通信端末90において実行されるユーザ特定支援プログラムと共に概念的にフローチャートで表されている。
In FIG. 19, an exemplary user / vehicle linking program executed in the user /
ユーザ・車両紐付けプログラムが起動すると、管理サーバ130は、まず、ステップS1931において、外側ラインセンサ50の受信機ポスト72の受信結果を表す信号を信号処理ユニット100から受信する。さらに、その信号に基づき、外側ラインセンサ50が少なくとも部分的にOFF状態であるか否か、すなわち、外側ラインセンサ50が何らかの物体を検出している(現在、駐車場20の出入り通路40上に物体が存在する)か否かを判定する。
When the user / vehicle association program is activated, the
外側ラインセンサ50が少なくとも部分的にOFF状態であるわけではない場合には、判定がNOとなり、ステップS1931に戻るが、外側ラインセンサ50が少なくとも部分的にOFF状態であるわけではない場合には、ステップS1931の判定がYESとなり、ステップS1932に移行する。
If the
このステップS1932においては、前記ユーザIDを参照することにより、ユーザの通信端末90に、受信リクエストを送信する。
In step S1932, a reception request is transmitted to the user's
これに対し、通信端末90は、ステップS1901において、複数の発信機60から信号を受信することを試行する。続いて、ステップS1902において、受信した各信号を実発信機IDに変換する。その後、ステップS1903において、その実発信機IDをユーザIDに関連付けて管理サーバ130に送信する。
On the other hand, in step S1901, the
これに対し、管理サーバ130は、ステップS1933において、その実発信機IDをユーザIDに関連付けて通信端末90から受信する。続いて、ステップS1934において、物体識別部112の実行結果である物体識別結果を信号処理ユニット100から受信する。その後、ステップS1935において、物体識別部112により、物体が車両30として識別されたか否かを判定する。
On the other hand, in step S1933, the
物体識別部112により、物体が車両30として識別されていない場合には、その判定がNOとなり、ステップS1931に戻るが、物体が車両30として識別された場合には、ステップS1935の判定がYESとなり、ステップS1936において、通信端末90から受信した実発信機IDが外側ラインセンサ50に帰属するか否か、すなわち、外側ラインセンサ50の発信機ポスト62に属する複数の発信機60の複数の実発信機IDのうちのいずれかと一致するか否かを判定する。
If the object is not identified as the
通信端末90から受信した実発信機IDが外側ラインセンサ50に帰属しない場合には、判定がNOとなり、ステップS1931に戻るが、帰属する場合には、その判定がYESとなり、ステップS1937において、今回の車両30に割り当てられた車両基準シルエット番号(ないしは車種)を信号処理ユニット100から受信する。
If the actual transmitter ID received from the
続いて、管理サーバ130は、ステップS1938において、今回のユーザ(例えば、ユーザID)と今回の車両30(例えば、今回の車両基準シルエット番号(ないしは車種))とを紐付けする。その後、ステップS1939において、その紐付け結果を、図20に例示するように、ユーザ・車両紐付けリストにリスト化して保存する。
Subsequently, in step S1938, the
以上、本発明の例示的な複数の実施形態を、駐車場20において、所定の通路としての出入り通路40を通過する3次元物体としての車両30を簡易的に一方向のみから識別して形状的に分類するという用途に使用するシナリオについて説明したが、同様な実施形態は他の用途に使用することが可能である。
As described above, in the
そのような他の用途の一例としては、物流センタにおいて、所定の通路(例えば、コンベヤ)に沿って流れるシート状もしくは板状または3次元形状の物品を識別して形状的に分類する(例えば、サイズごとの分類(最大寸法ごとの分類)、正方形に近いか縦長または横長であるか(アスペクト比ごとの分類)などの複数の分類)という用途がある。 As an example of such other applications, in a distribution center, sheet-like, plate-like, or three-dimensional articles flowing along a predetermined passage (for example, a conveyor) are identified and morphologically classified (eg, for example). There are applications such as classification by size (classification by maximum dimension) and multiple classifications such as near square, portrait or landscape (classification by aspect ratio).
別の例としては、商業施設(例えば、デパート、飲食店、フードコート、書店)または大衆が利用する公共施設(例えば、道路、地下道、美術館、学校、市役所、駅、空港、バス停、バス、図書館)において、所定の通路に沿って流れる人間(3次元物体)を識別して形状的に分類する(例えば、独立歩行の人間、車いすに乗って歩行している人間、介助者または介助犬を伴う人間、大人、子供などの複数の分類)という用途がある。 Another example is commercial facilities (eg department stores, restaurants, food courts, bookstores) or public facilities used by the public (eg roads, underpasses, museums, schools, city halls, stations, airports, bus stops, buses, libraries. ), Identify and shapely classify humans (three-dimensional objects) flowing along a predetermined passage (eg, accompanied by a human walking independently, a human walking in a wheelchair, a caregiver or a caregiver dog). There are multiple categories of humans, adults, children, etc.).
以上、本発明の複数の例示的な実施の形態を図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の概要]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although a plurality of exemplary embodiments of the present invention have been described in detail with reference to the drawings, these are examples, and knowledge of those skilled in the art, including the embodiments described in the [Summary of Invention] column. It is possible to carry out the present invention in other forms with various modifications and improvements based on the above.
Claims (5)
前記施設に設けられ、移動体およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得するものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が移動体であるか否かを判定する判定部と、
前記施設または前記管理サーバに設けられ、前記物体が移動体であると判定された場合に、前記取得されたシルエットに基づき、前記移動体の種類の判別を行う判別部と、
前記施設に設けられ、固有の信号を発信する発信機と、
ユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記受信した信号によって特定される前記施設に固有の施設IDに関連付けて前記管理サーバに送信するものと
を含み、
その管理サーバは、前記施設IDと、前記移動体の種類と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する移動体・ユーザ識別管理システム。 A system that identifies and manages a mobile that enters or leaves a facility that should be remotely managed by a management server and a user who is a user of the mobile.
A passage provided in the facility and common to mobiles and users,
A line sensor installed in the passage and extending in a direction intersecting the traveling direction of an object passing through the passage, and scans the object relative to the traveling direction to acquire a silhouette of the object. things and,
A determination unit provided in the facility or the management server to determine whether or not the object is a moving object based on the acquired silhouette.
A discriminating unit provided in the facility or the management server and discriminating the type of the moving body based on the acquired silhouette when the object is determined to be a moving body.
A transmitter installed in the facility and transmitting a unique signal,
When a signal is received from the transmitter of the user's communication terminal, the user ID or the terminal ID of the communication terminal is associated with the facility ID unique to the facility specified by the received signal in response to the signal. Including those to be sent to the management server
The management server is a mobile / user identification management system that associates the facility ID, the type of the mobile body, and the user ID or the terminal ID with each other, and registers these elements in a list.
前記発信機は、それら電磁波出射素子のうちの少なくとも一つである請求項1に記載の移動体・ユーザ識別管理システム。 The line sensor includes an element array in which a plurality of electromagnetic wave emitting elements are arranged in a row.
The mobile / user identification management system according to claim 1, wherein the transmitter is at least one of the electromagnetic wave emitting elements.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020070104A JP2021034010A (en) | 2020-04-08 | 2020-04-08 | Mobile body and user identification management system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020070104A JP2021034010A (en) | 2020-04-08 | 2020-04-08 | Mobile body and user identification management system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019155842A Division JP6695603B1 (en) | 2019-08-28 | 2019-08-28 | Object identification method and object identification system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021034010A true JP2021034010A (en) | 2021-03-01 |
Family
ID=74676030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020070104A Withdrawn JP2021034010A (en) | 2020-04-08 | 2020-04-08 | Mobile body and user identification management system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021034010A (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06307827A (en) * | 1993-01-13 | 1994-11-04 | Toshiba Corp | Car type judging device |
US8957787B1 (en) * | 2014-09-30 | 2015-02-17 | Al-Jouharah A. S. A. Al-Hmalan | System and method for disabled parking spot enforcement |
JP2018146293A (en) * | 2017-03-02 | 2018-09-20 | 本田技研工業株式会社 | Facility evaluation system and facility evaluation method |
JP2019079325A (en) * | 2017-10-25 | 2019-05-23 | トヨタ自動車株式会社 | Vehicle management system, commercial facility management system, and commercial facility management program |
-
2020
- 2020-04-08 JP JP2020070104A patent/JP2021034010A/en not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06307827A (en) * | 1993-01-13 | 1994-11-04 | Toshiba Corp | Car type judging device |
US8957787B1 (en) * | 2014-09-30 | 2015-02-17 | Al-Jouharah A. S. A. Al-Hmalan | System and method for disabled parking spot enforcement |
JP2018146293A (en) * | 2017-03-02 | 2018-09-20 | 本田技研工業株式会社 | Facility evaluation system and facility evaluation method |
JP2019079325A (en) * | 2017-10-25 | 2019-05-23 | トヨタ自動車株式会社 | Vehicle management system, commercial facility management system, and commercial facility management program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11778144B2 (en) | Vehicle monitoring | |
EP3682429B1 (en) | System and method for gate monitoring during departure or arrival of an autonomous vehicle | |
CN105798922B (en) | A kind of home-services robot | |
CN106144816B (en) | Occupant detection based on depth transducer | |
US11020294B2 (en) | Mobility and mobility system | |
CN108052097A (en) | For training the method for isomery sensing system and isomery sensing system | |
JP2021133252A (en) | Method, apparatus, and system for wireless sensing, monitoring, and recognition | |
CN109844450B (en) | Sorting device, sorting method, and recording medium | |
CN103839346A (en) | Intelligent door and window anti-intrusion device and system and intelligent door control system | |
CN103370249A (en) | System and method for predicting behaviors of detected objects | |
US11200435B1 (en) | Property video surveillance from a vehicle | |
CN107055229A (en) | Traffic analysis system and method | |
CN108268036A (en) | A kind of novel robot intelligent barrier avoiding system | |
US20230046840A1 (en) | Vehicular access control based on virtual inductive loop | |
KR102596752B1 (en) | Airport robot and airport robot system | |
JP2021034010A (en) | Mobile body and user identification management system | |
JP6695603B1 (en) | Object identification method and object identification system | |
JP2007327839A (en) | Mobile unit monitoring system and method | |
JP6780886B1 (en) | Object identification management system | |
CN107993658A (en) | A kind of vehicle audio input control system for intelligent travel | |
dos Santos et al. | A Low-Cost Bidirectional People Counter Device for Assisting Social Distancing Monitoring for COVID-19 | |
CN109191910A (en) | The garage accidents early warning method and early warning system read based on depth | |
US11544505B1 (en) | Semi-supervised learning based on clustering objects in video from a property | |
CN212181658U (en) | Parking space detection and query system | |
CN201570099U (en) | Intelligent type infrared anti-theft alarm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230526 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20231114 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20240213 |