JP7303598B2 - Facility monitoring system - Google Patents

Facility monitoring system Download PDF

Info

Publication number
JP7303598B2
JP7303598B2 JP2023015148A JP2023015148A JP7303598B2 JP 7303598 B2 JP7303598 B2 JP 7303598B2 JP 2023015148 A JP2023015148 A JP 2023015148A JP 2023015148 A JP2023015148 A JP 2023015148A JP 7303598 B2 JP7303598 B2 JP 7303598B2
Authority
JP
Japan
Prior art keywords
vehicle
line sensor
user
transmitter
facility
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023015148A
Other languages
Japanese (ja)
Other versions
JP2023057101A (en
Inventor
明宏 吉川
Original Assignee
株式会社スペース二十四インフォメーション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社スペース二十四インフォメーション filed Critical 株式会社スペース二十四インフォメーション
Publication of JP2023057101A publication Critical patent/JP2023057101A/en
Priority to JP2023099246A priority Critical patent/JP7418056B2/en
Application granted granted Critical
Publication of JP7303598B2 publication Critical patent/JP7303598B2/en
Priority to JP2023218879A priority patent/JP2024035248A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、施設において物体を電磁波でx方向とy方向とにスキャンすることにより、非接触式で前記物体を形状的に識別して前記施設を監視する技術、前記施設に入場しまたはその施設から退場する移動体を識別して前記施設を管理する技術、および/または、その移動体の使用者であるユーザおよび/または前記施設を利用するユーザを識別して前記施設を管理する技術に関するものである。 The present invention provides a technique for monitoring the facility by scanning the facility in the x-direction and the y-direction with electromagnetic waves to identify the shape of the object in a non-contact manner, and to monitor the facility, enter the facility, or A technology for identifying a moving body leaving the facility and managing the facility, and/or a technology for identifying a user who is a user of the moving body and/or a user who uses the facility and managing the facility It is about.

物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する技術が既に存在する。 Techniques already exist to geometrically identify an object without a camera and in a non-contact manner by scanning the object in one direction with a line sensor.

その一例が、特許文献1に開示されている。この技術においては、水平の支持面(例えば、路面)上を走行する車体の車種を判定することを目的として、垂直方向に1次元的に配列された複数の発光素子と、垂直方向に1次元的に配列された複数の受光素子とを、それぞれ互いに水平方向に対向するように配置することにより、シルエットセンサがラインセンサとして構成される。 An example thereof is disclosed in Patent Document 1. In this technology, for the purpose of determining the vehicle type of a vehicle traveling on a horizontal support surface (for example, a road surface), a plurality of light emitting elements arranged one-dimensionally in the vertical direction and one-dimensional A silhouette sensor is configured as a line sensor by arranging a plurality of light-receiving elements arranged in a matrix so as to face each other in the horizontal direction.

特開平5-296737号公報JP-A-5-296737

しかしながら、特許文献1に開示されている技術では、前記シルエットセンサにより、識別すべき物体の形状を精度よく測定することができないという問題がある。 However, the technique disclosed in Patent Document 1 has a problem that the shape of an object to be identified cannot be accurately measured by the silhouette sensor.

具体的には、そのシルエットセンサにおいては、発光素子が光、電波または音波という電磁波を受光素子に向けて出射するが、その電磁波が通常のものである限り、発光素子も受光素子も、通常は、指向性を有する。 Specifically, in the silhouette sensor, the light-emitting element emits electromagnetic waves such as light, radio waves, or sound waves toward the light-receiving element. , has directivity.

その電磁波をレーザー光として選択すれば、発光素子も受光素子も指向性を有せずに済む。しかし、その場合には、システムが高価であること、素子の消費電力が増加すること、出射されたレーザー光が万一人間の眼に入射すると危険であることなどの問題がある。 If the electromagnetic wave is selected as laser light, neither the light-emitting device nor the light-receiving device need to have directivity. However, in that case, there are problems such as that the system is expensive, that the power consumption of the device increases, and that the emitted laser light is dangerous if it should enter the eyes of a person.

そのため、それらの問題がないように通常の電磁波を使用すると、1つの発光素子から出射した電磁波が、拡がり角をもって空間を進行し、そのため、1つの電磁波が、意に反して複数の受光素子によって同時に受光されてしまう可能性がある。 Therefore, if a normal electromagnetic wave is used to avoid these problems, the electromagnetic wave emitted from one light-emitting element travels in space with a divergence angle. They may be received at the same time.

その結果、通常の電磁波を使用すると、複数の受光素子のうち、識別すべき物体によって遮蔽されて電磁波を受光できないものにより表現される1次元模様が、識別すべき物体の実際シルエットを正確に反映しないおそれがある。 As a result, when ordinary electromagnetic waves are used, the one-dimensional pattern represented by the light-receiving elements that are blocked by the object to be identified and cannot receive the electromagnetic wave accurately reflects the actual silhouette of the object to be identified. likely not.

よって、特許文献1に開示されている技術では、受光素子が、予定外の発光素子からの光を受光してしまうと、その光をノイズ光として除去できないため、識別すべき物体の形状を精度よく測定することができないという問題がある。 Therefore, in the technique disclosed in Patent Document 1, if the light receiving element receives light from an unexpected light emitting element, the light cannot be removed as noise light. There is a problem that it cannot be measured well.

なお、物体を識別するという機能(用途)は、特許文献1に開示されているように、有料道路において、走行する自動車の車種を判別するという機能として具体化され、また、例えば、駐車場において、その駐車場に対して入出庫する車両を識別して分類するという機能として具体化される。 Note that the function (application) of identifying an object is embodied as a function of identifying the type of vehicle traveling on a toll road, as disclosed in Patent Document 1. , is embodied as a function of identifying and classifying vehicles entering and leaving the parking lot.

さらに、そのようにして識別された車両を、その車両の乗員としてのユーザに正確に紐付けしたいというニーズがある。 Further, there is a need to accurately associate a vehicle so identified with a user as an occupant of that vehicle.

このような事情を背景とし、本発明は、施設において物体を電磁波でx方向とy方向とにスキャンすることにより、非接触式で前記物体を形状的に識別して前記施設を監視する技術、カメラを用いずに非接触式で物体を形状的に識別するラインセンサとその物体を撮像する撮像装置とを利用することにより、指定された施設に入場しまたはその施設から退場する移動体を識別して管理する技術、および/またはその移動体の使用者であるユーザおよび/またはその施設を利用するユーザを識別して管理することを可能にする技術を提供することを課題としてなされたものである。 Against this background, the present invention provides non-contact monitoring of a facility by geometrically identifying the object in the facility by scanning the object in the x and y directions with electromagnetic waves. A moving object that enters or exits a designated facility by using a line sensor that identifies the shape of an object in a non-contact manner without using a camera and an imaging device that captures the image of the object. and / or a technology that enables the user who is the user of the mobile body and / or the user who uses the facility to be identified and managed It is.

その課題を解決するために、本発明の一側面によれば、施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
前記施設は、2つの監視位置を有し、
前記監視部は、幾何学的に互いに近似するシルエット画像が前記2つの監視位置においてそれぞれ時間的に先後して取得された場合に、前記物体が前記2つの監視位置間を移動する移動状態にあると判定する移動状態判定部を含む施設監視システムが提供される。
また、本発明の別の側面によれば、施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像を画面上に表示するディスプレイと、
前記取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間であるか否かを判別し、
前記ディスプレイは、前記監視部が前記物体が人間であると判別した場合に、前記取得されたシルエット画像を前記画面上に表示する施設監視システムが提供される。
また、本発明のさらに別の側面によれば、施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間である場合に、前記取得されたシルエット画像に基づき、前記人間が、単独で歩行している人間であるか、車いすに乗って移動している人間であるか、または、介助者もしくは介助犬を伴って歩行している人間であるかを判別する移動形態判定部を含む施設監視システムが提供される。
In order to solve the problem, according to one aspect of the present invention, there is provided a facility monitoring system for monitoring facilities,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
The facility has two monitoring positions,
The monitoring unit is in a moving state in which the object moves between the two monitoring positions when silhouette images that are geometrically similar to each other are acquired at the two monitoring positions ahead of each other in time. A facility monitoring system is provided that includes a moving state determination unit that determines that .
Further, according to another aspect of the present invention, a facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a display for displaying the obtained silhouette image on the screen;
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
The monitoring unit determines whether the object is a human being,
A facility monitoring system is provided in which the display displays the acquired silhouette image on the screen when the monitoring unit determines that the object is a person.
Further, according to still another aspect of the present invention, a facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
When the object is a human, the monitoring unit determines whether the human is walking alone or moving in a wheelchair, based on the obtained silhouette image. Alternatively, there is provided a facility monitoring system including a movement form determination unit that determines whether a person is walking with a helper or a service dog.

また、本発明のあるアスペクトによれば、施設に進入する物体を識別することにより、前記施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に進入する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体の2次元のシルエットを取得するものと、
その取得されたシルエットに基づき、前記物体が人間であるか人間以外の動物であるかの種別判定を行う種別判定部と、
前記施設に設けられ、前記種別判定部によって前記物体が人間であると判定された場合に前記物体を撮影する撮影装置と
を含む施設監視システムが提供される。
Further, according to one aspect of the present invention, there is provided a facility monitoring system for monitoring a facility by identifying objects entering the facility, comprising:
A line sensor provided in the facility and extending in a direction intersecting the traveling direction of an object entering the facility, wherein the object is relatively scanned in its traveling direction to obtain a two-dimensional silhouette of the object. and
a type determination unit that determines whether the object is a human or an animal other than a human based on the acquired silhouette;
A facility monitoring system is provided, comprising: a photographing device provided in the facility for photographing the object when the type determining unit determines that the object is a person.

また、本発明の一側面によれば、施設に進入する物体を識別することにより、前記施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に進入する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体の側面視をその物体の進行方向に相対的にスキャンして前記物体の2次元のシルエットを取得するものと、
その取得されたシルエットと、人間および人間以外の動物のそれぞれの標準的な2次元形状を表す複数の基準シルエットとの比較により、前記物体が人間であるか人間以外の動物であるかの種別判定を行う種別判定部と
を含む施設監視システムが提供される。
Further, according to one aspect of the present invention, there is provided a facility monitoring system for monitoring a facility by identifying objects entering the facility, comprising:
A line sensor provided in the facility and extending in a direction intersecting with the traveling direction of an object entering the facility, the line sensor scanning a side view of the object relatively in the traveling direction of the object to detect the object. obtaining a two-dimensional silhouette; and
Determining whether the object is a human or a non-human animal by comparing the obtained silhouette with a plurality of reference silhouettes representing standard two-dimensional shapes of humans and non-human animals. A facility monitoring system is provided that includes:

また、本発明のあるアスペクトによれば、管理サーバによって遠隔的に管理されるべき施設を利用するユーザを識別して管理するシステムであって、
前記施設に設けられ、それぞれ物体としての移動体およびユーザに共通の通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体の側面視をその物体の進行方向に相対的にスキャンして前記物体のシルエットを取得するものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が人間であるか否かの判定を行う判定部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記シルエットの取得または前記判定に時間的に連動して前記物体を前記施設を利用するユーザの人間画像として撮影するものと
を含むユーザ識別管理システムが提供される。
According to another aspect of the present invention, there is provided a system for identifying and managing users of facilities to be remotely managed by a management server, comprising:
A line sensor provided in the facility, installed in a passage common to a moving object as an object and a user, respectively, and extending in a direction intersecting with a traveling direction of an object passing through the passage, wherein the object is viewed from the side. relative to the direction of travel of the object to obtain a silhouette of the object;
a determination unit provided in the facility or the management server and configured to determine whether the object is a person based on the acquired silhouette;
A photographing device provided in the facility for photographing an object positioned on the passage, wherein the object is photographed as a human image of a user who uses the facility in temporal linkage with the acquisition of the silhouette or the determination. A user identity management system is provided that includes:

また、本発明の一側面によれば、管理サーバによって遠隔的に管理されるべき施設に入場しまたはその施設から退場する物体を識別して管理するシステムであって、
前記施設に設けられ、それぞれ物体としての移動体およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の側面視をその物体の進行方向に相対的にスキャンして前記物体の横方向のシルエットを取得するラインセンサと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が移動体であるか否かの判定を行う第1判定部と、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記移動体の種類の判別を行う移動体種類判別部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記第1判定部によって前記物体が移動体であると判定された場合に、前記シルエットの取得、前記判定または前記判別のタイミングに時間的に連動して前記物体の画像を移動体画像として撮影するものと、
前記施設または前記管理サーバに設けられ、前記撮影された移動体画像から、前記移動体の識別情報である移動体識別情報であって前記移動体に表示されているものを認識し、それにより、前記移動体識別情報を取得する移動体識別情報取得部と
を含み、
前記移動体の種類は、その移動体の側面視の高さ寸法に関する分類と、その移動体の側面視の形状に関する分類と、その移動体の側面視の最大寸法に関する分類と、その移動体の側面視のアスペクト比に関する分類とのうちの少なくとも一つを含み、前記移動体が車両である場合には、任意選択的に、その車両の車種を含んでもよい物体識別管理システムが提供される。
Also according to one aspect of the present invention, there is provided a system for identifying and managing objects entering or leaving a facility to be remotely managed by a management server, comprising:
a passage provided in the facility and common to the mobile object and the user, respectively;
a line sensor installed in the passage and scanning a side view of an object passing through the passage relative to the traveling direction of the object to obtain a lateral silhouette of the object;
a first determination unit provided in the facility or the management server and configured to determine whether the object is a moving object based on the acquired silhouette;
a moving body type determination unit provided in the facility or the management server and configured to determine the type of the moving body based on the acquired silhouette;
A photographing device provided in the facility for photographing an object located on the passage, wherein when the first determination unit determines that the object is a moving body, the acquisition of the silhouette, the determination, or capturing an image of the object as a moving object image in temporal linkage with the timing of the determination;
provided in the facility or the management server and recognizing mobile identification information, which is identification information of the mobile and displayed on the mobile, from the captured image of the mobile, thereby a mobile identification information acquisition unit that acquires the mobile identification information;
The type of the moving body includes a classification related to the height dimension in side view of the moving body, a classification related to the shape of the side view of the moving body, a classification related to the maximum size of the side view of the moving body, and a classification related to the maximum dimension of the side view of the moving body. classification relating to side view aspect ratio, and optionally, if the moving object is a vehicle, may optionally include the vehicle type of the vehicle.

本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用することは妨げられないと解釈すべきなのである。 The present invention provides the following aspects. Each aspect is divided into sections, each section is numbered, and the numbers of other sections are referred to as necessary. This is to facilitate understanding of some of the technical features that can be employed by the present invention and combinations thereof, and the technical features that can be employed by the present invention and combinations thereof are limited to the following aspects. should not be interpreted as That is, it should be construed that the technical features described in the present specification, which are not described in the following aspects, are appropriately extracted and employed as the technical features of the present invention.

さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げることを意味するわけではなく、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能であると解釈すべきである。 Furthermore, it should be noted that stating each paragraph in a format that refers to the numbers of other paragraphs does not necessarily prevent the technical features described in each paragraph from being separated and independent from the technical features described in other paragraphs. It should be construed that the technical features described in each section can be made independent as appropriate according to their nature.

(1) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別方法であって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサの前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動する相対移動中に実施され、
前記複数の発信機を連続的にまたは時間離散的に作動させてそれら発信機から複数の信号を発信させる発信工程と、
前記発信された複数の信号を前記複数の受信機によって時間離散的に複数回受信することを試行し、それにより、結果的に複数回の受信イベントを実行する標的受信工程であって、各受信機が2以上の発信機から2以上の信号を同時に受信すると、それら発信機のうち、各受信機に1対1に対応するように予め割り当てられた対向発信機を標的発信機とし、その標的発信機から発信された信号を有効信号として選択するものと、
各回の受信イベントにおいて、前記複数の受信機のうち、それぞれの対向発信機から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報を生成し、前記複数回の受信イベントにおいてそれぞれ生成された複数の1次元情報を配列することによって2次元情報に変換し、その2次元情報に基づいて前記物体の実際シルエットを推定するシルエット推定工程と、
その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別工程と
を含む物体識別方法。
(1) An object identification method for geometrically identifying an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor,
The central space of the line sensor, in which the transmitter row, which is a row of a plurality of transmitters, and the receiver row, which is a row of a plurality of receivers, are arranged in the space so as to face each other across the central space. during a relative movement in which the object moves relative to the line sensor in a direction transverse to the length of the line sensor to pass through;
a transmitting step of continuously or discretely operating the plurality of transmitters to transmit a plurality of signals from the transmitters;
a target receiving step for attempting to receive the emitted plurality of signals multiple times by the plurality of receivers at discrete times, thereby resulting in multiple reception events, each reception When the receiver receives two or more signals from two or more transmitters at the same time, one of the transmitters assigned in advance to correspond to each receiver on a one-to-one basis is set as a target transmitter, and the target selecting the signal emitted by the transmitter as a valid signal;
At each reception event, among the plurality of receivers, those that have received a valid signal from each of the opposite transmitters and those that have not received a valid signal are distinguished from each other, one-dimensional information is generated from the results, and the plurality of a silhouette estimating step of arranging a plurality of one-dimensional information respectively generated in each reception event to convert it into two-dimensional information, and estimating an actual silhouette of the object based on the two-dimensional information;
and an object identification step of identifying the object based on the geometric similarity between the estimated actual silhouette and a plurality of predetermined reference silhouettes.

(2) 各発信機は、固有の発信機IDを表す信号を発信するように構成され、
前記標的受信工程は、各受信機が各発信機から受信した信号から発信機IDを抽出し、各受信機が複数の発信機から同時に受信した複数の信号によってそれぞれ表される複数の発信機IDのうち、前記対向発信機に割り当てられた正規発信機IDと一致するものを表す信号を前記有効信号として選択する工程を含む(1)項に記載の物体識別方法。
(2) each transmitter is configured to emit a signal representing a unique transmitter ID;
The target receiving step extracts a transmitter ID from the signals received from each transmitter by each receiver, and a plurality of transmitter IDs, each represented by a plurality of signals received simultaneously by each receiver from a plurality of transmitters. The object identification method according to item (1), further comprising the step of selecting, as the valid signal, a signal that matches the regular transmitter ID assigned to the counter transmitter.

(3) 各受信機(例えば、ビーコン受信機)は、各発信機(例えば、ビーコン発信機)からの信号を近距離無線通信方式で受信するように構成される(1)または(2)項に記載の物体識別方法。 (3) Item (1) or (2), wherein each receiver (e.g., beacon receiver) is configured to receive a signal from each transmitter (e.g., beacon transmitter) in a short-range wireless communication scheme. The object identification method according to .

(4) 各発信機は、可視光または赤外光である光を固有の点滅パターンで発光する発光器(例えば、LED光源、レーザー光源など)であり、
各受信機は、各発光器から発光された光を受光する受光器(例えば、フォトダイオード、光センサなど)であり、
前記標的受信工程は、各受光器が受光した光から点滅パターンを抽出し、その点滅パターンを発光器IDに変換する工程を含む(1)または(2)項に記載の物体識別方法。
(4) each transmitter is a light emitter (e.g., LED light source, laser light source, etc.) that emits visible light or infrared light in a unique blinking pattern;
each receiver is a light receiver (e.g., photodiode, light sensor, etc.) that receives light emitted from each light emitter;
The object identification method according to item (1) or (2), wherein the target receiving step includes a step of extracting a blinking pattern from the light received by each light receiver and converting the blinking pattern into a light emitter ID.

(5) 前記複数の基準シルエットは、前記物体が識別される複数の候補としての複数の物体カテゴリーにそれぞれ固有な形状を有する(1)ないし(4)項のいずれかに記載の物体識別方法。 (5) The object identification method according to any one of items (1) to (4), wherein the plurality of reference silhouettes have respective shapes unique to a plurality of object categories as a plurality of candidates for identification of the object.

(6) さらに、
前記相対移動中に、前記物体が前記ラインセンサの前記中央空間を通過する際の移動速度を取得する速度取得工程を含み、
前記シルエット推定工程は、前記取得された移動速度を用いて、前記複数の1次元情報間の空間間隔を決定し、前記複数の1次元情報を、前記決定された空間間隔をあけて配列することにより、前記2次元情報に変換する(1)ないし(5)項のいずれかに記載の物体識別方法。
(6) Furthermore,
a speed acquisition step of acquiring a moving speed when the object passes through the central space of the line sensor during the relative movement;
The silhouette estimating step includes determining spatial intervals between the plurality of one-dimensional information using the acquired moving speed, and arranging the plurality of one-dimensional information at the determined spatial intervals. The object identification method according to any one of items (1) to (5), wherein the two-dimensional information is converted into the two-dimensional information.

(7) 前記複数の発信機のうち一端部に位置する端部発信機が発信した信号は、前記ラインセンサの長さ方向における前記物体の実際シルエット寸法が予め定められた上限寸法を超えない限り、前記物体によって遮断されることなく、前記複数の受信機のうち一端部に位置する端部受信機であって前記端部発信機に対向するものによって受信される(1)ないし(6)項のいずれかに記載の物体識別方法。 (7) A signal transmitted by an end transmitter located at one end of the plurality of transmitters is transmitted as long as the actual silhouette dimension of the object in the length direction of the line sensor does not exceed a predetermined upper limit dimension. , items (1) to (6) that are received by an end receiver located at one end of the plurality of receivers and facing the end transmitter without being blocked by the object The object identification method according to any one of .

(8) さらに、前記端部受信機が前記端部発信機から信号を受信しなかった場合には、前記ラインセンサの作動状態に異常があると判定する第1異常判定部を含む(7)項に記載の物体識別方法。 (8) Further including a first abnormality determination unit that determines that there is an abnormality in the operating state of the line sensor when the end receiver does not receive a signal from the end transmitter (7) 3. Object identification method according to item.

(9) さらに、前記端部受信機が前記端部発信機から信号を受信しなかった場合には、前記ラインセンサの姿勢に異常があると判定する第2異常判定部を含む(7)または(8)項に記載の物体識別方法。 (9) Further including a second abnormality determination unit that determines that there is an abnormality in the attitude of the line sensor when the end receiver does not receive a signal from the end transmitter (7) or (8) The object identification method according to the item.

(10) さらに、物体識別という本番動作に先立ち、前記ラインセンサの作動状態について故障診断を行う故障診断工程を含み、
その故障診断工程は、発信機と受信機との間の対応関係を無視して、各受信機ごとに、その受信機が、前記複数の発信機からすべての信号または一部の複数の信号を受信したか否かを判定し、すべてのまたは一部の複数の受信機が同じ発信機から信号を受信していない場合には、その発信機が故障していると判定し、一方、いずれかの受信機がいずれの発信機からも信号を受信していない場合には、そのいずれかの受信機が故障していると判定する(1)ないし(9)項のいずれかに記載の物体識別方法。
(10) Furthermore, including a failure diagnosis step of performing a failure diagnosis on the operating state of the line sensor prior to the actual operation of object identification,
The fault diagnosis process disregards the correspondence between transmitters and receivers, and for each receiver the receiver detects all or some of the signals from said transmitters. If all or some of the multiple receivers do not receive the signal from the same transmitter, it is determined that the transmitter is faulty; If the receiver does not receive a signal from any transmitter, it is determined that one of the receivers is faulty (1) to (9) object identification according to any one of items Method.

(11) (1)ないし(10)項のいずれかに記載の物体識別方法を実施するためにコンピュータによって実行されるプログラム。 (11) A program executed by a computer to carry out the object identification method according to any one of (1) to (10).

本明細書の全体を通じて、「プログラム」という用語は、例えば、それの機能を果たすためにコンピュータにより実行される指令の組合せを意味するように解釈したり、それら指令の組合せのみならず、各指令に従って処理されるファイルやデータをも含むように解釈することが可能であるが、それらに限定されない。 Throughout this specification, the term "program" shall be construed to mean, for example, the combination of instructions executed by a computer to perform its function, and the combination of those instructions as well as each instruction. can be construed to include, but not be limited to, files and data processed according to.

また、このプログラムは、それ単独でコンピュータにより実行されることにより、所期の目的を達するものとしたり、他のプログラムと共にコンピュータにより実行されることにより、所期の目的を達するものとすることができるが、それらに限定されない。後者の場合、本項に係るプログラムは、データを主体とするものとすることができるが、それに限定されない。 In addition, this program may achieve its intended purpose by being executed by a computer by itself, or may achieve its intended purpose by being executed by a computer together with other programs. They can, but are not limited to. In the latter case, the programs under this section may be data-based, but are not so limited.

(12) (11)項に記載のプログラムをコンピュータ読み取り可能に記録した記録媒体。 (12) A recording medium in which the program according to (11) is computer-readable.

本明細書の全体を通じて、「記録媒体」という用語は、種々な形式の記録媒体を意味するように解釈することが可能であり、そのような記録媒体は、例えば、フレキシブル・ディスク等の磁気記録媒体、CD、CD-ROM等の光記録媒体、MO等の光磁気記録媒体、ROM等のアンリムーバブル・ストレージ等を含むが、それらに限定されない。 Throughout this specification, the term "recording medium" can be construed to mean various types of recording medium, such as, for example, magnetic recording media such as floppy disks. Optical recording media such as CDs and CD-ROMs, magneto-optical recording media such as MOs, non-removable storages such as ROMs, etc., but are not limited to them.

(13) 前記発信機列と前記受信機列との間における前記中央空間の最低寸法は、30cm、50cm、1mまたは2mである(1)ないし(10)項のいずれかに記載の物体識別方法。 (13) The object identification method according to any one of items (1) to (10), wherein the minimum dimension of the central space between the transmitter row and the receiver row is 30 cm, 50 cm, 1 m or 2 m. .

(14) 前記物体は、自転車、自動二輪車および自動車を含む車両または移動体を含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (14) The object identification method according to any one of items (1) to (10), wherein the object includes vehicles including bicycles, motorcycles and automobiles, or moving bodies.

(15) 前記複数の基準シルエットは、車両、人間および動物のそれぞれについての複数の標準的なシルエットを含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (15) The object identification method according to any one of items (1) to (10), wherein the plurality of reference silhouettes include a plurality of standard silhouettes of vehicles, humans and animals, respectively.

(16) 前記ラインセンサは、前記物体の進行方向において互いに隔たった2か所にそれぞれ設置される第1ラインセンサおよび第2ラインセンサを含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (16) The line sensor according to any one of items (1) to (10), wherein the line sensor includes a first line sensor and a second line sensor that are respectively installed at two locations separated from each other in the traveling direction of the object. Object identification method.

(17) 前記物体は、所定の通路を進行し、
前記発信機列および前記受信機列は、前記通路を挟むように互いに対向する2か所にそれぞれ設置され、
前記物体は、その物体が前記通路を一方向に進行中に識別される(1)ないし(10)項のいずれかに記載の物体識別方法。
(17) the object advances through a predetermined path;
The transmitter row and the receiver row are respectively installed at two locations facing each other across the passage,
The object identification method according to any one of items (1) to (10), wherein the object is identified while the object is traveling through the passage in one direction.

(18) 前記通路は、開放空間と行き止まり空間とを互いに接続するように配置され、
前記物体は、前記通路を正逆双方向に進行し、
前記ラインセンサは、前記通路のうち、前記開放空間の側に設置された外側ラインセンサと、前記行き止まり空間の側に設置された内側ラインセンサとを含む(17)項に記載の物体識別方法。
(18) the passageway is arranged to connect an open space and a dead end space to each other;
The object travels forward and backward through the passage,
The object identification method according to item (17), wherein the line sensors include an outer line sensor installed on the open space side and an inner line sensor installed on the dead end space side of the passage.

(19) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別システムであって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサであって、前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動するものと、
前記発信された複数の信号を前記複数の受信機によって時間離散的に複数回受信することを試行し、それにより、結果的に複数回の受信イベントを実行する標的受信部であって、各受信機が2以上の発信機から2以上の信号を同時に受信すると、それら発信機のうち、各受信機に1対1に対応するように予め割り当てられた対向発信機を標的発信機とし、その標的発信機から発信された信号を有効信号として選択するものと、
各回の受信イベントにおいて、前記複数の受信機のうち、それぞれの対向発信機から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報を生成し、前記複数回の受信イベントにおいてそれぞれ生成された複数の1次元情報を配列することによって2次元情報に変換し、その2次元情報に基づいて前記物体の実際シルエットを推定するシルエット推定部と、
その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別部と
を含む物体識別システム。
(19) An object identification system that geometrically identifies an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor,
A line sensor in which a plurality of transmitter rows, which are rows of transmitters, and a plurality of receiver rows, which are rows of receivers, are arranged in space so as to face each other across a central space, the object moves relative to the line sensor in a direction crossing the length direction of the line sensor so as to pass through the central space;
A target receiver that attempts to receive the emitted plurality of signals multiple times by the plurality of receivers in a time-discrete manner, thereby resulting in multiple reception events; When the receiver receives two or more signals from two or more transmitters at the same time, one of the transmitters assigned in advance to correspond to each receiver on a one-to-one basis is set as a target transmitter, and the target selecting the signal emitted by the transmitter as a valid signal;
At each reception event, among the plurality of receivers, those that have received a valid signal from each of the opposite transmitters and those that have not received a valid signal are distinguished from each other, one-dimensional information is generated from the results, and the plurality of a silhouette estimating unit for arranging a plurality of one-dimensional information respectively generated in each reception event to convert it into two-dimensional information, and estimating the actual silhouette of the object based on the two-dimensional information;
an object identifier that identifies the object based on the geometric similarity between the estimated actual silhouette and a plurality of predetermined reference silhouettes.

(20) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別システムであって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサであって、前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動し、前記複数の発信機から発信された複数の信号は少なくとも部分的に前記物体によって遮断されて前記受信機列に到達しないものと、
そのラインセンサの受信結果に基づき、前記物体の実際シルエットを推定し、その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別部と
を含み、
前記物体は、車両を含み、
前記通信端末は、前記車両の乗員であるユーザによって乗車中に携帯されるか、または前記車両に搭載されており、
各発信機は、固有の発信機IDを表す信号を発信し、
前記通信端末は、前記乗車中に、前記複数の発信機からの複数の信号のうち前記車両内に進入する部分を受信し、
当該物体識別システムは、さらに、
前記通信端末と通信可能な管理サーバと、
前記複数の受信機の受信状態および/または前記物体識別部の物体識別結果を表す信号を前記管理サーバに送信することが可能な通信部と
を含み、
前記通信端末は、前記複数の発信機のうちの少なくとも1つからの信号を受信すると、その信号から発信機IDを抽出し、その発信機IDをユーザ識別情報に関連付けて前記管理サーバに送信し、
前記管理サーバは、前記ラインセンサが前記物体を検出し、かつ、その物体が車両であると識別された状態において、前記通信端末から前記発信機IDを受信すると、その発信機IDが前記ラインセンサに帰属する場合には、ユーザと前記車両とを紐付けするユーザ・車両紐付け部を含むを物体識別システム。
(20) An object identification system that geometrically identifies an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor,
A line sensor in which a plurality of transmitter rows, which are rows of transmitters, and a plurality of receiver rows, which are rows of receivers, are arranged in space so as to face each other across a central space, The object moves relative to the line sensor in a direction transverse to the length direction of the line sensor so as to pass through the central space, and the plurality of signals emitted from the plurality of transmitters are at least partially are blocked by the object and do not reach the receiver array at
estimating an actual silhouette of the object based on the received results of the line sensor, and identifying the object based on the geometric similarity between the estimated actual silhouette and a plurality of predetermined reference silhouettes; including an identification portion and
the object includes a vehicle;
The communication terminal is carried by a user who is an occupant of the vehicle while riding or is mounted on the vehicle,
each transmitter emits a signal representing a unique transmitter ID;
The communication terminal receives a portion of the plurality of signals from the plurality of transmitters that enter the vehicle during the ride,
The object identification system further comprises:
a management server communicable with the communication terminal;
a communication unit capable of transmitting a signal representing the reception status of the plurality of receivers and/or the object identification result of the object identification unit to the management server;
When receiving a signal from at least one of the plurality of transmitters, the communication terminal extracts a transmitter ID from the signal, associates the transmitter ID with user identification information, and transmits the transmitter ID to the management server. ,
When the management server receives the transmitter ID from the communication terminal in a state in which the line sensor detects the object and the object is identified as a vehicle, the management server receives the transmitter ID from the line sensor. an object identification system including a user/vehicle linking unit that links the user and the vehicle when the object belongs to.

(21)指定された施設に入場しまたはその施設から退場する車両およびその車両の使用者であるユーザをそれぞれ、物体として互いに区別した状態で、識別して管理するために、前記施設の通路に、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記通路を通過する物体をそれの進行方向に相対的にスキャンすることにより、前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものが設置され、そのラインセンサを用い、前記取得されたシルエットに基づき、前記物体が車両であるか否かを判定し、車両である場合、前記シルエットに基づいて車種を判別し、前記物体識別処理、前記判定または前記判別に時間的に連動してカメラを用いて前記車両を撮影し、その撮影された車両画像に基づいて車両番号を取得し、前記施設と、前記車種と、前記車両番号と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素を車両・ユーザ管理リストに登録する車両・ユーザ識別管理システムおよび車両・ユーザ識別管理方法。 (21) In order to identify and manage vehicles entering or exiting a designated facility and users who are users of the vehicles, respectively, in a state where they are distinguished from each other as objects, , a line sensor extending in a direction intersecting the traveling direction of an object passing through the passage, wherein the silhouette of the object is obtained by scanning the object passing through the passage relatively in its traveling direction. Then, a line sensor is installed to perform object identification processing based on the silhouette, and the line sensor is used to determine whether or not the object is a vehicle based on the acquired silhouette. The vehicle type is determined based on the silhouette, the vehicle is photographed using a camera in conjunction with the object identification processing, the determination, or the determination in terms of time, and the vehicle number is obtained based on the photographed vehicle image. , a vehicle/user identification management system and a vehicle/user identification management method for associating the facility, the vehicle type, the vehicle number, and the user ID or terminal ID with each other and registering these elements in a vehicle/user management list. .

図1は、本発明の例示的な第1の実施形態に従う物体識別システムであって出入り通路を有する駐車場に出入りする物体を識別するために実施されるもののうちのハードウエア構成を概略的に表す平面図である。FIG. 1 schematically illustrates the hardware configuration of an object identification system according to a first exemplary embodiment of the present invention implemented for identifying objects entering and exiting a parking lot having an entry/exit passageway. It is a top view showing. 図2は、図1に示す物体識別システムのうちのハードウエア構成を概略的に示す斜視図と、その物体識別システムのうちのソフトウエア構成を概念的に表す機能ブロック図とである。FIG. 2 is a perspective view schematically showing the hardware configuration of the object identification system shown in FIG. 1, and a functional block diagram conceptually showing the software configuration of the object identification system. 図3は、図2に示す外側ラインセンサおよび内側ラインセンサに共通の正面図であって、同図に示す発信機ポストから発信された複数の信号が、物体によって遮断されずに空間を透過するものと、物体によって遮断されるものとに分類される様子を説明するためのものである。FIG. 3 is a common front view of the outer line sensor and the inner line sensor shown in FIG. 2, in which a plurality of signals emitted from the transmitter post shown in the same figure pass through space without being blocked by objects; This is to explain how the objects are classified into objects and objects that are blocked by objects. 図4は、図3に示す発信機ポスト(または受信機ポスト)の内側面を示す側面図である。4 is a side view showing the inner surface of the transmitter post (or receiver post) shown in FIG. 3; FIG. 図5は、図2に示す外側ラインセンサおよび内側ラインセンサに共通の部分正面図であって、発信機ポストのうちの1つの発信機から無指向性で(例えば、放射状に)信号を発信し、その結果、その発信された信号が、その発信機に対向する対向発信機を含む複数の受信機によって同時に受信される可能性があることを説明するためのものである。5 is a partial front view common to the outer line sensor and the inner line sensor shown in FIG. 2 emitting signals omnidirectionally (e.g., radially) from a transmitter of one of the transmitter posts; , and as a result, the transmitted signal may be received simultaneously by multiple receivers, including counter-transmitters facing the transmitter. 図6は、図2に示す外側ラインセンサおよび内側ラインセンサのそれぞれにつき、複数の受信機の番号と、それら受信機にそれぞれ1対1に対応する複数の発信機の番号と、発信機ごとの複数の発信機IDとの間の関係を表形式で表す図である。FIG. 6 shows, for each of the outer line sensor and the inner line sensor shown in FIG. FIG. 4 is a diagram representing in tabular form the relationship between a plurality of transmitter IDs; 図7は、物体が図1に示す駐車場の出入り通路を一方向に進行中にその物体が外側ラインセンサによって一方向にスキャンされてその物体が識別される様子を説明するための側面図である。FIG. 7 is a side view for explaining how the object is scanned in one direction by the outer line sensor while the object is traveling in one direction through the entrance/exit passage of the parking lot shown in FIG. 1, and the object is identified. be. 図8は、物体が図7に示すように外側ラインセンサによって一方向にスキャンされる結果、前記物体について複数の1次元情報が時間離散的に生成される様子と、それら1次元情報が2次元情報に合成され、それにより、前記物体の実際シルエットが推定される様子とを概念的に表す図である。FIG. 8 shows how the object is scanned in one direction by the outer line sensor as shown in FIG. FIG. 2 conceptually represents how the information is combined with the information to thereby estimate the actual silhouette of the object. 図9は、複数の物体カテゴリーと複数の基準シルエットとの間の例示的な関係を概念的に表形式で表す図である。FIG. 9 is a conceptual tabular representation of an exemplary relationship between multiple object categories and multiple reference silhouettes. 図10は、図2に示す物体識別部において実行される例示的な物体識別プログラムを概念的に表すフローチャートである。FIG. 10 is a flow chart conceptually representing an exemplary object identification program executed in the object identification unit shown in FIG. 図11は、図2に示す入出庫判別部において実行される例示的な入出庫判別プログラムを概念的に表すフローチャートである。FIG. 11 is a flowchart conceptually showing an exemplary entering/leaving determination program executed in the entering/leaving determining unit shown in FIG. 図12(a)は、物体が図1に示す出入り通路を経て駐車場に進入する入庫ステージにおいて、外側ラインセンサおよび内側ラインセンサのそれぞれの受信状態が時系列的に変化する様子の一例を説明するための図であり、同図(b)は、物体が図1に示す出入り通路を経て駐車場から退出する出庫ステージにおいて、外側ラインセンサおよび内側ラインセンサのそれぞれの受信状態が時系列的に変化する様子の一例を説明するための図である。FIG. 12(a) illustrates an example of how the reception states of the outer line sensor and the inner line sensor change in time series at the warehousing stage in which an object enters the parking lot through the entrance/exit passage shown in FIG. FIG. 1(b) shows the reception states of the outer line sensor and the inner line sensor chronologically at the leaving stage in which the object exits the parking lot through the entrance/exit passage shown in FIG. It is a figure for demonstrating an example of a state of change. 図13は、図1に示す信号処理ユニットを表す機能ブロック図の続きである。FIG. 13 is a continuation of the functional block diagram representing the signal processing unit shown in FIG. 図14は、図13に示す第1異常判定部において実行される例示的な第1異常判定プログラムを概念的に表すフローチャートである。14 is a flowchart conceptually showing an exemplary first abnormality determination program executed in the first abnormality determination unit shown in FIG. 13. FIG. 図15は、図13に示す第2異常判定部において実行される例示的な第2異常判定プログラムを概念的に表すフローチャートである。15 is a flowchart conceptually showing an exemplary second abnormality determination program executed in the second abnormality determination section shown in FIG. 13. FIG. 図16は、図13に示す故障診断部において実行される例示的な故障診断プログラムを概念的に表すフローチャートである。16 is a flow chart conceptually representing an exemplary fault diagnosis program executed in the fault diagnosis unit shown in FIG. 13. FIG. 図17は、図2に示す管理サーバにおいて実行される例示的な駐車場管理プログラムを、ユーザの通信端末において実行される駐車場利用プログラムと共に概念的に表すフローチャートである。FIG. 17 is a flowchart conceptually representing an exemplary parking lot management program executed in the management server shown in FIG. 2 together with a parking lot utilization program executed in a user's communication terminal. 図18は、本発明の例示的な第2の実施形態に従う物体識別システムのうちの外側ラインセンサの正面図であって、同図に示す発信機ポストから発信された複数の信号が、車両のアウタパネルによって遮断されずに空間を透過して受信機ポストに到達するものと、車両のアウタパネルによって遮断されるものと、車両の窓ガラスを透過してその車室内に進入して乗員としてのユーザの通信端末によって受信されるものとに分類される様子を、上記物体識別システムのうちのソフトウエア構成を概念的に表す機能ブロック図と共に示すものである。FIG. 18 is a front view of an outer line sensor of an object identification system according to a second exemplary embodiment of the present invention, wherein a plurality of signals emitted from the transmitter post shown in FIG. Those that pass through the space without being blocked by the outer panel and reach the receiver post, those that are blocked by the outer panel of the vehicle, those that pass through the window glass of the vehicle and enter the vehicle interior, and the user as a passenger. FIG. 10 shows how data is classified into data received by a communication terminal and a functional block diagram conceptually representing the software configuration of the object identification system. 図19は、図18に示すユーザ・車両紐付け部において実行される例示的なユーザ・車両紐付けプログラムを、ユーザの通信端末において実行されるユーザ特定支援プログラムと共に概念的に表すフローチャートである。FIG. 19 is a flow chart conceptually representing an exemplary user-vehicle tying program executed in the user-vehicle tying unit shown in FIG. 18 together with a user identification support program executed in the user's communication terminal. 図20は、図18に示すユーザ・車両紐付け部によって作成される例示的なユーザ・車両紐付けリストを表形式で概念的に表す図である。FIG. 20 is a diagram conceptually representing an exemplary user/vehicle linking list created by the user/vehicle linking unit shown in FIG. 18 in tabular form. 図21(a)は、本発明の例示的な第3の実施形態に従う物体識別システムであって出入り通路を有する駐車場に出入りする物体を識別するために実施されるもののうちのハードウエア構成を概略的に表す側面図であり、同図(b)は、前記駐車場における物体としての車両およびユーザが入庫段階および出庫段階においてそれぞれ取り得る一連のフェーズを、参照図面の番号と共に表形式で示す図である。FIG. 21(a) illustrates the hardware configuration of an object identification system according to a third exemplary embodiment of the present invention implemented for identifying objects entering and exiting a parking lot having an entry/exit passageway. FIG. 2B is a schematic side view showing, in tabular form, a series of phases that can be taken by a vehicle and a user as objects in the parking lot during an entry stage and an exit stage, respectively, together with reference drawing numbers; It is a diagram. 図22は、図21に示す信号処理ユニットが入庫時に実行する第1物体識別・段階判定プログラムを概念的に表すフローチャートである。FIG. 22 is a flow chart conceptually representing a first object identification/stage determination program executed by the signal processing unit shown in FIG. 21 at the time of warehousing. 図23は、図21に示すユーザ端末が入場時および退場時に実行する駐車場識別プログラムを概念的に表すフローチャートである。FIG. 23 is a flowchart conceptually showing a parking lot identification program executed by the user terminal shown in FIG. 21 when entering and exiting. 図24は、図21に示す管理サーバが入庫時に実行する第1紐付け・登録プログラムを概念的に表すフローチャートである。FIG. 24 is a flow chart conceptually representing a first linking/registration program executed by the management server shown in FIG. 21 at the time of warehousing. 図25は、図21に示す管理サーバが車両情報およびユーザ情報を紐付け管理するための使用する車両・ユーザ管理リストを概念的に表形式で表す図である。FIG. 25 is a diagram conceptually representing, in tabular form, a vehicle/user management list used by the management server shown in FIG. 21 to link and manage vehicle information and user information. 図26は、図21に示す信号処理ユニットがユーザ単独退場時に実行する第2物体識別・段階判定プログラムを概念的に表すフローチャートである。26 is a flowchart conceptually showing a second object identification/stage determination program executed by the signal processing unit shown in FIG. 21 when the user leaves alone. 図27は、図21に示す管理サーバがユーザ単独退場時に実行する第2紐付け・登録プログラムを概念的に表すフローチャートである。27 is a flowchart conceptually showing a second linking/registration program executed by the management server shown in FIG. 21 when the user leaves alone. 図28は、図21に示す信号処理ユニットがユーザ単独入場時に実行する第3物体識別・段階判定プログラムを概念的に表すフローチャートである。FIG. 28 is a flow chart conceptually representing a third object identification/stage determination program executed by the signal processing unit shown in FIG. 21 when the user enters alone. 図29は、図21に示す管理サーバがユーザ単独入場時に実行する第3紐付け・登録プログラムを概念的に表すフローチャートである。FIG. 29 is a flowchart conceptually showing a third linking/registration program executed by the management server shown in FIG. 21 when the user enters alone. 図30は、図21に示す信号処理ユニットが出庫時に実行する第4物体識別・段階判定プログラムを概念的に表すフローチャートである。FIG. 30 is a flow chart conceptually representing a fourth object identification/stage determination program executed by the signal processing unit shown in FIG. 21 when leaving the garage.

以下、本発明のさらに具体的な例示的な実施の形態のうちのいくつかを図面に基づいて詳細に説明する。 Below, some of the more specific exemplary embodiments of the present invention will be described in detail based on the drawings.

[第1の実施形態] [First embodiment]

図1には、本発明の例示的な第1の実施形態に従う物体識別システム10(以下、単に「システム10」という。)のうちのハードウエア構成が概略的に平面図で表されている。このシステム10は、本発明の例示的な一実施形態に従う物体識別方法を実施するように設計されたものである。 FIG. 1 schematically shows a plan view of the hardware configuration of an object identification system 10 (hereinafter simply referred to as "system 10") according to the first exemplary embodiment of the present invention. This system 10 is designed to implement an object identification method according to an exemplary embodiment of the present invention.

このシステム10は、本実施形態においては、駐車場20を無人でかつ遠隔的に管理する駐車場管理システム1000の一部に組み込まれている。 In this embodiment, the system 10 is incorporated as part of a parking lot management system 1000 that manages the parking lot 20 unmanned and remotely.

概略的に説明するに、このシステム10は、3次元の物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別するように設計されている。 Briefly, the system 10 is designed to geometrically identify a three-dimensional object in a non-contact, non-camera manner by scanning the object in one direction with a line sensor. there is

このシステム10は、駐車場20に出入りする物体が車両30であるのか、人間であるのか、動物であるのかを識別するために実施される。駐車場20は、複数の車両を収容可能な複数の車室32を有する内側領域(行き止まり空間)34と、駐車場20に隣接する道路36である外側領域(開放空間)38とを互いに接続する出入り通路40を有する。 This system 10 is implemented to identify whether an object entering or exiting a parking lot 20 is a vehicle 30, a human being, or an animal. The parking lot 20 connects an inner area (dead-end space) 34 having a plurality of compartments 32 that can accommodate multiple vehicles, and an outer area (open space) 38 which is a road 36 adjacent to the parking lot 20. It has an ingress/egress passage 40 .

車両30は、駐車場20への入庫時にも駐車場20からの出庫時にも、共通の出入り通路40に沿って進行する。具体的には、車両30は、入庫時には、出入り通路40を一方向に(外側から内側に向かう向き)に進行し、一方、出庫時には、出入り通路40を逆方向に(内側から外側に向かう向き)に進行する。 A vehicle 30 travels along a common entrance/exit path 40 both when entering the parking lot 20 and when leaving the parking lot 20.例文帳に追加Specifically, the vehicle 30 travels in one direction (from the outside to the inside) in the entrance/exit passage 40 when entering the garage, and moves in the opposite direction (from the inside to the outside) in the entrance/exit passage 40 when leaving the garage. ).

図1に示すように、このシステム10は、出入り通路40のうち、外側領域38の側に設置された外側ラインセンサ50と、内側領域34の側に設置された内側ラインセンサ52とを備えている。外側ラインセンサ50も内側ラインセンサ52も、駐車場20の支持面(例えば、路面や地面など)54に、その支持面54から概して垂直に延びる正立姿勢で設置されている。 As shown in FIG. 1, the system 10 includes an outer line sensor 50 located on the side of the outer region 38 of the access passage 40 and an inner line sensor 52 located on the side of the inner region 34. there is Both the outer line sensor 50 and the inner line sensor 52 are mounted on a support surface 54 of the parking lot 20 (eg, road surface, ground, etc.) in an upright position extending generally perpendicularly from the support surface 54 .

図2および図3に示すように、外側ラインセンサ50についても内側ラインセンサ52についても、複数の発信機60の列である発信機列がハウジング74内に収容されて成る発信機ポスト62と、複数の受信機70の列である受信機列がハウジング76内に収容されて成る受信機ポスト72とが中央空間77を隔てて互いに対向するように空間上に配置されて構成されている。発信機ポスト62も受信機ポスト72も、複数のセンサ素子(この用語は、発信機60および受信機70を総称するために使用される)が1次元的に(例えば、真っ直ぐかまたは曲がった中心線に沿って)配列されて構成されている。 As shown in FIGS. 2 and 3, for both the outer line sensor 50 and the inner line sensor 52, a transmitter post 62 having a transmitter row, which is a row of a plurality of transmitters 60, housed in a housing 74; A receiver post 72 in which a receiver row, which is a row of a plurality of receivers 70 , is accommodated in a housing 76 is arranged in space so as to face each other across a central space 77 . Both transmitter post 62 and receiver post 72 have a plurality of sensor elements (this term is used collectively for transmitter 60 and receiver 70) that are linearly (e.g., straight or curved) centered. arranged and configured along a line).

さらに、外側ラインセンサ50についても内側ラインセンサ52についても、複数の発信機60と複数の受信機70とのうち互いにペアを成す1つの発信機60と1つの受信機70とは、図3に示すように、水平方向において互いに対向するように配置されている。 Furthermore, for both the outer line sensor 50 and the inner line sensor 52, among the plurality of transmitters 60 and the plurality of receivers 70, one transmitter 60 and one receiver 70 paired with each other are shown in FIG. As shown, they are arranged to face each other in the horizontal direction.

発信機ポスト62および受信機ポスト72は、それぞれ、支持面54から概して垂直に延びる柱状のハウジング74および76を有し、それらハウジング74および76内にそれぞれ、複数の発信機60および複数の受信機70が防水機能を有するように(雨水、水たまりの侵入によって故障しないように)収容されている。 Transmitter post 62 and receiver post 72 have columnar housings 74 and 76, respectively, extending generally perpendicularly from support surface 54, and within housings 74 and 76, respectively, a plurality of transmitters 60 and a plurality of receivers. 70 is housed so as to have a waterproof function (so as not to fail due to intrusion of rainwater or puddles).

本実施形態においては、発信機60も受信機70も、非可視光(例えば、電波)を用いて通信を行うタイプのセンサ素子(例えば、ビーコン発信機およびビーコン受信機)であるが、それに代えて、可視光、赤外光、音波または超音波を用いるタイプのセンサ素子、例えば、LED光源および光センサの組合せ、赤外光源および赤外センサの組合せ、レーザー光源および光センサの組合せや、音波発生器および音波センサの組合せなどを用いてもよい。すなわち、発信機60は、電磁波出射素子の一例であり、これに対し、受信機70は、電磁波入射素子の一例なのである。 In this embodiment, both the transmitter 60 and the receiver 70 are sensor elements (e.g., beacon transmitter and beacon receiver) that communicate using invisible light (e.g., radio waves). and sensor elements of the type that use visible light, infrared light, sound waves or ultrasonic waves, such as a combination of an LED light source and light sensor, a combination of an infrared light source and an infrared sensor, a combination of a laser light source and light sensor, or a combination of sound waves. Combinations of generators and sonic sensors, and the like, may also be used. That is, the transmitter 60 is an example of an electromagnetic wave emission element, and the receiver 70 is an example of an electromagnetic wave incidence element.

一例においては、各発信機60が、可視光または赤外光である光を固有の点滅パターンで発光する発光器60である。これに対し、各受信機70は、各発光器60から発光された光を受光する受光器70である。この場合、標的受信部108は、各受光器70が受光した光から点滅パターンを抽出し、その点滅パターンを発光器IDに変換し、それにより、その受光した光を発光した発光器60が、対向発光器(正規発信機の一例)すなわち正規発光器(正規発信機の一例)であるか否かを判定する。 In one example, each transmitter 60 is a light emitter 60 that emits light, visible or infrared, in a unique blinking pattern. On the other hand, each receiver 70 is a light receiver 70 that receives light emitted from each light emitter 60 . In this case, the target receiver 108 extracts a blinking pattern from the light received by each light receiver 70 and converts the blinking pattern into a light emitter ID so that the light emitter 60 that emitted the received light It is determined whether or not it is a facing light emitter (an example of an authorized transmitter), that is, an authorized light emitter (an example of an authorized transmitter).

図3に正面図で示すように、複数の発信機60は、物体識別動作中、それぞれ複数の信号を一斉に発信する。それら信号のうち、車両30によって遮断される部分は、対向する受信機70に入射せず、一方、車両30によって遮断されない部分は、中央空間77内を透過して、対向する受信機70に入射する。 As shown in the front view of FIG. 3, the multiple transmitters 60 simultaneously transmit multiple signals during the object identification operation. The portion of those signals that is blocked by the vehicle 30 does not enter the opposing receiver 70, while the portion that is not blocked by the vehicle 30 is transmitted through the central space 77 and enters the opposing receiver 70. do.

図4に側面図で示すように、外側ラインセンサ50についても内側ラインセンサ52についても、また、発信機ポスト62も受信機ポスト72も、一列に並んだ複数のセンサ素子60,70のうちの最上端のもの(最上端発信機(前記「端部発信機」の一例)60および最上端受信機(前記「端部受信機」の一例)70)は、図2および図3に示すように、サイズ的に適合するすべての種類の車両30について、最上端発信機60が発信した信号が最上端受信機70によって受信されるように、最上端発信機60および最上端受信機70の高さ方向位置が選択されている。 As shown in side view in FIG. 4, both the outer line sensor 50 and the inner line sensor 52, as well as the transmitter post 62 and the receiver post 72, are one of the plurality of sensor elements 60, 70 arranged in a line. The top end (top end transmitter (an example of the "end transmitter") 60 and top end receiver (an example of the "end receiver") 70) are arranged as shown in FIGS. , the height of the top transmitter 60 and the top receiver 70 such that the signal emitted by the top transmitter 60 is received by the top receiver 70 for all types of vehicles 30 that fit in size A direction position is selected.

したがって、最上端発信機60が発信した信号は、各ラインセンサ50,52の長さ方向における物体30の実際シルエット寸法が予め定められた上限寸法を超えない限り、物体30によって遮断されることなく、最上端受信機70であって最上端発信機60に対向するものによって受信される。 Therefore, the signal transmitted by the top end transmitter 60 is not interrupted by the object 30 unless the actual silhouette dimension of the object 30 in the length direction of each line sensor 50, 52 exceeds the predetermined upper limit dimension. , is received by the topmost receiver 70 opposite the topmost transmitter 60 .

さらに、図4に側面図で示すように、外側ラインセンサ50についても内側ラインセンサ52についても、また、発信機ポスト62も受信機ポスト72も、一列に並んだ複数のセンサ素子60,70のうちの最下端のもの(最下端発信機60および最下端受信機70)は、すべての種類の車両30について、その車両30のタイヤ(車輪、ホイール)78がラインセンサ50,52を通過する際に、最下端発信機60から発信した信号がタイヤ78によって遮断されて最下端受信機70によって受信されないように、最下端発信機60および最下端受信機70の高さ方向位置が選択されている。これにより、車両30のうち、タイヤ78が各ラインセンサ50,52を通過したタイミングを検出することが可能である。 Further, as shown in side view in FIG. 4, both the outer line sensor 50 and the inner line sensor 52, as well as the transmitter post 62 and the receiver post 72, have a plurality of sensor elements 60, 70 arranged in a row. The bottommost one (the bottommost transmitter 60 and the bottommost receiver 70) is for all kinds of vehicles 30, when the tire (wheel, wheel) 78 of the vehicle 30 passes the line sensors 50, 52 Also, the heightwise positions of the lowest transmitter 60 and the lowest receiver 70 are selected such that the signals emitted from the lowest transmitter 60 are blocked by the tires 78 and not received by the lowest receiver 70. . Thereby, it is possible to detect the timing at which the tire 78 of the vehicle 30 passes through each of the line sensors 50 and 52 .

図5に正面図で示すように、外側ラインセンサ50についても内側ラインセンサ60についても、発信機ポスト62のうちの各発信機60が無指向性で(例えば、放射状に)信号を発信する。そのため、1つの発信機60から発信された信号が、その発信機60に対向する対向受信機(例えば、1つの対向受信機)70のみならず、その周辺に位置する複数の受信機70によっても、同時に受信される可能性がある。 As shown in front view in FIG. 5, for both outer line sensor 50 and inner line sensor 60, each transmitter 60 of transmitter posts 62 emits signals omnidirectionally (eg, radially). Therefore, a signal transmitted from one transmitter 60 can be received not only by a counter receiver (for example, one counter receiver) 70 facing the transmitter 60 but also by a plurality of receivers 70 located around it. , may be received at the same time.

その可能性を排除するために、本実施形態においては、各受信機70ごとに標的受信が行われる。具体的には、各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、それら発信機60のうち、各受信機70に1対1に対応するように予め割り当てられた対向発信機60から発信された信号を有効信号として選択し、それ以外の信号は無効信号として除外する信号処理が行われる。これは、フィリタリング処理とも称される。 To eliminate that possibility, targeted reception is performed for each receiver 70 in this embodiment. Specifically, when each receiver 70 receives two or more signals from two or more transmitters 60 at the same time, one of the transmitters 60 is assigned in advance so as to correspond to each receiver 70 on a one-to-one basis. Signal processing is performed to select the signal transmitted from the opposite transmitter 60 as a valid signal and exclude other signals as invalid signals. This is also called a filtering process.

これに関連し、図6には、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、複数の受信機70の番号と、それら受信機70にそれぞれ1対1に対応する複数の発信機(正規発信機)60の番号と、発信機60ごとの複数の発信機ID(正規発信機ID)との間の関係が表形式で表されている。 In this regard, FIG. 6 shows the numbers of a plurality of receivers 70 for each of the outer line sensor 50 and the inner line sensor 52, and a plurality of transmitters (regular The relationship between the numbers of the transmitters) 60 and a plurality of transmitter IDs (regular transmitter IDs) for each transmitter 60 is represented in tabular form.

具体的には、上述の標的受信においては、各受信機70ごとに、それに対応する1つの対向発信機60と、その対向発信機60に割り当てられた発信機IDすなわち正規発信機IDとを決定する。各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、それら発信機60のうち、正規発信機IDを表す信号を有効信号として選択する一方、それ以外の信号を無視する。これを、ソフト的なフィルタリング処理とも称する。 Specifically, in the above-described target reception, for each receiver 70, one counter transmitter 60 corresponding to it and a transmitter ID assigned to that counter transmitter 60, that is, a regular transmitter ID are determined. do. When each receiver 70 simultaneously receives two or more signals from two or more transmitters 60, it selects the signal representing the regular transmitter ID from those transmitters 60 as an effective signal, while ignoring the other signals. . This is also called software filtering processing.

すなわち、上述の標的受信においては、各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、1つの正規発信機IDを割り当てられた1つの対向発信機60を1つの標的発信機60に選択し、事実上、その標的発信機60のみから信号を受信することを試行するのである。 That is, in the target reception described above, when each receiver 70 simultaneously receives two or more signals from two or more transmitters 60, one counter transmitter 60 assigned one regular transmitter ID is used as one target. Select a transmitter 60 and effectively attempt to receive a signal from only that target transmitter 60 .

これに対し、ランダム受信とは、各受信機70が、いずれの発信機60が前述の正規発信機であるか否かを無視して、ランダムに受信した少なくとも1つの信号をそれぞれ少なくとも1つの実発信機IDに変換して、各受信機70に、その少なくとも1つの実発信機IDを割り当てることを意味する。 On the other hand, random reception means that each receiver 70 ignores whether or not any of the transmitters 60 is the above-mentioned regular transmitter, and converts at least one randomly received signal into at least one actual signal. It means assigning each receiver 70 its at least one real transmitter ID in terms of transmitter IDs.

本実施形態においては、複数の受信機70に対し、上述の標的受信が、最上端受信機70から最下端受信機70に向かって(これとは逆向きでもよいし、別の向きでもよい)順次行われるが、これは、外側ラインセンサ50と物体30との間の相対移動が物理的なスキャン(x方向スキャン、前後方向スキャン)と称される場合には、外側ラインセンサ50すなわち複数の受信機70に対するソフト的なスキャン(y方向スキャン、垂直方向スキャン)と称される。 In this embodiment, for a plurality of receivers 70, the target reception described above is directed from the topmost receiver 70 to the bottommost receiver 70 (or vice versa, or in another direction). Sequentially, this means that the outer line sensor 50, i.e. the plurality of This is called soft scanning (y direction scanning, vertical direction scanning) for the receiver 70 .

なお、本実施形態においては、内側ラインセンサ52が、外側ラインセンサ50と共通の構成を有するように設計される。しかし、本実施形態においては、専ら外側ラインセンサ50を用いて物体識別が行われる。ただし、これに代えて、専ら内側ラインセンサ52を用いて物体識別が行われる態様で本発明を実施してもよいし、また、双方のラインセンサ50および52を用いて物体識別が行われる態様で本発明を実施してもよい。 In addition, in this embodiment, the inner line sensor 52 is designed to have a common configuration with the outer line sensor 50 . However, in this embodiment, the outer line sensor 50 is exclusively used for object identification. However, instead of this, the present invention may be implemented in a mode in which object identification is performed exclusively using the inner line sensor 52, or in a mode in which both line sensors 50 and 52 are used to perform object identification. The present invention may be implemented in

よって、内側ラインセンサ52は、後述のように、入出庫判別を外側ラインセンサ50と共同して行うために必要最低限の構成を有するように、外側ラインセンサ50より単純化して(例えば、互いに対向する発信機60および受信機70より成るセンサ素子対(透過型対向センサ素子)の数を1つとか複数とか、外側ラインセンサ50におけるセンサ素子対の数より減らす)設計してもよい。 Therefore, the inner line sensor 52 is simplified from the outer line sensor 50 (e.g., mutually The number of sensor element pairs (transmissive opposed sensor elements) consisting of opposed transmitters 60 and receivers 70 may be designed to be one or more, or less than the number of sensor element pairs in the outer line sensor 50).

前述のように、このシステム10は、3次元の物体30を外側ラインセンサ50で一方向に物理的にスキャンすることにより、カメラを用いずに非接触式で物体30を形状的に識別するように設計されている。 As previously described, the system 10 is designed to geometrically identify an object 30 in a non-contact, non-camera manner by physically scanning the three-dimensional object 30 in one direction with the outer line sensor 50. is designed to

具体的には、図7に側面図で示すように、物体の一例としての車両30が駐車場20の出入り通路40を一方向に進行中にその車両30が外側ラインセンサ50によって一方向にスキャンされてその車両30が識別される。 Specifically, as shown in the side view of FIG. 7, while a vehicle 30, which is an example of an object, is traveling in one direction through the entrance/exit passage 40 of the parking lot 20, the vehicle 30 is scanned in one direction by the outside line sensor 50. and the vehicle 30 is identified.

移動体としての車両30が、静止物体としての外側ラインセンサ50に対して相対的に、中央空間77を通過するように移動することにより、車両30が外側ラインセンサ50の長さ方向と交差する方向(スキャン方向)において外側ラインセンサ50に対して相対的に移動する相対移動が実現される。 When the vehicle 30 as a moving body moves through the central space 77 relative to the outer line sensor 50 as a stationary object, the vehicle 30 intersects the length direction of the outer line sensor 50. A relative movement is achieved that moves relative to the outer line sensor 50 in a direction (scanning direction).

図8に、各受信機70ごとの受信の有無をドットパターン(受信機70ごとに、信号遮断による非受信状態、すなわち、受信機70のオフ(OFF)状態がドットで示される)で示すように、車両30が外側ラインセンサ50によって一方向にスキャンされる結果、車両30について複数の1次元情報が時間離散的に生成される。それら1次元情報は、所定のサンプリング周期Δtで順次生成される。 In FIG. 8, the presence or absence of reception for each receiver 70 is indicated by a dot pattern (for each receiver 70, the non-receiving state due to signal interruption, that is, the off (OFF) state of the receiver 70 is indicated by dots). As a result of the vehicle 30 being scanned in one direction by the outer line sensor 50, a plurality of one-dimensional information about the vehicle 30 is generated discretely in time. The one-dimensional information is sequentially generated at a predetermined sampling period Δt.

図8に示す例において、時刻tは、図7に示す例における時刻tに関連付けられる。図7においては、物体30のうち、時刻tで示す部位が外側ラインセンサ50によって測定されたときに取得される1次元情報がドットパターンで図8に示されている。同様に、図8において時刻tは、図7において時刻tで示す部位に関連付けられる。他の時刻tおよびtについても同様である。 In the example shown in FIG. 8, time t1 is related to time t1 in the example shown in FIG. In FIG. 7, one-dimensional information acquired when the portion indicated by time t1 of the object 30 is measured by the outer line sensor 50 is shown in FIG. 8 as a dot pattern. Similarly, time t2 in FIG. 8 is associated with the site indicated by time t2 in FIG. The same is true for other times t3 and t4 .

さらに、図8に示すように、上述の一方向スキャンによって生成された複数の1次元情報(1本のドット列)が2次元情報(複数本のドット列)に合成され、それにより、物体30の実際シルエットが推定される。その実際シルエットの形状は、例えば、2次元情報を表す複数個のドットに外接する包絡線によって表現される。 Furthermore, as shown in FIG. 8, a plurality of one-dimensional information (one dot row) generated by the above-described unidirectional scanning are combined with two-dimensional information (a plurality of dot rows), thereby forming the object 30 is estimated. The shape of the actual silhouette is represented, for example, by an envelope circumscribing a plurality of dots representing two-dimensional information.

複数の1次元情報の合成は、それら1次元情報をそれらに共通の空間間隔で均等に配列することによって行ってもよい。そのときの空間間隔の長さは、固定値であっても、物体30の移動速度の測定値に応じて設定される可変値であってもよい。 Combining a plurality of one-dimensional information may be performed by evenly arranging the one-dimensional information at their common spatial intervals. The length of the spatial interval at that time may be a fixed value or a variable value set according to the measured value of the moving speed of the object 30 .

これに代えて、物体30の移動速度(例えば、車両走行速度、車速)を、1次元情報のサンプリング・タイミングと概して同じタイミングで取得し、取得された複数の実際速度に応じた複数の空間間隔で不均等に複数の1次元情報を配列してもよい。 Alternatively, the moving speed of the object 30 (e.g., vehicle running speed, vehicle speed) is obtained at generally the same timing as the sampling timing of the one-dimensional information, and a plurality of spatial intervals corresponding to the obtained plurality of actual speeds are obtained. A plurality of one-dimensional information may be arranged unevenly.

具体的には、前記取得された複数の移動速度を用いて、複数の1次元情報間の空間間隔を決定し、それら1次元情報を、前記決定された空間間隔をあけて配列することにより、2次元情報に変換してもよい。 Specifically, by using the acquired plurality of moving speeds to determine the spatial interval between the plurality of one-dimensional information, and arranging the one-dimensional information at the determined spatial interval, It may be converted into two-dimensional information.

前述のように、このシステム10は、駐車場20に出入りする物体30が車両であるのか、人間であるのか、動物であるのかを識別するために実施される。一方、物品識別のため、複数の基準シルエットが用意され、上述のようにして推定された実際シルエットが、それら基準シルエットのうちのいずれに、最も形状が似ているか否かが判定され、最も近似している基準シルエットに対応する物体カテゴリーが、今回の物体30であると判別される。 As previously mentioned, the system 10 is implemented to identify whether an object 30 entering or exiting a parking lot 20 is a vehicle, a person, or an animal. On the other hand, a plurality of reference silhouettes are prepared for article identification, and it is determined to which of these reference silhouettes the actual silhouette estimated as described above is most similar in shape. It is determined that the object category corresponding to the reference silhouette that is running is the current object 30 .

そのため、本実施形態においては、図9に例示するように、複数の基準シルエットが、車両、人間(例えば、縦に細長い単純な形状のシルエット)および動物(例えば、横に細長い単純な形状のシルエット)のそれぞれについての複数の標準的なシルエットを含む。 Therefore, in the present embodiment, as illustrated in FIG. 9, a plurality of reference silhouettes include a vehicle, a human (for example, a silhouette with a simple vertically elongated shape), and an animal (for example, a silhouette with a simple horizontally elongated shape). ) for each of the standard silhouettes.

実際シルエットと各基準シルエットとの間の形状に関する近似度(または類似度)は、例えば、各基準シルエットごとに、実際シルエットと各基準シルエットとの間の形状近似度を計算する。その形状近似度は、例えば、実際シルエットを表すビットマップデータと、各基準シルエットを表すビットマップデータとが互いにオーバーラップする領域を占有する複数個のビットの数として計算することが可能である。 For the degree of approximation (or degree of similarity) regarding the shape between the actual silhouette and each reference silhouette, for example, the degree of shape approximation between the actual silhouette and each reference silhouette is calculated for each reference silhouette. The degree of shape approximation can be calculated, for example, as the number of bits occupying the overlapping region between the bitmap data representing the actual silhouette and the bitmap data representing each reference silhouette.

さらに、実際シルエットと各基準シルエットとの間の形状近似度を計算する際に、実際シルエットのベースライン(支持面54の位置を表す)と各基準シルエットのベースラインとが互いに一致するように、実際シルエットと各基準シルエットとがビットマップメモリ上で重ね合わせられる。その結果、実際シルエットと各基準シルエットとが、垂直方向(y方向)に関して相対的に位置決めされる。これに対し、水平方向(x方向)に関する相対的な位置決めは、実際シルエットと各基準シルエットとの重なり面積が最大化するように、計算により、行われる。 Furthermore, when calculating the degree of shape approximation between the actual silhouette and each reference silhouette, so that the baseline of the actual silhouette (which represents the position of the support surface 54) and the baseline of each reference silhouette match each other: The actual silhouette and each reference silhouette are superimposed on the bitmap memory. As a result, the actual silhouette and each reference silhouette are positioned relative to each other in the vertical direction (y-direction). On the other hand, the relative positioning in the horizontal direction (x-direction) is calculated so as to maximize the overlapping area between the actual silhouette and each reference silhouette.

さらに、各基準シルエットごとに、実際シルエットの倍率を変えながら各基準シルエットとの間の形状近似度を最大化し、その最大値を代表近似度とする。その基準シルエットの代表近似度を、残りの基準シルエットについて同様にして計算された代表近似度と比較し、すべての基準シルエットのうち、最大の代表近似度が取得されたものに対応する物体カテゴリーとして今回の物体30を識別する。 Further, for each reference silhouette, the degree of shape approximation with respect to each reference silhouette is maximized while changing the magnification of the actual silhouette, and the maximum value is taken as the degree of representative approximation. The representative approximation of that reference silhouette is compared with the representative approximation similarly calculated for the remaining reference silhouettes, and the object category corresponding to the one for which the maximum representative approximation is obtained among all the reference silhouettes is The current object 30 is identified.

図9には、複数の物体カテゴリーと複数の基準シルエットとの間の例示的な関係が概念的に表形式で表されている。同図に示すように、人間のための基準シルエットは、(例えば、縦に細長い単純な形状のシルエットである。また、動物のための基準シルエットは、例えば、横に細長い単純な形状のシルエットである。各基準シルエットは、支持面54を表す直線をベースラインとし、そのベースラインを基準に相対的に位置決めされる。 An exemplary relationship between multiple object categories and multiple reference silhouettes is conceptually represented in tabular form in FIG. As shown in the figure, a reference silhouette for humans is a silhouette of a simple vertically elongated shape, and a reference silhouette for an animal is a silhouette of a simple horizontally elongated shape, for example. Each reference silhouette has a straight line representing the support surface 54 as a baseline and is positioned relative to the baseline.

図9に示す例においては、車両の複数の基準シルエットとして、複数の標準的なシルエット(車両をその形状から標準的に分類する際に使用される形状上の分類に従う)が選択されている。しかし、これに代えて、車種ごとの複数の個別シルエットを選択してもよい。そうすれば、物体30が車両として識別される場合に、さらに、その車両30がいずれの車種(例えば、さらに車両メーカー名も)であるかについても識別することが可能となる。 In the example shown in FIG. 9, standard silhouettes (according to the geometrical classification used in standardizing vehicles by their shape) are selected as the reference vehicle silhouettes. However, instead of this, a plurality of individual silhouettes for each vehicle type may be selected. By doing so, when the object 30 is identified as a vehicle, it is possible to further identify which vehicle type (for example, the name of the vehicle manufacturer) the vehicle 30 is.

図2の下側には、このシステム10のうちのソフトウエア構成が機能ブロック図で概念的に表されている。 At the bottom of FIG. 2, the software configuration of this system 10 is conceptually represented as a functional block diagram.

ユーザは、通信端末90を使用する。その通信端末90は、ユーザによって携帯されるとともに無線通信機能を有するデバイス、例えば、携帯電話機、スマートフォン、ラップトップ型コンピュータ、タブレット型コンピュータ、PDAなどでもよい。これに代えて、通信端末90は、ユーザによって携帯されないもの、例えば、車両30に搭載される車載通信端末、車載コンピュータであってもよい。 A user uses the communication terminal 90 . The communication terminal 90 may be a device carried by the user and having a wireless communication function, such as a mobile phone, a smart phone, a laptop computer, a tablet computer, a PDA, and the like. Alternatively, the communication terminal 90 may be one that is not carried by the user, such as an in-vehicle communication terminal or an in-vehicle computer mounted on the vehicle 30 .

このシステム10は、各ラインセンサ50,52のうちの発信機ポスト62,62および受信機ポスト72,72にそれぞれ接続された信号処理ユニット100を有する。この信号処理ユニット100は、各ラインセンサ50,52のうちの受信機ポスト72,72からの複数の信号に基づき、物体識別および入出庫判別を行うように構成されている。 The system 10 has a signal processing unit 100 connected to transmitter posts 62,62 and receiver posts 72,72 of each line sensor 50,52, respectively. The signal processing unit 100 is configured to perform object identification and entry/exit determination based on a plurality of signals from the receiver posts 72 and 72 of the line sensors 50 and 52 .

具体的には、信号処理ユニット100は、ハードウエア構成上、コンピュータ(プロセッサ)160と、メモリ162とを含むように構成される。メモリ162は、図6に例示的に示す関係を保存する第1保存部102と、図9に例示的に示す関係を保存する第2保存部104とを有する。 Specifically, the signal processing unit 100 is configured to include a computer (processor) 160 and a memory 162 in terms of hardware configuration. The memory 162 has a first storage unit 102 that stores the relationships illustrated in FIG. 6 and a second storage unit 104 that stores the relationships illustrated in FIG.

信号処理ユニット100は、さらに、複数の発信機60を一斉にかつ連続的に(時間離散的にでも可)作動させる発信部106と、前述の標的受信を行うための標的受信部(フィルタリング部を含む)108とを有する。 The signal processing unit 100 further includes a transmitter 106 that operates the plurality of transmitters 60 all at once and continuously (or discretely in time), and a target receiver (filtering unit) for performing target reception. ) 108.

信号処理ユニット100は、さらに、標的受信部108による受信結果に基づいて車両30の実際シルエットを推定するためのシルエット推定部110と、その推定された実際シルエットに基づいて物体30の識別を行う物体識別部112とを有する。 The signal processing unit 100 further comprises a silhouette estimator 110 for estimating the actual silhouette of the vehicle 30 based on the reception result by the target receiver 108, and an object estimator 110 for identifying the object 30 based on the estimated actual silhouette. and an identification unit 112 .

信号処理ユニット100は、さらに、2つのラインセンサ50および52を用いて車両30(物体30が車両であると識別された後に)が入庫ステージにあるのか出庫ステージにあるのかを判別する入出庫判別部114と、物体30の移動速度を取得するための速度取得部116とを有するように構成されている。その取得された移動速度は、例えば、シルエット推定部110により、前述のように、複数の1次元情報を合成して2次元情報に変換する際に用いられる。 The signal processing unit 100 further uses two line sensors 50 and 52 to determine whether the vehicle 30 (after the object 30 is identified as a vehicle) is in the warehousing stage or the warehousing stage. 114 and a speed acquisition unit 116 for acquiring the moving speed of the object 30 . The acquired moving speed is used, for example, when the silhouette estimation unit 110 synthesizes a plurality of one-dimensional information and converts it into two-dimensional information as described above.

シルエット推定部110は、支持面54を表す直線をベースラインとし(図9参照)、2次元情報を、そのベースラインを基準に相対的に位置決めすることにより、物体30の実際シルエットを推定する。 The silhouette estimator 110 uses a straight line representing the support surface 54 as a baseline (see FIG. 9), and estimates the actual silhouette of the object 30 by positioning the two-dimensional information relative to the baseline.

速度取得部116は、例えば、物体30から、その移動速度を表す信号を受信し、その信号から物体30の移動速度を取得するように構成してもよいし、ドップラ式の速度計として構成してもよい。 For example, the speed acquisition unit 116 may be configured to receive a signal representing the moving speed of the object 30 and acquire the moving speed of the object 30 from the signal, or may be configured as a Doppler speedometer. may

これらに代えて、速度取得部116は、物体30が外側ラインセンサ50を通過したタイミング(外側ラインセンサ50におけるいずれかの受信機72または互いに連続した所定複数個の受信機72がいずれも最初にOFFになったタイミング)と、同じ物体30が内側ラインセンサ52を通過したタイミング(内側ラインセンサ52におけるいずれかの受信機72または互いに連続した所定複数個の受信機72がいずれも最初にOFFになったタイミング)との間の時間差で、外側ラインセンサ50の設置位置と内側ラインセンサ52の設置位置との間の距離を割り算することにより、物体30の平均的な移動速度を取得するように構成してもよい。 Instead of these, the speed acquisition unit 116 detects the timing at which the object 30 passes the outer line sensor 50 (any receiver 72 in the outer line sensor 50 or a predetermined plurality of mutually continuous receivers 72 first ) and the timing at which the same object 30 passes the inner line sensor 52 (any receiver 72 in the inner line sensor 52 or a predetermined plurality of mutually continuous receivers 72 are both turned OFF first). The average moving speed of the object 30 is obtained by dividing the distance between the installation position of the outer line sensor 50 and the installation position of the inner line sensor 52 by the time difference between may be configured.

信号処理ユニット100は、さらに、少なくとも物体識別部112の実行結果および入出庫判別部114の実行結果を管理サーバ130に送信するための通信機器300(図18参照)を有する。通信機器300は、例えば、遠距離無線通信機能を有する。 The signal processing unit 100 further includes a communication device 300 (see FIG. 18) for transmitting at least the execution result of the object identification section 112 and the execution result of the entry/exit determination section 114 to the management server 130 . The communication device 300 has, for example, long-range wireless communication capabilities.

このシステム10は、さらに、各ラインセンサ50,52のうちの発信機ポスト62,62および受信機ポスト72,72にそれぞれ接続された駆動ユニット120と、電源ユニット122とを有する。駆動ユニット120は、それぞれの発信機60および受信機70に電源ユニット(商用電源、太陽電池、バッテリなど)122から電力を供給する。それにより、駆動ユニット120は、発信機60にあっては、信号を発信する状態に移行させ、また、受信機70にあっては、いくつかの発信機60から信号を受信することを試行する状態に移行させる。 The system 10 further includes a drive unit 120 and a power supply unit 122 connected to transmitter posts 62,62 and receiver posts 72,72 of each line sensor 50,52, respectively. The drive unit 120 supplies power to each transmitter 60 and receiver 70 from a power supply unit (commercial power supply, solar cell, battery, etc.) 122 . The drive unit 120 thereby causes the transmitter 60 to transition to a state of transmitting a signal and the receiver 70 to attempt to receive signals from several transmitters 60. transition to state.

ただし、発信機60および受信機70は、太陽電池および充電可能なバッテリ(充電池)の組合せにより、外部からの給電なしで作動可能な自立型タイプとしてもよい。 However, the transmitter 60 and the receiver 70 may be of a self-contained type that can operate without power supply from the outside by a combination of a solar battery and a rechargeable battery (rechargeable battery).

このシステム10は、さらに、駐車場20からの遠隔地に設置された管理センタ124によって運営される管理サーバ130を有する。管理サーバ130は、信号処理ユニット100との間で遠距離無線通信が可能である。 The system 10 further includes a management server 130 operated by a management center 124 located remotely from the parking lot 20 . Management server 130 is capable of long-distance wireless communication with signal processing unit 100 .

管理サーバ130は、信号処理ユニット(例えば、駐車場20に設置されているが、駐車場20の外部に設置されてもよい)100から受信した信号と、ユーザの通信端末90から受信した信号とに基づき、駐車場20を管理する駐車場管理部132を有する。 The management server 130 combines the signal received from the signal processing unit (for example, installed in the parking lot 20 but may be installed outside the parking lot 20) 100 and the signal received from the communication terminal 90 of the user. has a parking lot management unit 132 that manages the parking lot 20 based on.

管理サーバ130は、ユーザによる駐車料金の電子決済を行うために、決済サーバ140に接続されている。 The management server 130 is connected to the payment server 140 for electronic payment of parking charges by the user.

<物体識別> <Object identification>

図10には、図2に示す信号処理ユニット100のうちの物体識別部112において実行される例示的な物体識別プログラムが概念的にフローチャートで表されている。本実施形態においては、物体識別のために外側ラインセンサ50のみが利用され、残りの内側ラインセンサ52は、外側ラインセンサ50と共に入出庫判別のときに利用される。 FIG. 10 conceptually shows a flow chart of an exemplary object identification program executed in the object identification section 112 of the signal processing unit 100 shown in FIG. In this embodiment, only the outer line sensor 50 is used for object identification, and the remaining inner line sensor 52 is used together with the outer line sensor 50 when entering/exiting.

この物体識別プログラムは、メモリ162に予め記憶されていて、適宜、コンピュータ(特にプロセッサ)160によって実行される。 This object identification program is pre-stored in memory 162 and executed by computer (especially processor) 160 as appropriate.

この物体識別プログラムが実行されると、まず、ステップS1001において、外側ラインセンサ50における複数の発信機60が一斉に駆動され、それにより、それら発信機60が、それぞれ固有の発信機IDを表す複数の信号を発信する。 When this object identification program is executed, first, in step S1001, the plurality of transmitters 60 in the outer line sensor 50 are driven all at once so that the transmitters 60 each represent a unique transmitter ID. signal.

次に、ステップS1002において、物体30に対して(厳密には、常に外側ラインセンサ50の近傍に物体30が存在するとは限らない)今回のスキャンを開始し、現在時刻を今回のスキャン・タイミングt(今回は、n=1であり、図7に示す例においては、n=1,2,3,4,・・・)として計時してメモリ162に保存する。ここに、「スキャン」は、ソフト的なスキャン(受信機70ごとのシーケンシャルな標的受信)ではなく、物理的なスキャンであり、例えば、ある瞬間において、複数の発信機60と複数の受信機70とを用いて物体30を撮影することを試行するイベントに似ている。 Next, in step S1002, the current scan is started for the object 30 (strictly speaking, the object 30 does not always exist in the vicinity of the outer line sensor 50), and the current time is set to the current scan timing t. n (this time, n=1, in the example shown in FIG. 7, n=1, 2, 3, 4, . . . ), and stored in the memory 162. Here, "scanning" is physical scanning, not software scanning (sequential target reception for each receiver 70), for example, multiple transmitters 60 and multiple receivers 70 at a given moment. Similar to the event of trying to photograph an object 30 with .

続いて、ステップS1003において、各受信機70ごとに順次、前述の標的受信を行うモードに移行する。 Subsequently, in step S1003, each receiver 70 sequentially shifts to the above-described target reception mode.

その後、ステップS1004において、複数の1次元情報を2次元情報(物体30の実際シルエット)に変換する後述の合成処理(ステップS1016)に備えて、速度取得部116を用いて、車両30の現在の車両速度を取得し、今回のスキャン・タイミングtに関連付けてメモリ162に保存する。 After that, in step S1004, in preparation for a synthesis process (step S1016) that converts a plurality of pieces of one-dimensional information into two-dimensional information (actual silhouette of the object 30) (step S1016), the speed acquisition unit 116 is used to determine the current position of the vehicle 30. The vehicle speed is acquired and stored in the memory 162 in association with the current scan timing tn .

続いて、ステップS1005において、複数の受信機70のうちのいずれか(例えば、最上端受信機70または最下端受信機70)を今回の実施対象として選択し、その今回の1つの受信機70につき、対応する正規発信機ID、すなわち、図6に示すように、各受信機70に対向する1つの発信機(正規発信機)60に予め割り当てられている正規発信機IDをメモリ162から読み出す。 Subsequently, in step S1005, one of the plurality of receivers 70 (for example, the highest receiver 70 or the lowest receiver 70) is selected as the target of this implementation, and for that one receiver 70 , the corresponding authorized transmitter ID, that is, the authorized transmitter ID pre-assigned to one transmitter (authorized transmitter) 60 facing each receiver 70 as shown in FIG.

その後、ステップS1006において、今回の受信機70が少なくとも1つの発信機60から受信した少なくとも1つの信号をそれぞれ実発信機IDに変換し、いずれかの実発信機IDが、前記読み出された正規発信機IDと一致するか否かを判定する。一致すれば、そのステップS1006の判定がYESとなり、ステップS1007において、今回の受信機70は有効信号を受信したと判定する。続いて、ステップS1008において、今回の受信機70はON状態にあると判定する。 After that, in step S1006, at least one signal received by the current receiver 70 from at least one transmitter 60 is converted into a real transmitter ID, and any real transmitter ID is converted to the read regular It is determined whether or not it matches the transmitter ID. If they match, the determination in step S1006 becomes YES, and in step S1007 it is determined that the current receiver 70 has received a valid signal. Subsequently, in step S1008, it is determined that the current receiver 70 is in the ON state.

これに対し、今回の受信機70が受信した信号から変換された少なくとも1つの実発信機IDのうちのいずれも、前記読み出された正規発信機IDと一致しない場合(今回の受信機70がいずれの発信機60からも信号を受信しない場合も含まれる)には、ステップS1006の判定がNOとなり、続いて、ステップS1009において、今回の受信機70は有効信号を受信しなかったと判定する。続いて、ステップS1010において、今回の受信機70はOFF状態にあると判定する。 On the other hand, if none of the at least one real transmitter ID converted from the signal received by the current receiver 70 matches the read regular transmitter ID (when the current receiver 70 (including the case where no signal is received from any transmitter 60), the determination in step S1006 is NO, and subsequently, in step S1009, it is determined that the current receiver 70 has not received a valid signal. Subsequently, in step S1010, it is determined that the current receiver 70 is in the OFF state.

いずれの場合にも、その後、ステップS1011において、すべての受信機70について標的受信が終了したか否か、すなわち、今回のスキャンに属する複数回の標的受信(1回分の受信イベント)が終了したか否かを判定する。終了しない場合には、そのステップS1011の判定がNOとなり、ステップS1005に戻り、次の受信機70について標的受信を行う。 In either case, after that, in step S1011, it is determined whether target reception has been completed for all receivers 70, that is, whether multiple target receptions (one reception event) belonging to the current scan have been completed. determine whether or not If not, the determination in step S1011 becomes NO, the process returns to step S1005, and the next receiver 70 performs target reception.

すべての受信機70について標的受信(1回分の受信イベント)が終了すると、ステップS1011の判定がYESとなり、続いて、S1012において、複数の受信機70が有効信号を受信したか否かについての上述の複数の判定結果が、例えば図8において左側に示すように、ビットマップ形式で、各受信機70の高さ位置に関連付けて、ON状態にあるかまたはOFF状態にあるかを区別して表すように、メモリ162に記憶する。これにより、今回の受信イベントについて1列分の1次元情報が生成される。すなわち、複数の受信機70のうち、それぞれの対向発信機60から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報が生成されるのである。 When target reception (one reception event) is completed for all receivers 70, the determination in step S1011 becomes YES. are associated with the height position of each receiver 70 in a bitmap format, for example, as shown on the left side of FIG. , is stored in the memory 162 . As a result, one column of one-dimensional information is generated for the current reception event. That is, among the plurality of receivers 70, those that have received the valid signal from the corresponding transmitter 60 and those that have not received the valid signal are distinguished from each other, and one-dimensional information is generated from the results.

その後、ステップS1013において、物体30のうち、前後方向に空間離散的に並んだ複数の箇所のすべてについてスキャン(時間離散的な所定複数回の物理的なスキャン)が終了したか否かを判定する。具体的には、例えば、スキャン回数nが、予め設定された上限値nmaxに達したか否かを判定する。 After that, in step S1013, it is determined whether or not scanning (physical scanning of a predetermined number of time-discrete times) has been completed for all of the plurality of locations of the object 30 spatially discretely arranged in the front-rear direction. . Specifically, for example, it is determined whether or not the number of scans n has reached a preset upper limit nmax .

今回は、スキャン回数nが上限値nmaxに達していないと仮定すると、ステップS1013の判定がNOとなり、ステップS1014において、今回のスキャン・タイミングtから、互いに隣接した複数回のスキャン間の所定の時間間隔、すなわち、1回分のサンプリング周期Δt(図8参照)が経過するのを待つ。そのサンプリング周期Δtは、すべてのスキャン間時間間隔(スキャン周期)の間で互いに共通である1つの固定値であるが、例えば、可変値としてもよい。 Assuming that the number of scans n has not reached the upper limit nmax this time, the determination in step S1013 is NO, and in step S1014, from the current scan timing tn , a predetermined , that is, one sampling period Δt (see FIG. 8). The sampling period Δt is one fixed value that is common to all inter-scan time intervals (scan periods), but it may be a variable value, for example.

1回分のサンプリング周期Δtが経過すると、ステップS1014の判定がYESとなり、ステップS1002に戻り、同じ物体30のうちの別の部位についての次回のスキャンが開始される。 After one sampling period Δt has elapsed, the determination in step S1014 becomes YES, the process returns to step S1002, and the next scan of another portion of the same object 30 is started.

ステップS1002-S1012の実行が必要回数反復された結果、スキャン回数nが上限値nmaxに達すると、ステップS1013の判定がYESとなり、ステップS1015において、図11に例示するように、前述の複数列の1次元情報(ドット列)をそれぞれのx方向間隔Δxを空けてビットマップ180上に展開ないしは配列し、それにより、1つの2次元情報としてのビットマップデータを生成する。 As a result of repeating steps S1002 to S1012 the required number of times, when the number of scans n reaches the upper limit value n max , the determination in step S1013 becomes YES, and in step S1015, as illustrated in FIG. are developed or arranged on a bitmap 180 with an interval Δx in the x direction, thereby generating bitmap data as one piece of two-dimensional information.

図8に例示するように、ビットマップ180上のビットマップデータは、2次元的に並んだ複数の黒ドットと複数の白ドットとを有する。 As illustrated in FIG. 8, the bitmap data on the bitmap 180 has a plurality of black dots and a plurality of white dots arranged two-dimensionally.

ビットマップデータのうち、複数の黒ドットは、それぞれ対応する受信機70がOFF状態(発信機信号遮断状態)にあることを表す。これに対し、複数の白ドットは、それぞれ対応する受信機70がON状態(発信機信号透過状態)にあることを表す。 A plurality of black dots in the bitmap data indicate that the corresponding receivers 70 are in the OFF state (transmitter signal cutoff state). On the other hand, a plurality of white dots indicate that the corresponding receivers 70 are in the ON state (transmitter signal transmitting state).

ビットマップ180は、メモリ162上に形成される仮想の2次元マップであり、具体的には、横軸に物体30の進行方向寸法(x方向寸法)、縦軸に物体30の高さ方向寸法(y方向寸法)がそれぞれ割り当てられた2次元座標面である。物体30の各部位の高さ方向寸法は、支持面54の高さを表す前記ベースラインからの各部位、すなわち、各受信機70の高さ寸法位置に相当する。 The bitmap 180 is a virtual two-dimensional map formed on the memory 162. Specifically, the horizontal axis is the traveling direction dimension (x-direction dimension) of the object 30, and the vertical axis is the height direction dimension of the object 30. It is a two-dimensional coordinate plane to which (y-direction dimension) is assigned. The height dimension of each part of the object 30 corresponds to the height dimension position of each part, that is, each receiver 70 from the baseline representing the height of the support surface 54 .

これに対し、物体30の進行方向寸法について説明すると、ビットマップ180上において、複数のドット列のうち、互いに隣接するものの間の間隔Δxは、複数のドット列について共通の固定値であってもよいが、本実施形態においては、複数のドット列について共通の可変値となっている。 On the other hand, regarding the traveling direction dimension of the object 30, even if the interval Δx between adjacent dot rows among the plurality of dot rows on the bitmap 180 is a common fixed value for the plurality of dot rows, However, in this embodiment, the variable values are common to a plurality of dot rows.

具体的には、Δxは、物体30の移動速度vと、サンプリング周期Δtとの積として計算され、その結果、移動速度vが大きいほど、Δxが長くなる。物体30の移動速度vは、物体30が出入り通路40を通過する際の平均移動速度として定義される。 Specifically, Δx is calculated as the product of the moving speed v of the object 30 and the sampling period Δt. As a result, Δx becomes longer as the moving speed v increases. The velocity v of object 30 is defined as the average velocity of movement of object 30 as it passes through entryway 40 .

これに対し、物体30の移動速度vは、例えば、物体30が出入り通路40上の各スキャン位置をそれぞれ通過する際の個別移動速度として定義してもよく、この場合には、図8に例示するように、各スキャンごとに、すなわち、各ドット列ごとに個別にΔxの値が計算される。 On the other hand, the moving speed v of the object 30 may be defined, for example, as the individual moving speed when the object 30 passes through each scanning position on the entrance/exit passage 40. In this case, an example is shown in FIG. , the value of .DELTA.x is calculated separately for each scan, that is, for each dot row.

さらに、このステップS1015においては、ビットマップデータのうちの複数の黒ドットの集まりの外形線に外接する包絡線が、物体30の実際シルエットとして推定される。 Furthermore, in this step S1015, an envelope circumscribing the outline of the group of black dots in the bitmap data is estimated as the actual silhouette of the object 30. FIG.

その後、ステップS1016において、前述のようにして、前記推定された実際シルエットと、複数の候補としての複数の基準シルエット(図9参照)のそれぞれのとの間の形状近似度を計算する。 Then, in step S1016, as described above, the degree of shape approximation between the estimated actual silhouette and each of a plurality of candidate reference silhouettes (see FIG. 9) is calculated.

続いて、ステップS1017において、複数の基準シルエットのうち、それぞれ計算された複数の形状近似度のうち最大のものを有するものが、今回の物体30の実際シルエットを代表する1つの基準シルエットとして選択される。 Subsequently, in step S1017, of the plurality of reference silhouettes, the one having the highest degree of shape approximation among the plurality of calculated degrees of shape approximation is selected as one reference silhouette representing the actual silhouette of the object 30 this time. be.

その後、ステップS1018において、選択された1つの基準シルエットから、図9に例示する関係に従い、今回の物体30が、車両であるのか、人間であるのか、人間以外の動物であるのかが識別される。今回の物体30は、図示の例については、車両として識別される。その識別結果は、メモリ142に保存され、絶えず、最新の識別結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。 After that, in step S1018, it is identified whether the current object 30 is a vehicle, a human being, or an animal other than a human being according to the relationship illustrated in FIG. 9 from one selected reference silhouette. . The object 30 at this time is identified as a vehicle for the example shown. The identification result is stored in memory 142 , and the latest identification result is constantly shared with other programs in signal processing unit 100 , programs in communication terminal 90 and programs in management server 130 .

なお、いずれの受信機70もON状態にある場合には、いずれの基準シルエットも選択されず、このとき、このプログラムは、ステップS1018において、いずれの物体も出入り通路40内に存在しないと判定する。 Note that if neither receiver 70 is in the ON state, then none of the reference silhouettes are selected, then the program determines in step S1018 that there are no objects within the entryway 40. .

このプログラムは、その後、ステップS1002に戻り、次回のスキャン処理を開始する。 The program then returns to step S1002 to start the next scan process.

以上の説明から明らかなように、本実施形態によれば、各受信機70が、予定外の発信機60からの信号を受信しても、その信号をノイズ信号(各受信機70ごとの複数の受信信号のうち前記有効信号に該当しないもの)として除去できるため、識別すべき物体の形状を精度よく測定することができる。 As is clear from the above description, according to the present embodiment, even if each receiver 70 receives a signal from an unexpected transmitter 60, the signal is treated as a noise signal (a plurality of noise signals for each receiver 70). of the received signals that do not correspond to the effective signal), the shape of the object to be identified can be accurately measured.

<入出庫判別> <Distinguish entry/exit>

図11には、図2に示す信号処理ユニット100のうちの入出庫判別部114において実行される例示的な入出庫判別プログラムが概念的にフローチャートで表されている。本実施形態においては、入出庫判別のために外側ラインセンサ50と内側ラインセンサ52との双方が利用される。 FIG. 11 conceptually shows a flow chart of an exemplary entering/leaving determination program executed in the entering/leaving determination section 114 of the signal processing unit 100 shown in FIG. In this embodiment, both the outer line sensor 50 and the inner line sensor 52 are used for determining whether the vehicle is entering or leaving the warehouse.

この入出庫判別プログラムは、メモリ162に予め記憶されていて、適宜、コンピュータ(特にプロセッサ)160によって実行される。 This entry/exit determination program is pre-stored in the memory 162 and executed by the computer (particularly the processor) 160 as appropriate.

<初期状態の検出> <Detection of initial state>

この入出庫判別プログラムが実行されると、まず、ステップS1101において、外側ラインセンサ50が完全にON状態(いずれの物体も外側ラインセンサ50の近傍位置に存在しないから、いずれの受信機70もON状態にある状態)にあるか否かを判定する。外側ラインセンサ50が少なくとも部分的にOFF状態(いずれかの物体が外側ラインセンサ50の近傍位置に存在するから、いずれかの受信機70がOFF状態にある状態)にあれば、物体が存在する可能性があるから、判定がNOとなり、ステップS1101に戻る。 When the entering/leaving determination program is executed, first, in step S1101, the outer line sensor 50 is completely turned on (no object exists in the vicinity of the outer line sensor 50, so neither receiver 70 is turned on). state). If the outer line sensor 50 is at least partially OFF (some receiver 70 is OFF because some object is in the vicinity of the outer line sensor 50), an object is present. Since there is a possibility, the determination is NO, and the process returns to step S1101.

これに対し、外側ラインセンサ50が完全にON状態にあれば、ステップS1101の判定がYESとなり、続いて、ステップS1102において、今度は、内側ラインセンサ52が完全にON状態(いずれの物体も内側ラインセンサ52の近傍位置に存在しない状態)にあるか否かを判定する。内側ラインセンサ52が少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がNOとなり、ステップS1101に戻る。 On the other hand, if the outer line sensor 50 is completely ON, the determination in step S1101 becomes YES, and then in step S1102, the inner line sensor 52 is completely ON (no object is inside). It is determined whether the line sensor 52 is not in the vicinity of the line sensor 52). If the inner line sensor 52 is at least partially OFF, there is a possibility that an object is present, so the determination is NO and the process returns to step S1101.

これに対し、外側ラインセンサ50も内側ラインセンサ52も完全にON状態にあれば、ステップS1101の判定もステップS1102の判定もYESとなり、入出庫判別のための初期状態、すなわち、出入り通路40内のいずれの箇所にもいずれの物体も存在しない状態が成立していることが確認される。この初期状態は、図12(a)および同図(b)に示すそれぞれの例において、「t」で示されている。 On the other hand, if both the outer line sensor 50 and the inner line sensor 52 are completely ON, both the determination in step S1101 and the determination in step S1102 are YES. It is confirmed that a state in which no object exists at any place of . This initial state is indicated by "t 1 " in each of the examples shown in FIGS. 12(a) and 12(b).

<入庫ステージの検出> <Detection of warehousing stage>

続いて、ステップS1103において、外側ラインセンサ50が少なくとも部分的にOFF状態(いずれかの物体が外側ラインセンサ50の近傍位置に存在する状態)にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなり、ステップS1104に移行する。 Subsequently, in step S1103, it is determined whether or not the outer line sensor 50 is at least partially OFF (a state in which any object exists in the vicinity of the outer line sensor 50). If it is at least partially off, there is a possibility that an object exists, so the determination is YES, and the process proceeds to step S1104.

ステップS1104においては、内側ラインセンサ52が完全にON状態(いずれの物体も内側ラインセンサ52の近傍位置に存在しない状態)にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなる。この状態は、図12(a)に示す例において、「t」で示されている。 In step S1104, it is determined whether or not the inner line sensor 52 is completely ON (a state in which no object exists in the vicinity of the inner line sensor 52). If it is completely ON, there is a possibility that the object does not exist, so the determination is YES. This state is indicated by “t 2 ” in the example shown in FIG. 12(a).

続いて、ステップS1105において、外側ラインセンサ50が完全にON状態(いずれの物体も外側ラインセンサ50の近傍位置に存在しない状態)にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなり、ステップS1106に移行する。 Subsequently, in step S1105, it is determined whether or not the outer line sensor 50 is completely ON (a state in which no object exists in the vicinity of the outer line sensor 50). If it is completely ON, there is a possibility that the object does not exist.

そのステップS1106においては、内側ラインセンサ52が少なくとも部分的にOFF状態(いずれかの物体が内側ラインセンサ52の近傍位置に存在する状態)にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなる。この状態は、図12(a)に示す例において、「t」で示されている。 In step S1106, it is determined whether or not the inner line sensor 52 is at least partially OFF (a state in which any object exists in the vicinity of the inner line sensor 52). If it is at least partially OFF, there is a possibility that an object exists, so the determination is YES. This state is indicated by “t 3 ” in the example shown in FIG. 12(a).

その後、ステップS1107において、今回の物体は入庫ステージにあると判定する。その判定結果は、メモリ142に保存され、絶えず、最新の判定結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。 After that, in step S1107, it is determined that the current object is in the storage stage. The determination results are stored in memory 142 , and the latest determination results are constantly shared with other programs in signal processing unit 100 , programs in communication terminal 90 , and programs in management server 130 .

続いて、このプログラムはステージS1101に戻る。 The program then returns to stage S1101.

<出庫ステージの検出> <Detection of delivery stage>

ステップS1103または1104の判定がNOであると、ステップS1108において、外側ラインセンサ50が完全にON状態にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなり、ステップS1109に移行する。 If the determination in step S1103 or 1104 is NO, it is determined in step S1108 whether or not the outer line sensor 50 is completely ON. If it is completely ON, there is a possibility that the object does not exist, so the determination becomes YES and the process proceeds to step S1109.

そのステップS1109においては、内側ラインセンサ52が少なくとも部分的にOFF状態にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなる。この状態は、図12(b)に示す例において、「t」で示されている。 In step S1109, it is determined whether the inner line sensor 52 is at least partially off. If it is at least partially OFF, there is a possibility that an object exists, so the determination is YES. This state is indicated by “t 2 ” in the example shown in FIG. 12(b).

続いて、ステップS1110において、外側ラインセンサ50が少なくとも部分的にOFF状態にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなり、ステップS1111に移行する。 Subsequently, in step S1110, it is determined whether the outer line sensor 50 is at least partially OFF. If it is at least partially in the OFF state, there is a possibility that an object exists.

そのステップS1111においては、内側ラインセンサ52が完全にON状態にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなる。この状態は、図12(b)に示す例において、「t」で示されている。 In step S1111, it is determined whether or not the inner line sensor 52 is completely ON. If it is completely ON, there is a possibility that the object does not exist, so the determination is YES. This state is indicated by “t 3 ” in the example shown in FIG. 12(b).

その後、ステップS1112において、今回の物体は出庫ステージにあると判定する。その判定結果は、メモリ142に保存され、絶えず、最新の判定結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。 After that, in step S1112, it is determined that the current object is in the delivery stage. The determination results are stored in memory 142 , and the latest determination results are constantly shared with other programs in signal processing unit 100 , programs in communication terminal 90 , and programs in management server 130 .

続いて、このプログラムはステージS1101に戻る。 The program then returns to stage S1101.

<第1異常判定> <First abnormality determination>

図14には、図13に示すように、信号処理ユニット100のうちの第1異常判定部200において実行される例示的な第1異常判定プログラムが概念的にフローチャートで表されている。この第1異常判定プログラムは、各ラインセンサ50,52ごとに、最上端発信機60および最上端受信機70の作動状態が正常か異常かを判定するために実行される。 FIG. 14 conceptually shows a flow chart of an exemplary first abnormality determination program executed in the first abnormality determination section 200 of the signal processing unit 100 as shown in FIG. This first abnormality determination program is executed for each line sensor 50, 52 to determine whether the operating states of the top end transmitter 60 and the top end receiver 70 are normal or abnormal.

この第1異常判定プログラムが実行されると、まず、ステップS1401において、外側ラインセンサ50を今回の判定対象ラインセンサに選択する。 When the first abnormality determination program is executed, first, in step S1401, the outer line sensor 50 is selected as the line sensor to be determined this time.

次に、ステップS1402において、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信しているか否かを判定する。有効に受信していれば、ステップS1402の判定がYESとなり、ステップS1403において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70の作動状態がいずれも正常であると判定する。 Next, in step S1402, it is determined whether or not the top end receiver 70 is effectively receiving a signal from the top end transmitter 60 for the line sensor to be determined this time. If the reception is valid, the determination in step S1402 becomes YES, and in step S1403, it is determined that the operation states of both the top end transmitter 60 and the top end receiver 70 are normal for the line sensor to be determined this time. do.

これに対し、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信していない場合には、ステップS1402の判定がNOとなり、ステップS1404において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70のうちの少なくとも一方の作動状態が異常であると判定する。 On the other hand, if the top end receiver 70 does not effectively receive the signal from the top end transmitter 60 for the line sensor to be determined this time, the determination in step S1402 becomes NO, and in step S1404, the current It is determined that at least one of the uppermost end transmitter 60 and the uppermost end receiver 70 of the determination target line sensor is abnormal.

その後、ステップS1405において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70のうちの少なくとも一方の作動状態が異常である旨の異常判定結果を管理サーバ130に送信する。 After that, in step S1405, an abnormality determination result indicating that at least one of the top end transmitter 60 and the top end receiver 70 is in an abnormal operating state is transmitted to the management server 130 for the line sensor to be determined this time.

その異常判定結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70の点検、修理および交換を行わせる。 In response to the abnormality determination result, the management server 130 dispatches a worker to the corresponding parking lot 20 to inspect, repair, and make an exchange.

いずれの場合にも、その後、ステップS1406において、今回の判定対象ラインセンサとは反対側のラインセンサを次回の判定対象ラインセンサに選択する。続いて、このプログラムはステップS1402に移行し、ステップS1402-S1405が、今度は、外側ラインセンサ50および内側ラインセンサ52のうち、前回とは異なるものについて実行される。 In either case, in step S1406, the line sensor on the opposite side of the line sensor to be determined this time is selected as the next line sensor to be determined. Subsequently, the program proceeds to step S1402, and steps S1402-S1405 are executed this time for the outer line sensor 50 and the inner line sensor 52 that are different from the previous one.

<第2異常判定> <Second abnormality determination>

図15には、図13に示すように、信号処理ユニット100のうちの第2異常判定部202において実行される例示的な第2異常判定プログラムが概念的にフローチャートで表されている。この第2異常判定プログラムは、各ラインセンサ50,52の設置状態での姿勢が正常か異常かを判定するために実行される。 FIG. 15 conceptually shows a flow chart of an exemplary second abnormality determination program executed in the second abnormality determination section 202 of the signal processing unit 100 as shown in FIG. This second abnormality determination program is executed to determine whether the postures of the line sensors 50 and 52 in the installed state are normal or abnormal.

この第1異常判定プログラムが実行されると、まず、ステップS1501において、外側ラインセンサ50を今回の判定対象ラインセンサに選択する。 When the first abnormality determination program is executed, first, in step S1501, the outer line sensor 50 is selected as the line sensor to be determined this time.

次に、ステップS1502において、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信しているか否かを判定する。有効に受信していれば、ステップS1502の判定がYESとなり、ステップS1503において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のいずれも正立していると判定する。 Next, in step S1502, it is determined whether or not the top end receiver 70 is effectively receiving a signal from the top end transmitter 60 for the current determination target line sensor. If the signal is received effectively, the determination in step S1502 becomes YES, and in step S1503 it is determined that both the transmitter post 62 and the receiver post 72 are upright for the line sensor to be determined this time.

なぜなら、今回の判定対象ラインセンサの作動状態が正常である限りにおいて、発信機ポスト62および受信機ポスト72のいずれも正立していれば、最上端受信機70および最上端発信機60は互いに対向し、かつ、両者間に障害物は存在しないからである。 This is because, as long as the operating state of the line sensor to be determined this time is normal, if both the transmitter post 62 and the receiver post 72 are upright, the top end receiver 70 and the top end transmitter 60 are connected to each other. This is because they face each other and there is no obstacle between them.

これに対し、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信していない場合には、ステップS1502の判定がNOとなり、ステップS1504において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒している可能性があると判定する。 On the other hand, if the top end receiver 70 does not effectively receive the signal from the top end transmitter 60 for the line sensor to be determined this time, the determination in step S1502 becomes NO, and in step S1504, the current It is determined that at least one of the transmitter post 62 and the receiver post 72 of the determination target line sensor may be tilted.

なぜなら、今回の判定対象ラインセンサの作動状態が正常である限りにおいて、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒していれば、最上端受信機70および最上端発信機60は互いに対向しないか、または、両者間に障害物が存在してしまう可能性があるからである。 This is because, as long as the operating state of the current determination target line sensor is normal, if at least one of the transmitter post 62 and the receiver post 72 is tilted, the top end receiver 70 and the top end transmitter 60 do not face each other, or there is a possibility that an obstacle exists between them.

その後、ステップS1505において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒している可能性がある旨の異常判定結果を管理サーバ130に送信する。 After that, in step S1505, an abnormality determination result indicating that at least one of the transmitter post 62 and the receiver post 72 may be tilted is transmitted to the management server 130 for the current determination target line sensor.

その異常判定結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72の点検、修理および交換を行わせる。 In response to the result of the abnormality determination, the management server 130 dispatches a worker to the corresponding parking lot 20 to inspect, repair, and replace the transmitter post 62 and the receiver post 72 of the line sensor to be determined this time. let it happen

いずれの場合にも、その後、ステップS1506において、今回の判定対象ラインセンサとは反対側のラインセンサを次回の判定対象ラインセンサに選択する。続いて、このプログラムはステップS1502に移行し、ステップS1502-S1505が、今度は、外側ラインセンサ50および内側ラインセンサ52のうち、前回とは異なるものについて実行される。 In either case, in step S1506, the line sensor on the opposite side of the line sensor to be determined this time is selected as the next line sensor to be determined. Subsequently, the program proceeds to step S1502, and steps S1502-S1505 are executed this time for the outer line sensor 50 and the inner line sensor 52 that are different from the previous one.

なお付言するに、本実施形態においては、第1異常判定部200が端部発信機および端部受信機の作動状態の異常の有無を判定するために存在し、また、第2異常判定部202がラインセンサ50,52の姿勢の異常の有無を判定するために存在する。 In addition, in this embodiment, the first abnormality determination unit 200 exists to determine whether there is an abnormality in the operating state of the end transmitter and the end receiver, and the second abnormality determination unit 202 exist for determining whether or not there is an abnormality in the posture of the line sensors 50 and 52 .

しかし、それら第1異常判定部200および第2異常判定部202は、端部発信機と端部受信機との間での通信の有無という同じ現象に着目するため、厳密には、それら端部発信機および端部受信機の作動状態の異常という現象と、ラインセンサ50,52の姿勢の異常という現象とを切り離して検知することができない。 However, since the first anomaly determination unit 200 and the second anomaly determination unit 202 focus on the same phenomenon of presence/absence of communication between the edge transmitter and the edge receiver, strictly speaking, It is not possible to separate the phenomenon of abnormal operating states of the transmitter and end receivers from the phenomenon of abnormal attitudes of the line sensors 50 and 52 .

よって、それら第1異常判定部200および第2異常判定部202を合体させ、端部発信機と端部受信機との間での通信がないと、端部発信機および端部受信機側のデバイス異常と、ラインセンサ50,52側の姿勢異常とのうちの少なくとも一方が存在すると判定する態様で本発明を実施してもよい。 Therefore, if the first abnormality determination unit 200 and the second abnormality determination unit 202 are combined and there is no communication between the end transmitter and the end receiver, The present invention may be implemented in a manner in which it is determined that at least one of the device abnormality and the attitude abnormality of the line sensors 50 and 52 exists.

この態様であっても、真の異常の種類は遠隔的に正確に判明しないかもしれないが、作業者を駐車場20に派遣する必要性の有無を遠隔的に正確に判定することが可能となるから、無駄があることを覚悟して作業者を定期的に駐車場20に派遣する場合より、作業者にかかる人件費を削減することが容易となる。 Even in this mode, although the true type of abnormality may not be accurately determined remotely, it is possible to accurately remotely determine whether or not it is necessary to dispatch a worker to the parking lot 20. Therefore, it is easier to reduce labor costs for the workers than in the case where the workers are dispatched to the parking lot 20 on a regular basis in anticipation of waste.

<故障診断> <Failure Diagnosis>

図16には、図13に示すように、信号処理ユニット100のうちの故障診断部204において実行される例示的な故障診断プログラムが概念的にフローチャートで表されている。 FIG. 16 conceptually shows a flow chart of an exemplary failure diagnosis program executed in the failure diagnosis section 204 of the signal processing unit 100 as shown in FIG.

この故障診断プログラムが実行されると、まず、ステップS1601において、別の起動タイミング・コントロール・プログラム(図示しない)の実行によって割込み信号が発生したか否かを判定する。その割込み信号は、この故障診断プログラムの起動タイミングをコントロールするための信号である。 When this fault diagnosis program is executed, first, in step S1601, it is determined whether or not an interrupt signal has been generated by execution of another activation timing control program (not shown). The interrupt signal is a signal for controlling the activation timing of this fault diagnosis program.

その割込み信号が存在しないと、ステップS1601の判定がNOとなり、同じステップの実行が反復されるが、その割込み信号が存在すると、ステップS1601の判定がYESとなり、ステップS1602において、図10に示す物体識別プログラム、図11に示す入出庫判別プログラム、図12に示す第1異常判定プログラムおよび図13に示す第2異常判定プログラムの実行、すなわち、当該物体識別システム10の本番動作(ラインセンサ50および52を用いた処理)が一時的に禁止される。 If the interrupt signal does not exist, the determination in step S1601 becomes NO, and the execution of the same steps is repeated. Execution of the identification program, the entering/leaving determination program shown in FIG. 11, the first abnormality determination program shown in FIG. 12, and the second abnormality determination program shown in FIG. ) is temporarily prohibited.

続いて、ステップS1603において、外側ラインセンサ50における複数の発信機60および内側ラインセンサ52における複数の発信機60が一斉に駆動され、それにより、それら発信機60が、それぞれ固有の発信機IDを表す複数の信号を発信する。 Subsequently, in step S1603, the plurality of transmitters 60 in the outer line sensor 50 and the plurality of transmitters 60 in the inner line sensor 52 are driven all at once, so that the transmitters 60 each generate a unique transmitter ID. It emits multiple signals that represent

その後、ステップS1604において、外側ラインセンサ50における複数の受信機70および内側ラインセンサ52における複数の受信機70について順次、すなわち、シーケンシャに、前述のランダム受信を行う。その結果、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、各受信機70に少なくとも1つの実発信機IDが割り当てられることが本来であれば期待される。 After that, in step S1604, the plurality of receivers 70 in the outer line sensor 50 and the plurality of receivers 70 in the inner line sensor 52 sequentially perform the above-described random reception. As a result, it would be expected that at least one real transmitter ID would be assigned to each receiver 70 for each of the outer line sensor 50 and the inner line sensor 52 .

続いて、ステップS1605において、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、上述のようにして各受信機70ごとに割り当てられた複数の実発信機IDを参照することにより、すべての受信機70(または一部の複数の受信機70)が同じ発信機60から信号を受信しないか否かを判定する。 Subsequently, in step S1605, for each of the outer line sensor 50 and the inner line sensor 52, by referring to the plurality of actual transmitter IDs assigned to each receiver 70 as described above, all receivers 70 (or some receivers 70 ) do not receive signals from the same transmitter 60 .

外側ラインセンサ50および内側ラインセンサ52の双方またはいずれかにつき、すべての受信機70(または一部の複数の受信機70)が同じ発信機60から信号を受信しない場合には、ステップS1605の判定がYESとなり、ステップS1606において、外側ラインセンサ50および内側ラインセンサ52のうち該当するものにつき、その発信機60が故障していると判定する。すなわち、その発信機60が故障発信機であると判定するのである。 If all the receivers 70 (or some receivers 70) do not receive a signal from the same transmitter 60 for both or either of the outer line sensor 50 and the inner line sensor 52, the determination of step S1605 becomes YES, and in step S1606, it is determined that the corresponding one of the outer line sensor 50 and the inner line sensor 52 has its transmitter 60 out of order. That is, the transmitter 60 is determined to be the faulty transmitter.

続いて、ステップS1607において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障発信機60が存在するもの)につき、その発信機60が故障している旨の故障診断結果を、その発信機60を識別するための発信機IDに関連付けて管理サーバ130に送信する。その後、このプログラムはステップS1601に戻る。 Subsequently, in step S1607, for the corresponding one of the outer line sensor 50 and the inner line sensor 52 (the one having the fault transmitter 60), the fault diagnosis result indicating that the transmitter 60 is faulty is displayed. It is transmitted to the management server 130 in association with the transmitter ID for identifying the transmitter 60 . The program then returns to step S1601.

その故障診断結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、故障発信機60の点検、修理および交換を行わせる。 Upon receiving the failure diagnosis result, the management server 130 dispatches a worker to the corresponding parking lot 20 to inspect, repair, and replace the failure transmitter 60 .

これに対し、ステップS1605の判定がNOである場合には、ステップS1608において、前記複数の実発信機IDを参照することにより、いずれかの受信機70がいずれの発信機60からも信号を受信していないか否かを判定する。 On the other hand, if the determination in step S1605 is NO, any receiver 70 receives a signal from any transmitter 60 by referring to the plurality of actual transmitter IDs in step S1608. determine whether or not

外側ラインセンサ50および内側ラインセンサ52の双方またはいずれかにつき、いずれかの受信機70がいずれの発信機60からも信号を受信していない場合には、ステップS1608の判定がYESとなり、ステップS1609において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70が存在するもの)につき、その受信機70が故障していると判定する。すなわち、その受信機70が故障受信機であると判定するのである。 If any receiver 70 does not receive a signal from any transmitter 60 for either or both of the outer line sensor 50 and inner line sensor 52, the determination in step S1608 becomes YES, and step S1609. , it is determined that the corresponding receiver 70 out of the outer line sensor 50 and the inner line sensor 52 (the one having the faulty receiver 70) is faulty. That is, the receiver 70 is determined to be the faulty receiver.

続いて、ステップS1610において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70が存在するもの)につき、その受信機70が故障している旨の故障診断結果を、その受信機70を識別するための発信機IDに関連付けて管理サーバ130に送信する。その後、このプログラムはステップS1601に戻る。 Subsequently, in step S1610, for the corresponding one of the outer line sensor 50 and the inner line sensor 52 (the one having the faulty receiver 70), the fault diagnosis result indicating that the receiver 70 is faulty is displayed. It is transmitted to the management server 130 in association with the transmitter ID for identifying the receiver 70 . The program then returns to step S1601.

その故障診断結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、故障受信機70の点検、修理および交換を行わせる。 Upon receiving the failure diagnosis result, management server 130 dispatches a worker to the corresponding parking lot 20 to inspect, repair, and replace faulty receiver 70 .

これに対し、ステップS1605の判定もステップS1708の判定もNOである場合には、ステップS1611において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70も故障発信機60も存在しないもの)につき、すべての発信機60およびすべての受信機70が正常であると判定する。 On the other hand, if both the determination in step S1605 and the determination in step S1708 are NO, in step S1611, the corresponding outer line sensor 50 and inner line sensor 52 (both the failure receiver 70 and the failure transmitter 60) non-existent), it is determined that all transmitters 60 and all receivers 70 are normal.

その後、ステップS1612において、前記本番動作の再開を許可する。続いて、このプログラムはステップS1601に戻る。 After that, in step S1612, the restart of the actual operation is permitted. The program then returns to step S1601.

<駐車場管理> <Parking management>

図17には、図13に示す管理サーバ130のうちの駐車場管理部132において実行される例示的な駐車場管理プログラムが概念的にフローチャートで表されている。 FIG. 17 conceptually shows a flow chart of an exemplary parking management program executed in the parking management unit 132 of the management server 130 shown in FIG.

この駐車場管理プログラムが実行されると、まず、ユーザの通信端末90が、ステップS1701において、管理サーバ130にログインするためのリクエスト信号をユーザIDなどの必要な個人情報と共にその管理サーバ130に送信する。これに対し、そのリクエスト信号を受信すると、管理サーバ130は、通信端末90を認識し、その通信端末90との間で通信を確立する。 When this parking lot management program is executed, first, in step S1701, the communication terminal 90 of the user transmits a request signal for logging into the management server 130 together with necessary personal information such as a user ID to the management server 130. do. On the other hand, when receiving the request signal, the management server 130 recognizes the communication terminal 90 and establishes communication with the communication terminal 90 .

管理サーバ130は、ステップS1711において、信号処理ユニット100と通信し、メモリ162から前記物体識別結果を受信し、それを参照することにより、駐車場20の出入り通路40を通過する物体30が車両であるか否かを判定する。その物体30が車両でなければ、判定がNOとなり、ステップS1711に戻るが、その物体30が車両であれば、判定がYESとなり、ステップS1712に進む。 In step S1711, the management server 130 communicates with the signal processing unit 100, receives the object identification result from the memory 162, and refers to it to determine whether the object 30 passing through the entrance/exit passage 40 of the parking lot 20 is a vehicle. Determine whether or not there is If the object 30 is not a vehicle, the determination is NO and the process returns to step S1711. If the object 30 is a vehicle, the determination is YES and the process proceeds to step S1712.

そのステップS1712においては、管理サーバ130が信号処理ユニット100と通信し、メモリ162から前記入出庫判別結果を受信し、それを参照することにより、車両30が駐車場20に入庫したか否かを判定する。車両30が駐車場20に入庫したと判定されると、ステップS1712の判定がYESとなり、ステップS1713に進む。 In step S1712, management server 130 communicates with signal processing unit 100, receives the entry/exit determination result from memory 162, and refers to it to determine whether vehicle 30 has entered parking lot 20 or not. judge. If it is determined that the vehicle 30 has entered the parking lot 20, the determination in step S1712 becomes YES, and the process proceeds to step S1713.

そのステップS1713においては、管理サーバ130が、駐車場20における複数の空室のうちのいずれかを、今回のユーザの車室として選択する。ユーザIDと、使用中の車室の番号との間の関係は、管理サーバ130のメモリに保存されている。 In step S1713, management server 130 selects one of the plurality of vacant rooms in parking lot 20 as the current user's cabin. The relationship between the user ID and the cabin number in use is stored in the memory of the management server 130 .

今回のユーザの車室が選択されると、ステップS1714において、管理サーバ130が、その選択した車室を今回のユーザの通信端末90に送信する。 When the passenger compartment of the current user is selected, management server 130 transmits the selected passenger compartment to communication terminal 90 of the current user in step S1714.

これに対し、通信端末90は、ステップS1702において、その車室に関する情報を管理サーバ130から受信し、続いて、ステップS1703において、入庫リクエストを管理サーバ130に送信する。 In response to this, the communication terminal 90 receives information about the vehicle compartment from the management server 130 in step S1702, and then transmits a warehousing request to the management server 130 in step S1703.

その入庫リクエストを受信すると、管理サーバ130は、ステップS1715において、現在時刻を計測し、その現在時刻として入庫時刻を前記メモリに保存する。続いて、ステップS1716において、入庫手続が完了したことを表す入庫完了信号を今回のユーザの通信端末90に送信する。 Upon receiving the warehousing request, the management server 130 measures the current time and stores the warehousing time in the memory as the current time in step S1715. Subsequently, in step S1716, a warehousing completion signal indicating that the warehousing procedure is completed is transmitted to the communication terminal 90 of the current user.

これに対し、通信端末90は、ステップS1704において、その入庫完了信号を管理サーバ130から受信する。 On the other hand, the communication terminal 90 receives the warehousing completion signal from the management server 130 in step S1704.

以上、ステップS1712において、管理サーバ130が、車両30が駐車場20に入庫したと判定した場合を説明したが、出庫したと判定した場合には、ステップS1712の判定がNOとなり、続いて、ステップS1717において、管理サーバ130が、車両30が駐車場20から出庫したか否かを判定すれば、その判定はYESとなる。なお、このステップS1717の判定がNOとなった場合には、ステップS1711に戻る。 The case where the management server 130 determines in step S1712 that the vehicle 30 has entered the parking lot 20 has been described above. If the management server 130 determines in S1717 whether or not the vehicle 30 has left the parking lot 20, the determination is YES. If the determination in step S1717 is NO, the process returns to step S1711.

その後、ステップS1718において、管理サーバ130が、現在時刻を計測し、その現在時刻として出庫時刻を前記メモリに保存する。続いて、ステップS1719において、前記メモリから、今回のユーザについての入庫時刻を読み出し、その入庫時刻から今回の出庫時刻までの経過時間として駐車時間を計算する。 After that, in step S1718, the management server 130 measures the current time and stores the leaving time in the memory as the current time. Subsequently, in step S1719, the parking time for the current user is read from the memory, and the parking time is calculated as the elapsed time from the parking time to the parking exit time.

その後、ステップS1720において、管理サーバ130が、その計算された駐車時間の長さに見合う額の駐車料金を計算し、その駐車料金を表すデータを、今回のユーザの通信端末90に送信する。 Thereafter, in step S1720, management server 130 calculates a parking fee corresponding to the calculated length of parking time, and transmits data representing the parking fee to communication terminal 90 of the current user.

これに対し、通信端末90は、ステップS1705において、その駐車料金を表すデータを管理サーバ130から受信し、続いて、ステップS1706において、出庫リクエストを管理サーバ130に送信する。 In response to this, the communication terminal 90 receives the data representing the parking fee from the management server 130 in step S1705, and then transmits a delivery request to the management server 130 in step S1706.

その出庫リクエストを受信すると、管理サーバ130は、ステップS1721において、決済サーバ140と通信することにより、前記駐車料金を電子決済する。続いて、ステップS1722において、出庫手続が完了したことを表す出庫完了信号を今回のユーザの通信端末90に送信する。 Upon receiving the delivery request, management server 130 electronically settles the parking fee by communicating with settlement server 140 in step S1721. Subsequently, in step S1722, a delivery completion signal indicating completion of the delivery procedure is transmitted to the communication terminal 90 of the current user.

これに対し、通信端末90は、ステップS1707において、その出庫完了信号を管理サーバ130から受信する。 In response to this, the communication terminal 90 receives the delivery completion signal from the management server 130 in step S1707.

ところで、車両30が駐車場20に入庫するステージにおいては、通常、最初に、車両30が、駐車場20の外部からその駐車場20の出入り通路40に接近し、やがて、車両30は、その車両30にユーザが乗車している状態で、外側ラインセンサ50を内向きに通過する。 By the way, in the stage in which the vehicle 30 enters the parking lot 20, normally, the vehicle 30 first approaches the entrance/exit passage 40 of the parking lot 20 from the outside of the parking lot 20, and eventually the vehicle 30 moves to the parking lot 20. With the user on board 30, the outer line sensor 50 is passed inward.

その後、ユーザが車両30を所定の車室まで運転してそこに進入して駐車すると、その車両30からユーザが降車する。続いて、ユーザは単独で、駐車場20内を歩行して出入り通路40まで移動し、やがて外側ラインセンサ50をさきほどとは逆向きに、すなわち、外向きに通過する。 After that, when the user drives the vehicle 30 to a predetermined compartment and enters and parks there, the user gets off the vehicle 30 . Subsequently, the user walks alone in the parking lot 20 to the entrance/exit passage 40, and eventually passes the outside line sensor 50 in the opposite direction, that is, outward.

このとき、ユーザの通信端末90は、外側ラインセンサ50を外向きに通過し、そのときにそれの少なくとも1つの発信機60からの信号を受信するから、前記少なくとも1つの発信機60の実発信機IDを取得できる。 At this time, the user's communication terminal 90 passes outward through the outer line sensor 50 and then receives a signal from its at least one transmitter 60, so that the actual transmission of said at least one transmitter 60 You can get the device ID.

よって、通信端末90は、図17に示す前述のステップS1701(ただし、入庫時)において、前記取得できた実発信機IDをユーザID(ユーザ識別情報の一例)と共に管理サーバ130に送信してもよい。 Therefore, even if the communication terminal 90 transmits the acquired real transmitter ID together with the user ID (an example of the user identification information) to the management server 130 in the aforementioned step S1701 shown in FIG. good.

この場合、管理サーバ130は、通信端末90から受信した実発信機IDが、駐車場20の外側ラインセンサ50に帰属するものであるか否かを判定してもよい。 In this case, management server 130 may determine whether or not the actual transmitter ID received from communication terminal 90 belongs to outside line sensor 50 of parking lot 20 .

その実発信機IDが駐車場20の外側ラインセンサ50に帰属すると判定される場合には、管理サーバ130は、受信したユーザIDと、図9に示す複数の車両カテゴリーのうち前記物体識別プログラムの実行によって識別されたもの(例えば、図2に示す例においては、物体カテゴリーNo.1)とを紐付けし、それらユーザと車両30とのペアを前記メモリに保存してもよい。 When it is determined that the actual transmitter ID belongs to the outer line sensor 50 of the parking lot 20, the management server 130 executes the object identification program among the received user ID and the plurality of vehicle categories shown in FIG. (for example, object category No. 1 in the example shown in FIG. 2), and pairs of the user and the vehicle 30 may be stored in the memory.

同様に、車両30が駐車場20から出庫するステージにおいては、通常、最初に、ユーザが単独で、駐車場20の外部から歩行して出入り通路40に接近し、やがて外側ラインセンサ50を内向きに通過する。 Similarly, in the stage in which the vehicle 30 leaves the parking lot 20, the user usually first walks alone from the outside of the parking lot 20 to approach the entrance/exit passage 40, and eventually turns the outside line sensor 50 inward. pass through.

その後、ユーザは、駐車場20内を自分の車室まで歩行し、そこに駐車してある車両30に乗車する。続いて、ユーザは、車両30を発車させて、駐車場20内を走行させて出入り通路40に接近する。その後、車両30は、外側ラインセンサ50を外向きに通過する。 After that, the user walks in the parking lot 20 to his/her compartment and gets into the vehicle 30 parked there. Subsequently, the user starts the vehicle 30 and drives it through the parking lot 20 to approach the entrance/exit passage 40 . After that, the vehicle 30 passes the outer line sensor 50 outward.

このとき、ユーザの通信端末90は、外側ラインセンサ50を内向きに通過し、そのときにそれの少なくとも1つの発信機60からの信号を受信するから、前記少なくとも1つの発信機60の実発信機IDを取得できる。 At this time, since the user's communication terminal 90 passes inwardly through the outer line sensor 50 and then receives a signal from its at least one transmitter 60, the actual transmission of said at least one transmitter 60 You can get the device ID.

よって、通信端末90は、前述のステップS1701(ただし、出庫時)において、その取得できた実発信機IDをユーザIDと共に管理サーバ130に送信してもよい。 Therefore, the communication terminal 90 may transmit the acquired real transmitter ID together with the user ID to the management server 130 in step S1701 described above (at the time of leaving the car).

この場合、管理サーバ130は、通信端末90から受信した実発信機IDが、駐車場20の外側ラインセンサ50に帰属するものであるか否かを判定してもよい。 In this case, management server 130 may determine whether or not the actual transmitter ID received from communication terminal 90 belongs to outside line sensor 50 of parking lot 20 .

その実発信機IDが駐車場20の外側ラインセンサ50に帰属すると判定される場合には、管理サーバ130は、受信したユーザIDと、図9に示す複数の車両カテゴリーのうち前記物体識別プログラムの実行によって識別されたもの(例えば、図2に示す例においては、物体カテゴリーNo.1)とを紐付けし、それらユーザと車両30とのペアを前記メモリに保存してもよい。 When it is determined that the actual transmitter ID belongs to the outer line sensor 50 of the parking lot 20, the management server 130 executes the object identification program among the received user ID and the plurality of vehicle categories shown in FIG. (for example, object category No. 1 in the example shown in FIG. 2), and pairs of the user and the vehicle 30 may be stored in the memory.

入庫時に前記メモリに保存されたペアと、出庫時に前記メモリに保存されたペアとが互いに一致する場合には、今回のユーザが、同じ車両カテゴリーに分類されたと判定できる。これは、物体識別の精度が高かったこと、ひいては、ユーザと車両30との紐付けの精度が高かったことを意味すると解釈してもよい。 If the pair stored in the memory at the time of entering and the pair stored in the memory at the time of leaving match each other, it can be determined that the current user has been classified into the same vehicle category. This may be interpreted to mean that the accuracy of object identification was high, and thus the accuracy of linking the user and the vehicle 30 was high.

その結果、例えば、ユーザが駐車場20を反復的に利用する場合に、管理センタ124は、個別のユーザに関する個人情報として、使用する車両30の種類という貴重な情報を取得することが可能となる。管理センタ124は、この個人情報を今後の駐車場マーケティングに活用することも可能である。 As a result, for example, when the user repeatedly uses the parking lot 20, the management center 124 can acquire valuable information such as the type of vehicle 30 used as personal information about the individual user. . The management center 124 can also utilize this personal information for future parking lot marketing.

また、前記複数の基準シルエットが、図9に例示する複数の標準的シルエットより多数の車種シルエット(例えば、日本で販売されているすべての車種についてのシルエット)である場合には、同じ車両が駐車場20に複数回駐車した場合に、本来であれば、その車両は、同じ車種シルエットとして分類されるところ、外側ラインセンサ50の測定誤差に起因し、複数の車種シルエットに分散して分類される可能性がある。 Further, when the plurality of reference silhouettes are more vehicle silhouettes than the plurality of standard silhouettes illustrated in FIG. When the vehicle is parked in the parking lot 20 a plurality of times, the vehicle is normally classified as the same model silhouette, but due to the measurement error of the outer line sensor 50, the vehicle is classified into a plurality of model silhouettes in a dispersed manner. there is a possibility.

しかし、同じ車両が駐車場20に駐車するごとに、ユーザと車種カテゴリーとの紐付けを行い、その結果、同じユーザが、複数の車種カテゴリーに関連付けられる場合に、最も頻繁に同じユーザに関連付けられる1つの車種カテゴリーを真の車種カテゴリーとして識別することが可能である。この場合、前記紐付けの数、すなわち、サンプルデータの数が増加するほど、車両の識別精度が向上する。 However, each time the same vehicle is parked in the parking lot 20, the user is associated with the vehicle category, so that the same user is most often associated with the same user when associated with multiple vehicle categories. It is possible to identify one vehicle category as the true vehicle category. In this case, as the number of links, that is, the number of sample data increases, the vehicle identification accuracy improves.

[第2の実施形態] [Second embodiment]

次に、本発明の例示的な第2の実施形態に従う物体識別システム10を説明するが、第1の実施形態と共通する要素については、同一の名称または符号を使用して引用することにより、重複した説明を省略し、異なる要素についてのみ詳細に説明する。 An object identification system 10 according to a second exemplary embodiment of the present invention will now be described, wherein elements in common with the first embodiment are referenced using the same names or numerals: Duplicate descriptions are omitted, and only different elements are described in detail.

第1の実施形態においては、外側ラインセンサ50が、物体識別という機能(用途)と、入出庫判別という機能(用途)とを実現するために利用されるが、本実施形態においては、さらに、ユーザの識別およびユーザと車両との紐付けという機能(用途)をも実現するために利用される。 In the first embodiment, the outer line sensor 50 is used to realize the function (use) of object identification and the function (use) of entering/leaving determination. It is also used to realize functions (uses) of user identification and linking of users and vehicles.

本実施形態に従うシステム10のうち、物体識別という機能(用途)と、入出庫判別という機能(用途)とを実現するための部分は、第1の実施形態と共通するため、重複した説明を省略するが、ユーザの識別およびユーザと車両との紐付けという機能(用途)を実現するための部分を詳細に説明する。 In the system 10 according to the present embodiment, portions for realizing the function (application) of object identification and the function (application) of entering/exiting determination are common to those of the first embodiment, and redundant description is omitted. However, a detailed description will be given of the part for realizing the function (purpose) of identifying the user and linking the user and the vehicle.

図18には、本実施形態に従う物体識別システム10のうちの外側ラインセンサ50が正面図で示されている。同図に示す発信機ポスト62から発信された複数の信号は、車両30のアウタパネルによって遮断されずに空間を透過して受信機ポスト72に到達するものと、車両30のアウタパネルによって遮断されるものと、車両30の窓ガラスを透過してその車室内に進入して乗員としてのユーザの通信端末90によって受信されるものとに分類される。 FIG. 18 shows a front view of the outer line sensor 50 of the object identification system 10 according to this embodiment. A plurality of signals transmitted from the transmitter post 62 shown in FIG. and those transmitted through the window glass of the vehicle 30 and entered into the vehicle interior and received by the communication terminal 90 of the user as a passenger.

同図に示すように、信号処理ユニット100は、通信機器300を有し、また、管理サーバ130は、ユーザ・車両紐付け部310を有する。信号処理ユニット100は、必要な情報を、通信機器300を介して、管理サーバ130に送信し、前記必要な情報に基づき、ユーザ・車両紐付け部310が起動する。管理サーバ130は、ユーザの通信端末90とも通信する。 As shown in the figure, the signal processing unit 100 has a communication device 300 , and the management server 130 has a user/vehicle linking section 310 . The signal processing unit 100 transmits necessary information to the management server 130 via the communication device 300, and the user/vehicle linking unit 310 is activated based on the necessary information. The management server 130 also communicates with the user's communication terminal 90 .

図19には、ユーザ・車両紐付け部310において実行される例示的なユーザ・車両紐付けプログラムが、ユーザの通信端末90において実行されるユーザ特定支援プログラムと共に概念的にフローチャートで表されている。 FIG. 19 conceptually illustrates a flow chart of an exemplary user-vehicle tying program executed in the user-vehicle tying unit 310 together with a user identification support program executed in the user's communication terminal 90 . .

ユーザ・車両紐付けプログラムが起動すると、管理サーバ130は、まず、ステップS1931において、外側ラインセンサ50の受信機ポスト72の受信結果を表す信号を信号処理ユニット100から受信する。さらに、その信号に基づき、外側ラインセンサ50が少なくとも部分的にOFF状態であるか否か、すなわち、外側ラインセンサ50が何らかの物体を検出している(現在、駐車場20の出入り通路40上に物体が存在する)か否かを判定する。 When the user/vehicle linking program is activated, the management server 130 first receives a signal representing the reception result of the receiver post 72 of the outside line sensor 50 from the signal processing unit 100 in step S1931. Further, based on the signal, whether the outer line sensor 50 is at least partially OFF, that is, the outer line sensor 50 is detecting some object (currently, on the entrance/exit passage 40 of the parking lot 20). object exists).

外側ラインセンサ50が少なくとも部分的にOFF状態であるわけではない場合には、判定がNOとなり、ステップS1931に戻るが、外側ラインセンサ50が少なくとも部分的にOFF状態であるわけではない場合には、ステップS1931の判定がYESとなり、ステップS1932に移行する。 If the outer line sensor 50 is not at least partially OFF, a negative determination returns to step S1931, but if the outer line sensor 50 is not at least partially OFF. , the determination in step S1931 becomes YES, and the process proceeds to step S1932.

このステップS1932においては、前記ユーザIDを参照することにより、ユーザの通信端末90に、受信リクエストを送信する。 In this step S1932, a reception request is transmitted to the communication terminal 90 of the user by referring to the user ID.

これに対し、通信端末90は、ステップS1901において、複数の発信機60から信号を受信することを試行する。続いて、ステップS1902において、受信した各信号を実発信機IDに変換する。その後、ステップS1903において、その実発信機IDをユーザIDに関連付けて管理サーバ130に送信する。 On the other hand, communication terminal 90 attempts to receive signals from multiple transmitters 60 in step S1901. Subsequently, in step S1902, each received signal is converted into a real transmitter ID. Thereafter, in step S1903, the real transmitter ID is associated with the user ID and transmitted to management server .

これに対し、管理サーバ130は、ステップS1933において、その実発信機IDをユーザIDに関連付けて通信端末90から受信する。続いて、ステップS1934において、物体識別部112の実行結果である物体識別結果を信号処理ユニット100から受信する。その後、ステップS1935において、物体識別部112により、物体が車両30として識別されたか否かを判定する。 In response, management server 130 associates the real transmitter ID with the user ID and receives it from communication terminal 90 in step S1933. Subsequently, in step S 1934 , an object identification result, which is the execution result of the object identification section 112 , is received from the signal processing unit 100 . Thereafter, in step S1935, the object identification unit 112 determines whether or not the object has been identified as the vehicle 30. FIG.

物体識別部112により、物体が車両30として識別されていない場合には、その判定がNOとなり、ステップS1931に戻るが、物体が車両30として識別された場合には、ステップS1935の判定がYESとなり、ステップS1936において、通信端末90から受信した実発信機IDが外側ラインセンサ50に帰属するか否か、すなわち、外側ラインセンサ50の発信機ポスト62に属する複数の発信機60の複数の実発信機IDのうちのいずれかと一致するか否かを判定する。 If the object is not identified as the vehicle 30 by the object identification unit 112, the determination is NO, and the process returns to step S1931. If the object is identified as the vehicle 30, the determination in step S1935 is YES. , in step S1936, whether or not the actual transmitter ID received from the communication terminal 90 belongs to the outer line sensor 50, that is, the actual transmitter IDs of the multiple transmitters 60 belonging to the transmitter post 62 of the outer line sensor 50. It is determined whether or not it matches any of the machine IDs.

通信端末90から受信した実発信機IDが外側ラインセンサ50に帰属しない場合には、判定がNOとなり、ステップS1931に戻るが、帰属する場合には、その判定がYESとなり、ステップS1937において、今回の車両30に割り当てられた車両基準シルエット番号(ないしは車種)を信号処理ユニット100から受信する。 If the actual transmitter ID received from the communication terminal 90 does not belong to the outer line sensor 50, the determination is NO, and the process returns to step S1931. received from the signal processing unit 100 the vehicle reference silhouette number (or the vehicle type) assigned to the vehicle 30 of FIG.

続いて、管理サーバ130は、ステップS1938において、今回のユーザ(例えば、ユーザID)と今回の車両30(例えば、今回の車両基準シルエット番号(ないしは車種))とを紐付けする。その後、ステップS1939において、その紐付け結果を、図20に例示するように、ユーザ・車両紐付けリストにリスト化して保存する。 Subsequently, in step S1938, the management server 130 associates the current user (eg, user ID) with the current vehicle 30 (eg, current vehicle reference silhouette number (or vehicle type)). After that, in step S1939, the linking result is listed and saved in a user/vehicle linking list as illustrated in FIG.

[他の実施形態] [Other embodiments]

1.第1のアイデア 1. first idea

管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両(非生物としての移動体の一例)およびその車両の使用者であるユーザ(生物の一例)を識別して管理するシステムであって、
前記施設に設けられ、車両およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が車両であるか否かの判定を行う第1判定部と、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記車両の種類の判別を行う車両種類判別部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記物体識別処理、前記判定または前記判別に時間的に連動して前記車両を車両画像として撮影するものと、
前記施設または前記管理サーバに設けられ、前記撮影された車両画像に基づき、前記車両の識別情報である車両識別情報を取得する車両識別情報取得部と
を含む車両・ユーザ識別管理システム。
A vehicle (an example of a moving object as an inanimate object) entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and a user (an example of a living object) who uses the vehicle ) to identify and manage the
a passage provided in the facility and common to vehicles and users;
A line sensor installed in the passageway and extending in a direction intersecting the traveling direction of an object passing through the passageway, wherein the object is relatively scanned in its traveling direction to acquire the silhouette of the object. , which performs object identification processing based on its silhouette;
a first determination unit provided in the facility or the management server and configured to determine whether the object is a vehicle based on the acquired silhouette;
a vehicle type determination unit provided in the facility or the management server and configured to determine the type of the vehicle based on the acquired silhouette;
a photographing device provided in the facility for photographing an object positioned on the passage, wherein the vehicle is photographed as a vehicle image in conjunction with the object identification processing, the determination, or the determination in terms of time;
A vehicle/user identification management system, comprising: a vehicle identification information acquisition unit provided in the facility or the management server for acquiring vehicle identification information, which is identification information of the vehicle, based on the captured vehicle image.

さらに、
前記施設に設けられ、固有の信号を発信する発信機と、
前記車両内に居るユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記施設のIDに関連付けて前記管理サーバに送信するものと
を含み、
前記管理サーバは、前記施設と、前記車両の種類と、前記車両識別情報と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する車両・ユーザ識別管理システム。
moreover,
a transmitter that is provided in the facility and transmits a unique signal;
A communication terminal of a user in the vehicle, which, when receiving a signal from the transmitter, transmits a user ID or a terminal ID of the communication terminal in response to the signal in association with the ID of the facility to the management server. and
A vehicle/user identification management system in which the management server associates the facility, the vehicle type, the vehicle identification information, and the user ID or terminal ID with each other and registers these elements in a list.

2.第2のアイデア 2. second idea

管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両(非生物としての移動体の一例)およびその車両の使用者であるユーザ(生物の一例)を識別して管理するシステムであって、
前記施設に設けられ、車両およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が人間であるか否かの判定を行う第2判定部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記物体識別処理または前記判定に時間的に連動して前記ユーザを人間画像として撮影するものと
を含む車両・ユーザ識別管理システム。
A vehicle (an example of a moving object as an inanimate object) entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and a user (an example of a living object) who uses the vehicle ) to identify and manage the
a passage provided in the facility and common to vehicles and users;
A line sensor installed in the passageway and extending in a direction intersecting the traveling direction of an object passing through the passageway, wherein the object is relatively scanned in its traveling direction to acquire the silhouette of the object. , which performs object identification processing based on its silhouette;
a second determination unit provided in the facility or the management server and configured to determine whether the object is a person based on the acquired silhouette;
A photographing device provided in the facility for photographing an object located on the passageway, which photographs the user as a human image in conjunction with the object identification processing or the determination in terms of time. User identification management system.

さらに、
前記施設に設けられ、固有の信号を発信する発信機と、
前記車両内に居るユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記施設のIDに関連付けて前記管理サーバに送信するものと
を含み、
前記管理サーバは、前記施設と、前記人間画像と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する車両・ユーザ識別管理システム。
moreover,
a transmitter that is provided in the facility and transmits a unique signal;
A communication terminal of a user in the vehicle, which, when receiving a signal from the transmitter, transmits a user ID or a terminal ID of the communication terminal in response to the signal in association with the ID of the facility to the management server. and
A vehicle/user identification management system in which the management server associates the facility, the human image, and the user ID or terminal ID with each other and registers these elements in a list.

3.第3のアイデア 3. Third idea

管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両(非生物としての移動体の一例)およびその車両の使用者であるユーザ(生物の一例)を識別して管理するシステムであって、
前記施設に設けられ、車両およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が車両であるか人間であるかを判別する判別部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置と、
前記施設または前記管理サーバに設けられ、前記撮影された物体画像を、前記物体が車両であると判別された場合には、車両画像として分類し、前記物体が人間であると判別された場合には、ユーザの人間画像として分類する画像分類部と、
前記施設または前記管理サーバに設けられ、前記撮影された車両画像に基づき、前記車両に関連する車両関連情報を取得する車両関連情報取得部と
を含む車両・ユーザ識別管理システム。
A vehicle (an example of a moving object as an inanimate object) entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and a user (an example of a living object) who uses the vehicle ) to identify and manage the
a passage provided in the facility and common to vehicles and users;
A line sensor installed in the passageway and extending in a direction intersecting the traveling direction of an object passing through the passageway, wherein the object is relatively scanned in its traveling direction to acquire the silhouette of the object. , which performs object identification processing based on its silhouette;
a determination unit provided in the facility or the management server and configured to determine whether the object is a vehicle or a person based on the acquired silhouette;
a photographing device provided in the facility for photographing an object positioned on the passage;
Classify the photographed object image provided in the facility or the management server as a vehicle image when the object is determined to be a vehicle, and classify the object image as a vehicle image when the object is determined to be a human being. is an image classification unit that classifies as a user's human image;
A vehicle/user identification management system, comprising: a vehicle-related information acquisition unit provided in the facility or the management server, and acquiring vehicle-related information related to the vehicle based on the captured vehicle image.

さらに、
前記施設に設けられ、固有の信号を発信する発信機と、
前記車両内に居るユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記施設のIDに関連付けて前記管理サーバに送信するものと
を含み、
前記管理サーバは、前記施設と、前記車両関連情報または前記人間画像と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する車両・ユーザ識別管理システム。
moreover,
a transmitter that is provided in the facility and transmits a unique signal;
A communication terminal of a user in the vehicle, which, when receiving a signal from the transmitter, transmits a user ID or a terminal ID of the communication terminal in response to the signal in association with the ID of the facility to the management server. and
A vehicle/user identification management system in which the management server associates the facility, the vehicle-related information or the human image, and the user ID or terminal ID with each other, and registers these elements in a list.

4.第1の実施例 4. First embodiment

管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両およびその車両の使用者であるユーザを識別して管理する方法であって、
前記施設は、
車両およびユーザに共通の通路であって、互いに離れた第1位置および第2位置を有し、車両またはユーザである物体が前記通路を前記第1位置から前記第2位置に向かって進行すると前記施設内に進入し、逆に、前記通路を前記第2位置から前記第1位置に向かって進行すると前記施設から退出することになるものと、
前記第1位置に設置された第1ラインセンサであって、そこを通過する物体のシルエットを電磁波の照射によって取得するものと、
その第1ラインセンサからの信号に基づき、前記物体が車両であるか人間であるかを判別する第1信号処理回路と、
その第1信号処理回路の処理結果を前記管理サーバに送信する第1通信装置と、
前記通路上に位置する物体を撮影する撮影装置と、
前記第1位置またはその近傍に設置され、固有の信号を発信する第1発信機と
を含み、
当該方法は、
物体が前記第2位置より先に前記第1位置に到達すると、前記第1ラインセンサおよび前記第1信号処理回路により、前記物体が車両であるかユーザであるかを判別する工程と、
前記第1位置において、前記物体が車両であると判定されると、前記車両が前記駐車場に入庫する車両入庫段階にあると判定する工程と、
その車両入庫段階にあると判定されると、前記車両内に居るユーザの通信端末が、前記第1発信機からの信号を受信し、それに応答して、前記信号によって識別される駐車場IDを駐車場情報として、また、ユーザIDまたは前記通信端末の端末IDをユーザ情報として前記管理サーバに送信する工程と、
前記第1位置において、前記物体が車両であると判定されると、前記撮影装置によって前記車両を撮影し、その撮影結果から、予め定められた種類の情報を車両情報として抽出し、前記第1通信装置が、前記抽出された車両情報を前記駐車場IDと共に前記管理サーバに送信する工程と、
前記管理サーバが、同じ駐車場IDに関連付けて、前記ユーザ情報と前記車両情報とを互いに紐付けし、その結果を管理リストに登録する工程と
を含むもの。
A method for identifying and managing vehicles entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and users of the vehicles, comprising:
Said facility is
A passageway common to a vehicle and a user and having first and second locations spaced apart from each other, wherein when an object, being a vehicle or user, travels through the passageway from the first location toward the second location, the entering the facility and, conversely, following the passageway from the second location toward the first location will result in exiting the facility;
a first line sensor installed at the first position, which acquires a silhouette of an object passing therethrough by irradiation with electromagnetic waves;
a first signal processing circuit that determines whether the object is a vehicle or a person based on the signal from the first line sensor;
a first communication device that transmits a processing result of the first signal processing circuit to the management server;
a photographing device for photographing an object positioned on the passage;
a first transmitter that is installed at or near the first position and emits a unique signal,
The method is
determining whether the object is a vehicle or a user by the first line sensor and the first signal processing circuit when the object reaches the first position before the second position;
a step of determining that the vehicle is in a vehicle entering stage in which the vehicle enters the parking lot when the object is determined to be a vehicle at the first position;
When it is determined that the vehicle is in the parking stage, the communication terminal of the user in the vehicle receives the signal from the first transmitter and, in response, transmits the parking lot ID identified by the signal. a step of transmitting a user ID or a terminal ID of the communication terminal as user information to the management server as parking lot information;
When the object is determined to be a vehicle at the first position, the vehicle is photographed by the photographing device, a predetermined type of information is extracted as vehicle information from the photographed result, and the first a communication device transmitting the extracted vehicle information together with the parking lot ID to the management server;
A step in which the management server associates the user information and the vehicle information with each other by associating them with the same parking lot ID, and registers the result in a management list.

5.第2の実施例 5. Second embodiment

さらに、
前記第2位置に設置された第2ラインセンサであって、そこを通過する物体のシルエットを電磁波の照射によって取得するものと、
その第2ラインセンサからの信号に基づき、前記物体が車両であるか人間であるかを判別する第2信号処理回路と、
その第2信号処理回路の処理結果を前記管理サーバに送信する第2通信装置と、
前記第2位置またはその近傍に設置された第2発信機であって、固有の信号を発信するものと
を含み、
当該方法は、
物体が前記第1位置より先に前記第2位置に到達すると、前記第2ラインセンサおよび前記第2信号処理回路により、前記物体が車両であるかユーザであるかを判別する工程と、
前記第2位置において、前記物体がユーザであると判定されると、ユーザが前記車両から降りて単独で歩行して前記駐車場から退場するユーザ退場段階にあると判定する工程と、
そのユーザ退場段階にあると判定されると、歩行中のユーザの通信端末が、前記第2発信機からの信号を受信し、それに応答して、前記信号によって識別される駐車場IDを駐車場情報として、また、ユーザIDまたは前記通信端末の端末IDを第2ユーザ情報として前記管理サーバに送信する工程と、
前記第2位置において、前記物体がユーザであると判定されると、前記撮影装置によってユーザの人間画像(人物像)を撮影し、前記第2通信装置が、前記人間画像を前記駐車場IDと共に前記管理サーバに送信する工程と、
前記管理サーバが、同じ駐車場IDに関連付けて、前記第2ユーザ情報と前記人間画像とを互いに紐付けし、その結果を前記管理リストに登録する工程と
を含むもの。
moreover,
a second line sensor installed at the second position, which obtains a silhouette of an object passing therethrough by irradiation with electromagnetic waves;
a second signal processing circuit that determines whether the object is a vehicle or a person based on the signal from the second line sensor;
a second communication device that transmits the processing result of the second signal processing circuit to the management server;
a second transmitter located at or near the second location, which emits a unique signal;
The method is
determining whether the object is a vehicle or a user by the second line sensor and the second signal processing circuit when the object reaches the second position before the first position;
determining that the user is in a user exit stage in which the user exits the vehicle and walks alone to exit the parking lot when the object is determined to be the user at the second position;
When it is determined that the user is in the leaving phase, the communication terminal of the walking user receives the signal from the second transmitter and, in response, transmits the parking lot ID identified by the signal to the parking lot. a step of transmitting a user ID or a terminal ID of the communication terminal as second user information to the management server as information;
When it is determined that the object is the user at the second position, the image capturing device captures a human image (human image) of the user, and the second communication device captures the human image together with the parking lot ID. sending to the management server;
A step in which the management server associates the second user information and the human image with the same parking lot ID, and registers the result in the management list.

6.ハードウエア構成(図21(a)参照) 6. Hardware configuration (see FIG. 21(a))

(1)物体識別用の第1および第2ラインセンサ50,52
物体識別用に、その物体の進行方向における上流側の第1位置に設置される第1ラインセンサ(図21に示す例においては、例えば、入庫段階に注目すると、外側ラインセンサ50が該当する)と、物体識別用に、その物体の進行方向における下流側の第2位置に設置される第2ラインセンサ(図21に示す例においては、例えば、入庫段階に注目すると、内側ラインセンサ52が該当する)が使用される。
(1) First and second line sensors 50, 52 for object identification
A first line sensor installed at a first position on the upstream side in the traveling direction of the object for object identification (in the example shown in FIG. 21, for example, focusing on the warehousing stage, the outer line sensor 50 corresponds) and a second line sensor installed at a second position on the downstream side in the traveling direction of the object for object identification (in the example shown in FIG. 21, for example, when focusing on the warehousing stage, the inner line sensor 52 corresponds ) is used.

(2)ユーザが現在居る駐車場をユーザ端末90を用いて識別することを可能にする駐車場識別用の発信機60
この駐車場識別用の発信機は、駐車場20に固有であるとともに当該発信機に固有の信号を近距離無線方式でユーザ端末90に向けて発信する機能を有する。この駐車場識別用の発信機は、図21に示す例においては、外側および内側ラインセンサ50,52に搭載されている複数台の発信機60のうちの少なくとも一つである。
この駐車場識別用の発信機は、別の例においては、図示しないが、前記第1および第2ラインセンサに搭載されている複数台の発信機とは別に、対応する駐車場20に専用に設置される少なくとも1台の発信機である。
(2) A parking lot identification transmitter 60 that enables the user to identify the parking lot where the user is currently located using the user terminal 90
This parking lot identification transmitter has a function of transmitting a signal unique to the parking lot 20 and unique to the transmitter to the user terminal 90 by a short-range wireless method. In the example shown in FIG. 21, this parking lot identification transmitter is at least one of a plurality of transmitters 60 mounted on the outer and inner line sensors 50 and 52 .
In another example, although not shown, this parking lot identification transmitter is dedicated to the corresponding parking lot 20 separately from the plurality of transmitters mounted on the first and second line sensors. At least one transmitter installed.

(3)撮影装置300
駐車場20内の物体を動画または静止画として撮影するために 撮影装置が使用される。この撮影装置の一例は、デジタルカメラ300である。
(3) Imaging device 300
A photographing device is used to photograph objects in the parking lot 20 as moving images or still images. An example of this imaging device is the digital camera 300 .

この撮影装置は、対応する駐車場20に設置され、具体的には、例えば、図示するように、外側ラインセンサ50に設置されてもよいし、図示しないが、内側ラインセンサ52に設置されてもよいし、図示しないが、いずれのラインセンサ50,52からも外れた位置に設置してもよい。 This photographing device is installed in the corresponding parking lot 20. Specifically, for example, it may be installed in the outer line sensor 50 as shown in the figure, or may be installed in the inner line sensor 52 (not shown). Alternatively, although not shown, it may be installed at a position away from any of the line sensors 50 and 52 .

図示の例においては、カメラ300は、車両30が駐車場20の出入り通路40に沿って駐車場20内に進入する際に、その車両30が下流側の第2位置に至ると、その車両30を撮影し、その結果、車両30の後端面にあるナンバープレート31が撮影される。 In the illustrated example, when the vehicle 30 enters the parking lot 20 along the entrance/exit passage 40 of the parking lot 20, the camera 300 detects the position of the vehicle 30 when the vehicle 30 reaches the second downstream position. is photographed, and as a result, the license plate 31 on the rear end surface of the vehicle 30 is photographed.

さらに、図示の例においては、カメラ300は、車両30が駐車場20内のある車室内に進入し、ユーザがその車両30から降り、単独で今回の駐車場20から退場する際、ユーザが前記第2位置に至ると、そのユーザを撮影し、その結果、そのユーザの全体人物像、具体的には、そのユーザの全体正面像または全体背面像、特に、そのユーザの顔画像が撮影される。 Further, in the illustrated example, when the vehicle 30 enters a vehicle interior in the parking lot 20 and the user gets out of the vehicle 30 and exits the parking lot 20 alone this time, the camera 300 detects the above-mentioned When the second position is reached, the user is photographed, and as a result, the entire figure of the user, specifically the whole front image or the whole rear image of the user, especially the face image of the user is photographed. .

さらに、図示の例においては、カメラ300は、車両30を駐車場20内のある車室から退出させるために、そのユーザが単独で今回の駐車場20内に入場する際、ユーザが前記第2位置に至ると、そのユーザを撮影し、その結果、そのユーザの全体人物像、具体的には、そのユーザの全体背面像が撮影される。 Further, in the illustrated example, the camera 300 allows the user to enter the parking lot 20 by himself in order to let the vehicle 30 exit from a certain compartment in the parking lot 20. Once in position, the user is photographed, resulting in a full portrait of the user, specifically a full back view of the user.

(4)物体識別システム10内の信号処理ユニット100
前述の第1および第2の実施形態について詳述したのと同じように、図21に示す例においては、信号処理ユニット100が、駆動信号を各ラインセンサ50,52に出力することによって各ラインセンサ50,52を一斉にまたはシーケンシャルに駆動させ、さらに、各ラインセンサ50,52からセンサ信号を一斉にまたはシーケンシャルに受信する。
(4) Signal processing unit 100 in object identification system 10
In the example shown in FIG. 21, the signal processing unit 100 outputs drive signals to the line sensors 50 and 52 to drive each line, as in the first and second embodiments described above. Sensors 50 and 52 are driven simultaneously or sequentially, and sensor signals are received simultaneously or sequentially from each line sensor 50 and 52 .

さらに、信号処理ユニット100は、駆動信号をカメラ300に出力することによってカメラ300を駆動させ、さらに、そのカメラ300から画像信号を受信する。 Further, the signal processing unit 100 drives the camera 300 by outputting drive signals to the camera 300 and further receives image signals from the camera 300 .

(5)管理サーバ130
管理サーバ130は、対応する駐車場20の遠隔地に設置されている管理センタ130に設置される。管理サーバ130は、典型的には、地理的に互いに異なる複数の駐車場20を集中的に遠隔管理する。
(5) Management server 130
The management server 130 is installed in a management center 130 installed in a remote location of the corresponding parking lot 20 . The management server 130 typically centrally and remotely manages a plurality of geographically different parking lots 20 .

(6)通信装置200
通信装置200は、駐車場20において、その駐車場20に設置されている物体識別システム10と、遠隔地にある管理センタ130に設置されている管理サーバ130との間で通信を行う機能を有する。
(6) Communication device 200
The communication device 200 has a function of communicating between the object identification system 10 installed in the parking lot 20 and the management server 130 installed in the remote management center 130. .

通信装置200は、物体識別システム10との間では、無線または有線で接続されてもよいが、管理サーバ130との間では、典型的には、無線で接続される。 The communication device 200 may be wirelessly or wiredly connected to the object identification system 10 , but is typically wirelessly connected to the management server 130 .

通信装置200は、前記第1および第2ラインセンサ50,52にそれぞれ個別に設置されてもよいし、それらラインセンサ50,52に共通に、すなわち、対応する駐車場20に設置されてもよい。 The communication device 200 may be installed individually on the first and second line sensors 50 and 52, or may be installed commonly on the line sensors 50 and 52, that is, on the corresponding parking lot 20. .

(7)駐車対象としての車両30
図21(a)に示すように、車両30は、それの前端面と後端面とにそれぞれ、ナンパプレート31を有し、いずれのナンバープレート31にも、対応する車両30に固有の車両番号(車両登録番号)が不動表示される。
(7) Vehicle 30 as a parking target
As shown in FIG. 21(a), a vehicle 30 has pick-up plates 31 on its front end surface and rear end surface, respectively. vehicle registration number) is displayed immovably.

(8)駐車場20内における車両30およびユーザの挙動
同図(b)には、表があり、その表には、駐車場20に対して入庫が行われる段階と出庫が行われる段階とのそれぞれにつき、各段階の継続中に観察される一連のフェーズが定義されている。
(8) Behavior of the vehicle 30 and the user in the parking lot 20 In FIG. For each, a series of phases are defined that are observed during each stage.

さらに、その表には、複数のフェーズのうちのいくつかに関連付けて、対応するフェーズ中に実行される例示的なプログラムを概念的に表すフローチャートが示されている図面が参照図面として記載されている。 Further, the table includes, in association with some of the phases, reference drawings showing flow charts conceptually representing exemplary programs executed during the corresponding phases. there is

7.ソフトウエア構成 7. Software configuration

<物体が駐車場20内に進入する際> <When an object enters the parking lot 20>

物体が、その進入方向における上流側の第1位置に到達すると、その第1位置において、前記物体の左右方向のシルエットを第1ラインセンサ50を用いて取得し、そのシルエットから前記物体が車両30であるか人間であるかを判定し、車両であると判定された場合には、ユーザが車両を運転して駐車場20内のある車室内に入庫する段階にあると判定する。 When the object reaches a first position on the upstream side in the approach direction, the first line sensor 50 acquires the silhouette of the object in the left-right direction at the first position. If it is determined that the user is a vehicle, it is determined that the user is in the stage of driving the vehicle and entering a compartment in the parking lot 20 .

<第1位置において、物体が車両30であると判定された場合(ユーザが車両30を運転して(乗車状態で)駐車場20内に入庫する段階> <When it is determined that the object is the vehicle 30 at the first position (the stage in which the user drives the vehicle 30 (in a riding state) and enters the parking lot 20>)

信号処理ユニット100は、前記第1位置において、前述のいくつかの実施形態におけるように、外側ラインセンサ50からのセンサ信号(一列に並んだ複数の受信機70からの複数の個別センサ信号の列)、ひいては、スキャン結果としての時系列の複数のセンサ信号によって表されるシルエット画像を用いて物体が車両30であると判定すると、その車両30の種別を判定し、いずれかの種別の車両30であると判定されると、その判定結果を通信装置200が第1の車両情報(例えば、車両であることと、その車両の種別である車種)として管理サーバ130に送信する。 In the first position, the signal processing unit 100 receives the sensor signal from the outer line sensor 50 (a train of individual sensor signals from multiple receivers 70 in line), as in some of the previous embodiments. ), and furthermore, when it is determined that the object is a vehicle 30 using a silhouette image represented by a plurality of time-series sensor signals as a scanning result, the type of the vehicle 30 is determined, and any type of vehicle 30 is determined. When it is determined that it is, the communication device 200 transmits the determination result to the management server 130 as the first vehicle information (for example, the vehicle and the type of the vehicle).

その後、信号処理ユニット100は、車両30が前記第1位置より進入方向下流側にある第2位置に到達すると、その到達タイミングで車両30をカメラ300を用いて静止画または動画として撮影し、その撮影結果を通信装置200から第2の車両情報(例えば、車両の外観である車両画像、撮影されたナンバープレート31から認識された車両番号)として管理サーバ130に送信する。 After that, when the vehicle 30 reaches a second position downstream of the first position in the direction of entry, the signal processing unit 100 captures a still image or a moving image of the vehicle 30 using the camera 300 at the arrival timing. The photographed result is transmitted from the communication device 200 to the management server 130 as second vehicle information (for example, a vehicle image that is the appearance of the vehicle, the vehicle number recognized from the photographed license plate 31).

さらに、信号処理ユニット100は、同じ車両30が前記第1位置および前記第2位置をそれらの順に通過したときに、その車両30が駐車場20に入庫している段階にあると判定する。 Further, the signal processing unit 100 determines that the vehicle 30 is in the parking lot 20 stage when the same vehicle 30 passes through the first position and the second position in that order.

一方、車両30に乗車しているユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末ID(またはユーザID,ユーザ電話番号、ユーザ用の電子メールアドレスなど)をユーザ情報として管理サーバ130に送信する。 On the other hand, when the communication terminal 90 carried by the user riding in the vehicle 30 receives the signal from the transmitter 60, it responds with a terminal ID unique to the communication terminal 90 (or a user ID, a user phone number, etc.). number, e-mail address for the user, etc.) is transmitted to the management server 130 as user information.

管理サーバ130は、結果的に、今回のユーザに関連付けて、そのユーザの通信端末90の端末IDと、そのユーザの車両30の種別(車種)と、その車両30の車両番号とを互いに紐付けし、その結果を図25に例示する車両・ユーザ管理リストに登録する。 As a result, the management server 130 associates the current user with the terminal ID of the communication terminal 90 of the user, the type (vehicle type) of the vehicle 30 of the user, and the vehicle number of the vehicle 30. Then, the result is registered in the vehicle/user management list illustrated in FIG.

以上、概略的に説明した信号処理は、後に図22-図24を参照することにより、さらに具体的に例示する。 The signal processing that has been outlined above will be illustrated in more detail later with reference to FIGS. 22 to 24. FIG.

<第1位置において、物体が人間であると判定された場合(ユーザが単独で駐車場20内に入場する場合)> <When the object is determined to be a person at the first position (when the user enters the parking lot 20 alone)>

信号処理ユニット100は、前記第1位置において、物体が人間であると判定した後、その人間(ユーザ)が前記第2位置に到達すると、その到達タイミングでカメラ300を用いてユーザを静止画または動画として撮影し、その撮影結果を通信装置200から第2の人間情報(人物像)として管理サーバ130に送信する。 After determining that the object is a person at the first position, when the person (user) reaches the second position, the signal processing unit 100 uses the camera 300 at the arrival timing to capture the user as a still image or A moving image is captured, and the captured result is transmitted from the communication device 200 to the management server 130 as second human information (human image).

さらに、信号処理ユニット100は、同じ人間が前記第1位置および前記第2位置をそれらの順に通過したときに、その人間が単独で駐車場20内に入場していると判定する。 Further, the signal processing unit 100 determines that the same person enters the parking lot 20 alone when the same person passes the first position and the second position in that order.

一方、歩行中のユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末IDをユーザ情報として管理サーバ130に送信する。 On the other hand, when the communication terminal 90 carried by the walking user receives the signal from the transmitter 60, in response, the terminal ID unique to the communication terminal 90 is transmitted to the management server 130 as user information.

管理サーバ130は、結果的に、今回のユーザに関連付けて、そのユーザの人物像と、そのユーザの通信端末の端末IDとを互いに紐付けする。 As a result, the management server 130 associates the current user with the person image of the user and the terminal ID of the communication terminal of the user.

以上、概略的に説明した信号処理は、後に図22,図28および図29を参照することにより、さらに具体的に例示する。 The signal processing briefly described above will be illustrated in more detail later with reference to FIGS. 22, 28 and 29. FIG.

<物体が駐車場20から退出する際> <When an object leaves the parking lot 20>

物体が前記第2位置に到達すると、その第2位置において、物体の左右方向のシルエットを第2ラインセンサ52を用いて取得し、そのシルエットから前記物体が人間であるか車両であるかを判定する。 When the object reaches the second position, the second line sensor 52 is used to obtain a lateral silhouette of the object at the second position, and it is determined from the silhouette whether the object is a person or a vehicle. do.

<第2位置において、物体が人間であると判定された場合> <When the object is determined to be a person at the second position>

信号処理ユニット100は、前記第2位置において、前記物体が人間であると判定したタイミングで前記人間をカメラ300を用いて人物像として静止画または動画として撮影し、その人物像を第1の人間情報として通信装置200から管理サーバ130に送信する。 At the second position, the signal processing unit 100 captures the human as a still image or a moving image using the camera 300 at the timing when the object is determined to be a human, and uses the human image as a first human. It is transmitted from the communication device 200 to the management server 130 as information.

さらに、信号処理ユニット100は、同じ人間が前記第2位置および前記第1位置をそれらの順に通過したときに、その人間が単独で駐車場20から退場していると判定する。 Furthermore, the signal processing unit 100 determines that the same person exits the parking lot 20 alone when the same person passes the second position and the first position in that order.

一方、歩行中のユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末IDをユーザ情報として管理サーバ130に送信する。 On the other hand, when the communication terminal 90 carried by the walking user receives the signal from the transmitter 60, in response, the terminal ID unique to the communication terminal 90 is transmitted to the management server 130 as user information.

管理サーバ130は、新たに受信したユーザ情報と、保存してある別のユーザ情報との照合により、今回のユーザを識別するとともに、そのユーザに、前記人物像を割り当てる。 The management server 130 identifies the current user by matching the newly received user information with the saved other user information, and assigns the person image to the user.

以上、概略的に説明した信号処理は、後に図23,図26および図27を参照することにより、さらに具体的に例示する。 The signal processing briefly described above will be illustrated in more detail later with reference to FIGS. 23, 26 and 27. FIG.

<第2位置において、物体が車両30であると判定された場合> <When it is determined that the object is the vehicle 30 at the second position>

信号処理ユニット100は、前記第2位置において、前記物体が車両30であると判定したタイミングで車両30をカメラ300を用いて静止画または動画として撮影し、その撮影結果を通信装置200から管理サーバ130に送信する。 At the second position, the signal processing unit 100 shoots the vehicle 30 as a still image or a moving image using the camera 300 at the timing when the object is determined to be the vehicle 30, and transmits the shooting result from the communication device 200 to the management server. 130.

さらに、信号処理ユニット100は、同じ車両30が前記第2位置および前記第1位置をそれらの順に通過したときに、その車両30が駐車場20から出庫している段階にあると判定する。 Further, the signal processing unit 100 determines that the vehicle 30 is in the stage of leaving the parking lot 20 when the same vehicle 30 passes the second position and the first position in that order.

一方、車両30に乗車しているユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末IDをユーザ情報として管理サーバ130に送信する。 On the other hand, when the communication terminal 90 carried by the user on board the vehicle 30 receives the signal from the transmitter 60, in response, the management server 130 receives the terminal ID unique to the communication terminal 90 as user information. Send to

管理サーバ130は、新たに受信したユーザ情報と、保存してある別のユーザ情報との照合により、今回のユーザを識別するとともに、そのユーザに、前記人物像を割り当てる。 The management server 130 identifies the current user by matching the newly received user information with the saved other user information, and assigns the person image to the user.

以上、概略的に説明した信号処理は、後に図23および図30を参照することにより、さらに具体的に例示する。 The signal processing that has been outlined above will be illustrated in more detail later with reference to FIGS. 23 and 30. FIG.

任意選択的な複数の特徴 Multiple optional features

(1) ユーザが車両30内に乗車していることを示す証拠を取得するためのカメラ300の撮影方法 (1) Method of photographing by camera 300 for acquiring evidence showing that user is in vehicle 30

前記到達タイミングで、車両30の車室内の様子であって車両30内に誰が乗車しているのかを表すものをカメラ300を用いて撮像し、その撮像結果を通信装置200が乗車状態情報として管理サーバ130に送信する。 At the arrival timing, the camera 300 is used to capture an image of the interior of the vehicle 30 that indicates who is in the vehicle 30, and the communication device 200 manages the imaged result as boarding state information. Send to server 130 .

(2)場合分け (2) Case classification

入場前に既に専用アプリが通信端末90にダウンロードされている場合(第1位置において、管理サーバ130がシルエット情報も端末IDも受信した場合)
入場後に初めて専用アプリが通信端末90にダウンロードされる場合(第1位置において、管理サーバ130がシルエット情報は受信したが端末IDは受信しなかった場合)
When the dedicated application has already been downloaded to the communication terminal 90 before entering (when the management server 130 receives both the silhouette information and the terminal ID at the first location)
When the dedicated application is downloaded to the communication terminal 90 for the first time after entering (at the first location, the management server 130 receives the silhouette information but does not receive the terminal ID).

(3)高さが異なる複数のカメラ300の設置 (3) Installation of multiple cameras 300 with different heights

複数のカメラ300が、高さ位置が互いに異なるように設置されており、それらカメラ300のうち、車両30の種別であってその車両の高さ寸法に関して分類されたものに該当するものを選択し、そのカメラ300を用いて車両30を撮影する。それらカメラ300は、車両30のナンバープレート31と同じ高さに設置されたカメラを含む。 A plurality of cameras 300 are installed so that their height positions are different from each other, and one of the cameras 300 corresponding to the type of vehicle 30 classified with respect to the height dimension of the vehicle is selected. , the camera 300 is used to photograph the vehicle 30 . Those cameras 300 include cameras installed at the same height as the license plate 31 of the vehicle 30 .

(4)撮影写真の選択 (4) Select photo

カメラ300は、撮像時に、連写することにより、複数枚の写真を時系列的に撮影し、それら複数枚の写真のうち、注目すべき対象についてピントが合っているものを選択し、それを用いて、データベースを作成する。 The camera 300 shoots a plurality of photographs in time series by continuous shooting at the time of imaging, selects a photograph in which a target of interest is in focus from among the plurality of photographs, and selects the photograph. Create a database using

(5)駐車場20のユーザには、事前に個人登録した会員と、そうではない非会員とに分類される。ユーザが会員である場合には、個人情報が管理センタ124に事前に登録されているため、ユーザには、駐車場20において不正行為を行うことに対する抑止力を心理的に受けるのに対し、非会員である場合には、そのような抑止力がユーザに対して働かない。 (5) Users of the parking lot 20 are classified into members who have personally registered in advance and non-members. If the user is a member, the personal information is registered in the management center 124 in advance. If you are a member, no such deterrent will work against you.

さらに、ユーザが会員である場合には、ユーザの通信端末90に、専用アプリが事前にインストールされており、通信端末90は、駐車場20の発信機60からの信号を受信すると、それを解釈し、さらに、その受信に応答して管理サーバ130に送信することができる。 Furthermore, when the user is a member, a dedicated application is pre-installed on the user's communication terminal 90, and the communication terminal 90 receives a signal from the transmitter 60 of the parking lot 20 and interprets it. and may be further transmitted to management server 130 in response to its receipt.

その結果、管理サーバ130上において、ユーザIDまたは通信端末90の端末IDと、同じユーザについての駐車関連情報(例えば、前述のシルエットに基づく車両30の種別など)とを互いに紐付けることができる。 As a result, on the management server 130, the user ID or the terminal ID of the communication terminal 90 and the parking-related information about the same user (for example, the type of the vehicle 30 based on the aforementioned silhouette) can be associated with each other.

これに対し、ユーザが非会員である場合には、会員である場合とは異なり、ユーザの通信端末90には上述の専用アプリが事前にインストールされておらず、そのため、駐車場20の発信機60からの信号を受信しても、それを解釈することも、それに応答して管理サーバ130に送信することもできない。 On the other hand, when the user is a non-member, unlike the case where the user is a member, the above-mentioned dedicated application is not pre-installed in the user's communication terminal 90, and therefore the transmitter of the parking lot 20 60, it cannot interpret it or transmit it to management server 130 in response.

そのため、管理サーバ130上において、ユーザIDまたは通信端末90の端末IDと、同じユーザについての駐車関連情報とを互いに紐付けることができない。 Therefore, on the management server 130, the user ID or the terminal ID of the communication terminal 90 and the parking-related information about the same user cannot be associated with each other.

そこで、後者の場合には、駐車場20に設置されたカメラ300によって車両ナンバープレート31を撮影し、さらに、そのカメラ300または別のカメラによってユーザの人物像を撮影する。さらに、前述のシルエットに基づく車両30の種別と車両ナンバープレート31とのうちの少なくとも一方と、ユーザの人物像とを互いに紐付ける。それにより、非会員であるユーザの駐車場20内での行動を監視し、不正行為があれば、それを証明する証拠として、車両ナンバープレート31および人物像を利用する。 Therefore, in the latter case, the vehicle license plate 31 is photographed by the camera 300 installed in the parking lot 20, and the image of the user is photographed by the camera 300 or another camera. Furthermore, at least one of the type of vehicle 30 and the vehicle license plate 31 based on the silhouette described above and the user's portrait are associated with each other. Thereby, the behavior of non-member users in the parking lot 20 is monitored, and if there is fraudulent activity, the vehicle license plate 31 and the person's image are used as evidence to prove it.

さらに、駐車場20に2次元ディスプレイ(例えば、LCDディスプレイまたはそれより解像度が低いLEDディスプレイ)を、ユーザが容易に視認可能な位置に設置する。その2次元ディスプレイの画面上に、前述の車両シルエット画像(ラインセンサ50,52による1次元画像を2次元画像に展開したもの)を、場合によっては、カメラ300で撮影した車両30の画像から抽出された色を付加して表示する。 Furthermore, a two-dimensional display (for example, an LCD display or an LED display with a lower resolution) is installed in the parking lot 20 at a position that is easily visible to the user. On the screen of the two-dimensional display, the above-mentioned vehicle silhouette image (one-dimensional image obtained by the line sensors 50 and 52 is developed into a two-dimensional image) is extracted from the image of the vehicle 30 photographed by the camera 300 depending on the case. display with added colors.

前記2次元ディスプレイは、駐車場20に車両30を駐車してその車両30から降車して歩行して駐車場20から退出しようとしているユーザに対し、そのユーザの車両シルエット画像を表示する。 The two-dimensional display displays a vehicle silhouette image of the user who parks the vehicle 30 in the parking lot 20 , gets off the vehicle 30 , and walks out of the parking lot 20 .

この際、前記2次元ディスプレイは、統計的に、駐車場20において不正行為が増加する時間帯、例えば、夜間においても、車両シルエット画像を表示してもよい。 At this time, the two-dimensional display may statistically display the vehicle silhouette image even during a time period when illegal activities increase in the parking lot 20, for example, at night.

また、前記2次元ディスプレイは、自身かまたはラインセンサ50,52がユーザを感知したときに(物体が人間であると判別したときに)、それに応答して、車両シルエット画像をタイムリーに、特定のユーザを標的にして、表示してもよい。このようにすれば、ユーザが個別に監視されているという圧力を効果的にユーザに作用させることが可能となる。 In addition, when the two-dimensional display itself or the line sensors 50 and 52 sense the user (when the object is determined to be a person), the two-dimensional display timely identifies the vehicle silhouette image in response. users may be targeted and displayed. In this way, it is possible to effectively exert pressure on the user that the user is being individually monitored.

それにより、そのユーザは、前記2次元ディスプレイの画面上に現に表示されている車両シルエット画像が、自身の車両30のものであると気付く可能性がある。そうすると、そのユーザは、自分の行動が、知らないうちに、駐車場20によって個別に監視されている(通常の監視カメラによって全体的に監視されているのとは異なる方法で)と連想するかもしれない。 Thereby, the user may realize that the vehicle silhouette image currently displayed on the screen of the two-dimensional display is that of his/her own vehicle 30 . The user may then unknowingly associate their actions with being individually monitored by the parking lot 20 (in a different way than being generally monitored by a normal surveillance camera). unknown.

このことは、ユーザに対し、不正行為を抑止する心理的な圧力として作用するかもしれない。その結果、ユーザが非会員であることを理由に、不正行為が増加することを予防することが容易となる。 This may act as psychological pressure on the user to deter fraudulent behavior. As a result, it becomes easy to prevent an increase in fraud due to the user being a non-member.

[第3の実施形態] [Third embodiment]

次に、本発明の例示的な第3の実施形態に従う物体識別システム10を説明するが、第1の実施形態と共通する要素については、同一の名称または符号を使用して引用することにより、重複した説明を省略し、異なる要素についてのみ詳細に説明する。 An object identification system 10 according to a third exemplary embodiment of the present invention will now be described, wherein elements in common with the first embodiment are referenced using the same names or numbers: Duplicate descriptions are omitted, and only different elements are described in detail.

図21(a)は、本実施形態に従う物体識別システム10であって出入り通路40を有する駐車場20に出入りする物体を識別するために実施されるもののうちのハードウエア構成を概略的に表す側面図である。また、同図(b)は、駐車場20における物体としての車両30およびユーザ(人間)が入庫段階および出庫段階においてそれぞれ取り得る一連のフェーズを、参照図面の番号と共に表形式で示す図である。 FIG. 21(a) is a side view schematically showing the hardware configuration of the object identification system 10 according to the present embodiment implemented for identifying objects entering and exiting a parking lot 20 having an entrance/exit passage 40. FIG. It is a diagram. In addition, FIG. 4(b) is a table showing a series of phases that the vehicle 30 as an object in the parking lot 20 and the user (human) can take in the entering stage and the exiting stage, together with reference drawing numbers. .

本実施形態に従う物体識別システム10は、同じ駐車場20に物理的に関連付けられる車両30とそれのユーザ(特に、ユーザが車両30に乗車せずに歩行している状態、すなわち、ユーザが空間座標上で車両30とは異なる位置を占める状態にあるユーザ)とを、互いに異なる種類の物体として区別する状態で、個々に、識別するとともに管理するように設計されている。 The object identification system 10 according to the present embodiment is a vehicle 30 physically associated with the same parking lot 20 and its user (in particular, the user is walking without getting on the vehicle 30, i.e., the user has spatial coordinates It is designed to identify and manage individual objects (users occupying different positions than the vehicle 30 above), while distinguishing them as different types of objects from each other.

[信号処理ユニット100によって実行される第1物体識別・段階判定プログラム] [First Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]

図22は、信号処理ユニット100が入庫時に実行する第1物体識別・段階判定プログラムを概念的に表すフローチャートである。 FIG. 22 is a flowchart conceptually showing the first object identification/stage determination program executed by the signal processing unit 100 when the vehicle is entered.

この第1物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS2201において、信号処理ユニット100が、第1の実施形態におけると同様に、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号であって図21(a)に示す物体の側面視すなわち横方向シルエットを反映したものを入力する。 This first object identification/stage determination program is repeatedly executed by the signal processing unit 100, and each time the signal processing unit 100 first executes, in step S2201, the outer While the drive signal is output to the line sensor 50, the sensor signal reflecting the side view of the object shown in FIG.

このステップS2201においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか人間であるかを識別する。 In step S2201, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the outer line sensor 50, and determines whether the current object is the vehicle 30 or a human being. identify whether

次に、ステップS2202において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。車両30と識別されていなければ、その判定がNOとなり、このプログラムの今回の実行が終了する。これに対し、車両30と識別されていれば、その判定がYESとなり、続いて、ステップS2203が実行される。 Next, in step S<b>2202 , signal processing unit 100 determines whether or not the current object has been identified as vehicle 30 . If the vehicle 30 is not identified, the determination is NO, and the current execution of this program ends. On the other hand, if the vehicle 30 is identified, the determination becomes YES, and step S2203 is subsequently executed.

このステップS2203においては、信号処理ユニット100が、第1の実施形態におけると同様に、前記シルエット(実際シルエット)と、予め保存されている複数の車両基準シルエットとの間の照合により、最も近似する車両基準シルエットを特定し、その結果に基づき、今回の車両30の種別、すなわち、車種を識別する。例えば、どの自動車メーカが製造したどの自動車であるか(さらにはいつ製造された(年式))が識別される。 In this step S2203, the signal processing unit 100 matches the silhouette (actual silhouette) with a plurality of pre-stored vehicle reference silhouettes to obtain the most approximate silhouette, as in the first embodiment. A vehicle reference silhouette is specified, and based on the result, the type of the current vehicle 30, that is, the type of vehicle is identified. For example, which car manufacturer made which car (and when it was made (model year)) is identified.

ここに、ステップS2201-2203は、外側ラインセンサ50を用いて実行される処理である。 Here, steps S 2201 - 2203 are processes executed using the outer line sensor 50 .

続いて、ステップS2204において、信号処理ユニット100が、前記識別された車種に関する情報を前記第1の車両情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。 Subsequently, in step S2204, the signal processing unit 100 associates the information about the identified vehicle type as the first vehicle information with the parking lot ID unique to the current parking lot 20, and sends the information to the management server 130, for example, Transmit wirelessly over a public network or global network.

その後、ステップS2205において、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号であって図21(a)に示す物体の側面視すなわち横方向シルエットを反映したものを入力する。 After that, in step S2205, the signal processing unit 100 outputs the drive signal to the inner line sensor 52 this time, and outputs the sensor signal from the inner line sensor 52 as in the first embodiment. Input is a side view of the object shown in FIG.

このステップS2205においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか人間であるかを識別する。 In this step S2205, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the inner line sensor 52, and determines whether the current object is the vehicle 30 or a human being. identify whether

続いて、ステップS2206において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。ここでは、信号処理ユニット100が、外側ラインセンサ50を通過した車両30が、続いて、内側ラインセンサ52を通過することになることを待つことを意味する。信号処理ユニット100が、今回の物体を車両30と識別していなければ、その判定がNOとなり、ステップS2205に戻るが、車両30と識別していれば、その判定がYESとなり、続いて、ステップS2207が実行される。 Subsequently, in step S<b>2206 , the signal processing unit 100 determines whether or not the current object has been identified as the vehicle 30 . Here, it means that the signal processing unit 100 waits for the vehicle 30 that has passed the outer line sensor 50 to subsequently pass the inner line sensor 52 . If the signal processing unit 100 does not identify the current object as the vehicle 30, the determination is NO, and the process returns to step S2205. S2207 is executed.

このステップS2207においては、信号処理ユニット100が、ステップS2201の実行によって取得されたシルエットと、ステップS2205の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ車両30が外側ラインセンサ50および内側ラインセンサ52をそれらの順に通過したか否かを判定する。 In step S2207, signal processing unit 100 determines whether or not the silhouette obtained by executing step S2201 and the silhouette obtained by executing step S2205 are geometrically sufficiently similar to each other. Thus, it is determined whether or not the same vehicle 30 has passed the outer line sensor 50 and the inner line sensor 52 in that order.

外側ラインセンサ50および内側ラインセンサ52をそれぞれ通過した車両30が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS2208が実行される。 If the vehicles 30 that have passed through the outer line sensor 50 and the inner line sensor 52 are not the same, the determination is NO, and the execution of this program ends. Then step S2208 is executed.

このステップS2208においては、信号処理ユニット100が、今回の車両30が駐車場20に入庫したと判定する。 In step S<b>2208 , the signal processing unit 100 determines that the current vehicle 30 has entered the parking lot 20 .

その後、ステップS2209において、信号処理ユニット100が、ステップS2207でのYES判定タイミングまたはステップS2208の判定タイミングと実質的に同期するタイミングで(すなわち、例えば、今回の車両30の後端面が内側ラインセンサ52を通過した直後に)、今回の車両30をカメラ300を用いて1回のみ撮影するかまたは連写する。 After that, in step S2209, the signal processing unit 100 detects the YES determination timing in step S2207 or the timing substantially synchronized with the determination timing in step S2208 (that is, for example, when the rear end surface of the current vehicle 30 is detected by the inner line sensor 52). ), the current vehicle 30 is photographed using the camera 300 only once or continuously.

カメラ300によって撮影されるときの車両30の後端面(特に、ナンバープレート31)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。 The rear end surface of the vehicle 30 (especially the license plate 31 ) when photographed by the camera 300 is in a fixed position relative to the inner line sensor 52 . On the other hand, the inner line sensor 52 is at a fixed position relative to the outer line sensor 50 and the camera 300 is at a fixed position relative to the outer line sensor 50 .

その結果、カメラ300によって撮影されるときの車両30の後端面(特に、ナンバープレート31)と、カメラ300との間の実際の距離が、車両30の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の車両30のナンバープレート31を十分にピントよく撮影することが可能となる。カメラ300の焦点距離は、固定でも可変でもよく、また、オートフォーカス方式でもよい。 As a result, regardless of the type of vehicle 30, the actual distance between the rear end surface of the vehicle 30 (especially the license plate 31) and the camera 300 when photographed by the camera 300 is the focal point of the camera 300. The distance is maintained substantially the same, thus allowing the camera 300 to photograph the license plate 31 of any vehicle 30 in good focus. The focal length of camera 300 may be fixed or variable, and may be autofocus.

とはいえ、カメラ300は静止しているのに対し、車両30はカメラ300に対して動いている可能性があるから、撮影した画像のピントがずれる可能性があるが、上述のように、カメラ300が車両30を連写して複数の写真が連続的に撮影されると、それら写真の中に、ピントが十分に合った写真が含まれる可能性が高い。 However, since the vehicle 30 may be moving relative to the camera 300 while the camera 300 is stationary, the captured image may be out of focus. If the camera 300 takes a series of pictures of the vehicle 30 to continuously take a plurality of pictures, there is a high possibility that the pictures include a picture that is sufficiently in focus.

続いて、ステップS2210において、信号処理ユニット100が、上記のようにして撮影したナンバープレート31の画像から、今回の車両30の車両番号を表す数字(例えば、4桁の数字)を認識する。 Subsequently, in step S2210, the signal processing unit 100 recognizes a number (for example, a four-digit number) representing the vehicle number of the current vehicle 30 from the image of the license plate 31 photographed as described above.

ここに、ステップS2205-2208は、外側ラインセンサ50を用いて実行される処理である。また、ステップS2209-2210は、カメラ300を用いて実行される処理である。 Here, steps S 2205 - 2208 are processes performed using the outer line sensor 50 . Also, steps S 2209 to 2210 are processes executed using camera 300 .

その後、ステップS2211において、信号処理ユニット100が、前記認識された車両番号に関する情報を前記第2の車両情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。 After that, in step S2211, the signal processing unit 100 associates the information about the recognized vehicle number as the second vehicle information with the parking lot ID unique to the current parking lot 20, and sends it to the management server 130, for example, Transmit wirelessly over a public network or global network.

なお、本実施形態においては、前記第1の車両情報と、前記第2の車両情報とが、それぞれ、互いに異なるステップにより、互いに異なるタイミングで、管理サーバ130に送信されるが、そのようにすることは本発明を実施する上に不可欠なことではなく、例えば、同じステップにより、一緒に管理サーバ130に送信してもよい。 In this embodiment, the first vehicle information and the second vehicle information are transmitted to the management server 130 at different timings in different steps. It is not essential to implement the present invention, for example, they may be sent together to the management server 130 by the same steps.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[ユーザ端末90によって実行される駐車場識別プログラム] [Parking Lot Identification Program Executed by User Terminal 90]

図23は、ユーザの通信端末90が入場時(ユーザが単独で入場するユーザ単独入場時およびユーザが乗車状態で入場する入庫時)および退場時(ユーザが単独で退場するユーザ単独退場時およびユーザが乗車状態で退場する出庫時)に実行する駐車場識別プログラムを概念的に表すフローチャートである。 FIG. 23 shows when the communication terminal 90 of the user enters (when the user enters alone and when the user enters while riding) and when leaving (when the user exits alone and when the user exits alone). 10 is a flowchart conceptually representing a parking lot identification program executed when exiting the parking lot with a passenger in boarding state.

この駐車場識別プログラムは、通信端末90によって反復的に実行され、各回の実行時には、まず、ステップS2301において、通信端末90が、自身の現在位置を測定する。その測位の方法としては、例えば、通信端末90に搭載されたGPSを用いる方法、通信端末90の地理的な周辺に位置する複数の基地局のそれぞれの地理的座標を用いる方法、駐車場20に設置されている発信機60と近距離通信を行ってその信号から駐車場IDを特定する方法などがある。 This parking lot identification program is repeatedly executed by communication terminal 90, and each time it is executed, communication terminal 90 first measures its own current position in step S2301. The positioning method includes, for example, a method using the GPS installed in the communication terminal 90, a method using the geographical coordinates of each of a plurality of base stations located geographically around the communication terminal 90, and a method using There is a method of performing short-range communication with the installed transmitter 60 and identifying the parking lot ID from the signal.

次に、ステップS2302において、通信端末90が、測定した現在位置が、いずれかの駐車場20の位置に一致するか否かを判定し、それにより、ユーザがいずれかの駐車場20に居るかまたはその近傍にいるか否かを判定する。 Next, in step S2302, the communication terminal 90 determines whether or not the measured current position matches the position of any parking lot 20, thereby determining whether the user is in any parking lot 20. Or it is determined whether or not it is in the vicinity.

ユーザがいずれの駐車場20にも地理的に関連付けられなければ、その判定がNOとなり、ステップS2301に戻るが、いずれかの駐車場20に地理的に関連付けられれば、その判定がYESとなり、ステップS2303に移行する。 If the user is not geographically associated with any parking lot 20, the determination is NO, and the process returns to step S2301. If the user is geographically associated with any parking lot 20, the determination is YES, and step Move to S2303.

このステップS2303においては、通信端末90が、自身のメモリに予めインストールされている専用アプリ(プログラム)であって、駐車場の識別機能を有するものを起動させる。その結果、ステップS2304-S2306が実行される。 In this step S2303, the communication terminal 90 activates a dedicated application (program) pre-installed in its own memory and having a parking lot identification function. As a result, steps S2304-S2306 are executed.

そのステップS2304においては、通信端末90が、今回の駐車場20に設置されている発信機60から信号を受信したか否かを判定する。受信しない場合には、その判定がNOとなり、ステップS2301に戻るが、受信した場合には、その判定がYESとなり、ステップS2305に移行する。 In step S2304, communication terminal 90 determines whether or not a signal has been received from transmitter 60 installed in parking lot 20 this time. If not received, the determination is NO, and the process returns to step S2301. If received, the determination is YES, and the process proceeds to step S2305.

このステップS2305においては、通信端末90が、前記受信した信号を駐車場IDに変換する。具体的には、通信端末90は、前記受信した信号によって表される発信機IDを取得し、発信機IDと駐車場IDとの間の予め定められた関係であって通信端末90のメモリに予めダウンロードされたものに従い、その取得された発信機IDを、対応する駐車場IDであって今回ユーザが居る駐車場20に固有のものに変換する。 In this step S2305, the communication terminal 90 converts the received signal into a parking lot ID. Specifically, the communication terminal 90 acquires the transmitter ID represented by the received signal, and stores a predetermined relationship between the transmitter ID and the parking lot ID in the memory of the communication terminal 90. According to what has been downloaded in advance, the obtained transmitter ID is converted into a corresponding parking lot ID unique to the parking lot 20 where the user is currently present.

続いて、ステップS2306において、通信端末90が、自身の端末IDを、前記取得された駐車場IDに関連付けて、管理サーバ130に送信する。 Subsequently, in step S2306, the communication terminal 90 associates its own terminal ID with the acquired parking lot ID and transmits it to the management server 130. FIG.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[管理サーバ130によって実行される第1紐付け・登録プログラム] [First Association/Registration Program Executed by Management Server 130]

図24は、管理サーバ130が入庫時に実行する第1紐付け・登録プログラムを概念的に表すフローチャートである。 FIG. 24 is a flow chart conceptually representing the first linking/registration program executed by the management server 130 at the time of warehousing.

この第1紐付け・登録プログラムは、管理サーバ130によって反復的に実行され、各回の実行時には、まず、ステップS2401において、管理サーバ130が、任意の端末IDを任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、このプログラムの今回の実行が終了する。 This first association/registration program is repeatedly executed by the management server 130, and each time it is executed, first, in step S2401, the management server 130 associates an arbitrary terminal ID with an arbitrary parking lot ID and receives it. determine whether or not If no signal is received, the determination is NO and the current execution of the program ends.

これに対し、任意の端末IDを任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2402に移行する。 On the other hand, if an arbitrary terminal ID is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2402.

このステップS2402においては、管理サーバ130が、任意の車種情報を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2401に戻る。 In this step S2402, the management server 130 determines whether or not it has received arbitrary vehicle type information associated with an arbitrary parking lot ID. If no signal is received, the determination is NO and the process returns to step S2401.

これに対し、任意の車種情報を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2403に移行する。 On the other hand, if arbitrary vehicle type information is received in association with an arbitrary parking lot ID, the determination becomes YES, and the process proceeds to step S2403.

このステップS2403においては、管理サーバ130が、任意の車両番号を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2401に戻る。 In step S2403, management server 130 determines whether or not it has received any vehicle number associated with any parking lot ID. If no signal is received, the determination is NO and the process returns to step S2401.

これに対し、任意の車両番号を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2404に移行する。 On the other hand, if an arbitrary vehicle number is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2404.

このステップS2404においては、管理サーバ130が、ステップS2401-2403においてそれぞれ受信した3つの駐車場IDが互いに一致するか否かを判定する。駐車場ID間の照合の成否が判定されるのである。 In step S2404, management server 130 determines whether or not the three parking lot IDs received in steps S2401-2403 match each other. Success or failure of matching between parking lot IDs is determined.

前記3つの駐車場IDが互いに一致するわけではない場合には、その判定がNOとなり、このプログラムの今回の実行が終了するが、前記3つの駐車場IDが互いに一致する場合には、その判定がYESとなり、ステップS2405に移行する。その結果、端末ID,駐車場ID,車種情報および車両番号が、実質的に時間連続的に、または、実質的に同じタイミングで、管理サーバ130によって包括的に受信されることになる。 If the three parking lot IDs do not match each other, the determination is NO, and the current execution of this program ends. becomes YES, and the process proceeds to step S2405. As a result, the terminal ID, parking lot ID, vehicle type information and vehicle number are comprehensively received by the management server 130 substantially continuously or at substantially the same timing.

このステップS2405においては、管理サーバ130が、今回受信した端末ID、駐車場ID,車種情報および車両番号を互いに紐付けし、その後、ステップS2406において、管理サーバ130が、それら紐付けされた複数の情報を、図25に例示するように、前記車両・ユーザ管理リストに登録する。 In this step S2405, the management server 130 associates the terminal ID, parking lot ID, vehicle type information, and vehicle number received this time with each other. Information is registered in the vehicle/user management list as illustrated in FIG.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[信号処理ユニット100によって実行される第2物体識別・段階判定プログラム] [Second Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]

図26は、信号処理ユニット100がユーザ単独退場時に実行する第2物体識別・段階判定プログラムを概念的に表すフローチャートである。 FIG. 26 is a flowchart conceptually representing the second object identification/stage determination program executed by the signal processing unit 100 when the user leaves alone.

この第2物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS2601において、信号処理ユニット100が、第1の実施形態におけると同様に、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号を入力する。 This second object identification/stage determination program is repetitively executed by the signal processing unit 100, and each time the signal processing unit 100 first executes, in step S2601, the inner The drive signal is output to the line sensor 52 and the sensor signal is input from the inner line sensor 52 .

このステップS2601においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。 In step S2601, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the inner line sensor 52, and determines whether the current object is a person or not. identify.

次に、ステップS2602において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。人間と識別されていなければ、その判定がNOとなり、このプログラムの今回の実行が終了する。これに対し、人間と識別されていれば、その判定がYESとなり、続いて、ステップS2603が実行される。 Next, in step S2602, the signal processing unit 100 determines whether the current object has been identified as a human. If it is not identified as a human, the determination becomes NO, and the current execution of this program ends. On the other hand, if it is identified as a human, the determination becomes YES, and step S2603 is subsequently executed.

このステップS2603においては、信号処理ユニット100が、ステップS2601が物体識別処理を開始したタイミングと実質的に同期するタイミングで(すなわち、例えば、今回の人間の正面が内側ラインセンサ52を、外側ラインセンサ50に向かって通過した直後に)、今回の物体としての人間をカメラ300を用いて1回のみ撮影するかまたは連写する。 In this step S2603, the signal processing unit 100 operates at a timing that is substantially synchronized with the timing at which the object identification processing is started in step S2601 (that is, for example, the front of the person this time detects the inner line sensor 52 and the outer line sensor 52). 50), the current human object is photographed once or continuously with the camera 300.

カメラ300によって撮影されるときの人間の正面(特に、その人間の顔を含む)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。 The front of the person (particularly including the person's face) as photographed by camera 300 is at a fixed position relative to inner line sensor 52 . On the other hand, the inner line sensor 52 is at a fixed position relative to the outer line sensor 50 and the camera 300 is at a fixed position relative to the outer line sensor 50 .

その結果、カメラ300によって撮影されるときの人間の正面(正面人物像であり、特に、その人間の顔を含む)と、カメラ300との間の実際の距離が、人間の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の人間の人物像を十分にピントよく撮影することが可能となる。 As a result, the actual distance between the camera 300 and the front of a person (which is a frontal portrait of a person, particularly including the person's face) when photographed by the camera 300 is irrespective of the type of person. Instead, it remains substantially the same as the focal length of camera 300, thus allowing camera 300 to capture any human figure in good focus.

とはいえ、カメラ300は静止しているのに対し、人間はカメラ300に対して動いている可能性があるから、撮影した画像のピントがずれる可能性があるが、上述のように、カメラ300が同じ人間を連写して複数の写真が連続的に撮影されると、それら写真の中に、ピントが十分に合った写真が含まれる可能性が高い。 However, since the camera 300 is stationary and the person may be moving relative to the camera 300, the captured image may be out of focus. If multiple pictures are taken in succession with the 300 shooting the same person in succession, it is likely that some of the pictures will be well focused.

続いて、ステップS2604において、信号処理ユニット100が、上記のようにして撮影した人物像から、今回の人間の顔を表す顔画像を抽出する。 Subsequently, in step S2604, the signal processing unit 100 extracts a face image representing the current human face from the human image photographed as described above.

その後、ステップS2605において、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号を入力する。 After that, in step S2605, the signal processing unit 100 outputs the drive signal to the outer line sensor 50 and inputs the sensor signal from the outer line sensor 50 as in the first embodiment. .

このステップS2605においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。 In step S2605, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the outer line sensor 50, and determines whether the current object is a person or not. identify.

続いて、ステップS2606において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。人間と識別されていなければ、その判定がNOとなり、ステップS2605に戻るが、人間と識別されていれば、その判定がYESとなり、続いて、ステップS2607が実行される。 Subsequently, in step S2606, the signal processing unit 100 determines whether the current object has been identified as a person. If it is not identified as a human, the determination becomes NO, and the process returns to step S2605. If it is identified as a human, the determination becomes YES, and step S2607 is executed.

このステップS2607においては、信号処理ユニット100が、ステップS2601の実行によって取得されたシルエットと、ステップS2605の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ人間が内側ラインセンサ52および外側ラインセンサ50をそれらの順に通過したか否かを判定する。 In step S2607, signal processing unit 100 determines whether or not the silhouette obtained by executing step S2601 and the silhouette obtained by executing step S2605 are geometrically sufficiently similar to each other. Thus, it is determined whether or not the same person has passed the inner line sensor 52 and the outer line sensor 50 in that order.

内側ラインセンサ52および外側ラインセンサ50をそれぞれ通過した人間が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS2608が実行される。 If the persons who have passed through the inner line sensor 52 and the outer line sensor 50 are not the same, the determination is NO, and the current execution of the program ends. , step S2608 is executed.

このステップS2608においては、信号処理ユニット100が、今回の車両30の今回の駐車場20への入庫完了後に、今回の人間としてのユーザが単独で今回の駐車場20から退場したと判定する。 In this step S2608, the signal processing unit 100 determines that the current human user has exited the current parking lot 20 alone after the current vehicle 30 has entered the current parking lot 20 .

ここに、ステップS2601-2602は、内側ラインセンサ52を用いて実行される処理である。また、ステップS2603-2604は、カメラ300を用いて実行される処理である。また、ステップS2605-2607は、外側ラインセンサ50を用いて実行される処理である。 Here, steps S 2601 - 2602 are processes executed using the inner line sensor 52 . Also, steps S2603 and S2604 are processes executed using the camera 300. FIG. Also, steps S2605-2607 are processes executed using the outer line sensor 50. FIG.

その後、ステップS2609において、信号処理ユニット100が、前記認識された顔画像に関する情報を前記第1の人間情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。 After that, in step S2609, the signal processing unit 100 associates the information about the recognized face image as the first human information with the parking lot ID unique to the current parking lot 20, and sends it to the management server 130, for example, Transmit wirelessly over a public network or global network.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[管理サーバ130によって実行される第2紐付け・登録プログラム] [Second Linking/Registration Program Executed by Management Server 130]

図27は、管理サーバ130がユーザ単独退場時に実行する第2紐付け・登録プログラムを概念的に表すフローチャートである。 FIG. 27 is a flowchart conceptually showing the second linking/registration program executed by the management server 130 when the user leaves alone.

この第2紐付け・登録プログラムは、管理サーバ130によって反復的に実行され、各回の実行時には、まず、ステップS2701において、管理サーバ130が、任意の通信端末90から任意の端末IDを任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、このプログラムの今回の実行が終了する。 This second linking/registration program is repeatedly executed by the management server 130, and each time it is executed, first, in step S2701, the management server 130 transfers an arbitrary terminal ID from an arbitrary communication terminal 90 to an arbitrary station. It is determined whether or not the information has been received in association with the parking lot ID. If no signal is received, the determination is NO and the current execution of the program ends.

これに対し、任意の端末IDを任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2702に移行する。 On the other hand, if an arbitrary terminal ID is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2702.

このステップS2702においては、管理サーバ130が、任意の信号処理ユニット100から任意の顔画像情報を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2701に戻る。 In this step S2702, management server 130 determines whether or not it has received any face image information associated with any parking lot ID from any signal processing unit 100 . If no signal is received, the determination is NO and the process returns to step S2701.

これに対し、任意の顔画像情報を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2703に移行する。 On the other hand, if arbitrary face image information has been received in association with an arbitrary parking lot ID, the determination is YES, and the process proceeds to step S2703.

このステップS2703においては、管理サーバ130が、ステップS2701-2703においてそれぞれ受信した2つの駐車場IDが互いに一致するか否かを判定する。駐車場ID間の照合の成否が判定されるのである。 In step S2703, management server 130 determines whether the two parking lot IDs received in steps S2701-2703 match each other. Success or failure of matching between parking lot IDs is determined.

前記2つの駐車場IDが互いに一致するわけではない場合には、その判定がNOとなり、このプログラムの今回の実行が終了するが、前記2つの駐車場IDが互いに一致する場合には、その判定がYESとなり、ステップS2704に移行する。その結果、端末ID,駐車場IDおよび顔画像が、実質的に時間連続的に、または、実質的に同じタイミングで、管理サーバ130によって包括的に受信されることになる。 If the two parking lot IDs do not match each other, the determination is NO, and the current execution of this program ends. becomes YES, and the process moves to step S2704. As a result, the terminal ID, the parking lot ID and the face image are comprehensively received by the management server 130 substantially continuously or at substantially the same timing.

このステップS2704においては、管理サーバ130が、今回受信した端末ID、駐車場IDおよび顔画像を互いに紐付けし、その後、ステップS2705において、管理サーバ130が、それら紐付けされた複数の情報を、図25に例示するように、前記車両・ユーザ管理リストに登録する。 In this step S2704, the management server 130 associates the terminal ID, parking lot ID, and face image received this time with each other. As exemplified in FIG. 25, it is registered in the vehicle/user management list.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[信号処理ユニット100によって実行される第3物体識別・段階判定プログラム] [Third Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]

図28は、信号処理ユニット130がユーザ単独入場時に実行する第3物体識別・段階判定プログラムを概念的に表すフローチャートである。 FIG. 28 is a flowchart conceptually showing the third object identification/stage determination program executed by the signal processing unit 130 when the user enters alone.

この第3物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS2801において、信号処理ユニット100が、第1の実施形態におけると同様に、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号を入力する。 This third object identification/stage determination program is repetitively executed by the signal processing unit 100, and each time the signal processing unit 100 executes, first, in step S2801, as in the first embodiment, the signal processing unit 100 While outputting the drive signal to the line sensor 50 , the sensor signal is input from the outer line sensor 50 .

このステップS2801においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。 In step S2801, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the outer line sensor 50, and determines whether the current object is a person or not. identify.

次に、ステップS2802において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。人間と識別されていなければ、その判定がNOとなり、ステップS2801に戻る。これに対し、人間と識別されていれば、その判定がYESとなり、続いて、ステップS2803が実行される。 Next, in step S2802, signal processing unit 100 determines whether the current object has been identified as a human. If it is not identified as a human, the determination is NO, and the process returns to step S2801. On the other hand, if it is identified as a human, the determination becomes YES, and step S2803 is subsequently executed.

このステップS2803においては、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号を入力する。 In this step S2803, the signal processing unit 100 outputs the drive signal to the inner line sensor 52 and inputs the sensor signal from the inner line sensor 52 as in the first embodiment. .

このステップS2803においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。 In this step S2803, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the inner line sensor 52, and determines whether the current object is a person or not. identify.

続いて、ステップS2804において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。ここでは、信号処理ユニット100が、外側ラインセンサ50を通過した人間が、続いて、内側ラインセンサ52を通過することになることを待つことを意味する。信号処理ユニット100が、今回の物体を人間と識別していなければ、その判定がNOとなり、ステップS2803に戻るが、人間と識別していれば、その判定がYESとなり、続いて、ステップS2805が実行される。 Subsequently, in step S2804, the signal processing unit 100 determines whether the current object has been identified as a person. Here it means that the signal processing unit 100 waits for a person who has passed the outer line sensor 50 to subsequently pass the inner line sensor 52 . If the signal processing unit 100 has not identified the current object as a human being, the determination is NO, and the process returns to step S2803. executed.

このステップS2805においては、信号処理ユニット100が、ステップS2801の実行によって取得されたシルエットと、ステップS2803の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ人間が外側ラインセンサ50および内側ラインセンサ52をそれらの順に通過したか否かを判定する。 In step S2805, signal processing unit 100 determines whether or not the silhouette obtained by executing step S2801 and the silhouette obtained by executing step S2803 are geometrically sufficiently similar to each other. By doing so, it is determined whether or not the same person has passed the outer line sensor 50 and the inner line sensor 52 in that order.

外側ラインセンサ50および内側ラインセンサ52をそれぞれ通過した人間が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS2806が実行される。 If the persons who have passed through the outer line sensor 50 and the inner line sensor 52 are not the same, the determination is NO, and the execution of this program ends. If they are the same, the determination is YES, and then , step S2806 is executed.

このステップS2806においては、信号処理ユニット100が、今回の人間としてのユーザが、今回の駐車場20から車両30を出庫させるために、その駐車場20に単独で入場したと判定する。 In this step S2806, the signal processing unit 100 determines that the current human user has entered the parking lot 20 alone in order to let the vehicle 30 leave the parking lot 20 this time.

その後、ステップS2807において、信号処理ユニット100が、ステップS2803の物体識別処理が開始されたタイミングと実質的に同期するタイミングで(すなわち、例えば、今回の人間の正面が内側ラインセンサ52を通過した直後に)、今回の人間をカメラ300を用いて1回のみ撮影するかまたは連写する。 After that, in step S2807, the signal processing unit 100 performs detection at a timing substantially synchronous with the timing at which the object identification processing in step S2803 is started (that is, for example, immediately after the front of the person passes the inner line sensor 52). 2), the present person is photographed using the camera 300 only once or continuously.

カメラ300によって撮影されるときの人間の背面(後姿)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。 A person's back (rear view) when photographed by the camera 300 is in a fixed position relative to the inner line sensor 52 . On the other hand, the inner line sensor 52 is at a fixed position relative to the outer line sensor 50 and the camera 300 is at a fixed position relative to the outer line sensor 50 .

その結果、カメラ300によって撮影されるときの人間の背面と、カメラ300との間の実際の距離が、人間の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の人間の背面としての人物像を十分にピントよく撮影することが可能となる。 As a result, the actual distance between the back of the person as imaged by the camera 300 and the camera 300 remains substantially the same as the focal length of the camera 300 regardless of the type of person, Therefore, the camera 300 can photograph a human image as the back of any human with sufficiently good focus.

とはいえ、カメラ300は静止しているのに対し、人間はカメラ300に対して動いている可能性があるから、撮影した画像のピントがずれる可能性があるが、上述のように、カメラ300が同じ被写体を連写して複数の写真が連続的に撮影されると、それら写真の中に、ピントが十分に合った写真が含まれる可能性が高い。 However, since the camera 300 is stationary and the person may be moving relative to the camera 300, the captured image may be out of focus. If multiple photographs are taken in succession with the 300 continuously photographing the same subject, it is highly likely that some of the photographs will include a photograph that is sufficiently in focus.

続いて、ステップS2808において、信号処理ユニット100が、上記のようにして撮影した画像から、今回の人間の人物像を認識する。 Subsequently, in step S2808, the signal processing unit 100 recognizes the current human figure from the image captured as described above.

その後、ステップS2809において、信号処理ユニット100が、前記認識された人物像に関する情報を前記第2の人間情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。 After that, in step S2809, the signal processing unit 100 associates the information about the recognized human image as the second human information with the parking lot ID unique to the current parking lot 20, and sends it to the management server 130, for example, Transmit wirelessly over a public network or global network.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[管理サーバ130によって実行される第3紐付け・登録プログラム] [Third Association/Registration Program Executed by Management Server 130]

図29は、管理サーバ130がユーザ単独入場時に実行する第3紐付け・登録プログラムを概念的に表すフローチャートである。 FIG. 29 is a flowchart conceptually showing the third linking/registration program executed by the management server 130 when the user enters alone.

この第3紐付け・登録プログラムは、管理サーバ130によって反復的に実行され、各回の実行時には、まず、ステップS2901において、管理サーバ130が、任意の通信端末90から任意の端末IDを任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、このプログラムの今回の実行が終了する。 This third linking/registration program is repeatedly executed by the management server 130. At each execution, first, in step S2901, the management server 130 transfers an arbitrary terminal ID from an arbitrary communication terminal 90 to an arbitrary station. It is determined whether or not the information has been received in association with the parking lot ID. If no signal is received, the determination is NO and the current execution of the program ends.

これに対し、任意の端末IDを任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2902に移行する。 On the other hand, if an arbitrary terminal ID is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2902.

このステップS2902においては、管理サーバ130が、任意の信号処理ユニット100から任意の人物像情報を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2901に戻る。 In this step S2902, management server 130 determines whether or not it has received arbitrary human image information from arbitrary signal processing unit 100 in association with arbitrary parking lot ID. If no signal is received, the determination is NO and the process returns to step S2901.

これに対し、任意の人物像情報を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2903に移行する。 On the other hand, if arbitrary person image information is received in association with an arbitrary parking lot ID, the determination is YES, and the process proceeds to step S2903.

このステップS2903においては、管理サーバ130が、ステップS2901-2902においてそれぞれ受信した2つの駐車場IDが互いに一致するか否かを判定する。駐車場ID間の照合の成否が判定されるのである。 In step S2903, management server 130 determines whether the two parking lot IDs received in steps S2901-2902 match each other. Success or failure of matching between parking lot IDs is determined.

前記2つの駐車場IDが互いに一致するわけではない場合には、その判定がNOとなり、このプログラムの今回の実行が終了するが、前記2つの駐車場IDが互いに一致する場合には、その判定がYESとなり、ステップS2904に移行する。 If the two parking lot IDs do not match each other, the determination is NO, and the current execution of this program ends. becomes YES, and the process moves to step S2904.

このステップS2904においては、管理サーバ130が、今回受信した端末ID、駐車場IDおよび人物像を互いに紐付けし、その後、ステップS2905において、管理サーバ130が、それら紐付けされた複数の情報を、図25に例示するように、前記車両・ユーザ管理リストに登録する。 In this step S2904, the management server 130 associates the terminal ID, parking lot ID, and person image received this time with each other. As exemplified in FIG. 25, it is registered in the vehicle/user management list.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

[信号処理ユニット100によって実行される第4物体識別・段階判定プログラム] [Fourth Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]

図30は、信号処理ユニット130が出庫時に実行する第4物体識別・段階判定プログラムを概念的に表すフローチャートである。 FIG. 30 is a flowchart conceptually showing the fourth object identification/stage determination program executed by the signal processing unit 130 when leaving the garage.

この第4物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS3001において、信号処理ユニット100が、第1の実施形態におけると同様に、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号を入力する。 This fourth object identification/stage determination program is repeatedly executed by the signal processing unit 100, and each time the signal processing unit 100 first executes, in step S3001, the inner The drive signal is output to the line sensor 52 and the sensor signal is input from the inner line sensor 52 .

このステップS3001においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか否かを識別する。 In step S3001, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the inner line sensor 52, and determines whether the current object is the vehicle 30 or not. identify

次に、ステップS3002において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。車両30と識別されていなければ、その判定がNOとなり、このプログラムの今回の実行が終了する。これに対し、車両30と識別されていれば、その判定がYESとなり、続いて、ステップS3003が実行される。 Next, in step S3002, the signal processing unit 100 determines whether the current object has been identified as the vehicle 30 or not. If the vehicle 30 is not identified, the determination is NO, and the current execution of this program ends. On the other hand, if the vehicle 30 is identified, the determination becomes YES, and step S3003 is subsequently executed.

このステップS3003においては、信号処理ユニット100が、ステップS3001が物体識別処理を開始したタイミングと実質的に同期するタイミングで(すなわち、例えば、今回の車両30の前端面が内側ラインセンサ52を、外側ラインセンサ50に向かって通過した直後に)、今回の物体としての車両30をカメラ300を用いて1回のみ撮影するかまたは連写する。 In this step S3003, the signal processing unit 100 operates at a timing substantially synchronous with the timing at which the object identification processing is started in step S3001 (that is, for example, when the front end face of the vehicle 30 this time detects the inner line sensor 52 and the outer line sensor 52). Immediately after passing toward the line sensor 50 ), the vehicle 30 as the current object is photographed only once or continuously by using the camera 300 .

カメラ300によって撮影されるときの車両30の前端面(特に、ナンバープレート31を含む)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。 The front end face of vehicle 30 (particularly including license plate 31 ) when photographed by camera 300 is in a fixed position relative to inner line sensor 52 . On the other hand, the inner line sensor 52 is at a fixed position relative to the outer line sensor 50 and the camera 300 is at a fixed position relative to the outer line sensor 50 .

その結果、カメラ300によって撮影されるときの車両30の前端面(特に、ナンバープレート31)と、カメラ300との間の実際の距離が、車両30の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の車両30の画像を十分にピントよく撮影することが可能となる。 As a result, regardless of the type of vehicle 30, the actual distance between the front end face of vehicle 30 (especially license plate 31) and camera 300 when photographed by camera 300 is the focal point of camera 300. The distance remains substantially the same, thus allowing the camera 300 to take an image of any vehicle 30 in good focus.

続いて、ステップS3004において、信号処理ユニット100が、上記のようにして撮影したナンバープレート31の画像から、今回の車両30の車両番号を表す数字を抽出する。 Subsequently, in step S3004, the signal processing unit 100 extracts the number representing the vehicle number of the current vehicle 30 from the image of the license plate 31 photographed as described above.

その後、ステップS3005において、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号を入力する。 After that, in step S3005, the signal processing unit 100 outputs the drive signal to the outer line sensor 50 and inputs the sensor signal from the outer line sensor 50 as in the first embodiment. .

このステップS3005においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか否かを識別する。 In this step S3005, the signal processing unit 100 further analyzes the silhouette of the current object based on the sensor signal input from the outer line sensor 50, and determines whether the current object is the vehicle 30 or not. identify

続いて、ステップS3006において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。車両30と識別されていなければ、その判定がNOとなり、ステップS3005に戻るが、車両30と識別されていれば、その判定がYESとなり、続いて、ステップS3007が実行される。 Subsequently, in step S<b>3006 , the signal processing unit 100 determines whether or not the current object has been identified as the vehicle 30 . If the vehicle 30 is not identified, the determination is NO, and the process returns to step S3005. If the vehicle 30 is identified, the determination is YES, and step S3007 is executed.

このステップS3007においては、信号処理ユニット100が、ステップS3001の実行によって取得されたシルエットと、ステップS3005の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ車両30が内側ラインセンサ52および外側ラインセンサ50をそれらの順に通過したか否かを判定する。 In step S3007, signal processing unit 100 determines whether or not the silhouette obtained by executing step S3001 and the silhouette obtained by executing step S3005 are geometrically sufficiently similar to each other. Thus, it is determined whether or not the same vehicle 30 has passed the inner line sensor 52 and the outer line sensor 50 in that order.

内側ラインセンサ52および外側ラインセンサ50をそれぞれ通過した車両30が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS3008が実行される。 If the vehicles 30 passing through the inner line sensor 52 and the outer line sensor 50 are not the same, the determination is NO, and the current execution of the program ends. Then step S3008 is executed.

このステップS3008においては、信号処理ユニット100が、今回の車両30が今回の駐車場20から出庫したと判定する。 In this step S3008, the signal processing unit 100 determines that the current vehicle 30 has left the parking lot 20 this time.

その後、ステップS3009において、信号処理ユニット100が、前記認識された車両番号を今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。 After that, in step S3009, the signal processing unit 100 associates the recognized vehicle number with the parking lot ID unique to the current parking lot 20, and transmits the information to the management server 130 wirelessly, for example, via a public line network or a global network. Send.

以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.

なお付言するに、本実施形態は、第1および第2の実施形態に従うラインセンサ50,52を用いて物体を識別するように実施されるが、これに代えて、それらラインセンサ50,52とは異なる素子構成、画像処理技術、演算アルゴリズムまたは物体識別原理を用いて物体を識別する別のラインセンサを用いて実施してもよい。 Additionally, the present embodiment is implemented to identify objects using the line sensors 50, 52 according to the first and second embodiments, but alternatively, the line sensors 50, 52 and may be implemented with different line sensors that identify objects using different device configurations, image processing techniques, arithmetic algorithms or object identification principles.

さらに付言するに、本実施形態においては、各ラインセンサ505,52が、発信機ポスト62と受信機ポスト72とが、識別すべき物体を隔てて互いに対向する透過型であるが、これに対し、発信機ポスト62と受信機ポスト72とが、識別すべき物体に対して同じ側に位置する反射型であってもよい。 Additionally, in this embodiment, each line sensor 505, 52 is of a transmissive type in which the transmitter post 62 and the receiver post 72 face each other across the object to be identified. , the transmitter post 62 and the receiver post 72 may be of a reflective type located on the same side of the object to be identified.

この反射型の場合、互いに対応する1個の発信機60と1個の受信機70とが1個のペアを構成し、そのペアが複数、一列に並んだ1本のポストを、発信機ポスト62と受信機ポスト72との組合せに代えて用いてもよい。各ペアにおいては、それに属する発信機60から出射した電磁波のうち、物体から反射するか、または、物体に関して前記1本のポストとは反対側に位置する反射面から反射した部分が、同じペアに属する受信機70に入射することになる。 In the case of this reflection type, one transmitter 60 and one receiver 70 corresponding to each other constitute one pair, and a plurality of such pairs are arranged in a row to form a single post. Alternatively, the combination of 62 and receiver post 72 may be used. In each pair, of the electromagnetic waves emitted from the transmitter 60 belonging to it, the part reflected from the object or reflected from the reflecting surface located on the opposite side of the one post with respect to the object is sent to the same pair. It will be incident on the receiver 70 to which it belongs.

以上、本発明の例示的な複数の実施形態を、駐車場20において、所定の通路としての出入り通路40を通過する3次元物体としての車両30を簡易的に一方向のみから識別して形状的に分類するという用途に使用するシナリオについて説明したが、同様な実施形態は他の用途に使用することが可能である。 As described above, in the parking lot 20, the vehicle 30 as a three-dimensional object passing through the entrance/exit passage 40 as a predetermined passage can be easily identified from only one direction and the shape of the vehicle 30 can be easily identified. Although a scenario has been described that uses the classification application, similar embodiments can be used for other applications.

そのような他の用途の一例としては、物流センタにおいて、所定の通路(例えば、コンベヤ)に沿って流れるシート状もしくは板状または3次元形状の物品を識別して形状的に分類する(例えば、サイズごとの分類(最大寸法ごとの分類)、正方形に近いか縦長または横長であるか(アスペクト比ごとの分類)などの複数の分類)という用途がある。 As an example of such other applications, in a distribution center, sheet-like or plate-like or three-dimensional articles flowing along a predetermined passage (e.g., conveyor) are identified and shape-sorted (e.g., There are multiple classifications such as classification by size (classification by maximum dimension), whether it is close to square or vertically or horizontally (classification by aspect ratio).

別の例としては、商業施設(例えば、デパート、飲食店、フードコート、書店)または大衆が利用する公共施設(例えば、道路、地下道、美術館、学校、市役所、駅、空港、バス停、バス、図書館)において、所定の通路に沿って流れる人間(3次元物体)を識別して形状的に分類する(例えば、独立歩行の人間、車いすに乗って歩行している人間、介助者または介助犬を伴う人間、大人、子供などの複数の分類)という用途がある。 Another example is commercial facilities (e.g., department stores, restaurants, food courts, bookstores) or public facilities used by the public (e.g., roads, underpasses, museums, schools, city halls, stations, airports, bus stops, buses, libraries). ), identify and morphologically classify humans (three-dimensional objects) flowing along a predetermined path (for example, humans walking independently, humans walking in wheelchairs, people with caregivers or service dogs) multiple classifications such as humans, adults, and children).

以上、本発明の複数の例示的な実施の形態を図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の概要]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 A number of exemplary embodiments of the present invention have been described in detail above with reference to the drawings. It is possible to implement the present invention in other forms with various modifications and improvements based on the above.

Claims (9)

施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
前記施設は、2つの監視位置を有し、
前記監視部は、幾何学的に互いに近似するシルエット画像が前記2つの監視位置においてそれぞれ時間的に先後して取得された場合に、前記物体が前記2つの監視位置間を移動する移動状態にあると判定する移動状態判定部を含む施設監視システム。
A facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image ,
The facility has two monitoring positions,
The monitoring unit is in a moving state in which the object moves between the two monitoring positions when silhouette images that are geometrically similar to each other are acquired at the two monitoring positions ahead of each other in time. A facility monitoring system including a movement state determination unit that determines that
前記シルエット画像取得装置は、前記電磁波が出射する電磁波出射素子と、前記物体から反射するかまたは前記物体を透過する電磁波が入射する電磁波入射素子と、それら電磁波出射素子および電磁波入射素子を駆動する駆動ユニットと、少なくとも前記電磁波入射素子からの信号を処理する信号処理ユニットとを含む請求項1に記載の施設監視システム。 The silhouette image acquisition device includes an electromagnetic wave emitting element that emits the electromagnetic wave, an electromagnetic wave incident element that receives the electromagnetic wave reflected from or transmitted through the object, and a drive that drives the electromagnetic wave emitting element and the electromagnetic wave incident element. 2. The facility monitoring system according to claim 1, comprising a unit and a signal processing unit for processing at least a signal from said electromagnetic wave incidence element. 前記電磁波は、可視光、赤外光、音波、超音波またはレーザー光を含む請求項1に記載の施設監視システム。 The facility monitoring system according to claim 1, wherein the electromagnetic waves include visible light, infrared light, sound waves, ultrasonic waves, or laser light. 施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像を画面上に表示するディスプレイと、
前記取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間であるか否かを判別し、
前記ディスプレイは、前記監視部が前記物体が人間であると判別した場合に、前記取得されたシルエット画像を前記画面上に表示する施設監視システム。
A facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a display for displaying the obtained silhouette image on the screen;
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
The monitoring unit determines whether the object is a human being,
The facility monitoring system, wherein the display displays the obtained silhouette image on the screen when the monitoring unit determines that the object is a person.
施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間である場合に、前記取得されたシルエット画像に基づき、前記人間が、単独で歩行している人間であるか、車いすに乗って移動している人間であるか、または、介助者もしくは介助犬を伴って歩行している人間であるかを判別する移動形態判定部を含む施設監視システム。
A facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
When the object is a human, the monitoring unit determines whether the human is walking alone or moving in a wheelchair, based on the obtained silhouette image. Alternatively, a facility monitoring system including a movement form determination unit that determines whether the person is walking with a helper or a service dog.
請求項1ないし5のいずれかに記載の監視部としてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the monitoring unit according to any one of claims 1 to 5. 請求項2に記載の信号処理ユニットとしてコンピュータを機能させるためのプログラム。 A program for causing a computer to function as the signal processing unit according to claim 2. 請求項に記載のプログラムをコンピュータ読み取り可能に記録した記録媒体。 A recording medium on which the program according to claim 6 is computer-readable. 請求項7に記載のプログラムをコンピュータ読み取り可能に記録した記録媒体。 A recording medium on which the program according to claim 7 is computer-readable.
JP2023015148A 2019-11-07 2023-02-03 Facility monitoring system Active JP7303598B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023099246A JP7418056B2 (en) 2019-11-07 2023-06-16 Facility monitoring system
JP2023218879A JP2024035248A (en) 2019-11-07 2023-12-26 Facility monitoring systems and programs

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019201997 2019-11-07
JP2019201997 2019-11-07
JP2021176461A JP7227650B2 (en) 2019-11-07 2021-10-28 Facility monitoring system

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021176461A Division JP7227650B2 (en) 2019-11-07 2021-10-28 Facility monitoring system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023099246A Division JP7418056B2 (en) 2019-11-07 2023-06-16 Facility monitoring system

Publications (2)

Publication Number Publication Date
JP2023057101A JP2023057101A (en) 2023-04-20
JP7303598B2 true JP7303598B2 (en) 2023-07-05

Family

ID=73022479

Family Applications (6)

Application Number Title Priority Date Filing Date
JP2020072595A Active JP6780886B1 (en) 2019-11-07 2020-04-14 Object identification management system
JP2020170307A Active JP6974882B2 (en) 2019-11-07 2020-10-08 User identification management system
JP2021176461A Active JP7227650B2 (en) 2019-11-07 2021-10-28 Facility monitoring system
JP2023015148A Active JP7303598B2 (en) 2019-11-07 2023-02-03 Facility monitoring system
JP2023099246A Active JP7418056B2 (en) 2019-11-07 2023-06-16 Facility monitoring system
JP2023218879A Pending JP2024035248A (en) 2019-11-07 2023-12-26 Facility monitoring systems and programs

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2020072595A Active JP6780886B1 (en) 2019-11-07 2020-04-14 Object identification management system
JP2020170307A Active JP6974882B2 (en) 2019-11-07 2020-10-08 User identification management system
JP2021176461A Active JP7227650B2 (en) 2019-11-07 2021-10-28 Facility monitoring system

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023099246A Active JP7418056B2 (en) 2019-11-07 2023-06-16 Facility monitoring system
JP2023218879A Pending JP2024035248A (en) 2019-11-07 2023-12-26 Facility monitoring systems and programs

Country Status (1)

Country Link
JP (6) JP6780886B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029631A (en) 2000-07-12 2002-01-29 Suehiro Giken Kk Loading method and loading system
JP2006268471A (en) 2005-03-24 2006-10-05 Nec Fielding Ltd Automatic poacher recognition system and method, management organization system and program
JP2017041214A (en) 2015-08-21 2017-02-23 日本信号株式会社 Vehicle model determination apparatus
JP2017094055A (en) 2015-11-20 2017-06-01 三星電子株式会社Samsung Electronics Co.,Ltd. Gesture recognition method, apparatus and wearable device

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3289068B2 (en) * 1992-02-26 2002-06-04 オムロン株式会社 Vehicle detection device
JPH06307827A (en) * 1993-01-13 1994-11-04 Toshiba Corp Car type judging device
JP3207696B2 (en) * 1995-02-22 2001-09-10 三菱重工業株式会社 Vehicle type identification device
JP2002024988A (en) * 2000-07-07 2002-01-25 Mitsubishi Heavy Ind Ltd Traffic measuring device and illumination control device
JP4695351B2 (en) * 2003-06-05 2011-06-08 三菱電機株式会社 Wireless communication system and road-to-vehicle communication method
JP2007199801A (en) * 2006-01-24 2007-08-09 Mitsubishi Heavy Ind Ltd Etc system for motorcycle
JP5022020B2 (en) * 2006-12-21 2012-09-12 三菱重工業株式会社 Vehicle shooting device
JP5214396B2 (en) * 2008-10-14 2013-06-19 株式会社東芝 Automatic ticket gate
JP5321547B2 (en) * 2010-07-21 2013-10-23 カシオ計算機株式会社 Image distribution system and server
JP2013196043A (en) * 2012-03-15 2013-09-30 Glory Ltd Specific person monitoring system
US8957787B1 (en) * 2014-09-30 2015-02-17 Al-Jouharah A. S. A. Al-Hmalan System and method for disabled parking spot enforcement
KR101496390B1 (en) * 2014-11-04 2015-02-27 주식회사 사라다 System for Vehicle Number Detection
SG11201804456QA (en) * 2015-11-30 2018-07-30 Mitsubishi Heavy Industries Machinery Systems Ltd Toll collection system, position measurement method, and program
JP6379238B2 (en) * 2017-02-16 2018-08-22 楽天株式会社 Information processing system and information processing method
JP6852651B2 (en) * 2017-10-25 2021-03-31 トヨタ自動車株式会社 Vehicle management system, commercial facility management system, and commercial facility management program
JP2019159372A (en) * 2018-03-07 2019-09-19 キヤノン株式会社 Authentication apparatus, authentication system, authentication method, computer program and storage medium
JP7016043B2 (en) * 2018-04-25 2022-02-04 パナソニックIpマネジメント株式会社 Intercom system, processing method and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002029631A (en) 2000-07-12 2002-01-29 Suehiro Giken Kk Loading method and loading system
JP2006268471A (en) 2005-03-24 2006-10-05 Nec Fielding Ltd Automatic poacher recognition system and method, management organization system and program
JP2017041214A (en) 2015-08-21 2017-02-23 日本信号株式会社 Vehicle model determination apparatus
JP2017094055A (en) 2015-11-20 2017-06-01 三星電子株式会社Samsung Electronics Co.,Ltd. Gesture recognition method, apparatus and wearable device

Also Published As

Publication number Publication date
JP2022009665A (en) 2022-01-14
JP2021076576A (en) 2021-05-20
JP6780886B1 (en) 2020-11-04
JP6974882B2 (en) 2021-12-01
JP7418056B2 (en) 2024-01-19
JP7227650B2 (en) 2023-02-22
JP2023126230A (en) 2023-09-07
JP2024035248A (en) 2024-03-13
JP2023057101A (en) 2023-04-20
JP2021077356A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
CN109686109B (en) Parking lot safety monitoring management system and method based on artificial intelligence
EP3682429B1 (en) System and method for gate monitoring during departure or arrival of an autonomous vehicle
CN107832680B (en) Computerized method, system and storage medium for video analytics
US11513212B2 (en) Motor vehicle and method for a 360° detection of the motor vehicle surroundings
CN106144816B (en) Occupant detection based on depth transducer
Gandhi et al. Pedestrian protection systems: Issues, survey, and challenges
US20140334684A1 (en) System and method for neighborhood-scale vehicle monitoring
US10836309B1 (en) Distracted driver detection and alert system
CN106144798A (en) The sensor controlled for passenger traffic merges
KR20150092545A (en) Warning method and system using prompt situation information data
CN107662867B (en) Step roller monitoring and maintenance operator monitoring for passenger conveyors
CN106297298B (en) Traffic monitoring method, apparatus and system
JP7303598B2 (en) Facility monitoring system
KR20190078688A (en) Artificial intelligence-based parking recognition system
JPH09130781A (en) Broad area supervisory equipment
CN109633684A (en) For the method, apparatus of classification, machine learning system and machine readable storage medium
JP7401292B2 (en) Parking lot control system, parking lot control method, and program
KR20170007070A (en) Method for visitor access statistics analysis and apparatus for the same
Kawthankar et al. A survey on smart automobiles using Internet of Things for digital India
JP2021117816A (en) Parking lot control system, parking lot control method, and program
JP6695603B1 (en) Object identification method and object identification system
JP2021034010A (en) Mobile body and user identification management system
dos Santos et al. A Low-Cost Bidirectional People Counter Device for Assisting Social Distancing Monitoring for COVID-19
Li et al. Pedestrian Behavior Study to Advance Pedestrian Safety in Smart Transportation Systems Using Innovative LiDAR Sensors
KR20160086536A (en) Warning method and system using prompt situation information data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230203

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230203

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230220

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230323

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230531

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230616

R150 Certificate of patent or registration of utility model

Ref document number: 7303598

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150