JP7303598B2 - Facility monitoring system - Google Patents
Facility monitoring system Download PDFInfo
- Publication number
- JP7303598B2 JP7303598B2 JP2023015148A JP2023015148A JP7303598B2 JP 7303598 B2 JP7303598 B2 JP 7303598B2 JP 2023015148 A JP2023015148 A JP 2023015148A JP 2023015148 A JP2023015148 A JP 2023015148A JP 7303598 B2 JP7303598 B2 JP 7303598B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- line sensor
- user
- transmitter
- facility
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、施設において物体を電磁波でx方向とy方向とにスキャンすることにより、非接触式で前記物体を形状的に識別して前記施設を監視する技術、前記施設に入場しまたはその施設から退場する移動体を識別して前記施設を管理する技術、および/または、その移動体の使用者であるユーザおよび/または前記施設を利用するユーザを識別して前記施設を管理する技術に関するものである。 The present invention provides a technique for monitoring the facility by scanning the facility in the x-direction and the y-direction with electromagnetic waves to identify the shape of the object in a non-contact manner, and to monitor the facility, enter the facility, or A technology for identifying a moving body leaving the facility and managing the facility, and/or a technology for identifying a user who is a user of the moving body and/or a user who uses the facility and managing the facility It is about.
物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する技術が既に存在する。 Techniques already exist to geometrically identify an object without a camera and in a non-contact manner by scanning the object in one direction with a line sensor.
その一例が、特許文献1に開示されている。この技術においては、水平の支持面(例えば、路面)上を走行する車体の車種を判定することを目的として、垂直方向に1次元的に配列された複数の発光素子と、垂直方向に1次元的に配列された複数の受光素子とを、それぞれ互いに水平方向に対向するように配置することにより、シルエットセンサがラインセンサとして構成される。
An example thereof is disclosed in
しかしながら、特許文献1に開示されている技術では、前記シルエットセンサにより、識別すべき物体の形状を精度よく測定することができないという問題がある。
However, the technique disclosed in
具体的には、そのシルエットセンサにおいては、発光素子が光、電波または音波という電磁波を受光素子に向けて出射するが、その電磁波が通常のものである限り、発光素子も受光素子も、通常は、指向性を有する。 Specifically, in the silhouette sensor, the light-emitting element emits electromagnetic waves such as light, radio waves, or sound waves toward the light-receiving element. , has directivity.
その電磁波をレーザー光として選択すれば、発光素子も受光素子も指向性を有せずに済む。しかし、その場合には、システムが高価であること、素子の消費電力が増加すること、出射されたレーザー光が万一人間の眼に入射すると危険であることなどの問題がある。 If the electromagnetic wave is selected as laser light, neither the light-emitting device nor the light-receiving device need to have directivity. However, in that case, there are problems such as that the system is expensive, that the power consumption of the device increases, and that the emitted laser light is dangerous if it should enter the eyes of a person.
そのため、それらの問題がないように通常の電磁波を使用すると、1つの発光素子から出射した電磁波が、拡がり角をもって空間を進行し、そのため、1つの電磁波が、意に反して複数の受光素子によって同時に受光されてしまう可能性がある。 Therefore, if a normal electromagnetic wave is used to avoid these problems, the electromagnetic wave emitted from one light-emitting element travels in space with a divergence angle. They may be received at the same time.
その結果、通常の電磁波を使用すると、複数の受光素子のうち、識別すべき物体によって遮蔽されて電磁波を受光できないものにより表現される1次元模様が、識別すべき物体の実際シルエットを正確に反映しないおそれがある。 As a result, when ordinary electromagnetic waves are used, the one-dimensional pattern represented by the light-receiving elements that are blocked by the object to be identified and cannot receive the electromagnetic wave accurately reflects the actual silhouette of the object to be identified. likely not.
よって、特許文献1に開示されている技術では、受光素子が、予定外の発光素子からの光を受光してしまうと、その光をノイズ光として除去できないため、識別すべき物体の形状を精度よく測定することができないという問題がある。
Therefore, in the technique disclosed in
なお、物体を識別するという機能(用途)は、特許文献1に開示されているように、有料道路において、走行する自動車の車種を判別するという機能として具体化され、また、例えば、駐車場において、その駐車場に対して入出庫する車両を識別して分類するという機能として具体化される。
Note that the function (application) of identifying an object is embodied as a function of identifying the type of vehicle traveling on a toll road, as disclosed in
さらに、そのようにして識別された車両を、その車両の乗員としてのユーザに正確に紐付けしたいというニーズがある。 Further, there is a need to accurately associate a vehicle so identified with a user as an occupant of that vehicle.
このような事情を背景とし、本発明は、施設において物体を電磁波でx方向とy方向とにスキャンすることにより、非接触式で前記物体を形状的に識別して前記施設を監視する技術、カメラを用いずに非接触式で物体を形状的に識別するラインセンサとその物体を撮像する撮像装置とを利用することにより、指定された施設に入場しまたはその施設から退場する移動体を識別して管理する技術、および/またはその移動体の使用者であるユーザおよび/またはその施設を利用するユーザを識別して管理することを可能にする技術を提供することを課題としてなされたものである。 Against this background, the present invention provides non-contact monitoring of a facility by geometrically identifying the object in the facility by scanning the object in the x and y directions with electromagnetic waves. A moving object that enters or exits a designated facility by using a line sensor that identifies the shape of an object in a non-contact manner without using a camera and an imaging device that captures the image of the object. and / or a technology that enables the user who is the user of the mobile body and / or the user who uses the facility to be identified and managed It is.
その課題を解決するために、本発明の一側面によれば、施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
前記施設は、2つの監視位置を有し、
前記監視部は、幾何学的に互いに近似するシルエット画像が前記2つの監視位置においてそれぞれ時間的に先後して取得された場合に、前記物体が前記2つの監視位置間を移動する移動状態にあると判定する移動状態判定部を含む施設監視システムが提供される。
また、本発明の別の側面によれば、施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像を画面上に表示するディスプレイと、
前記取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間であるか否かを判別し、
前記ディスプレイは、前記監視部が前記物体が人間であると判別した場合に、前記取得されたシルエット画像を前記画面上に表示する施設監視システムが提供される。
また、本発明のさらに別の側面によれば、施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間である場合に、前記取得されたシルエット画像に基づき、前記人間が、単独で歩行している人間であるか、車いすに乗って移動している人間であるか、または、介助者もしくは介助犬を伴って歩行している人間であるかを判別する移動形態判定部を含む施設監視システムが提供される。
In order to solve the problem, according to one aspect of the present invention, there is provided a facility monitoring system for monitoring facilities,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
The facility has two monitoring positions,
The monitoring unit is in a moving state in which the object moves between the two monitoring positions when silhouette images that are geometrically similar to each other are acquired at the two monitoring positions ahead of each other in time. A facility monitoring system is provided that includes a moving state determination unit that determines that .
Further, according to another aspect of the present invention, a facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a display for displaying the obtained silhouette image on the screen;
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
The monitoring unit determines whether the object is a human being,
A facility monitoring system is provided in which the display displays the acquired silhouette image on the screen when the monitoring unit determines that the object is a person.
Further, according to still another aspect of the present invention, a facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
When the object is a human, the monitoring unit determines whether the human is walking alone or moving in a wheelchair, based on the obtained silhouette image. Alternatively, there is provided a facility monitoring system including a movement form determination unit that determines whether a person is walking with a helper or a service dog.
また、本発明のあるアスペクトによれば、施設に進入する物体を識別することにより、前記施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に進入する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体の2次元のシルエットを取得するものと、
その取得されたシルエットに基づき、前記物体が人間であるか人間以外の動物であるかの種別判定を行う種別判定部と、
前記施設に設けられ、前記種別判定部によって前記物体が人間であると判定された場合に前記物体を撮影する撮影装置と
を含む施設監視システムが提供される。
Further, according to one aspect of the present invention, there is provided a facility monitoring system for monitoring a facility by identifying objects entering the facility, comprising:
A line sensor provided in the facility and extending in a direction intersecting the traveling direction of an object entering the facility, wherein the object is relatively scanned in its traveling direction to obtain a two-dimensional silhouette of the object. and
a type determination unit that determines whether the object is a human or an animal other than a human based on the acquired silhouette;
A facility monitoring system is provided, comprising: a photographing device provided in the facility for photographing the object when the type determining unit determines that the object is a person.
また、本発明の一側面によれば、施設に進入する物体を識別することにより、前記施設を監視する施設監視システムであって、
前記施設に設けられ、その施設に進入する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体の側面視をその物体の進行方向に相対的にスキャンして前記物体の2次元のシルエットを取得するものと、
その取得されたシルエットと、人間および人間以外の動物のそれぞれの標準的な2次元形状を表す複数の基準シルエットとの比較により、前記物体が人間であるか人間以外の動物であるかの種別判定を行う種別判定部と
を含む施設監視システムが提供される。
Further, according to one aspect of the present invention, there is provided a facility monitoring system for monitoring a facility by identifying objects entering the facility, comprising:
A line sensor provided in the facility and extending in a direction intersecting with the traveling direction of an object entering the facility, the line sensor scanning a side view of the object relatively in the traveling direction of the object to detect the object. obtaining a two-dimensional silhouette; and
Determining whether the object is a human or a non-human animal by comparing the obtained silhouette with a plurality of reference silhouettes representing standard two-dimensional shapes of humans and non-human animals. A facility monitoring system is provided that includes:
また、本発明のあるアスペクトによれば、管理サーバによって遠隔的に管理されるべき施設を利用するユーザを識別して管理するシステムであって、
前記施設に設けられ、それぞれ物体としての移動体およびユーザに共通の通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体の側面視をその物体の進行方向に相対的にスキャンして前記物体のシルエットを取得するものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が人間であるか否かの判定を行う判定部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記シルエットの取得または前記判定に時間的に連動して前記物体を前記施設を利用するユーザの人間画像として撮影するものと
を含むユーザ識別管理システムが提供される。
According to another aspect of the present invention, there is provided a system for identifying and managing users of facilities to be remotely managed by a management server, comprising:
A line sensor provided in the facility, installed in a passage common to a moving object as an object and a user, respectively, and extending in a direction intersecting with a traveling direction of an object passing through the passage, wherein the object is viewed from the side. relative to the direction of travel of the object to obtain a silhouette of the object;
a determination unit provided in the facility or the management server and configured to determine whether the object is a person based on the acquired silhouette;
A photographing device provided in the facility for photographing an object positioned on the passage, wherein the object is photographed as a human image of a user who uses the facility in temporal linkage with the acquisition of the silhouette or the determination. A user identity management system is provided that includes:
また、本発明の一側面によれば、管理サーバによって遠隔的に管理されるべき施設に入場しまたはその施設から退場する物体を識別して管理するシステムであって、
前記施設に設けられ、それぞれ物体としての移動体およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の側面視をその物体の進行方向に相対的にスキャンして前記物体の横方向のシルエットを取得するラインセンサと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が移動体であるか否かの判定を行う第1判定部と、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記移動体の種類の判別を行う移動体種類判別部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記第1判定部によって前記物体が移動体であると判定された場合に、前記シルエットの取得、前記判定または前記判別のタイミングに時間的に連動して前記物体の画像を移動体画像として撮影するものと、
前記施設または前記管理サーバに設けられ、前記撮影された移動体画像から、前記移動体の識別情報である移動体識別情報であって前記移動体に表示されているものを認識し、それにより、前記移動体識別情報を取得する移動体識別情報取得部と
を含み、
前記移動体の種類は、その移動体の側面視の高さ寸法に関する分類と、その移動体の側面視の形状に関する分類と、その移動体の側面視の最大寸法に関する分類と、その移動体の側面視のアスペクト比に関する分類とのうちの少なくとも一つを含み、前記移動体が車両である場合には、任意選択的に、その車両の車種を含んでもよい物体識別管理システムが提供される。
Also according to one aspect of the present invention, there is provided a system for identifying and managing objects entering or leaving a facility to be remotely managed by a management server, comprising:
a passage provided in the facility and common to the mobile object and the user, respectively;
a line sensor installed in the passage and scanning a side view of an object passing through the passage relative to the traveling direction of the object to obtain a lateral silhouette of the object;
a first determination unit provided in the facility or the management server and configured to determine whether the object is a moving object based on the acquired silhouette;
a moving body type determination unit provided in the facility or the management server and configured to determine the type of the moving body based on the acquired silhouette;
A photographing device provided in the facility for photographing an object located on the passage, wherein when the first determination unit determines that the object is a moving body, the acquisition of the silhouette, the determination, or capturing an image of the object as a moving object image in temporal linkage with the timing of the determination;
provided in the facility or the management server and recognizing mobile identification information, which is identification information of the mobile and displayed on the mobile, from the captured image of the mobile, thereby a mobile identification information acquisition unit that acquires the mobile identification information;
The type of the moving body includes a classification related to the height dimension in side view of the moving body, a classification related to the shape of the side view of the moving body, a classification related to the maximum size of the side view of the moving body, and a classification related to the maximum dimension of the side view of the moving body. classification relating to side view aspect ratio, and optionally, if the moving object is a vehicle, may optionally include the vehicle type of the vehicle.
本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用することは妨げられないと解釈すべきなのである。 The present invention provides the following aspects. Each aspect is divided into sections, each section is numbered, and the numbers of other sections are referred to as necessary. This is to facilitate understanding of some of the technical features that can be employed by the present invention and combinations thereof, and the technical features that can be employed by the present invention and combinations thereof are limited to the following aspects. should not be interpreted as That is, it should be construed that the technical features described in the present specification, which are not described in the following aspects, are appropriately extracted and employed as the technical features of the present invention.
さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げることを意味するわけではなく、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能であると解釈すべきである。 Furthermore, it should be noted that stating each paragraph in a format that refers to the numbers of other paragraphs does not necessarily prevent the technical features described in each paragraph from being separated and independent from the technical features described in other paragraphs. It should be construed that the technical features described in each section can be made independent as appropriate according to their nature.
(1) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別方法であって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサの前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動する相対移動中に実施され、
前記複数の発信機を連続的にまたは時間離散的に作動させてそれら発信機から複数の信号を発信させる発信工程と、
前記発信された複数の信号を前記複数の受信機によって時間離散的に複数回受信することを試行し、それにより、結果的に複数回の受信イベントを実行する標的受信工程であって、各受信機が2以上の発信機から2以上の信号を同時に受信すると、それら発信機のうち、各受信機に1対1に対応するように予め割り当てられた対向発信機を標的発信機とし、その標的発信機から発信された信号を有効信号として選択するものと、
各回の受信イベントにおいて、前記複数の受信機のうち、それぞれの対向発信機から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報を生成し、前記複数回の受信イベントにおいてそれぞれ生成された複数の1次元情報を配列することによって2次元情報に変換し、その2次元情報に基づいて前記物体の実際シルエットを推定するシルエット推定工程と、
その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別工程と
を含む物体識別方法。
(1) An object identification method for geometrically identifying an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor,
The central space of the line sensor, in which the transmitter row, which is a row of a plurality of transmitters, and the receiver row, which is a row of a plurality of receivers, are arranged in the space so as to face each other across the central space. during a relative movement in which the object moves relative to the line sensor in a direction transverse to the length of the line sensor to pass through;
a transmitting step of continuously or discretely operating the plurality of transmitters to transmit a plurality of signals from the transmitters;
a target receiving step for attempting to receive the emitted plurality of signals multiple times by the plurality of receivers at discrete times, thereby resulting in multiple reception events, each reception When the receiver receives two or more signals from two or more transmitters at the same time, one of the transmitters assigned in advance to correspond to each receiver on a one-to-one basis is set as a target transmitter, and the target selecting the signal emitted by the transmitter as a valid signal;
At each reception event, among the plurality of receivers, those that have received a valid signal from each of the opposite transmitters and those that have not received a valid signal are distinguished from each other, one-dimensional information is generated from the results, and the plurality of a silhouette estimating step of arranging a plurality of one-dimensional information respectively generated in each reception event to convert it into two-dimensional information, and estimating an actual silhouette of the object based on the two-dimensional information;
and an object identification step of identifying the object based on the geometric similarity between the estimated actual silhouette and a plurality of predetermined reference silhouettes.
(2) 各発信機は、固有の発信機IDを表す信号を発信するように構成され、
前記標的受信工程は、各受信機が各発信機から受信した信号から発信機IDを抽出し、各受信機が複数の発信機から同時に受信した複数の信号によってそれぞれ表される複数の発信機IDのうち、前記対向発信機に割り当てられた正規発信機IDと一致するものを表す信号を前記有効信号として選択する工程を含む(1)項に記載の物体識別方法。
(2) each transmitter is configured to emit a signal representing a unique transmitter ID;
The target receiving step extracts a transmitter ID from the signals received from each transmitter by each receiver, and a plurality of transmitter IDs, each represented by a plurality of signals received simultaneously by each receiver from a plurality of transmitters. The object identification method according to item (1), further comprising the step of selecting, as the valid signal, a signal that matches the regular transmitter ID assigned to the counter transmitter.
(3) 各受信機(例えば、ビーコン受信機)は、各発信機(例えば、ビーコン発信機)からの信号を近距離無線通信方式で受信するように構成される(1)または(2)項に記載の物体識別方法。 (3) Item (1) or (2), wherein each receiver (e.g., beacon receiver) is configured to receive a signal from each transmitter (e.g., beacon transmitter) in a short-range wireless communication scheme. The object identification method according to .
(4) 各発信機は、可視光または赤外光である光を固有の点滅パターンで発光する発光器(例えば、LED光源、レーザー光源など)であり、
各受信機は、各発光器から発光された光を受光する受光器(例えば、フォトダイオード、光センサなど)であり、
前記標的受信工程は、各受光器が受光した光から点滅パターンを抽出し、その点滅パターンを発光器IDに変換する工程を含む(1)または(2)項に記載の物体識別方法。
(4) each transmitter is a light emitter (e.g., LED light source, laser light source, etc.) that emits visible light or infrared light in a unique blinking pattern;
each receiver is a light receiver (e.g., photodiode, light sensor, etc.) that receives light emitted from each light emitter;
The object identification method according to item (1) or (2), wherein the target receiving step includes a step of extracting a blinking pattern from the light received by each light receiver and converting the blinking pattern into a light emitter ID.
(5) 前記複数の基準シルエットは、前記物体が識別される複数の候補としての複数の物体カテゴリーにそれぞれ固有な形状を有する(1)ないし(4)項のいずれかに記載の物体識別方法。 (5) The object identification method according to any one of items (1) to (4), wherein the plurality of reference silhouettes have respective shapes unique to a plurality of object categories as a plurality of candidates for identification of the object.
(6) さらに、
前記相対移動中に、前記物体が前記ラインセンサの前記中央空間を通過する際の移動速度を取得する速度取得工程を含み、
前記シルエット推定工程は、前記取得された移動速度を用いて、前記複数の1次元情報間の空間間隔を決定し、前記複数の1次元情報を、前記決定された空間間隔をあけて配列することにより、前記2次元情報に変換する(1)ないし(5)項のいずれかに記載の物体識別方法。
(6) Furthermore,
a speed acquisition step of acquiring a moving speed when the object passes through the central space of the line sensor during the relative movement;
The silhouette estimating step includes determining spatial intervals between the plurality of one-dimensional information using the acquired moving speed, and arranging the plurality of one-dimensional information at the determined spatial intervals. The object identification method according to any one of items (1) to (5), wherein the two-dimensional information is converted into the two-dimensional information.
(7) 前記複数の発信機のうち一端部に位置する端部発信機が発信した信号は、前記ラインセンサの長さ方向における前記物体の実際シルエット寸法が予め定められた上限寸法を超えない限り、前記物体によって遮断されることなく、前記複数の受信機のうち一端部に位置する端部受信機であって前記端部発信機に対向するものによって受信される(1)ないし(6)項のいずれかに記載の物体識別方法。 (7) A signal transmitted by an end transmitter located at one end of the plurality of transmitters is transmitted as long as the actual silhouette dimension of the object in the length direction of the line sensor does not exceed a predetermined upper limit dimension. , items (1) to (6) that are received by an end receiver located at one end of the plurality of receivers and facing the end transmitter without being blocked by the object The object identification method according to any one of .
(8) さらに、前記端部受信機が前記端部発信機から信号を受信しなかった場合には、前記ラインセンサの作動状態に異常があると判定する第1異常判定部を含む(7)項に記載の物体識別方法。 (8) Further including a first abnormality determination unit that determines that there is an abnormality in the operating state of the line sensor when the end receiver does not receive a signal from the end transmitter (7) 3. Object identification method according to item.
(9) さらに、前記端部受信機が前記端部発信機から信号を受信しなかった場合には、前記ラインセンサの姿勢に異常があると判定する第2異常判定部を含む(7)または(8)項に記載の物体識別方法。 (9) Further including a second abnormality determination unit that determines that there is an abnormality in the attitude of the line sensor when the end receiver does not receive a signal from the end transmitter (7) or (8) The object identification method according to the item.
(10) さらに、物体識別という本番動作に先立ち、前記ラインセンサの作動状態について故障診断を行う故障診断工程を含み、
その故障診断工程は、発信機と受信機との間の対応関係を無視して、各受信機ごとに、その受信機が、前記複数の発信機からすべての信号または一部の複数の信号を受信したか否かを判定し、すべてのまたは一部の複数の受信機が同じ発信機から信号を受信していない場合には、その発信機が故障していると判定し、一方、いずれかの受信機がいずれの発信機からも信号を受信していない場合には、そのいずれかの受信機が故障していると判定する(1)ないし(9)項のいずれかに記載の物体識別方法。
(10) Furthermore, including a failure diagnosis step of performing a failure diagnosis on the operating state of the line sensor prior to the actual operation of object identification,
The fault diagnosis process disregards the correspondence between transmitters and receivers, and for each receiver the receiver detects all or some of the signals from said transmitters. If all or some of the multiple receivers do not receive the signal from the same transmitter, it is determined that the transmitter is faulty; If the receiver does not receive a signal from any transmitter, it is determined that one of the receivers is faulty (1) to (9) object identification according to any one of items Method.
(11) (1)ないし(10)項のいずれかに記載の物体識別方法を実施するためにコンピュータによって実行されるプログラム。 (11) A program executed by a computer to carry out the object identification method according to any one of (1) to (10).
本明細書の全体を通じて、「プログラム」という用語は、例えば、それの機能を果たすためにコンピュータにより実行される指令の組合せを意味するように解釈したり、それら指令の組合せのみならず、各指令に従って処理されるファイルやデータをも含むように解釈することが可能であるが、それらに限定されない。 Throughout this specification, the term "program" shall be construed to mean, for example, the combination of instructions executed by a computer to perform its function, and the combination of those instructions as well as each instruction. can be construed to include, but not be limited to, files and data processed according to.
また、このプログラムは、それ単独でコンピュータにより実行されることにより、所期の目的を達するものとしたり、他のプログラムと共にコンピュータにより実行されることにより、所期の目的を達するものとすることができるが、それらに限定されない。後者の場合、本項に係るプログラムは、データを主体とするものとすることができるが、それに限定されない。 In addition, this program may achieve its intended purpose by being executed by a computer by itself, or may achieve its intended purpose by being executed by a computer together with other programs. They can, but are not limited to. In the latter case, the programs under this section may be data-based, but are not so limited.
(12) (11)項に記載のプログラムをコンピュータ読み取り可能に記録した記録媒体。 (12) A recording medium in which the program according to (11) is computer-readable.
本明細書の全体を通じて、「記録媒体」という用語は、種々な形式の記録媒体を意味するように解釈することが可能であり、そのような記録媒体は、例えば、フレキシブル・ディスク等の磁気記録媒体、CD、CD-ROM等の光記録媒体、MO等の光磁気記録媒体、ROM等のアンリムーバブル・ストレージ等を含むが、それらに限定されない。 Throughout this specification, the term "recording medium" can be construed to mean various types of recording medium, such as, for example, magnetic recording media such as floppy disks. Optical recording media such as CDs and CD-ROMs, magneto-optical recording media such as MOs, non-removable storages such as ROMs, etc., but are not limited to them.
(13) 前記発信機列と前記受信機列との間における前記中央空間の最低寸法は、30cm、50cm、1mまたは2mである(1)ないし(10)項のいずれかに記載の物体識別方法。 (13) The object identification method according to any one of items (1) to (10), wherein the minimum dimension of the central space between the transmitter row and the receiver row is 30 cm, 50 cm, 1 m or 2 m. .
(14) 前記物体は、自転車、自動二輪車および自動車を含む車両または移動体を含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (14) The object identification method according to any one of items (1) to (10), wherein the object includes vehicles including bicycles, motorcycles and automobiles, or moving bodies.
(15) 前記複数の基準シルエットは、車両、人間および動物のそれぞれについての複数の標準的なシルエットを含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (15) The object identification method according to any one of items (1) to (10), wherein the plurality of reference silhouettes include a plurality of standard silhouettes of vehicles, humans and animals, respectively.
(16) 前記ラインセンサは、前記物体の進行方向において互いに隔たった2か所にそれぞれ設置される第1ラインセンサおよび第2ラインセンサを含む(1)ないし(10)項のいずれかに記載の物体識別方法。 (16) The line sensor according to any one of items (1) to (10), wherein the line sensor includes a first line sensor and a second line sensor that are respectively installed at two locations separated from each other in the traveling direction of the object. Object identification method.
(17) 前記物体は、所定の通路を進行し、
前記発信機列および前記受信機列は、前記通路を挟むように互いに対向する2か所にそれぞれ設置され、
前記物体は、その物体が前記通路を一方向に進行中に識別される(1)ないし(10)項のいずれかに記載の物体識別方法。
(17) the object advances through a predetermined path;
The transmitter row and the receiver row are respectively installed at two locations facing each other across the passage,
The object identification method according to any one of items (1) to (10), wherein the object is identified while the object is traveling through the passage in one direction.
(18) 前記通路は、開放空間と行き止まり空間とを互いに接続するように配置され、
前記物体は、前記通路を正逆双方向に進行し、
前記ラインセンサは、前記通路のうち、前記開放空間の側に設置された外側ラインセンサと、前記行き止まり空間の側に設置された内側ラインセンサとを含む(17)項に記載の物体識別方法。
(18) the passageway is arranged to connect an open space and a dead end space to each other;
The object travels forward and backward through the passage,
The object identification method according to item (17), wherein the line sensors include an outer line sensor installed on the open space side and an inner line sensor installed on the dead end space side of the passage.
(19) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別システムであって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサであって、前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動するものと、
前記発信された複数の信号を前記複数の受信機によって時間離散的に複数回受信することを試行し、それにより、結果的に複数回の受信イベントを実行する標的受信部であって、各受信機が2以上の発信機から2以上の信号を同時に受信すると、それら発信機のうち、各受信機に1対1に対応するように予め割り当てられた対向発信機を標的発信機とし、その標的発信機から発信された信号を有効信号として選択するものと、
各回の受信イベントにおいて、前記複数の受信機のうち、それぞれの対向発信機から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報を生成し、前記複数回の受信イベントにおいてそれぞれ生成された複数の1次元情報を配列することによって2次元情報に変換し、その2次元情報に基づいて前記物体の実際シルエットを推定するシルエット推定部と、
その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別部と
を含む物体識別システム。
(19) An object identification system that geometrically identifies an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor,
A line sensor in which a plurality of transmitter rows, which are rows of transmitters, and a plurality of receiver rows, which are rows of receivers, are arranged in space so as to face each other across a central space, the object moves relative to the line sensor in a direction crossing the length direction of the line sensor so as to pass through the central space;
A target receiver that attempts to receive the emitted plurality of signals multiple times by the plurality of receivers in a time-discrete manner, thereby resulting in multiple reception events; When the receiver receives two or more signals from two or more transmitters at the same time, one of the transmitters assigned in advance to correspond to each receiver on a one-to-one basis is set as a target transmitter, and the target selecting the signal emitted by the transmitter as a valid signal;
At each reception event, among the plurality of receivers, those that have received a valid signal from each of the opposite transmitters and those that have not received a valid signal are distinguished from each other, one-dimensional information is generated from the results, and the plurality of a silhouette estimating unit for arranging a plurality of one-dimensional information respectively generated in each reception event to convert it into two-dimensional information, and estimating the actual silhouette of the object based on the two-dimensional information;
an object identifier that identifies the object based on the geometric similarity between the estimated actual silhouette and a plurality of predetermined reference silhouettes.
(20) 物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別する物体識別システムであって、
複数の発信機の列である発信機列と、複数の受信機の列である受信機列とが中央空間を隔てて互いに対向するように空間上に配置されて成るラインセンサであって、前記中央空間を通過するように前記物体が前記ラインセンサの長さ方向と交差する方向において前記ラインセンサに対して相対的に移動し、前記複数の発信機から発信された複数の信号は少なくとも部分的に前記物体によって遮断されて前記受信機列に到達しないものと、
そのラインセンサの受信結果に基づき、前記物体の実際シルエットを推定し、その推定された実際シルエットと予め定められた複数の基準シルエットとの間の形状的近似度に基づき、前記物体を識別する物体識別部と
を含み、
前記物体は、車両を含み、
前記通信端末は、前記車両の乗員であるユーザによって乗車中に携帯されるか、または前記車両に搭載されており、
各発信機は、固有の発信機IDを表す信号を発信し、
前記通信端末は、前記乗車中に、前記複数の発信機からの複数の信号のうち前記車両内に進入する部分を受信し、
当該物体識別システムは、さらに、
前記通信端末と通信可能な管理サーバと、
前記複数の受信機の受信状態および/または前記物体識別部の物体識別結果を表す信号を前記管理サーバに送信することが可能な通信部と
を含み、
前記通信端末は、前記複数の発信機のうちの少なくとも1つからの信号を受信すると、その信号から発信機IDを抽出し、その発信機IDをユーザ識別情報に関連付けて前記管理サーバに送信し、
前記管理サーバは、前記ラインセンサが前記物体を検出し、かつ、その物体が車両であると識別された状態において、前記通信端末から前記発信機IDを受信すると、その発信機IDが前記ラインセンサに帰属する場合には、ユーザと前記車両とを紐付けするユーザ・車両紐付け部を含むを物体識別システム。
(20) An object identification system that geometrically identifies an object in a non-contact manner without using a camera by scanning the object in one direction with a line sensor,
A line sensor in which a plurality of transmitter rows, which are rows of transmitters, and a plurality of receiver rows, which are rows of receivers, are arranged in space so as to face each other across a central space, The object moves relative to the line sensor in a direction transverse to the length direction of the line sensor so as to pass through the central space, and the plurality of signals emitted from the plurality of transmitters are at least partially are blocked by the object and do not reach the receiver array at
estimating an actual silhouette of the object based on the received results of the line sensor, and identifying the object based on the geometric similarity between the estimated actual silhouette and a plurality of predetermined reference silhouettes; including an identification portion and
the object includes a vehicle;
The communication terminal is carried by a user who is an occupant of the vehicle while riding or is mounted on the vehicle,
each transmitter emits a signal representing a unique transmitter ID;
The communication terminal receives a portion of the plurality of signals from the plurality of transmitters that enter the vehicle during the ride,
The object identification system further comprises:
a management server communicable with the communication terminal;
a communication unit capable of transmitting a signal representing the reception status of the plurality of receivers and/or the object identification result of the object identification unit to the management server;
When receiving a signal from at least one of the plurality of transmitters, the communication terminal extracts a transmitter ID from the signal, associates the transmitter ID with user identification information, and transmits the transmitter ID to the management server. ,
When the management server receives the transmitter ID from the communication terminal in a state in which the line sensor detects the object and the object is identified as a vehicle, the management server receives the transmitter ID from the line sensor. an object identification system including a user/vehicle linking unit that links the user and the vehicle when the object belongs to.
(21)指定された施設に入場しまたはその施設から退場する車両およびその車両の使用者であるユーザをそれぞれ、物体として互いに区別した状態で、識別して管理するために、前記施設の通路に、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記通路を通過する物体をそれの進行方向に相対的にスキャンすることにより、前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものが設置され、そのラインセンサを用い、前記取得されたシルエットに基づき、前記物体が車両であるか否かを判定し、車両である場合、前記シルエットに基づいて車種を判別し、前記物体識別処理、前記判定または前記判別に時間的に連動してカメラを用いて前記車両を撮影し、その撮影された車両画像に基づいて車両番号を取得し、前記施設と、前記車種と、前記車両番号と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素を車両・ユーザ管理リストに登録する車両・ユーザ識別管理システムおよび車両・ユーザ識別管理方法。 (21) In order to identify and manage vehicles entering or exiting a designated facility and users who are users of the vehicles, respectively, in a state where they are distinguished from each other as objects, , a line sensor extending in a direction intersecting the traveling direction of an object passing through the passage, wherein the silhouette of the object is obtained by scanning the object passing through the passage relatively in its traveling direction. Then, a line sensor is installed to perform object identification processing based on the silhouette, and the line sensor is used to determine whether or not the object is a vehicle based on the acquired silhouette. The vehicle type is determined based on the silhouette, the vehicle is photographed using a camera in conjunction with the object identification processing, the determination, or the determination in terms of time, and the vehicle number is obtained based on the photographed vehicle image. , a vehicle/user identification management system and a vehicle/user identification management method for associating the facility, the vehicle type, the vehicle number, and the user ID or terminal ID with each other and registering these elements in a vehicle/user management list. .
以下、本発明のさらに具体的な例示的な実施の形態のうちのいくつかを図面に基づいて詳細に説明する。 Below, some of the more specific exemplary embodiments of the present invention will be described in detail based on the drawings.
[第1の実施形態] [First embodiment]
図1には、本発明の例示的な第1の実施形態に従う物体識別システム10(以下、単に「システム10」という。)のうちのハードウエア構成が概略的に平面図で表されている。このシステム10は、本発明の例示的な一実施形態に従う物体識別方法を実施するように設計されたものである。
FIG. 1 schematically shows a plan view of the hardware configuration of an object identification system 10 (hereinafter simply referred to as "
このシステム10は、本実施形態においては、駐車場20を無人でかつ遠隔的に管理する駐車場管理システム1000の一部に組み込まれている。
In this embodiment, the
概略的に説明するに、このシステム10は、3次元の物体をラインセンサで一方向にスキャンすることにより、カメラを用いずに非接触式で前記物体を形状的に識別するように設計されている。
Briefly, the
このシステム10は、駐車場20に出入りする物体が車両30であるのか、人間であるのか、動物であるのかを識別するために実施される。駐車場20は、複数の車両を収容可能な複数の車室32を有する内側領域(行き止まり空間)34と、駐車場20に隣接する道路36である外側領域(開放空間)38とを互いに接続する出入り通路40を有する。
This
車両30は、駐車場20への入庫時にも駐車場20からの出庫時にも、共通の出入り通路40に沿って進行する。具体的には、車両30は、入庫時には、出入り通路40を一方向に(外側から内側に向かう向き)に進行し、一方、出庫時には、出入り通路40を逆方向に(内側から外側に向かう向き)に進行する。
A
図1に示すように、このシステム10は、出入り通路40のうち、外側領域38の側に設置された外側ラインセンサ50と、内側領域34の側に設置された内側ラインセンサ52とを備えている。外側ラインセンサ50も内側ラインセンサ52も、駐車場20の支持面(例えば、路面や地面など)54に、その支持面54から概して垂直に延びる正立姿勢で設置されている。
As shown in FIG. 1, the
図2および図3に示すように、外側ラインセンサ50についても内側ラインセンサ52についても、複数の発信機60の列である発信機列がハウジング74内に収容されて成る発信機ポスト62と、複数の受信機70の列である受信機列がハウジング76内に収容されて成る受信機ポスト72とが中央空間77を隔てて互いに対向するように空間上に配置されて構成されている。発信機ポスト62も受信機ポスト72も、複数のセンサ素子(この用語は、発信機60および受信機70を総称するために使用される)が1次元的に(例えば、真っ直ぐかまたは曲がった中心線に沿って)配列されて構成されている。
As shown in FIGS. 2 and 3, for both the
さらに、外側ラインセンサ50についても内側ラインセンサ52についても、複数の発信機60と複数の受信機70とのうち互いにペアを成す1つの発信機60と1つの受信機70とは、図3に示すように、水平方向において互いに対向するように配置されている。
Furthermore, for both the
発信機ポスト62および受信機ポスト72は、それぞれ、支持面54から概して垂直に延びる柱状のハウジング74および76を有し、それらハウジング74および76内にそれぞれ、複数の発信機60および複数の受信機70が防水機能を有するように(雨水、水たまりの侵入によって故障しないように)収容されている。
本実施形態においては、発信機60も受信機70も、非可視光(例えば、電波)を用いて通信を行うタイプのセンサ素子(例えば、ビーコン発信機およびビーコン受信機)であるが、それに代えて、可視光、赤外光、音波または超音波を用いるタイプのセンサ素子、例えば、LED光源および光センサの組合せ、赤外光源および赤外センサの組合せ、レーザー光源および光センサの組合せや、音波発生器および音波センサの組合せなどを用いてもよい。すなわち、発信機60は、電磁波出射素子の一例であり、これに対し、受信機70は、電磁波入射素子の一例なのである。
In this embodiment, both the
一例においては、各発信機60が、可視光または赤外光である光を固有の点滅パターンで発光する発光器60である。これに対し、各受信機70は、各発光器60から発光された光を受光する受光器70である。この場合、標的受信部108は、各受光器70が受光した光から点滅パターンを抽出し、その点滅パターンを発光器IDに変換し、それにより、その受光した光を発光した発光器60が、対向発光器(正規発信機の一例)すなわち正規発光器(正規発信機の一例)であるか否かを判定する。
In one example, each
図3に正面図で示すように、複数の発信機60は、物体識別動作中、それぞれ複数の信号を一斉に発信する。それら信号のうち、車両30によって遮断される部分は、対向する受信機70に入射せず、一方、車両30によって遮断されない部分は、中央空間77内を透過して、対向する受信機70に入射する。
As shown in the front view of FIG. 3, the
図4に側面図で示すように、外側ラインセンサ50についても内側ラインセンサ52についても、また、発信機ポスト62も受信機ポスト72も、一列に並んだ複数のセンサ素子60,70のうちの最上端のもの(最上端発信機(前記「端部発信機」の一例)60および最上端受信機(前記「端部受信機」の一例)70)は、図2および図3に示すように、サイズ的に適合するすべての種類の車両30について、最上端発信機60が発信した信号が最上端受信機70によって受信されるように、最上端発信機60および最上端受信機70の高さ方向位置が選択されている。
As shown in side view in FIG. 4, both the
したがって、最上端発信機60が発信した信号は、各ラインセンサ50,52の長さ方向における物体30の実際シルエット寸法が予め定められた上限寸法を超えない限り、物体30によって遮断されることなく、最上端受信機70であって最上端発信機60に対向するものによって受信される。
Therefore, the signal transmitted by the
さらに、図4に側面図で示すように、外側ラインセンサ50についても内側ラインセンサ52についても、また、発信機ポスト62も受信機ポスト72も、一列に並んだ複数のセンサ素子60,70のうちの最下端のもの(最下端発信機60および最下端受信機70)は、すべての種類の車両30について、その車両30のタイヤ(車輪、ホイール)78がラインセンサ50,52を通過する際に、最下端発信機60から発信した信号がタイヤ78によって遮断されて最下端受信機70によって受信されないように、最下端発信機60および最下端受信機70の高さ方向位置が選択されている。これにより、車両30のうち、タイヤ78が各ラインセンサ50,52を通過したタイミングを検出することが可能である。
Further, as shown in side view in FIG. 4, both the
図5に正面図で示すように、外側ラインセンサ50についても内側ラインセンサ60についても、発信機ポスト62のうちの各発信機60が無指向性で(例えば、放射状に)信号を発信する。そのため、1つの発信機60から発信された信号が、その発信機60に対向する対向受信機(例えば、1つの対向受信機)70のみならず、その周辺に位置する複数の受信機70によっても、同時に受信される可能性がある。
As shown in front view in FIG. 5, for both
その可能性を排除するために、本実施形態においては、各受信機70ごとに標的受信が行われる。具体的には、各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、それら発信機60のうち、各受信機70に1対1に対応するように予め割り当てられた対向発信機60から発信された信号を有効信号として選択し、それ以外の信号は無効信号として除外する信号処理が行われる。これは、フィリタリング処理とも称される。
To eliminate that possibility, targeted reception is performed for each
これに関連し、図6には、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、複数の受信機70の番号と、それら受信機70にそれぞれ1対1に対応する複数の発信機(正規発信機)60の番号と、発信機60ごとの複数の発信機ID(正規発信機ID)との間の関係が表形式で表されている。
In this regard, FIG. 6 shows the numbers of a plurality of
具体的には、上述の標的受信においては、各受信機70ごとに、それに対応する1つの対向発信機60と、その対向発信機60に割り当てられた発信機IDすなわち正規発信機IDとを決定する。各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、それら発信機60のうち、正規発信機IDを表す信号を有効信号として選択する一方、それ以外の信号を無視する。これを、ソフト的なフィルタリング処理とも称する。
Specifically, in the above-described target reception, for each
すなわち、上述の標的受信においては、各受信機70が2以上の発信機60から2以上の信号を同時に受信すると、1つの正規発信機IDを割り当てられた1つの対向発信機60を1つの標的発信機60に選択し、事実上、その標的発信機60のみから信号を受信することを試行するのである。
That is, in the target reception described above, when each
これに対し、ランダム受信とは、各受信機70が、いずれの発信機60が前述の正規発信機であるか否かを無視して、ランダムに受信した少なくとも1つの信号をそれぞれ少なくとも1つの実発信機IDに変換して、各受信機70に、その少なくとも1つの実発信機IDを割り当てることを意味する。
On the other hand, random reception means that each
本実施形態においては、複数の受信機70に対し、上述の標的受信が、最上端受信機70から最下端受信機70に向かって(これとは逆向きでもよいし、別の向きでもよい)順次行われるが、これは、外側ラインセンサ50と物体30との間の相対移動が物理的なスキャン(x方向スキャン、前後方向スキャン)と称される場合には、外側ラインセンサ50すなわち複数の受信機70に対するソフト的なスキャン(y方向スキャン、垂直方向スキャン)と称される。
In this embodiment, for a plurality of
なお、本実施形態においては、内側ラインセンサ52が、外側ラインセンサ50と共通の構成を有するように設計される。しかし、本実施形態においては、専ら外側ラインセンサ50を用いて物体識別が行われる。ただし、これに代えて、専ら内側ラインセンサ52を用いて物体識別が行われる態様で本発明を実施してもよいし、また、双方のラインセンサ50および52を用いて物体識別が行われる態様で本発明を実施してもよい。
In addition, in this embodiment, the inner line sensor 52 is designed to have a common configuration with the
よって、内側ラインセンサ52は、後述のように、入出庫判別を外側ラインセンサ50と共同して行うために必要最低限の構成を有するように、外側ラインセンサ50より単純化して(例えば、互いに対向する発信機60および受信機70より成るセンサ素子対(透過型対向センサ素子)の数を1つとか複数とか、外側ラインセンサ50におけるセンサ素子対の数より減らす)設計してもよい。
Therefore, the inner line sensor 52 is simplified from the outer line sensor 50 (e.g., mutually The number of sensor element pairs (transmissive opposed sensor elements) consisting of
前述のように、このシステム10は、3次元の物体30を外側ラインセンサ50で一方向に物理的にスキャンすることにより、カメラを用いずに非接触式で物体30を形状的に識別するように設計されている。
As previously described, the
具体的には、図7に側面図で示すように、物体の一例としての車両30が駐車場20の出入り通路40を一方向に進行中にその車両30が外側ラインセンサ50によって一方向にスキャンされてその車両30が識別される。
Specifically, as shown in the side view of FIG. 7, while a
移動体としての車両30が、静止物体としての外側ラインセンサ50に対して相対的に、中央空間77を通過するように移動することにより、車両30が外側ラインセンサ50の長さ方向と交差する方向(スキャン方向)において外側ラインセンサ50に対して相対的に移動する相対移動が実現される。
When the
図8に、各受信機70ごとの受信の有無をドットパターン(受信機70ごとに、信号遮断による非受信状態、すなわち、受信機70のオフ(OFF)状態がドットで示される)で示すように、車両30が外側ラインセンサ50によって一方向にスキャンされる結果、車両30について複数の1次元情報が時間離散的に生成される。それら1次元情報は、所定のサンプリング周期Δtで順次生成される。
In FIG. 8, the presence or absence of reception for each
図8に示す例において、時刻t1は、図7に示す例における時刻t1に関連付けられる。図7においては、物体30のうち、時刻t1で示す部位が外側ラインセンサ50によって測定されたときに取得される1次元情報がドットパターンで図8に示されている。同様に、図8において時刻t2は、図7において時刻t2で示す部位に関連付けられる。他の時刻t3およびt4についても同様である。
In the example shown in FIG. 8, time t1 is related to time t1 in the example shown in FIG. In FIG. 7, one-dimensional information acquired when the portion indicated by time t1 of the
さらに、図8に示すように、上述の一方向スキャンによって生成された複数の1次元情報(1本のドット列)が2次元情報(複数本のドット列)に合成され、それにより、物体30の実際シルエットが推定される。その実際シルエットの形状は、例えば、2次元情報を表す複数個のドットに外接する包絡線によって表現される。
Furthermore, as shown in FIG. 8, a plurality of one-dimensional information (one dot row) generated by the above-described unidirectional scanning are combined with two-dimensional information (a plurality of dot rows), thereby forming the
複数の1次元情報の合成は、それら1次元情報をそれらに共通の空間間隔で均等に配列することによって行ってもよい。そのときの空間間隔の長さは、固定値であっても、物体30の移動速度の測定値に応じて設定される可変値であってもよい。
Combining a plurality of one-dimensional information may be performed by evenly arranging the one-dimensional information at their common spatial intervals. The length of the spatial interval at that time may be a fixed value or a variable value set according to the measured value of the moving speed of the
これに代えて、物体30の移動速度(例えば、車両走行速度、車速)を、1次元情報のサンプリング・タイミングと概して同じタイミングで取得し、取得された複数の実際速度に応じた複数の空間間隔で不均等に複数の1次元情報を配列してもよい。 Alternatively, the moving speed of the object 30 (e.g., vehicle running speed, vehicle speed) is obtained at generally the same timing as the sampling timing of the one-dimensional information, and a plurality of spatial intervals corresponding to the obtained plurality of actual speeds are obtained. A plurality of one-dimensional information may be arranged unevenly.
具体的には、前記取得された複数の移動速度を用いて、複数の1次元情報間の空間間隔を決定し、それら1次元情報を、前記決定された空間間隔をあけて配列することにより、2次元情報に変換してもよい。 Specifically, by using the acquired plurality of moving speeds to determine the spatial interval between the plurality of one-dimensional information, and arranging the one-dimensional information at the determined spatial interval, It may be converted into two-dimensional information.
前述のように、このシステム10は、駐車場20に出入りする物体30が車両であるのか、人間であるのか、動物であるのかを識別するために実施される。一方、物品識別のため、複数の基準シルエットが用意され、上述のようにして推定された実際シルエットが、それら基準シルエットのうちのいずれに、最も形状が似ているか否かが判定され、最も近似している基準シルエットに対応する物体カテゴリーが、今回の物体30であると判別される。
As previously mentioned, the
そのため、本実施形態においては、図9に例示するように、複数の基準シルエットが、車両、人間(例えば、縦に細長い単純な形状のシルエット)および動物(例えば、横に細長い単純な形状のシルエット)のそれぞれについての複数の標準的なシルエットを含む。 Therefore, in the present embodiment, as illustrated in FIG. 9, a plurality of reference silhouettes include a vehicle, a human (for example, a silhouette with a simple vertically elongated shape), and an animal (for example, a silhouette with a simple horizontally elongated shape). ) for each of the standard silhouettes.
実際シルエットと各基準シルエットとの間の形状に関する近似度(または類似度)は、例えば、各基準シルエットごとに、実際シルエットと各基準シルエットとの間の形状近似度を計算する。その形状近似度は、例えば、実際シルエットを表すビットマップデータと、各基準シルエットを表すビットマップデータとが互いにオーバーラップする領域を占有する複数個のビットの数として計算することが可能である。 For the degree of approximation (or degree of similarity) regarding the shape between the actual silhouette and each reference silhouette, for example, the degree of shape approximation between the actual silhouette and each reference silhouette is calculated for each reference silhouette. The degree of shape approximation can be calculated, for example, as the number of bits occupying the overlapping region between the bitmap data representing the actual silhouette and the bitmap data representing each reference silhouette.
さらに、実際シルエットと各基準シルエットとの間の形状近似度を計算する際に、実際シルエットのベースライン(支持面54の位置を表す)と各基準シルエットのベースラインとが互いに一致するように、実際シルエットと各基準シルエットとがビットマップメモリ上で重ね合わせられる。その結果、実際シルエットと各基準シルエットとが、垂直方向(y方向)に関して相対的に位置決めされる。これに対し、水平方向(x方向)に関する相対的な位置決めは、実際シルエットと各基準シルエットとの重なり面積が最大化するように、計算により、行われる。 Furthermore, when calculating the degree of shape approximation between the actual silhouette and each reference silhouette, so that the baseline of the actual silhouette (which represents the position of the support surface 54) and the baseline of each reference silhouette match each other: The actual silhouette and each reference silhouette are superimposed on the bitmap memory. As a result, the actual silhouette and each reference silhouette are positioned relative to each other in the vertical direction (y-direction). On the other hand, the relative positioning in the horizontal direction (x-direction) is calculated so as to maximize the overlapping area between the actual silhouette and each reference silhouette.
さらに、各基準シルエットごとに、実際シルエットの倍率を変えながら各基準シルエットとの間の形状近似度を最大化し、その最大値を代表近似度とする。その基準シルエットの代表近似度を、残りの基準シルエットについて同様にして計算された代表近似度と比較し、すべての基準シルエットのうち、最大の代表近似度が取得されたものに対応する物体カテゴリーとして今回の物体30を識別する。
Further, for each reference silhouette, the degree of shape approximation with respect to each reference silhouette is maximized while changing the magnification of the actual silhouette, and the maximum value is taken as the degree of representative approximation. The representative approximation of that reference silhouette is compared with the representative approximation similarly calculated for the remaining reference silhouettes, and the object category corresponding to the one for which the maximum representative approximation is obtained among all the reference silhouettes is The
図9には、複数の物体カテゴリーと複数の基準シルエットとの間の例示的な関係が概念的に表形式で表されている。同図に示すように、人間のための基準シルエットは、(例えば、縦に細長い単純な形状のシルエットである。また、動物のための基準シルエットは、例えば、横に細長い単純な形状のシルエットである。各基準シルエットは、支持面54を表す直線をベースラインとし、そのベースラインを基準に相対的に位置決めされる。
An exemplary relationship between multiple object categories and multiple reference silhouettes is conceptually represented in tabular form in FIG. As shown in the figure, a reference silhouette for humans is a silhouette of a simple vertically elongated shape, and a reference silhouette for an animal is a silhouette of a simple horizontally elongated shape, for example. Each reference silhouette has a straight line representing the
図9に示す例においては、車両の複数の基準シルエットとして、複数の標準的なシルエット(車両をその形状から標準的に分類する際に使用される形状上の分類に従う)が選択されている。しかし、これに代えて、車種ごとの複数の個別シルエットを選択してもよい。そうすれば、物体30が車両として識別される場合に、さらに、その車両30がいずれの車種(例えば、さらに車両メーカー名も)であるかについても識別することが可能となる。
In the example shown in FIG. 9, standard silhouettes (according to the geometrical classification used in standardizing vehicles by their shape) are selected as the reference vehicle silhouettes. However, instead of this, a plurality of individual silhouettes for each vehicle type may be selected. By doing so, when the
図2の下側には、このシステム10のうちのソフトウエア構成が機能ブロック図で概念的に表されている。
At the bottom of FIG. 2, the software configuration of this
ユーザは、通信端末90を使用する。その通信端末90は、ユーザによって携帯されるとともに無線通信機能を有するデバイス、例えば、携帯電話機、スマートフォン、ラップトップ型コンピュータ、タブレット型コンピュータ、PDAなどでもよい。これに代えて、通信端末90は、ユーザによって携帯されないもの、例えば、車両30に搭載される車載通信端末、車載コンピュータであってもよい。
A user uses the
このシステム10は、各ラインセンサ50,52のうちの発信機ポスト62,62および受信機ポスト72,72にそれぞれ接続された信号処理ユニット100を有する。この信号処理ユニット100は、各ラインセンサ50,52のうちの受信機ポスト72,72からの複数の信号に基づき、物体識別および入出庫判別を行うように構成されている。
The
具体的には、信号処理ユニット100は、ハードウエア構成上、コンピュータ(プロセッサ)160と、メモリ162とを含むように構成される。メモリ162は、図6に例示的に示す関係を保存する第1保存部102と、図9に例示的に示す関係を保存する第2保存部104とを有する。
Specifically, the
信号処理ユニット100は、さらに、複数の発信機60を一斉にかつ連続的に(時間離散的にでも可)作動させる発信部106と、前述の標的受信を行うための標的受信部(フィルタリング部を含む)108とを有する。
The
信号処理ユニット100は、さらに、標的受信部108による受信結果に基づいて車両30の実際シルエットを推定するためのシルエット推定部110と、その推定された実際シルエットに基づいて物体30の識別を行う物体識別部112とを有する。
The
信号処理ユニット100は、さらに、2つのラインセンサ50および52を用いて車両30(物体30が車両であると識別された後に)が入庫ステージにあるのか出庫ステージにあるのかを判別する入出庫判別部114と、物体30の移動速度を取得するための速度取得部116とを有するように構成されている。その取得された移動速度は、例えば、シルエット推定部110により、前述のように、複数の1次元情報を合成して2次元情報に変換する際に用いられる。
The
シルエット推定部110は、支持面54を表す直線をベースラインとし(図9参照)、2次元情報を、そのベースラインを基準に相対的に位置決めすることにより、物体30の実際シルエットを推定する。
The
速度取得部116は、例えば、物体30から、その移動速度を表す信号を受信し、その信号から物体30の移動速度を取得するように構成してもよいし、ドップラ式の速度計として構成してもよい。
For example, the
これらに代えて、速度取得部116は、物体30が外側ラインセンサ50を通過したタイミング(外側ラインセンサ50におけるいずれかの受信機72または互いに連続した所定複数個の受信機72がいずれも最初にOFFになったタイミング)と、同じ物体30が内側ラインセンサ52を通過したタイミング(内側ラインセンサ52におけるいずれかの受信機72または互いに連続した所定複数個の受信機72がいずれも最初にOFFになったタイミング)との間の時間差で、外側ラインセンサ50の設置位置と内側ラインセンサ52の設置位置との間の距離を割り算することにより、物体30の平均的な移動速度を取得するように構成してもよい。
Instead of these, the
信号処理ユニット100は、さらに、少なくとも物体識別部112の実行結果および入出庫判別部114の実行結果を管理サーバ130に送信するための通信機器300(図18参照)を有する。通信機器300は、例えば、遠距離無線通信機能を有する。
The
このシステム10は、さらに、各ラインセンサ50,52のうちの発信機ポスト62,62および受信機ポスト72,72にそれぞれ接続された駆動ユニット120と、電源ユニット122とを有する。駆動ユニット120は、それぞれの発信機60および受信機70に電源ユニット(商用電源、太陽電池、バッテリなど)122から電力を供給する。それにより、駆動ユニット120は、発信機60にあっては、信号を発信する状態に移行させ、また、受信機70にあっては、いくつかの発信機60から信号を受信することを試行する状態に移行させる。
The
ただし、発信機60および受信機70は、太陽電池および充電可能なバッテリ(充電池)の組合せにより、外部からの給電なしで作動可能な自立型タイプとしてもよい。
However, the
このシステム10は、さらに、駐車場20からの遠隔地に設置された管理センタ124によって運営される管理サーバ130を有する。管理サーバ130は、信号処理ユニット100との間で遠距離無線通信が可能である。
The
管理サーバ130は、信号処理ユニット(例えば、駐車場20に設置されているが、駐車場20の外部に設置されてもよい)100から受信した信号と、ユーザの通信端末90から受信した信号とに基づき、駐車場20を管理する駐車場管理部132を有する。
The
管理サーバ130は、ユーザによる駐車料金の電子決済を行うために、決済サーバ140に接続されている。
The
<物体識別> <Object identification>
図10には、図2に示す信号処理ユニット100のうちの物体識別部112において実行される例示的な物体識別プログラムが概念的にフローチャートで表されている。本実施形態においては、物体識別のために外側ラインセンサ50のみが利用され、残りの内側ラインセンサ52は、外側ラインセンサ50と共に入出庫判別のときに利用される。
FIG. 10 conceptually shows a flow chart of an exemplary object identification program executed in the
この物体識別プログラムは、メモリ162に予め記憶されていて、適宜、コンピュータ(特にプロセッサ)160によって実行される。
This object identification program is pre-stored in
この物体識別プログラムが実行されると、まず、ステップS1001において、外側ラインセンサ50における複数の発信機60が一斉に駆動され、それにより、それら発信機60が、それぞれ固有の発信機IDを表す複数の信号を発信する。
When this object identification program is executed, first, in step S1001, the plurality of
次に、ステップS1002において、物体30に対して(厳密には、常に外側ラインセンサ50の近傍に物体30が存在するとは限らない)今回のスキャンを開始し、現在時刻を今回のスキャン・タイミングtn(今回は、n=1であり、図7に示す例においては、n=1,2,3,4,・・・)として計時してメモリ162に保存する。ここに、「スキャン」は、ソフト的なスキャン(受信機70ごとのシーケンシャルな標的受信)ではなく、物理的なスキャンであり、例えば、ある瞬間において、複数の発信機60と複数の受信機70とを用いて物体30を撮影することを試行するイベントに似ている。
Next, in step S1002, the current scan is started for the object 30 (strictly speaking, the
続いて、ステップS1003において、各受信機70ごとに順次、前述の標的受信を行うモードに移行する。
Subsequently, in step S1003, each
その後、ステップS1004において、複数の1次元情報を2次元情報(物体30の実際シルエット)に変換する後述の合成処理(ステップS1016)に備えて、速度取得部116を用いて、車両30の現在の車両速度を取得し、今回のスキャン・タイミングtnに関連付けてメモリ162に保存する。
After that, in step S1004, in preparation for a synthesis process (step S1016) that converts a plurality of pieces of one-dimensional information into two-dimensional information (actual silhouette of the object 30) (step S1016), the
続いて、ステップS1005において、複数の受信機70のうちのいずれか(例えば、最上端受信機70または最下端受信機70)を今回の実施対象として選択し、その今回の1つの受信機70につき、対応する正規発信機ID、すなわち、図6に示すように、各受信機70に対向する1つの発信機(正規発信機)60に予め割り当てられている正規発信機IDをメモリ162から読み出す。
Subsequently, in step S1005, one of the plurality of receivers 70 (for example, the
その後、ステップS1006において、今回の受信機70が少なくとも1つの発信機60から受信した少なくとも1つの信号をそれぞれ実発信機IDに変換し、いずれかの実発信機IDが、前記読み出された正規発信機IDと一致するか否かを判定する。一致すれば、そのステップS1006の判定がYESとなり、ステップS1007において、今回の受信機70は有効信号を受信したと判定する。続いて、ステップS1008において、今回の受信機70はON状態にあると判定する。
After that, in step S1006, at least one signal received by the
これに対し、今回の受信機70が受信した信号から変換された少なくとも1つの実発信機IDのうちのいずれも、前記読み出された正規発信機IDと一致しない場合(今回の受信機70がいずれの発信機60からも信号を受信しない場合も含まれる)には、ステップS1006の判定がNOとなり、続いて、ステップS1009において、今回の受信機70は有効信号を受信しなかったと判定する。続いて、ステップS1010において、今回の受信機70はOFF状態にあると判定する。
On the other hand, if none of the at least one real transmitter ID converted from the signal received by the
いずれの場合にも、その後、ステップS1011において、すべての受信機70について標的受信が終了したか否か、すなわち、今回のスキャンに属する複数回の標的受信(1回分の受信イベント)が終了したか否かを判定する。終了しない場合には、そのステップS1011の判定がNOとなり、ステップS1005に戻り、次の受信機70について標的受信を行う。
In either case, after that, in step S1011, it is determined whether target reception has been completed for all
すべての受信機70について標的受信(1回分の受信イベント)が終了すると、ステップS1011の判定がYESとなり、続いて、S1012において、複数の受信機70が有効信号を受信したか否かについての上述の複数の判定結果が、例えば図8において左側に示すように、ビットマップ形式で、各受信機70の高さ位置に関連付けて、ON状態にあるかまたはOFF状態にあるかを区別して表すように、メモリ162に記憶する。これにより、今回の受信イベントについて1列分の1次元情報が生成される。すなわち、複数の受信機70のうち、それぞれの対向発信機60から有効信号を受信したものと受信しなかったものとを互いに区別し、その結果から1次元情報が生成されるのである。
When target reception (one reception event) is completed for all
その後、ステップS1013において、物体30のうち、前後方向に空間離散的に並んだ複数の箇所のすべてについてスキャン(時間離散的な所定複数回の物理的なスキャン)が終了したか否かを判定する。具体的には、例えば、スキャン回数nが、予め設定された上限値nmaxに達したか否かを判定する。
After that, in step S1013, it is determined whether or not scanning (physical scanning of a predetermined number of time-discrete times) has been completed for all of the plurality of locations of the
今回は、スキャン回数nが上限値nmaxに達していないと仮定すると、ステップS1013の判定がNOとなり、ステップS1014において、今回のスキャン・タイミングtnから、互いに隣接した複数回のスキャン間の所定の時間間隔、すなわち、1回分のサンプリング周期Δt(図8参照)が経過するのを待つ。そのサンプリング周期Δtは、すべてのスキャン間時間間隔(スキャン周期)の間で互いに共通である1つの固定値であるが、例えば、可変値としてもよい。 Assuming that the number of scans n has not reached the upper limit nmax this time, the determination in step S1013 is NO, and in step S1014, from the current scan timing tn , a predetermined , that is, one sampling period Δt (see FIG. 8). The sampling period Δt is one fixed value that is common to all inter-scan time intervals (scan periods), but it may be a variable value, for example.
1回分のサンプリング周期Δtが経過すると、ステップS1014の判定がYESとなり、ステップS1002に戻り、同じ物体30のうちの別の部位についての次回のスキャンが開始される。
After one sampling period Δt has elapsed, the determination in step S1014 becomes YES, the process returns to step S1002, and the next scan of another portion of the
ステップS1002-S1012の実行が必要回数反復された結果、スキャン回数nが上限値nmaxに達すると、ステップS1013の判定がYESとなり、ステップS1015において、図11に例示するように、前述の複数列の1次元情報(ドット列)をそれぞれのx方向間隔Δxを空けてビットマップ180上に展開ないしは配列し、それにより、1つの2次元情報としてのビットマップデータを生成する。
As a result of repeating steps S1002 to S1012 the required number of times, when the number of scans n reaches the upper limit value n max , the determination in step S1013 becomes YES, and in step S1015, as illustrated in FIG. are developed or arranged on a
図8に例示するように、ビットマップ180上のビットマップデータは、2次元的に並んだ複数の黒ドットと複数の白ドットとを有する。
As illustrated in FIG. 8, the bitmap data on the
ビットマップデータのうち、複数の黒ドットは、それぞれ対応する受信機70がOFF状態(発信機信号遮断状態)にあることを表す。これに対し、複数の白ドットは、それぞれ対応する受信機70がON状態(発信機信号透過状態)にあることを表す。
A plurality of black dots in the bitmap data indicate that the corresponding
ビットマップ180は、メモリ162上に形成される仮想の2次元マップであり、具体的には、横軸に物体30の進行方向寸法(x方向寸法)、縦軸に物体30の高さ方向寸法(y方向寸法)がそれぞれ割り当てられた2次元座標面である。物体30の各部位の高さ方向寸法は、支持面54の高さを表す前記ベースラインからの各部位、すなわち、各受信機70の高さ寸法位置に相当する。
The
これに対し、物体30の進行方向寸法について説明すると、ビットマップ180上において、複数のドット列のうち、互いに隣接するものの間の間隔Δxは、複数のドット列について共通の固定値であってもよいが、本実施形態においては、複数のドット列について共通の可変値となっている。
On the other hand, regarding the traveling direction dimension of the
具体的には、Δxは、物体30の移動速度vと、サンプリング周期Δtとの積として計算され、その結果、移動速度vが大きいほど、Δxが長くなる。物体30の移動速度vは、物体30が出入り通路40を通過する際の平均移動速度として定義される。
Specifically, Δx is calculated as the product of the moving speed v of the
これに対し、物体30の移動速度vは、例えば、物体30が出入り通路40上の各スキャン位置をそれぞれ通過する際の個別移動速度として定義してもよく、この場合には、図8に例示するように、各スキャンごとに、すなわち、各ドット列ごとに個別にΔxの値が計算される。
On the other hand, the moving speed v of the
さらに、このステップS1015においては、ビットマップデータのうちの複数の黒ドットの集まりの外形線に外接する包絡線が、物体30の実際シルエットとして推定される。
Furthermore, in this step S1015, an envelope circumscribing the outline of the group of black dots in the bitmap data is estimated as the actual silhouette of the
その後、ステップS1016において、前述のようにして、前記推定された実際シルエットと、複数の候補としての複数の基準シルエット(図9参照)のそれぞれのとの間の形状近似度を計算する。 Then, in step S1016, as described above, the degree of shape approximation between the estimated actual silhouette and each of a plurality of candidate reference silhouettes (see FIG. 9) is calculated.
続いて、ステップS1017において、複数の基準シルエットのうち、それぞれ計算された複数の形状近似度のうち最大のものを有するものが、今回の物体30の実際シルエットを代表する1つの基準シルエットとして選択される。
Subsequently, in step S1017, of the plurality of reference silhouettes, the one having the highest degree of shape approximation among the plurality of calculated degrees of shape approximation is selected as one reference silhouette representing the actual silhouette of the
その後、ステップS1018において、選択された1つの基準シルエットから、図9に例示する関係に従い、今回の物体30が、車両であるのか、人間であるのか、人間以外の動物であるのかが識別される。今回の物体30は、図示の例については、車両として識別される。その識別結果は、メモリ142に保存され、絶えず、最新の識別結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。
After that, in step S1018, it is identified whether the
なお、いずれの受信機70もON状態にある場合には、いずれの基準シルエットも選択されず、このとき、このプログラムは、ステップS1018において、いずれの物体も出入り通路40内に存在しないと判定する。
Note that if neither
このプログラムは、その後、ステップS1002に戻り、次回のスキャン処理を開始する。 The program then returns to step S1002 to start the next scan process.
以上の説明から明らかなように、本実施形態によれば、各受信機70が、予定外の発信機60からの信号を受信しても、その信号をノイズ信号(各受信機70ごとの複数の受信信号のうち前記有効信号に該当しないもの)として除去できるため、識別すべき物体の形状を精度よく測定することができる。
As is clear from the above description, according to the present embodiment, even if each
<入出庫判別> <Distinguish entry/exit>
図11には、図2に示す信号処理ユニット100のうちの入出庫判別部114において実行される例示的な入出庫判別プログラムが概念的にフローチャートで表されている。本実施形態においては、入出庫判別のために外側ラインセンサ50と内側ラインセンサ52との双方が利用される。
FIG. 11 conceptually shows a flow chart of an exemplary entering/leaving determination program executed in the entering/leaving
この入出庫判別プログラムは、メモリ162に予め記憶されていて、適宜、コンピュータ(特にプロセッサ)160によって実行される。
This entry/exit determination program is pre-stored in the
<初期状態の検出> <Detection of initial state>
この入出庫判別プログラムが実行されると、まず、ステップS1101において、外側ラインセンサ50が完全にON状態(いずれの物体も外側ラインセンサ50の近傍位置に存在しないから、いずれの受信機70もON状態にある状態)にあるか否かを判定する。外側ラインセンサ50が少なくとも部分的にOFF状態(いずれかの物体が外側ラインセンサ50の近傍位置に存在するから、いずれかの受信機70がOFF状態にある状態)にあれば、物体が存在する可能性があるから、判定がNOとなり、ステップS1101に戻る。
When the entering/leaving determination program is executed, first, in step S1101, the
これに対し、外側ラインセンサ50が完全にON状態にあれば、ステップS1101の判定がYESとなり、続いて、ステップS1102において、今度は、内側ラインセンサ52が完全にON状態(いずれの物体も内側ラインセンサ52の近傍位置に存在しない状態)にあるか否かを判定する。内側ラインセンサ52が少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がNOとなり、ステップS1101に戻る。
On the other hand, if the
これに対し、外側ラインセンサ50も内側ラインセンサ52も完全にON状態にあれば、ステップS1101の判定もステップS1102の判定もYESとなり、入出庫判別のための初期状態、すなわち、出入り通路40内のいずれの箇所にもいずれの物体も存在しない状態が成立していることが確認される。この初期状態は、図12(a)および同図(b)に示すそれぞれの例において、「t1」で示されている。
On the other hand, if both the
<入庫ステージの検出> <Detection of warehousing stage>
続いて、ステップS1103において、外側ラインセンサ50が少なくとも部分的にOFF状態(いずれかの物体が外側ラインセンサ50の近傍位置に存在する状態)にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなり、ステップS1104に移行する。
Subsequently, in step S1103, it is determined whether or not the
ステップS1104においては、内側ラインセンサ52が完全にON状態(いずれの物体も内側ラインセンサ52の近傍位置に存在しない状態)にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなる。この状態は、図12(a)に示す例において、「t2」で示されている。 In step S1104, it is determined whether or not the inner line sensor 52 is completely ON (a state in which no object exists in the vicinity of the inner line sensor 52). If it is completely ON, there is a possibility that the object does not exist, so the determination is YES. This state is indicated by “t 2 ” in the example shown in FIG. 12(a).
続いて、ステップS1105において、外側ラインセンサ50が完全にON状態(いずれの物体も外側ラインセンサ50の近傍位置に存在しない状態)にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなり、ステップS1106に移行する。
Subsequently, in step S1105, it is determined whether or not the
そのステップS1106においては、内側ラインセンサ52が少なくとも部分的にOFF状態(いずれかの物体が内側ラインセンサ52の近傍位置に存在する状態)にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなる。この状態は、図12(a)に示す例において、「t3」で示されている。 In step S1106, it is determined whether or not the inner line sensor 52 is at least partially OFF (a state in which any object exists in the vicinity of the inner line sensor 52). If it is at least partially OFF, there is a possibility that an object exists, so the determination is YES. This state is indicated by “t 3 ” in the example shown in FIG. 12(a).
その後、ステップS1107において、今回の物体は入庫ステージにあると判定する。その判定結果は、メモリ142に保存され、絶えず、最新の判定結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。
After that, in step S1107, it is determined that the current object is in the storage stage. The determination results are stored in memory 142 , and the latest determination results are constantly shared with other programs in
続いて、このプログラムはステージS1101に戻る。 The program then returns to stage S1101.
<出庫ステージの検出> <Detection of delivery stage>
ステップS1103または1104の判定がNOであると、ステップS1108において、外側ラインセンサ50が完全にON状態にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなり、ステップS1109に移行する。
If the determination in step S1103 or 1104 is NO, it is determined in step S1108 whether or not the
そのステップS1109においては、内側ラインセンサ52が少なくとも部分的にOFF状態にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなる。この状態は、図12(b)に示す例において、「t2」で示されている。 In step S1109, it is determined whether the inner line sensor 52 is at least partially off. If it is at least partially OFF, there is a possibility that an object exists, so the determination is YES. This state is indicated by “t 2 ” in the example shown in FIG. 12(b).
続いて、ステップS1110において、外側ラインセンサ50が少なくとも部分的にOFF状態にあるか否かを判定する。少なくとも部分的にOFF状態にあれば、物体が存在する可能性があるから、判定がYESとなり、ステップS1111に移行する。
Subsequently, in step S1110, it is determined whether the
そのステップS1111においては、内側ラインセンサ52が完全にON状態にあるか否かを判定する。完全にON状態にあれば、物体が存在しない可能性があるから、判定がYESとなる。この状態は、図12(b)に示す例において、「t3」で示されている。 In step S1111, it is determined whether or not the inner line sensor 52 is completely ON. If it is completely ON, there is a possibility that the object does not exist, so the determination is YES. This state is indicated by “t 3 ” in the example shown in FIG. 12(b).
その後、ステップS1112において、今回の物体は出庫ステージにあると判定する。その判定結果は、メモリ142に保存され、絶えず、最新の判定結果は、信号処理ユニット100内の他のプログラム、通信端末90内のプログラムおよび管理サーバ130内のプログラムと共有される。
After that, in step S1112, it is determined that the current object is in the delivery stage. The determination results are stored in memory 142 , and the latest determination results are constantly shared with other programs in
続いて、このプログラムはステージS1101に戻る。 The program then returns to stage S1101.
<第1異常判定> <First abnormality determination>
図14には、図13に示すように、信号処理ユニット100のうちの第1異常判定部200において実行される例示的な第1異常判定プログラムが概念的にフローチャートで表されている。この第1異常判定プログラムは、各ラインセンサ50,52ごとに、最上端発信機60および最上端受信機70の作動状態が正常か異常かを判定するために実行される。
FIG. 14 conceptually shows a flow chart of an exemplary first abnormality determination program executed in the first
この第1異常判定プログラムが実行されると、まず、ステップS1401において、外側ラインセンサ50を今回の判定対象ラインセンサに選択する。
When the first abnormality determination program is executed, first, in step S1401, the
次に、ステップS1402において、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信しているか否かを判定する。有効に受信していれば、ステップS1402の判定がYESとなり、ステップS1403において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70の作動状態がいずれも正常であると判定する。
Next, in step S1402, it is determined whether or not the
これに対し、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信していない場合には、ステップS1402の判定がNOとなり、ステップS1404において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70のうちの少なくとも一方の作動状態が異常であると判定する。
On the other hand, if the
その後、ステップS1405において、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70のうちの少なくとも一方の作動状態が異常である旨の異常判定結果を管理サーバ130に送信する。
After that, in step S1405, an abnormality determination result indicating that at least one of the
その異常判定結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、今回の判定対象ラインセンサにつき、最上端発信機60および最上端受信機70の点検、修理および交換を行わせる。
In response to the abnormality determination result, the
いずれの場合にも、その後、ステップS1406において、今回の判定対象ラインセンサとは反対側のラインセンサを次回の判定対象ラインセンサに選択する。続いて、このプログラムはステップS1402に移行し、ステップS1402-S1405が、今度は、外側ラインセンサ50および内側ラインセンサ52のうち、前回とは異なるものについて実行される。
In either case, in step S1406, the line sensor on the opposite side of the line sensor to be determined this time is selected as the next line sensor to be determined. Subsequently, the program proceeds to step S1402, and steps S1402-S1405 are executed this time for the
<第2異常判定> <Second abnormality determination>
図15には、図13に示すように、信号処理ユニット100のうちの第2異常判定部202において実行される例示的な第2異常判定プログラムが概念的にフローチャートで表されている。この第2異常判定プログラムは、各ラインセンサ50,52の設置状態での姿勢が正常か異常かを判定するために実行される。
FIG. 15 conceptually shows a flow chart of an exemplary second abnormality determination program executed in the second
この第1異常判定プログラムが実行されると、まず、ステップS1501において、外側ラインセンサ50を今回の判定対象ラインセンサに選択する。
When the first abnormality determination program is executed, first, in step S1501, the
次に、ステップS1502において、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信しているか否かを判定する。有効に受信していれば、ステップS1502の判定がYESとなり、ステップS1503において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のいずれも正立していると判定する。
Next, in step S1502, it is determined whether or not the
なぜなら、今回の判定対象ラインセンサの作動状態が正常である限りにおいて、発信機ポスト62および受信機ポスト72のいずれも正立していれば、最上端受信機70および最上端発信機60は互いに対向し、かつ、両者間に障害物は存在しないからである。
This is because, as long as the operating state of the line sensor to be determined this time is normal, if both the
これに対し、今回の判定対象ラインセンサにつき、最上端受信機70が最上端発信機60から信号を有効に受信していない場合には、ステップS1502の判定がNOとなり、ステップS1504において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒している可能性があると判定する。
On the other hand, if the
なぜなら、今回の判定対象ラインセンサの作動状態が正常である限りにおいて、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒していれば、最上端受信機70および最上端発信機60は互いに対向しないか、または、両者間に障害物が存在してしまう可能性があるからである。
This is because, as long as the operating state of the current determination target line sensor is normal, if at least one of the
その後、ステップS1505において、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72のうちの少なくとも一方が傾倒している可能性がある旨の異常判定結果を管理サーバ130に送信する。
After that, in step S1505, an abnormality determination result indicating that at least one of the
その異常判定結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、今回の判定対象ラインセンサにつき、発信機ポスト62および受信機ポスト72の点検、修理および交換を行わせる。
In response to the result of the abnormality determination, the
いずれの場合にも、その後、ステップS1506において、今回の判定対象ラインセンサとは反対側のラインセンサを次回の判定対象ラインセンサに選択する。続いて、このプログラムはステップS1502に移行し、ステップS1502-S1505が、今度は、外側ラインセンサ50および内側ラインセンサ52のうち、前回とは異なるものについて実行される。
In either case, in step S1506, the line sensor on the opposite side of the line sensor to be determined this time is selected as the next line sensor to be determined. Subsequently, the program proceeds to step S1502, and steps S1502-S1505 are executed this time for the
なお付言するに、本実施形態においては、第1異常判定部200が端部発信機および端部受信機の作動状態の異常の有無を判定するために存在し、また、第2異常判定部202がラインセンサ50,52の姿勢の異常の有無を判定するために存在する。
In addition, in this embodiment, the first
しかし、それら第1異常判定部200および第2異常判定部202は、端部発信機と端部受信機との間での通信の有無という同じ現象に着目するため、厳密には、それら端部発信機および端部受信機の作動状態の異常という現象と、ラインセンサ50,52の姿勢の異常という現象とを切り離して検知することができない。
However, since the first
よって、それら第1異常判定部200および第2異常判定部202を合体させ、端部発信機と端部受信機との間での通信がないと、端部発信機および端部受信機側のデバイス異常と、ラインセンサ50,52側の姿勢異常とのうちの少なくとも一方が存在すると判定する態様で本発明を実施してもよい。
Therefore, if the first
この態様であっても、真の異常の種類は遠隔的に正確に判明しないかもしれないが、作業者を駐車場20に派遣する必要性の有無を遠隔的に正確に判定することが可能となるから、無駄があることを覚悟して作業者を定期的に駐車場20に派遣する場合より、作業者にかかる人件費を削減することが容易となる。
Even in this mode, although the true type of abnormality may not be accurately determined remotely, it is possible to accurately remotely determine whether or not it is necessary to dispatch a worker to the
<故障診断> <Failure Diagnosis>
図16には、図13に示すように、信号処理ユニット100のうちの故障診断部204において実行される例示的な故障診断プログラムが概念的にフローチャートで表されている。
FIG. 16 conceptually shows a flow chart of an exemplary failure diagnosis program executed in the
この故障診断プログラムが実行されると、まず、ステップS1601において、別の起動タイミング・コントロール・プログラム(図示しない)の実行によって割込み信号が発生したか否かを判定する。その割込み信号は、この故障診断プログラムの起動タイミングをコントロールするための信号である。 When this fault diagnosis program is executed, first, in step S1601, it is determined whether or not an interrupt signal has been generated by execution of another activation timing control program (not shown). The interrupt signal is a signal for controlling the activation timing of this fault diagnosis program.
その割込み信号が存在しないと、ステップS1601の判定がNOとなり、同じステップの実行が反復されるが、その割込み信号が存在すると、ステップS1601の判定がYESとなり、ステップS1602において、図10に示す物体識別プログラム、図11に示す入出庫判別プログラム、図12に示す第1異常判定プログラムおよび図13に示す第2異常判定プログラムの実行、すなわち、当該物体識別システム10の本番動作(ラインセンサ50および52を用いた処理)が一時的に禁止される。 If the interrupt signal does not exist, the determination in step S1601 becomes NO, and the execution of the same steps is repeated. Execution of the identification program, the entering/leaving determination program shown in FIG. 11, the first abnormality determination program shown in FIG. 12, and the second abnormality determination program shown in FIG. ) is temporarily prohibited.
続いて、ステップS1603において、外側ラインセンサ50における複数の発信機60および内側ラインセンサ52における複数の発信機60が一斉に駆動され、それにより、それら発信機60が、それぞれ固有の発信機IDを表す複数の信号を発信する。
Subsequently, in step S1603, the plurality of
その後、ステップS1604において、外側ラインセンサ50における複数の受信機70および内側ラインセンサ52における複数の受信機70について順次、すなわち、シーケンシャに、前述のランダム受信を行う。その結果、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、各受信機70に少なくとも1つの実発信機IDが割り当てられることが本来であれば期待される。
After that, in step S1604, the plurality of
続いて、ステップS1605において、外側ラインセンサ50および内側ラインセンサ52のそれぞれにつき、上述のようにして各受信機70ごとに割り当てられた複数の実発信機IDを参照することにより、すべての受信機70(または一部の複数の受信機70)が同じ発信機60から信号を受信しないか否かを判定する。
Subsequently, in step S1605, for each of the
外側ラインセンサ50および内側ラインセンサ52の双方またはいずれかにつき、すべての受信機70(または一部の複数の受信機70)が同じ発信機60から信号を受信しない場合には、ステップS1605の判定がYESとなり、ステップS1606において、外側ラインセンサ50および内側ラインセンサ52のうち該当するものにつき、その発信機60が故障していると判定する。すなわち、その発信機60が故障発信機であると判定するのである。
If all the receivers 70 (or some receivers 70) do not receive a signal from the
続いて、ステップS1607において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障発信機60が存在するもの)につき、その発信機60が故障している旨の故障診断結果を、その発信機60を識別するための発信機IDに関連付けて管理サーバ130に送信する。その後、このプログラムはステップS1601に戻る。
Subsequently, in step S1607, for the corresponding one of the
その故障診断結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、故障発信機60の点検、修理および交換を行わせる。
Upon receiving the failure diagnosis result, the
これに対し、ステップS1605の判定がNOである場合には、ステップS1608において、前記複数の実発信機IDを参照することにより、いずれかの受信機70がいずれの発信機60からも信号を受信していないか否かを判定する。
On the other hand, if the determination in step S1605 is NO, any
外側ラインセンサ50および内側ラインセンサ52の双方またはいずれかにつき、いずれかの受信機70がいずれの発信機60からも信号を受信していない場合には、ステップS1608の判定がYESとなり、ステップS1609において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70が存在するもの)につき、その受信機70が故障していると判定する。すなわち、その受信機70が故障受信機であると判定するのである。
If any
続いて、ステップS1610において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70が存在するもの)につき、その受信機70が故障している旨の故障診断結果を、その受信機70を識別するための発信機IDに関連付けて管理サーバ130に送信する。その後、このプログラムはステップS1601に戻る。
Subsequently, in step S1610, for the corresponding one of the
その故障診断結果を受けて、管理サーバ130は、作業者を、該当する駐車場20に派遣し、故障受信機70の点検、修理および交換を行わせる。
Upon receiving the failure diagnosis result,
これに対し、ステップS1605の判定もステップS1708の判定もNOである場合には、ステップS1611において、外側ラインセンサ50および内側ラインセンサ52のうち該当するもの(故障受信機70も故障発信機60も存在しないもの)につき、すべての発信機60およびすべての受信機70が正常であると判定する。
On the other hand, if both the determination in step S1605 and the determination in step S1708 are NO, in step S1611, the corresponding
その後、ステップS1612において、前記本番動作の再開を許可する。続いて、このプログラムはステップS1601に戻る。 After that, in step S1612, the restart of the actual operation is permitted. The program then returns to step S1601.
<駐車場管理> <Parking management>
図17には、図13に示す管理サーバ130のうちの駐車場管理部132において実行される例示的な駐車場管理プログラムが概念的にフローチャートで表されている。
FIG. 17 conceptually shows a flow chart of an exemplary parking management program executed in the
この駐車場管理プログラムが実行されると、まず、ユーザの通信端末90が、ステップS1701において、管理サーバ130にログインするためのリクエスト信号をユーザIDなどの必要な個人情報と共にその管理サーバ130に送信する。これに対し、そのリクエスト信号を受信すると、管理サーバ130は、通信端末90を認識し、その通信端末90との間で通信を確立する。
When this parking lot management program is executed, first, in step S1701, the
管理サーバ130は、ステップS1711において、信号処理ユニット100と通信し、メモリ162から前記物体識別結果を受信し、それを参照することにより、駐車場20の出入り通路40を通過する物体30が車両であるか否かを判定する。その物体30が車両でなければ、判定がNOとなり、ステップS1711に戻るが、その物体30が車両であれば、判定がYESとなり、ステップS1712に進む。
In step S1711, the
そのステップS1712においては、管理サーバ130が信号処理ユニット100と通信し、メモリ162から前記入出庫判別結果を受信し、それを参照することにより、車両30が駐車場20に入庫したか否かを判定する。車両30が駐車場20に入庫したと判定されると、ステップS1712の判定がYESとなり、ステップS1713に進む。
In step S1712,
そのステップS1713においては、管理サーバ130が、駐車場20における複数の空室のうちのいずれかを、今回のユーザの車室として選択する。ユーザIDと、使用中の車室の番号との間の関係は、管理サーバ130のメモリに保存されている。
In step S1713,
今回のユーザの車室が選択されると、ステップS1714において、管理サーバ130が、その選択した車室を今回のユーザの通信端末90に送信する。
When the passenger compartment of the current user is selected,
これに対し、通信端末90は、ステップS1702において、その車室に関する情報を管理サーバ130から受信し、続いて、ステップS1703において、入庫リクエストを管理サーバ130に送信する。
In response to this, the
その入庫リクエストを受信すると、管理サーバ130は、ステップS1715において、現在時刻を計測し、その現在時刻として入庫時刻を前記メモリに保存する。続いて、ステップS1716において、入庫手続が完了したことを表す入庫完了信号を今回のユーザの通信端末90に送信する。
Upon receiving the warehousing request, the
これに対し、通信端末90は、ステップS1704において、その入庫完了信号を管理サーバ130から受信する。
On the other hand, the
以上、ステップS1712において、管理サーバ130が、車両30が駐車場20に入庫したと判定した場合を説明したが、出庫したと判定した場合には、ステップS1712の判定がNOとなり、続いて、ステップS1717において、管理サーバ130が、車両30が駐車場20から出庫したか否かを判定すれば、その判定はYESとなる。なお、このステップS1717の判定がNOとなった場合には、ステップS1711に戻る。
The case where the
その後、ステップS1718において、管理サーバ130が、現在時刻を計測し、その現在時刻として出庫時刻を前記メモリに保存する。続いて、ステップS1719において、前記メモリから、今回のユーザについての入庫時刻を読み出し、その入庫時刻から今回の出庫時刻までの経過時間として駐車時間を計算する。
After that, in step S1718, the
その後、ステップS1720において、管理サーバ130が、その計算された駐車時間の長さに見合う額の駐車料金を計算し、その駐車料金を表すデータを、今回のユーザの通信端末90に送信する。
Thereafter, in step S1720,
これに対し、通信端末90は、ステップS1705において、その駐車料金を表すデータを管理サーバ130から受信し、続いて、ステップS1706において、出庫リクエストを管理サーバ130に送信する。
In response to this, the
その出庫リクエストを受信すると、管理サーバ130は、ステップS1721において、決済サーバ140と通信することにより、前記駐車料金を電子決済する。続いて、ステップS1722において、出庫手続が完了したことを表す出庫完了信号を今回のユーザの通信端末90に送信する。
Upon receiving the delivery request,
これに対し、通信端末90は、ステップS1707において、その出庫完了信号を管理サーバ130から受信する。
In response to this, the
ところで、車両30が駐車場20に入庫するステージにおいては、通常、最初に、車両30が、駐車場20の外部からその駐車場20の出入り通路40に接近し、やがて、車両30は、その車両30にユーザが乗車している状態で、外側ラインセンサ50を内向きに通過する。
By the way, in the stage in which the
その後、ユーザが車両30を所定の車室まで運転してそこに進入して駐車すると、その車両30からユーザが降車する。続いて、ユーザは単独で、駐車場20内を歩行して出入り通路40まで移動し、やがて外側ラインセンサ50をさきほどとは逆向きに、すなわち、外向きに通過する。
After that, when the user drives the
このとき、ユーザの通信端末90は、外側ラインセンサ50を外向きに通過し、そのときにそれの少なくとも1つの発信機60からの信号を受信するから、前記少なくとも1つの発信機60の実発信機IDを取得できる。
At this time, the user's
よって、通信端末90は、図17に示す前述のステップS1701(ただし、入庫時)において、前記取得できた実発信機IDをユーザID(ユーザ識別情報の一例)と共に管理サーバ130に送信してもよい。
Therefore, even if the
この場合、管理サーバ130は、通信端末90から受信した実発信機IDが、駐車場20の外側ラインセンサ50に帰属するものであるか否かを判定してもよい。
In this case,
その実発信機IDが駐車場20の外側ラインセンサ50に帰属すると判定される場合には、管理サーバ130は、受信したユーザIDと、図9に示す複数の車両カテゴリーのうち前記物体識別プログラムの実行によって識別されたもの(例えば、図2に示す例においては、物体カテゴリーNo.1)とを紐付けし、それらユーザと車両30とのペアを前記メモリに保存してもよい。
When it is determined that the actual transmitter ID belongs to the
同様に、車両30が駐車場20から出庫するステージにおいては、通常、最初に、ユーザが単独で、駐車場20の外部から歩行して出入り通路40に接近し、やがて外側ラインセンサ50を内向きに通過する。
Similarly, in the stage in which the
その後、ユーザは、駐車場20内を自分の車室まで歩行し、そこに駐車してある車両30に乗車する。続いて、ユーザは、車両30を発車させて、駐車場20内を走行させて出入り通路40に接近する。その後、車両30は、外側ラインセンサ50を外向きに通過する。
After that, the user walks in the
このとき、ユーザの通信端末90は、外側ラインセンサ50を内向きに通過し、そのときにそれの少なくとも1つの発信機60からの信号を受信するから、前記少なくとも1つの発信機60の実発信機IDを取得できる。
At this time, since the user's
よって、通信端末90は、前述のステップS1701(ただし、出庫時)において、その取得できた実発信機IDをユーザIDと共に管理サーバ130に送信してもよい。
Therefore, the
この場合、管理サーバ130は、通信端末90から受信した実発信機IDが、駐車場20の外側ラインセンサ50に帰属するものであるか否かを判定してもよい。
In this case,
その実発信機IDが駐車場20の外側ラインセンサ50に帰属すると判定される場合には、管理サーバ130は、受信したユーザIDと、図9に示す複数の車両カテゴリーのうち前記物体識別プログラムの実行によって識別されたもの(例えば、図2に示す例においては、物体カテゴリーNo.1)とを紐付けし、それらユーザと車両30とのペアを前記メモリに保存してもよい。
When it is determined that the actual transmitter ID belongs to the
入庫時に前記メモリに保存されたペアと、出庫時に前記メモリに保存されたペアとが互いに一致する場合には、今回のユーザが、同じ車両カテゴリーに分類されたと判定できる。これは、物体識別の精度が高かったこと、ひいては、ユーザと車両30との紐付けの精度が高かったことを意味すると解釈してもよい。
If the pair stored in the memory at the time of entering and the pair stored in the memory at the time of leaving match each other, it can be determined that the current user has been classified into the same vehicle category. This may be interpreted to mean that the accuracy of object identification was high, and thus the accuracy of linking the user and the
その結果、例えば、ユーザが駐車場20を反復的に利用する場合に、管理センタ124は、個別のユーザに関する個人情報として、使用する車両30の種類という貴重な情報を取得することが可能となる。管理センタ124は、この個人情報を今後の駐車場マーケティングに活用することも可能である。
As a result, for example, when the user repeatedly uses the
また、前記複数の基準シルエットが、図9に例示する複数の標準的シルエットより多数の車種シルエット(例えば、日本で販売されているすべての車種についてのシルエット)である場合には、同じ車両が駐車場20に複数回駐車した場合に、本来であれば、その車両は、同じ車種シルエットとして分類されるところ、外側ラインセンサ50の測定誤差に起因し、複数の車種シルエットに分散して分類される可能性がある。
Further, when the plurality of reference silhouettes are more vehicle silhouettes than the plurality of standard silhouettes illustrated in FIG. When the vehicle is parked in the parking lot 20 a plurality of times, the vehicle is normally classified as the same model silhouette, but due to the measurement error of the
しかし、同じ車両が駐車場20に駐車するごとに、ユーザと車種カテゴリーとの紐付けを行い、その結果、同じユーザが、複数の車種カテゴリーに関連付けられる場合に、最も頻繁に同じユーザに関連付けられる1つの車種カテゴリーを真の車種カテゴリーとして識別することが可能である。この場合、前記紐付けの数、すなわち、サンプルデータの数が増加するほど、車両の識別精度が向上する。
However, each time the same vehicle is parked in the
[第2の実施形態] [Second embodiment]
次に、本発明の例示的な第2の実施形態に従う物体識別システム10を説明するが、第1の実施形態と共通する要素については、同一の名称または符号を使用して引用することにより、重複した説明を省略し、異なる要素についてのみ詳細に説明する。
An
第1の実施形態においては、外側ラインセンサ50が、物体識別という機能(用途)と、入出庫判別という機能(用途)とを実現するために利用されるが、本実施形態においては、さらに、ユーザの識別およびユーザと車両との紐付けという機能(用途)をも実現するために利用される。
In the first embodiment, the
本実施形態に従うシステム10のうち、物体識別という機能(用途)と、入出庫判別という機能(用途)とを実現するための部分は、第1の実施形態と共通するため、重複した説明を省略するが、ユーザの識別およびユーザと車両との紐付けという機能(用途)を実現するための部分を詳細に説明する。
In the
図18には、本実施形態に従う物体識別システム10のうちの外側ラインセンサ50が正面図で示されている。同図に示す発信機ポスト62から発信された複数の信号は、車両30のアウタパネルによって遮断されずに空間を透過して受信機ポスト72に到達するものと、車両30のアウタパネルによって遮断されるものと、車両30の窓ガラスを透過してその車室内に進入して乗員としてのユーザの通信端末90によって受信されるものとに分類される。
FIG. 18 shows a front view of the
同図に示すように、信号処理ユニット100は、通信機器300を有し、また、管理サーバ130は、ユーザ・車両紐付け部310を有する。信号処理ユニット100は、必要な情報を、通信機器300を介して、管理サーバ130に送信し、前記必要な情報に基づき、ユーザ・車両紐付け部310が起動する。管理サーバ130は、ユーザの通信端末90とも通信する。
As shown in the figure, the
図19には、ユーザ・車両紐付け部310において実行される例示的なユーザ・車両紐付けプログラムが、ユーザの通信端末90において実行されるユーザ特定支援プログラムと共に概念的にフローチャートで表されている。
FIG. 19 conceptually illustrates a flow chart of an exemplary user-vehicle tying program executed in the user-
ユーザ・車両紐付けプログラムが起動すると、管理サーバ130は、まず、ステップS1931において、外側ラインセンサ50の受信機ポスト72の受信結果を表す信号を信号処理ユニット100から受信する。さらに、その信号に基づき、外側ラインセンサ50が少なくとも部分的にOFF状態であるか否か、すなわち、外側ラインセンサ50が何らかの物体を検出している(現在、駐車場20の出入り通路40上に物体が存在する)か否かを判定する。
When the user/vehicle linking program is activated, the
外側ラインセンサ50が少なくとも部分的にOFF状態であるわけではない場合には、判定がNOとなり、ステップS1931に戻るが、外側ラインセンサ50が少なくとも部分的にOFF状態であるわけではない場合には、ステップS1931の判定がYESとなり、ステップS1932に移行する。
If the
このステップS1932においては、前記ユーザIDを参照することにより、ユーザの通信端末90に、受信リクエストを送信する。
In this step S1932, a reception request is transmitted to the
これに対し、通信端末90は、ステップS1901において、複数の発信機60から信号を受信することを試行する。続いて、ステップS1902において、受信した各信号を実発信機IDに変換する。その後、ステップS1903において、その実発信機IDをユーザIDに関連付けて管理サーバ130に送信する。
On the other hand,
これに対し、管理サーバ130は、ステップS1933において、その実発信機IDをユーザIDに関連付けて通信端末90から受信する。続いて、ステップS1934において、物体識別部112の実行結果である物体識別結果を信号処理ユニット100から受信する。その後、ステップS1935において、物体識別部112により、物体が車両30として識別されたか否かを判定する。
In response,
物体識別部112により、物体が車両30として識別されていない場合には、その判定がNOとなり、ステップS1931に戻るが、物体が車両30として識別された場合には、ステップS1935の判定がYESとなり、ステップS1936において、通信端末90から受信した実発信機IDが外側ラインセンサ50に帰属するか否か、すなわち、外側ラインセンサ50の発信機ポスト62に属する複数の発信機60の複数の実発信機IDのうちのいずれかと一致するか否かを判定する。
If the object is not identified as the
通信端末90から受信した実発信機IDが外側ラインセンサ50に帰属しない場合には、判定がNOとなり、ステップS1931に戻るが、帰属する場合には、その判定がYESとなり、ステップS1937において、今回の車両30に割り当てられた車両基準シルエット番号(ないしは車種)を信号処理ユニット100から受信する。
If the actual transmitter ID received from the
続いて、管理サーバ130は、ステップS1938において、今回のユーザ(例えば、ユーザID)と今回の車両30(例えば、今回の車両基準シルエット番号(ないしは車種))とを紐付けする。その後、ステップS1939において、その紐付け結果を、図20に例示するように、ユーザ・車両紐付けリストにリスト化して保存する。
Subsequently, in step S1938, the
[他の実施形態] [Other embodiments]
1.第1のアイデア 1. first idea
管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両(非生物としての移動体の一例)およびその車両の使用者であるユーザ(生物の一例)を識別して管理するシステムであって、
前記施設に設けられ、車両およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が車両であるか否かの判定を行う第1判定部と、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記車両の種類の判別を行う車両種類判別部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記物体識別処理、前記判定または前記判別に時間的に連動して前記車両を車両画像として撮影するものと、
前記施設または前記管理サーバに設けられ、前記撮影された車両画像に基づき、前記車両の識別情報である車両識別情報を取得する車両識別情報取得部と
を含む車両・ユーザ識別管理システム。
A vehicle (an example of a moving object as an inanimate object) entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and a user (an example of a living object) who uses the vehicle ) to identify and manage the
a passage provided in the facility and common to vehicles and users;
A line sensor installed in the passageway and extending in a direction intersecting the traveling direction of an object passing through the passageway, wherein the object is relatively scanned in its traveling direction to acquire the silhouette of the object. , which performs object identification processing based on its silhouette;
a first determination unit provided in the facility or the management server and configured to determine whether the object is a vehicle based on the acquired silhouette;
a vehicle type determination unit provided in the facility or the management server and configured to determine the type of the vehicle based on the acquired silhouette;
a photographing device provided in the facility for photographing an object positioned on the passage, wherein the vehicle is photographed as a vehicle image in conjunction with the object identification processing, the determination, or the determination in terms of time;
A vehicle/user identification management system, comprising: a vehicle identification information acquisition unit provided in the facility or the management server for acquiring vehicle identification information, which is identification information of the vehicle, based on the captured vehicle image.
さらに、
前記施設に設けられ、固有の信号を発信する発信機と、
前記車両内に居るユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記施設のIDに関連付けて前記管理サーバに送信するものと
を含み、
前記管理サーバは、前記施設と、前記車両の種類と、前記車両識別情報と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する車両・ユーザ識別管理システム。
moreover,
a transmitter that is provided in the facility and transmits a unique signal;
A communication terminal of a user in the vehicle, which, when receiving a signal from the transmitter, transmits a user ID or a terminal ID of the communication terminal in response to the signal in association with the ID of the facility to the management server. and
A vehicle/user identification management system in which the management server associates the facility, the vehicle type, the vehicle identification information, and the user ID or terminal ID with each other and registers these elements in a list.
2.第2のアイデア 2. second idea
管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両(非生物としての移動体の一例)およびその車両の使用者であるユーザ(生物の一例)を識別して管理するシステムであって、
前記施設に設けられ、車両およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が人間であるか否かの判定を行う第2判定部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置であって、前記物体識別処理または前記判定に時間的に連動して前記ユーザを人間画像として撮影するものと
を含む車両・ユーザ識別管理システム。
A vehicle (an example of a moving object as an inanimate object) entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and a user (an example of a living object) who uses the vehicle ) to identify and manage the
a passage provided in the facility and common to vehicles and users;
A line sensor installed in the passageway and extending in a direction intersecting the traveling direction of an object passing through the passageway, wherein the object is relatively scanned in its traveling direction to acquire the silhouette of the object. , which performs object identification processing based on its silhouette;
a second determination unit provided in the facility or the management server and configured to determine whether the object is a person based on the acquired silhouette;
A photographing device provided in the facility for photographing an object located on the passageway, which photographs the user as a human image in conjunction with the object identification processing or the determination in terms of time. User identification management system.
さらに、
前記施設に設けられ、固有の信号を発信する発信機と、
前記車両内に居るユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記施設のIDに関連付けて前記管理サーバに送信するものと
を含み、
前記管理サーバは、前記施設と、前記人間画像と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する車両・ユーザ識別管理システム。
moreover,
a transmitter that is provided in the facility and transmits a unique signal;
A communication terminal of a user in the vehicle, which, when receiving a signal from the transmitter, transmits a user ID or a terminal ID of the communication terminal in response to the signal in association with the ID of the facility to the management server. and
A vehicle/user identification management system in which the management server associates the facility, the human image, and the user ID or terminal ID with each other and registers these elements in a list.
3.第3のアイデア 3. Third idea
管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両(非生物としての移動体の一例)およびその車両の使用者であるユーザ(生物の一例)を識別して管理するシステムであって、
前記施設に設けられ、車両およびユーザに共通の通路と、
その通路に設置され、その通路を通過する物体の進行方向に対して交差する方向に延びるラインセンサであって、前記物体をそれの進行方向に相対的にスキャンして前記物体のシルエットを取得し、そのシルエットに基づいて物体識別処理を行うものと、
前記施設または前記管理サーバに設けられ、前記取得されたシルエットに基づき、前記物体が車両であるか人間であるかを判別する判別部と、
前記施設に設けられ、前記通路上に位置する物体を撮影する撮影装置と、
前記施設または前記管理サーバに設けられ、前記撮影された物体画像を、前記物体が車両であると判別された場合には、車両画像として分類し、前記物体が人間であると判別された場合には、ユーザの人間画像として分類する画像分類部と、
前記施設または前記管理サーバに設けられ、前記撮影された車両画像に基づき、前記車両に関連する車両関連情報を取得する車両関連情報取得部と
を含む車両・ユーザ識別管理システム。
A vehicle (an example of a moving object as an inanimate object) entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and a user (an example of a living object) who uses the vehicle ) to identify and manage the
a passage provided in the facility and common to vehicles and users;
A line sensor installed in the passageway and extending in a direction intersecting the traveling direction of an object passing through the passageway, wherein the object is relatively scanned in its traveling direction to acquire the silhouette of the object. , which performs object identification processing based on its silhouette;
a determination unit provided in the facility or the management server and configured to determine whether the object is a vehicle or a person based on the acquired silhouette;
a photographing device provided in the facility for photographing an object positioned on the passage;
Classify the photographed object image provided in the facility or the management server as a vehicle image when the object is determined to be a vehicle, and classify the object image as a vehicle image when the object is determined to be a human being. is an image classification unit that classifies as a user's human image;
A vehicle/user identification management system, comprising: a vehicle-related information acquisition unit provided in the facility or the management server, and acquiring vehicle-related information related to the vehicle based on the captured vehicle image.
さらに、
前記施設に設けられ、固有の信号を発信する発信機と、
前記車両内に居るユーザの通信端末であって、前記発信機から信号を受信すると、それに応答して、ユーザIDまたは当該通信端末の端末IDを、前記施設のIDに関連付けて前記管理サーバに送信するものと
を含み、
前記管理サーバは、前記施設と、前記車両関連情報または前記人間画像と、ユーザIDまたは端末IDとを互いに紐付けし、それら要素をリストに登録する車両・ユーザ識別管理システム。
moreover,
a transmitter that is provided in the facility and transmits a unique signal;
A communication terminal of a user in the vehicle, which, when receiving a signal from the transmitter, transmits a user ID or a terminal ID of the communication terminal in response to the signal in association with the ID of the facility to the management server. and
A vehicle/user identification management system in which the management server associates the facility, the vehicle-related information or the human image, and the user ID or terminal ID with each other, and registers these elements in a list.
4.第1の実施例 4. First embodiment
管理サーバによって遠隔的に管理されるべき施設(例えば、駐車場)に入場しまたはその施設から退場する車両およびその車両の使用者であるユーザを識別して管理する方法であって、
前記施設は、
車両およびユーザに共通の通路であって、互いに離れた第1位置および第2位置を有し、車両またはユーザである物体が前記通路を前記第1位置から前記第2位置に向かって進行すると前記施設内に進入し、逆に、前記通路を前記第2位置から前記第1位置に向かって進行すると前記施設から退出することになるものと、
前記第1位置に設置された第1ラインセンサであって、そこを通過する物体のシルエットを電磁波の照射によって取得するものと、
その第1ラインセンサからの信号に基づき、前記物体が車両であるか人間であるかを判別する第1信号処理回路と、
その第1信号処理回路の処理結果を前記管理サーバに送信する第1通信装置と、
前記通路上に位置する物体を撮影する撮影装置と、
前記第1位置またはその近傍に設置され、固有の信号を発信する第1発信機と
を含み、
当該方法は、
物体が前記第2位置より先に前記第1位置に到達すると、前記第1ラインセンサおよび前記第1信号処理回路により、前記物体が車両であるかユーザであるかを判別する工程と、
前記第1位置において、前記物体が車両であると判定されると、前記車両が前記駐車場に入庫する車両入庫段階にあると判定する工程と、
その車両入庫段階にあると判定されると、前記車両内に居るユーザの通信端末が、前記第1発信機からの信号を受信し、それに応答して、前記信号によって識別される駐車場IDを駐車場情報として、また、ユーザIDまたは前記通信端末の端末IDをユーザ情報として前記管理サーバに送信する工程と、
前記第1位置において、前記物体が車両であると判定されると、前記撮影装置によって前記車両を撮影し、その撮影結果から、予め定められた種類の情報を車両情報として抽出し、前記第1通信装置が、前記抽出された車両情報を前記駐車場IDと共に前記管理サーバに送信する工程と、
前記管理サーバが、同じ駐車場IDに関連付けて、前記ユーザ情報と前記車両情報とを互いに紐付けし、その結果を管理リストに登録する工程と
を含むもの。
A method for identifying and managing vehicles entering or exiting a facility (for example, a parking lot) to be remotely managed by a management server and users of the vehicles, comprising:
Said facility is
A passageway common to a vehicle and a user and having first and second locations spaced apart from each other, wherein when an object, being a vehicle or user, travels through the passageway from the first location toward the second location, the entering the facility and, conversely, following the passageway from the second location toward the first location will result in exiting the facility;
a first line sensor installed at the first position, which acquires a silhouette of an object passing therethrough by irradiation with electromagnetic waves;
a first signal processing circuit that determines whether the object is a vehicle or a person based on the signal from the first line sensor;
a first communication device that transmits a processing result of the first signal processing circuit to the management server;
a photographing device for photographing an object positioned on the passage;
a first transmitter that is installed at or near the first position and emits a unique signal,
The method is
determining whether the object is a vehicle or a user by the first line sensor and the first signal processing circuit when the object reaches the first position before the second position;
a step of determining that the vehicle is in a vehicle entering stage in which the vehicle enters the parking lot when the object is determined to be a vehicle at the first position;
When it is determined that the vehicle is in the parking stage, the communication terminal of the user in the vehicle receives the signal from the first transmitter and, in response, transmits the parking lot ID identified by the signal. a step of transmitting a user ID or a terminal ID of the communication terminal as user information to the management server as parking lot information;
When the object is determined to be a vehicle at the first position, the vehicle is photographed by the photographing device, a predetermined type of information is extracted as vehicle information from the photographed result, and the first a communication device transmitting the extracted vehicle information together with the parking lot ID to the management server;
A step in which the management server associates the user information and the vehicle information with each other by associating them with the same parking lot ID, and registers the result in a management list.
5.第2の実施例 5. Second embodiment
さらに、
前記第2位置に設置された第2ラインセンサであって、そこを通過する物体のシルエットを電磁波の照射によって取得するものと、
その第2ラインセンサからの信号に基づき、前記物体が車両であるか人間であるかを判別する第2信号処理回路と、
その第2信号処理回路の処理結果を前記管理サーバに送信する第2通信装置と、
前記第2位置またはその近傍に設置された第2発信機であって、固有の信号を発信するものと
を含み、
当該方法は、
物体が前記第1位置より先に前記第2位置に到達すると、前記第2ラインセンサおよび前記第2信号処理回路により、前記物体が車両であるかユーザであるかを判別する工程と、
前記第2位置において、前記物体がユーザであると判定されると、ユーザが前記車両から降りて単独で歩行して前記駐車場から退場するユーザ退場段階にあると判定する工程と、
そのユーザ退場段階にあると判定されると、歩行中のユーザの通信端末が、前記第2発信機からの信号を受信し、それに応答して、前記信号によって識別される駐車場IDを駐車場情報として、また、ユーザIDまたは前記通信端末の端末IDを第2ユーザ情報として前記管理サーバに送信する工程と、
前記第2位置において、前記物体がユーザであると判定されると、前記撮影装置によってユーザの人間画像(人物像)を撮影し、前記第2通信装置が、前記人間画像を前記駐車場IDと共に前記管理サーバに送信する工程と、
前記管理サーバが、同じ駐車場IDに関連付けて、前記第2ユーザ情報と前記人間画像とを互いに紐付けし、その結果を前記管理リストに登録する工程と
を含むもの。
moreover,
a second line sensor installed at the second position, which obtains a silhouette of an object passing therethrough by irradiation with electromagnetic waves;
a second signal processing circuit that determines whether the object is a vehicle or a person based on the signal from the second line sensor;
a second communication device that transmits the processing result of the second signal processing circuit to the management server;
a second transmitter located at or near the second location, which emits a unique signal;
The method is
determining whether the object is a vehicle or a user by the second line sensor and the second signal processing circuit when the object reaches the second position before the first position;
determining that the user is in a user exit stage in which the user exits the vehicle and walks alone to exit the parking lot when the object is determined to be the user at the second position;
When it is determined that the user is in the leaving phase, the communication terminal of the walking user receives the signal from the second transmitter and, in response, transmits the parking lot ID identified by the signal to the parking lot. a step of transmitting a user ID or a terminal ID of the communication terminal as second user information to the management server as information;
When it is determined that the object is the user at the second position, the image capturing device captures a human image (human image) of the user, and the second communication device captures the human image together with the parking lot ID. sending to the management server;
A step in which the management server associates the second user information and the human image with the same parking lot ID, and registers the result in the management list.
6.ハードウエア構成(図21(a)参照) 6. Hardware configuration (see FIG. 21(a))
(1)物体識別用の第1および第2ラインセンサ50,52
物体識別用に、その物体の進行方向における上流側の第1位置に設置される第1ラインセンサ(図21に示す例においては、例えば、入庫段階に注目すると、外側ラインセンサ50が該当する)と、物体識別用に、その物体の進行方向における下流側の第2位置に設置される第2ラインセンサ(図21に示す例においては、例えば、入庫段階に注目すると、内側ラインセンサ52が該当する)が使用される。
(1) First and
A first line sensor installed at a first position on the upstream side in the traveling direction of the object for object identification (in the example shown in FIG. 21, for example, focusing on the warehousing stage, the
(2)ユーザが現在居る駐車場をユーザ端末90を用いて識別することを可能にする駐車場識別用の発信機60
この駐車場識別用の発信機は、駐車場20に固有であるとともに当該発信機に固有の信号を近距離無線方式でユーザ端末90に向けて発信する機能を有する。この駐車場識別用の発信機は、図21に示す例においては、外側および内側ラインセンサ50,52に搭載されている複数台の発信機60のうちの少なくとも一つである。
この駐車場識別用の発信機は、別の例においては、図示しないが、前記第1および第2ラインセンサに搭載されている複数台の発信機とは別に、対応する駐車場20に専用に設置される少なくとも1台の発信機である。
(2) A parking
This parking lot identification transmitter has a function of transmitting a signal unique to the
In another example, although not shown, this parking lot identification transmitter is dedicated to the corresponding
(3)撮影装置300
駐車場20内の物体を動画または静止画として撮影するために 撮影装置が使用される。この撮影装置の一例は、デジタルカメラ300である。
(3)
A photographing device is used to photograph objects in the
この撮影装置は、対応する駐車場20に設置され、具体的には、例えば、図示するように、外側ラインセンサ50に設置されてもよいし、図示しないが、内側ラインセンサ52に設置されてもよいし、図示しないが、いずれのラインセンサ50,52からも外れた位置に設置してもよい。
This photographing device is installed in the corresponding
図示の例においては、カメラ300は、車両30が駐車場20の出入り通路40に沿って駐車場20内に進入する際に、その車両30が下流側の第2位置に至ると、その車両30を撮影し、その結果、車両30の後端面にあるナンバープレート31が撮影される。
In the illustrated example, when the
さらに、図示の例においては、カメラ300は、車両30が駐車場20内のある車室内に進入し、ユーザがその車両30から降り、単独で今回の駐車場20から退場する際、ユーザが前記第2位置に至ると、そのユーザを撮影し、その結果、そのユーザの全体人物像、具体的には、そのユーザの全体正面像または全体背面像、特に、そのユーザの顔画像が撮影される。
Further, in the illustrated example, when the
さらに、図示の例においては、カメラ300は、車両30を駐車場20内のある車室から退出させるために、そのユーザが単独で今回の駐車場20内に入場する際、ユーザが前記第2位置に至ると、そのユーザを撮影し、その結果、そのユーザの全体人物像、具体的には、そのユーザの全体背面像が撮影される。
Further, in the illustrated example, the
(4)物体識別システム10内の信号処理ユニット100
前述の第1および第2の実施形態について詳述したのと同じように、図21に示す例においては、信号処理ユニット100が、駆動信号を各ラインセンサ50,52に出力することによって各ラインセンサ50,52を一斉にまたはシーケンシャルに駆動させ、さらに、各ラインセンサ50,52からセンサ信号を一斉にまたはシーケンシャルに受信する。
(4)
In the example shown in FIG. 21, the
さらに、信号処理ユニット100は、駆動信号をカメラ300に出力することによってカメラ300を駆動させ、さらに、そのカメラ300から画像信号を受信する。
Further, the
(5)管理サーバ130
管理サーバ130は、対応する駐車場20の遠隔地に設置されている管理センタ130に設置される。管理サーバ130は、典型的には、地理的に互いに異なる複数の駐車場20を集中的に遠隔管理する。
(5)
The
(6)通信装置200
通信装置200は、駐車場20において、その駐車場20に設置されている物体識別システム10と、遠隔地にある管理センタ130に設置されている管理サーバ130との間で通信を行う機能を有する。
(6)
The
通信装置200は、物体識別システム10との間では、無線または有線で接続されてもよいが、管理サーバ130との間では、典型的には、無線で接続される。
The
通信装置200は、前記第1および第2ラインセンサ50,52にそれぞれ個別に設置されてもよいし、それらラインセンサ50,52に共通に、すなわち、対応する駐車場20に設置されてもよい。
The
(7)駐車対象としての車両30
図21(a)に示すように、車両30は、それの前端面と後端面とにそれぞれ、ナンパプレート31を有し、いずれのナンバープレート31にも、対応する車両30に固有の車両番号(車両登録番号)が不動表示される。
(7)
As shown in FIG. 21(a), a
(8)駐車場20内における車両30およびユーザの挙動
同図(b)には、表があり、その表には、駐車場20に対して入庫が行われる段階と出庫が行われる段階とのそれぞれにつき、各段階の継続中に観察される一連のフェーズが定義されている。
(8) Behavior of the
さらに、その表には、複数のフェーズのうちのいくつかに関連付けて、対応するフェーズ中に実行される例示的なプログラムを概念的に表すフローチャートが示されている図面が参照図面として記載されている。 Further, the table includes, in association with some of the phases, reference drawings showing flow charts conceptually representing exemplary programs executed during the corresponding phases. there is
7.ソフトウエア構成 7. Software configuration
<物体が駐車場20内に進入する際>
<When an object enters the
物体が、その進入方向における上流側の第1位置に到達すると、その第1位置において、前記物体の左右方向のシルエットを第1ラインセンサ50を用いて取得し、そのシルエットから前記物体が車両30であるか人間であるかを判定し、車両であると判定された場合には、ユーザが車両を運転して駐車場20内のある車室内に入庫する段階にあると判定する。
When the object reaches a first position on the upstream side in the approach direction, the
<第1位置において、物体が車両30であると判定された場合(ユーザが車両30を運転して(乗車状態で)駐車場20内に入庫する段階>
<When it is determined that the object is the
信号処理ユニット100は、前記第1位置において、前述のいくつかの実施形態におけるように、外側ラインセンサ50からのセンサ信号(一列に並んだ複数の受信機70からの複数の個別センサ信号の列)、ひいては、スキャン結果としての時系列の複数のセンサ信号によって表されるシルエット画像を用いて物体が車両30であると判定すると、その車両30の種別を判定し、いずれかの種別の車両30であると判定されると、その判定結果を通信装置200が第1の車両情報(例えば、車両であることと、その車両の種別である車種)として管理サーバ130に送信する。
In the first position, the
その後、信号処理ユニット100は、車両30が前記第1位置より進入方向下流側にある第2位置に到達すると、その到達タイミングで車両30をカメラ300を用いて静止画または動画として撮影し、その撮影結果を通信装置200から第2の車両情報(例えば、車両の外観である車両画像、撮影されたナンバープレート31から認識された車両番号)として管理サーバ130に送信する。
After that, when the
さらに、信号処理ユニット100は、同じ車両30が前記第1位置および前記第2位置をそれらの順に通過したときに、その車両30が駐車場20に入庫している段階にあると判定する。
Further, the
一方、車両30に乗車しているユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末ID(またはユーザID,ユーザ電話番号、ユーザ用の電子メールアドレスなど)をユーザ情報として管理サーバ130に送信する。
On the other hand, when the
管理サーバ130は、結果的に、今回のユーザに関連付けて、そのユーザの通信端末90の端末IDと、そのユーザの車両30の種別(車種)と、その車両30の車両番号とを互いに紐付けし、その結果を図25に例示する車両・ユーザ管理リストに登録する。
As a result, the
以上、概略的に説明した信号処理は、後に図22-図24を参照することにより、さらに具体的に例示する。 The signal processing that has been outlined above will be illustrated in more detail later with reference to FIGS. 22 to 24. FIG.
<第1位置において、物体が人間であると判定された場合(ユーザが単独で駐車場20内に入場する場合)>
<When the object is determined to be a person at the first position (when the user enters the
信号処理ユニット100は、前記第1位置において、物体が人間であると判定した後、その人間(ユーザ)が前記第2位置に到達すると、その到達タイミングでカメラ300を用いてユーザを静止画または動画として撮影し、その撮影結果を通信装置200から第2の人間情報(人物像)として管理サーバ130に送信する。
After determining that the object is a person at the first position, when the person (user) reaches the second position, the
さらに、信号処理ユニット100は、同じ人間が前記第1位置および前記第2位置をそれらの順に通過したときに、その人間が単独で駐車場20内に入場していると判定する。
Further, the
一方、歩行中のユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末IDをユーザ情報として管理サーバ130に送信する。
On the other hand, when the
管理サーバ130は、結果的に、今回のユーザに関連付けて、そのユーザの人物像と、そのユーザの通信端末の端末IDとを互いに紐付けする。
As a result, the
以上、概略的に説明した信号処理は、後に図22,図28および図29を参照することにより、さらに具体的に例示する。 The signal processing briefly described above will be illustrated in more detail later with reference to FIGS. 22, 28 and 29. FIG.
<物体が駐車場20から退出する際>
<When an object leaves the
物体が前記第2位置に到達すると、その第2位置において、物体の左右方向のシルエットを第2ラインセンサ52を用いて取得し、そのシルエットから前記物体が人間であるか車両であるかを判定する。 When the object reaches the second position, the second line sensor 52 is used to obtain a lateral silhouette of the object at the second position, and it is determined from the silhouette whether the object is a person or a vehicle. do.
<第2位置において、物体が人間であると判定された場合> <When the object is determined to be a person at the second position>
信号処理ユニット100は、前記第2位置において、前記物体が人間であると判定したタイミングで前記人間をカメラ300を用いて人物像として静止画または動画として撮影し、その人物像を第1の人間情報として通信装置200から管理サーバ130に送信する。
At the second position, the
さらに、信号処理ユニット100は、同じ人間が前記第2位置および前記第1位置をそれらの順に通過したときに、その人間が単独で駐車場20から退場していると判定する。
Furthermore, the
一方、歩行中のユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末IDをユーザ情報として管理サーバ130に送信する。
On the other hand, when the
管理サーバ130は、新たに受信したユーザ情報と、保存してある別のユーザ情報との照合により、今回のユーザを識別するとともに、そのユーザに、前記人物像を割り当てる。
The
以上、概略的に説明した信号処理は、後に図23,図26および図27を参照することにより、さらに具体的に例示する。 The signal processing briefly described above will be illustrated in more detail later with reference to FIGS. 23, 26 and 27. FIG.
<第2位置において、物体が車両30であると判定された場合>
<When it is determined that the object is the
信号処理ユニット100は、前記第2位置において、前記物体が車両30であると判定したタイミングで車両30をカメラ300を用いて静止画または動画として撮影し、その撮影結果を通信装置200から管理サーバ130に送信する。
At the second position, the
さらに、信号処理ユニット100は、同じ車両30が前記第2位置および前記第1位置をそれらの順に通過したときに、その車両30が駐車場20から出庫している段階にあると判定する。
Further, the
一方、車両30に乗車しているユーザが携帯している通信端末90は、発信機60からの信号を受信すると、それに応答して、通信端末90に固有の端末IDをユーザ情報として管理サーバ130に送信する。
On the other hand, when the
管理サーバ130は、新たに受信したユーザ情報と、保存してある別のユーザ情報との照合により、今回のユーザを識別するとともに、そのユーザに、前記人物像を割り当てる。
The
以上、概略的に説明した信号処理は、後に図23および図30を参照することにより、さらに具体的に例示する。 The signal processing that has been outlined above will be illustrated in more detail later with reference to FIGS. 23 and 30. FIG.
任意選択的な複数の特徴 Multiple optional features
(1) ユーザが車両30内に乗車していることを示す証拠を取得するためのカメラ300の撮影方法
(1) Method of photographing by
前記到達タイミングで、車両30の車室内の様子であって車両30内に誰が乗車しているのかを表すものをカメラ300を用いて撮像し、その撮像結果を通信装置200が乗車状態情報として管理サーバ130に送信する。
At the arrival timing, the
(2)場合分け (2) Case classification
入場前に既に専用アプリが通信端末90にダウンロードされている場合(第1位置において、管理サーバ130がシルエット情報も端末IDも受信した場合)
入場後に初めて専用アプリが通信端末90にダウンロードされる場合(第1位置において、管理サーバ130がシルエット情報は受信したが端末IDは受信しなかった場合)
When the dedicated application has already been downloaded to the
When the dedicated application is downloaded to the
(3)高さが異なる複数のカメラ300の設置
(3) Installation of
複数のカメラ300が、高さ位置が互いに異なるように設置されており、それらカメラ300のうち、車両30の種別であってその車両の高さ寸法に関して分類されたものに該当するものを選択し、そのカメラ300を用いて車両30を撮影する。それらカメラ300は、車両30のナンバープレート31と同じ高さに設置されたカメラを含む。
A plurality of
(4)撮影写真の選択 (4) Select photo
カメラ300は、撮像時に、連写することにより、複数枚の写真を時系列的に撮影し、それら複数枚の写真のうち、注目すべき対象についてピントが合っているものを選択し、それを用いて、データベースを作成する。
The
(5)駐車場20のユーザには、事前に個人登録した会員と、そうではない非会員とに分類される。ユーザが会員である場合には、個人情報が管理センタ124に事前に登録されているため、ユーザには、駐車場20において不正行為を行うことに対する抑止力を心理的に受けるのに対し、非会員である場合には、そのような抑止力がユーザに対して働かない。
(5) Users of the
さらに、ユーザが会員である場合には、ユーザの通信端末90に、専用アプリが事前にインストールされており、通信端末90は、駐車場20の発信機60からの信号を受信すると、それを解釈し、さらに、その受信に応答して管理サーバ130に送信することができる。
Furthermore, when the user is a member, a dedicated application is pre-installed on the user's
その結果、管理サーバ130上において、ユーザIDまたは通信端末90の端末IDと、同じユーザについての駐車関連情報(例えば、前述のシルエットに基づく車両30の種別など)とを互いに紐付けることができる。
As a result, on the
これに対し、ユーザが非会員である場合には、会員である場合とは異なり、ユーザの通信端末90には上述の専用アプリが事前にインストールされておらず、そのため、駐車場20の発信機60からの信号を受信しても、それを解釈することも、それに応答して管理サーバ130に送信することもできない。
On the other hand, when the user is a non-member, unlike the case where the user is a member, the above-mentioned dedicated application is not pre-installed in the user's
そのため、管理サーバ130上において、ユーザIDまたは通信端末90の端末IDと、同じユーザについての駐車関連情報とを互いに紐付けることができない。
Therefore, on the
そこで、後者の場合には、駐車場20に設置されたカメラ300によって車両ナンバープレート31を撮影し、さらに、そのカメラ300または別のカメラによってユーザの人物像を撮影する。さらに、前述のシルエットに基づく車両30の種別と車両ナンバープレート31とのうちの少なくとも一方と、ユーザの人物像とを互いに紐付ける。それにより、非会員であるユーザの駐車場20内での行動を監視し、不正行為があれば、それを証明する証拠として、車両ナンバープレート31および人物像を利用する。
Therefore, in the latter case, the
さらに、駐車場20に2次元ディスプレイ(例えば、LCDディスプレイまたはそれより解像度が低いLEDディスプレイ)を、ユーザが容易に視認可能な位置に設置する。その2次元ディスプレイの画面上に、前述の車両シルエット画像(ラインセンサ50,52による1次元画像を2次元画像に展開したもの)を、場合によっては、カメラ300で撮影した車両30の画像から抽出された色を付加して表示する。
Furthermore, a two-dimensional display (for example, an LCD display or an LED display with a lower resolution) is installed in the
前記2次元ディスプレイは、駐車場20に車両30を駐車してその車両30から降車して歩行して駐車場20から退出しようとしているユーザに対し、そのユーザの車両シルエット画像を表示する。
The two-dimensional display displays a vehicle silhouette image of the user who parks the
この際、前記2次元ディスプレイは、統計的に、駐車場20において不正行為が増加する時間帯、例えば、夜間においても、車両シルエット画像を表示してもよい。
At this time, the two-dimensional display may statistically display the vehicle silhouette image even during a time period when illegal activities increase in the
また、前記2次元ディスプレイは、自身かまたはラインセンサ50,52がユーザを感知したときに(物体が人間であると判別したときに)、それに応答して、車両シルエット画像をタイムリーに、特定のユーザを標的にして、表示してもよい。このようにすれば、ユーザが個別に監視されているという圧力を効果的にユーザに作用させることが可能となる。
In addition, when the two-dimensional display itself or the
それにより、そのユーザは、前記2次元ディスプレイの画面上に現に表示されている車両シルエット画像が、自身の車両30のものであると気付く可能性がある。そうすると、そのユーザは、自分の行動が、知らないうちに、駐車場20によって個別に監視されている(通常の監視カメラによって全体的に監視されているのとは異なる方法で)と連想するかもしれない。
Thereby, the user may realize that the vehicle silhouette image currently displayed on the screen of the two-dimensional display is that of his/her
このことは、ユーザに対し、不正行為を抑止する心理的な圧力として作用するかもしれない。その結果、ユーザが非会員であることを理由に、不正行為が増加することを予防することが容易となる。 This may act as psychological pressure on the user to deter fraudulent behavior. As a result, it becomes easy to prevent an increase in fraud due to the user being a non-member.
[第3の実施形態] [Third embodiment]
次に、本発明の例示的な第3の実施形態に従う物体識別システム10を説明するが、第1の実施形態と共通する要素については、同一の名称または符号を使用して引用することにより、重複した説明を省略し、異なる要素についてのみ詳細に説明する。
An
図21(a)は、本実施形態に従う物体識別システム10であって出入り通路40を有する駐車場20に出入りする物体を識別するために実施されるもののうちのハードウエア構成を概略的に表す側面図である。また、同図(b)は、駐車場20における物体としての車両30およびユーザ(人間)が入庫段階および出庫段階においてそれぞれ取り得る一連のフェーズを、参照図面の番号と共に表形式で示す図である。
FIG. 21(a) is a side view schematically showing the hardware configuration of the
本実施形態に従う物体識別システム10は、同じ駐車場20に物理的に関連付けられる車両30とそれのユーザ(特に、ユーザが車両30に乗車せずに歩行している状態、すなわち、ユーザが空間座標上で車両30とは異なる位置を占める状態にあるユーザ)とを、互いに異なる種類の物体として区別する状態で、個々に、識別するとともに管理するように設計されている。
The
[信号処理ユニット100によって実行される第1物体識別・段階判定プログラム] [First Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]
図22は、信号処理ユニット100が入庫時に実行する第1物体識別・段階判定プログラムを概念的に表すフローチャートである。
FIG. 22 is a flowchart conceptually showing the first object identification/stage determination program executed by the
この第1物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS2201において、信号処理ユニット100が、第1の実施形態におけると同様に、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号であって図21(a)に示す物体の側面視すなわち横方向シルエットを反映したものを入力する。
This first object identification/stage determination program is repeatedly executed by the
このステップS2201においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか人間であるかを識別する。
In step S2201, the
次に、ステップS2202において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。車両30と識別されていなければ、その判定がNOとなり、このプログラムの今回の実行が終了する。これに対し、車両30と識別されていれば、その判定がYESとなり、続いて、ステップS2203が実行される。
Next, in step S<b>2202 ,
このステップS2203においては、信号処理ユニット100が、第1の実施形態におけると同様に、前記シルエット(実際シルエット)と、予め保存されている複数の車両基準シルエットとの間の照合により、最も近似する車両基準シルエットを特定し、その結果に基づき、今回の車両30の種別、すなわち、車種を識別する。例えば、どの自動車メーカが製造したどの自動車であるか(さらにはいつ製造された(年式))が識別される。
In this step S2203, the
ここに、ステップS2201-2203は、外側ラインセンサ50を用いて実行される処理である。
Here, steps S 2201 - 2203 are processes executed using the
続いて、ステップS2204において、信号処理ユニット100が、前記識別された車種に関する情報を前記第1の車両情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。
Subsequently, in step S2204, the
その後、ステップS2205において、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号であって図21(a)に示す物体の側面視すなわち横方向シルエットを反映したものを入力する。
After that, in step S2205, the
このステップS2205においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか人間であるかを識別する。
In this step S2205, the
続いて、ステップS2206において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。ここでは、信号処理ユニット100が、外側ラインセンサ50を通過した車両30が、続いて、内側ラインセンサ52を通過することになることを待つことを意味する。信号処理ユニット100が、今回の物体を車両30と識別していなければ、その判定がNOとなり、ステップS2205に戻るが、車両30と識別していれば、その判定がYESとなり、続いて、ステップS2207が実行される。
Subsequently, in step S<b>2206 , the
このステップS2207においては、信号処理ユニット100が、ステップS2201の実行によって取得されたシルエットと、ステップS2205の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ車両30が外側ラインセンサ50および内側ラインセンサ52をそれらの順に通過したか否かを判定する。
In step S2207,
外側ラインセンサ50および内側ラインセンサ52をそれぞれ通過した車両30が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS2208が実行される。
If the
このステップS2208においては、信号処理ユニット100が、今回の車両30が駐車場20に入庫したと判定する。
In step S<b>2208 , the
その後、ステップS2209において、信号処理ユニット100が、ステップS2207でのYES判定タイミングまたはステップS2208の判定タイミングと実質的に同期するタイミングで(すなわち、例えば、今回の車両30の後端面が内側ラインセンサ52を通過した直後に)、今回の車両30をカメラ300を用いて1回のみ撮影するかまたは連写する。
After that, in step S2209, the
カメラ300によって撮影されるときの車両30の後端面(特に、ナンバープレート31)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。
The rear end surface of the vehicle 30 (especially the license plate 31 ) when photographed by the
その結果、カメラ300によって撮影されるときの車両30の後端面(特に、ナンバープレート31)と、カメラ300との間の実際の距離が、車両30の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の車両30のナンバープレート31を十分にピントよく撮影することが可能となる。カメラ300の焦点距離は、固定でも可変でもよく、また、オートフォーカス方式でもよい。
As a result, regardless of the type of
とはいえ、カメラ300は静止しているのに対し、車両30はカメラ300に対して動いている可能性があるから、撮影した画像のピントがずれる可能性があるが、上述のように、カメラ300が車両30を連写して複数の写真が連続的に撮影されると、それら写真の中に、ピントが十分に合った写真が含まれる可能性が高い。
However, since the
続いて、ステップS2210において、信号処理ユニット100が、上記のようにして撮影したナンバープレート31の画像から、今回の車両30の車両番号を表す数字(例えば、4桁の数字)を認識する。
Subsequently, in step S2210, the
ここに、ステップS2205-2208は、外側ラインセンサ50を用いて実行される処理である。また、ステップS2209-2210は、カメラ300を用いて実行される処理である。
Here, steps S 2205 - 2208 are processes performed using the
その後、ステップS2211において、信号処理ユニット100が、前記認識された車両番号に関する情報を前記第2の車両情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。
After that, in step S2211, the
なお、本実施形態においては、前記第1の車両情報と、前記第2の車両情報とが、それぞれ、互いに異なるステップにより、互いに異なるタイミングで、管理サーバ130に送信されるが、そのようにすることは本発明を実施する上に不可欠なことではなく、例えば、同じステップにより、一緒に管理サーバ130に送信してもよい。
In this embodiment, the first vehicle information and the second vehicle information are transmitted to the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[ユーザ端末90によって実行される駐車場識別プログラム] [Parking Lot Identification Program Executed by User Terminal 90]
図23は、ユーザの通信端末90が入場時(ユーザが単独で入場するユーザ単独入場時およびユーザが乗車状態で入場する入庫時)および退場時(ユーザが単独で退場するユーザ単独退場時およびユーザが乗車状態で退場する出庫時)に実行する駐車場識別プログラムを概念的に表すフローチャートである。
FIG. 23 shows when the
この駐車場識別プログラムは、通信端末90によって反復的に実行され、各回の実行時には、まず、ステップS2301において、通信端末90が、自身の現在位置を測定する。その測位の方法としては、例えば、通信端末90に搭載されたGPSを用いる方法、通信端末90の地理的な周辺に位置する複数の基地局のそれぞれの地理的座標を用いる方法、駐車場20に設置されている発信機60と近距離通信を行ってその信号から駐車場IDを特定する方法などがある。
This parking lot identification program is repeatedly executed by
次に、ステップS2302において、通信端末90が、測定した現在位置が、いずれかの駐車場20の位置に一致するか否かを判定し、それにより、ユーザがいずれかの駐車場20に居るかまたはその近傍にいるか否かを判定する。
Next, in step S2302, the
ユーザがいずれの駐車場20にも地理的に関連付けられなければ、その判定がNOとなり、ステップS2301に戻るが、いずれかの駐車場20に地理的に関連付けられれば、その判定がYESとなり、ステップS2303に移行する。
If the user is not geographically associated with any
このステップS2303においては、通信端末90が、自身のメモリに予めインストールされている専用アプリ(プログラム)であって、駐車場の識別機能を有するものを起動させる。その結果、ステップS2304-S2306が実行される。
In this step S2303, the
そのステップS2304においては、通信端末90が、今回の駐車場20に設置されている発信機60から信号を受信したか否かを判定する。受信しない場合には、その判定がNOとなり、ステップS2301に戻るが、受信した場合には、その判定がYESとなり、ステップS2305に移行する。
In step S2304,
このステップS2305においては、通信端末90が、前記受信した信号を駐車場IDに変換する。具体的には、通信端末90は、前記受信した信号によって表される発信機IDを取得し、発信機IDと駐車場IDとの間の予め定められた関係であって通信端末90のメモリに予めダウンロードされたものに従い、その取得された発信機IDを、対応する駐車場IDであって今回ユーザが居る駐車場20に固有のものに変換する。
In this step S2305, the
続いて、ステップS2306において、通信端末90が、自身の端末IDを、前記取得された駐車場IDに関連付けて、管理サーバ130に送信する。
Subsequently, in step S2306, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[管理サーバ130によって実行される第1紐付け・登録プログラム] [First Association/Registration Program Executed by Management Server 130]
図24は、管理サーバ130が入庫時に実行する第1紐付け・登録プログラムを概念的に表すフローチャートである。
FIG. 24 is a flow chart conceptually representing the first linking/registration program executed by the
この第1紐付け・登録プログラムは、管理サーバ130によって反復的に実行され、各回の実行時には、まず、ステップS2401において、管理サーバ130が、任意の端末IDを任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、このプログラムの今回の実行が終了する。
This first association/registration program is repeatedly executed by the
これに対し、任意の端末IDを任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2402に移行する。 On the other hand, if an arbitrary terminal ID is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2402.
このステップS2402においては、管理サーバ130が、任意の車種情報を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2401に戻る。
In this step S2402, the
これに対し、任意の車種情報を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2403に移行する。 On the other hand, if arbitrary vehicle type information is received in association with an arbitrary parking lot ID, the determination becomes YES, and the process proceeds to step S2403.
このステップS2403においては、管理サーバ130が、任意の車両番号を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2401に戻る。
In step S2403,
これに対し、任意の車両番号を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2404に移行する。 On the other hand, if an arbitrary vehicle number is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2404.
このステップS2404においては、管理サーバ130が、ステップS2401-2403においてそれぞれ受信した3つの駐車場IDが互いに一致するか否かを判定する。駐車場ID間の照合の成否が判定されるのである。
In step S2404,
前記3つの駐車場IDが互いに一致するわけではない場合には、その判定がNOとなり、このプログラムの今回の実行が終了するが、前記3つの駐車場IDが互いに一致する場合には、その判定がYESとなり、ステップS2405に移行する。その結果、端末ID,駐車場ID,車種情報および車両番号が、実質的に時間連続的に、または、実質的に同じタイミングで、管理サーバ130によって包括的に受信されることになる。
If the three parking lot IDs do not match each other, the determination is NO, and the current execution of this program ends. becomes YES, and the process proceeds to step S2405. As a result, the terminal ID, parking lot ID, vehicle type information and vehicle number are comprehensively received by the
このステップS2405においては、管理サーバ130が、今回受信した端末ID、駐車場ID,車種情報および車両番号を互いに紐付けし、その後、ステップS2406において、管理サーバ130が、それら紐付けされた複数の情報を、図25に例示するように、前記車両・ユーザ管理リストに登録する。
In this step S2405, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[信号処理ユニット100によって実行される第2物体識別・段階判定プログラム] [Second Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]
図26は、信号処理ユニット100がユーザ単独退場時に実行する第2物体識別・段階判定プログラムを概念的に表すフローチャートである。
FIG. 26 is a flowchart conceptually representing the second object identification/stage determination program executed by the
この第2物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS2601において、信号処理ユニット100が、第1の実施形態におけると同様に、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号を入力する。
This second object identification/stage determination program is repetitively executed by the
このステップS2601においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。
In step S2601, the
次に、ステップS2602において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。人間と識別されていなければ、その判定がNOとなり、このプログラムの今回の実行が終了する。これに対し、人間と識別されていれば、その判定がYESとなり、続いて、ステップS2603が実行される。
Next, in step S2602, the
このステップS2603においては、信号処理ユニット100が、ステップS2601が物体識別処理を開始したタイミングと実質的に同期するタイミングで(すなわち、例えば、今回の人間の正面が内側ラインセンサ52を、外側ラインセンサ50に向かって通過した直後に)、今回の物体としての人間をカメラ300を用いて1回のみ撮影するかまたは連写する。
In this step S2603, the
カメラ300によって撮影されるときの人間の正面(特に、その人間の顔を含む)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。
The front of the person (particularly including the person's face) as photographed by
その結果、カメラ300によって撮影されるときの人間の正面(正面人物像であり、特に、その人間の顔を含む)と、カメラ300との間の実際の距離が、人間の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の人間の人物像を十分にピントよく撮影することが可能となる。
As a result, the actual distance between the
とはいえ、カメラ300は静止しているのに対し、人間はカメラ300に対して動いている可能性があるから、撮影した画像のピントがずれる可能性があるが、上述のように、カメラ300が同じ人間を連写して複数の写真が連続的に撮影されると、それら写真の中に、ピントが十分に合った写真が含まれる可能性が高い。
However, since the
続いて、ステップS2604において、信号処理ユニット100が、上記のようにして撮影した人物像から、今回の人間の顔を表す顔画像を抽出する。
Subsequently, in step S2604, the
その後、ステップS2605において、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号を入力する。
After that, in step S2605, the
このステップS2605においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。
In step S2605, the
続いて、ステップS2606において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。人間と識別されていなければ、その判定がNOとなり、ステップS2605に戻るが、人間と識別されていれば、その判定がYESとなり、続いて、ステップS2607が実行される。
Subsequently, in step S2606, the
このステップS2607においては、信号処理ユニット100が、ステップS2601の実行によって取得されたシルエットと、ステップS2605の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ人間が内側ラインセンサ52および外側ラインセンサ50をそれらの順に通過したか否かを判定する。
In step S2607,
内側ラインセンサ52および外側ラインセンサ50をそれぞれ通過した人間が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS2608が実行される。
If the persons who have passed through the inner line sensor 52 and the
このステップS2608においては、信号処理ユニット100が、今回の車両30の今回の駐車場20への入庫完了後に、今回の人間としてのユーザが単独で今回の駐車場20から退場したと判定する。
In this step S2608, the
ここに、ステップS2601-2602は、内側ラインセンサ52を用いて実行される処理である。また、ステップS2603-2604は、カメラ300を用いて実行される処理である。また、ステップS2605-2607は、外側ラインセンサ50を用いて実行される処理である。
Here, steps S 2601 - 2602 are processes executed using the inner line sensor 52 . Also, steps S2603 and S2604 are processes executed using the
その後、ステップS2609において、信号処理ユニット100が、前記認識された顔画像に関する情報を前記第1の人間情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。
After that, in step S2609, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[管理サーバ130によって実行される第2紐付け・登録プログラム] [Second Linking/Registration Program Executed by Management Server 130]
図27は、管理サーバ130がユーザ単独退場時に実行する第2紐付け・登録プログラムを概念的に表すフローチャートである。
FIG. 27 is a flowchart conceptually showing the second linking/registration program executed by the
この第2紐付け・登録プログラムは、管理サーバ130によって反復的に実行され、各回の実行時には、まず、ステップS2701において、管理サーバ130が、任意の通信端末90から任意の端末IDを任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、このプログラムの今回の実行が終了する。
This second linking/registration program is repeatedly executed by the
これに対し、任意の端末IDを任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2702に移行する。 On the other hand, if an arbitrary terminal ID is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2702.
このステップS2702においては、管理サーバ130が、任意の信号処理ユニット100から任意の顔画像情報を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2701に戻る。
In this step S2702,
これに対し、任意の顔画像情報を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2703に移行する。 On the other hand, if arbitrary face image information has been received in association with an arbitrary parking lot ID, the determination is YES, and the process proceeds to step S2703.
このステップS2703においては、管理サーバ130が、ステップS2701-2703においてそれぞれ受信した2つの駐車場IDが互いに一致するか否かを判定する。駐車場ID間の照合の成否が判定されるのである。
In step S2703,
前記2つの駐車場IDが互いに一致するわけではない場合には、その判定がNOとなり、このプログラムの今回の実行が終了するが、前記2つの駐車場IDが互いに一致する場合には、その判定がYESとなり、ステップS2704に移行する。その結果、端末ID,駐車場IDおよび顔画像が、実質的に時間連続的に、または、実質的に同じタイミングで、管理サーバ130によって包括的に受信されることになる。
If the two parking lot IDs do not match each other, the determination is NO, and the current execution of this program ends. becomes YES, and the process moves to step S2704. As a result, the terminal ID, the parking lot ID and the face image are comprehensively received by the
このステップS2704においては、管理サーバ130が、今回受信した端末ID、駐車場IDおよび顔画像を互いに紐付けし、その後、ステップS2705において、管理サーバ130が、それら紐付けされた複数の情報を、図25に例示するように、前記車両・ユーザ管理リストに登録する。
In this step S2704, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[信号処理ユニット100によって実行される第3物体識別・段階判定プログラム] [Third Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]
図28は、信号処理ユニット130がユーザ単独入場時に実行する第3物体識別・段階判定プログラムを概念的に表すフローチャートである。
FIG. 28 is a flowchart conceptually showing the third object identification/stage determination program executed by the
この第3物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS2801において、信号処理ユニット100が、第1の実施形態におけると同様に、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号を入力する。
This third object identification/stage determination program is repetitively executed by the
このステップS2801においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。
In step S2801, the
次に、ステップS2802において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。人間と識別されていなければ、その判定がNOとなり、ステップS2801に戻る。これに対し、人間と識別されていれば、その判定がYESとなり、続いて、ステップS2803が実行される。
Next, in step S2802,
このステップS2803においては、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号を入力する。
In this step S2803, the
このステップS2803においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が人間であるか否かを識別する。
In this step S2803, the
続いて、ステップS2804において、信号処理ユニット100が、今回の物体が人間として識別されたか否かを判定する。ここでは、信号処理ユニット100が、外側ラインセンサ50を通過した人間が、続いて、内側ラインセンサ52を通過することになることを待つことを意味する。信号処理ユニット100が、今回の物体を人間と識別していなければ、その判定がNOとなり、ステップS2803に戻るが、人間と識別していれば、その判定がYESとなり、続いて、ステップS2805が実行される。
Subsequently, in step S2804, the
このステップS2805においては、信号処理ユニット100が、ステップS2801の実行によって取得されたシルエットと、ステップS2803の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ人間が外側ラインセンサ50および内側ラインセンサ52をそれらの順に通過したか否かを判定する。
In step S2805,
外側ラインセンサ50および内側ラインセンサ52をそれぞれ通過した人間が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS2806が実行される。
If the persons who have passed through the
このステップS2806においては、信号処理ユニット100が、今回の人間としてのユーザが、今回の駐車場20から車両30を出庫させるために、その駐車場20に単独で入場したと判定する。
In this step S2806, the
その後、ステップS2807において、信号処理ユニット100が、ステップS2803の物体識別処理が開始されたタイミングと実質的に同期するタイミングで(すなわち、例えば、今回の人間の正面が内側ラインセンサ52を通過した直後に)、今回の人間をカメラ300を用いて1回のみ撮影するかまたは連写する。
After that, in step S2807, the
カメラ300によって撮影されるときの人間の背面(後姿)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。
A person's back (rear view) when photographed by the
その結果、カメラ300によって撮影されるときの人間の背面と、カメラ300との間の実際の距離が、人間の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の人間の背面としての人物像を十分にピントよく撮影することが可能となる。
As a result, the actual distance between the back of the person as imaged by the
とはいえ、カメラ300は静止しているのに対し、人間はカメラ300に対して動いている可能性があるから、撮影した画像のピントがずれる可能性があるが、上述のように、カメラ300が同じ被写体を連写して複数の写真が連続的に撮影されると、それら写真の中に、ピントが十分に合った写真が含まれる可能性が高い。
However, since the
続いて、ステップS2808において、信号処理ユニット100が、上記のようにして撮影した画像から、今回の人間の人物像を認識する。
Subsequently, in step S2808, the
その後、ステップS2809において、信号処理ユニット100が、前記認識された人物像に関する情報を前記第2の人間情報として、今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。
After that, in step S2809, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[管理サーバ130によって実行される第3紐付け・登録プログラム] [Third Association/Registration Program Executed by Management Server 130]
図29は、管理サーバ130がユーザ単独入場時に実行する第3紐付け・登録プログラムを概念的に表すフローチャートである。
FIG. 29 is a flowchart conceptually showing the third linking/registration program executed by the
この第3紐付け・登録プログラムは、管理サーバ130によって反復的に実行され、各回の実行時には、まず、ステップS2901において、管理サーバ130が、任意の通信端末90から任意の端末IDを任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、このプログラムの今回の実行が終了する。
This third linking/registration program is repeatedly executed by the
これに対し、任意の端末IDを任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2902に移行する。 On the other hand, if an arbitrary terminal ID is associated with an arbitrary parking lot ID and received, the determination becomes YES, and the process proceeds to step S2902.
このステップS2902においては、管理サーバ130が、任意の信号処理ユニット100から任意の人物像情報を任意の駐車場IDに関連付けて受信したか否かを判定する。何ら信号を受信しない場合には、その判定がNOとなり、ステップS2901に戻る。
In this step S2902,
これに対し、任意の人物像情報を任意の駐車場IDに関連付けて受信した場合には、その判定がYESとなり、ステップS2903に移行する。 On the other hand, if arbitrary person image information is received in association with an arbitrary parking lot ID, the determination is YES, and the process proceeds to step S2903.
このステップS2903においては、管理サーバ130が、ステップS2901-2902においてそれぞれ受信した2つの駐車場IDが互いに一致するか否かを判定する。駐車場ID間の照合の成否が判定されるのである。
In step S2903,
前記2つの駐車場IDが互いに一致するわけではない場合には、その判定がNOとなり、このプログラムの今回の実行が終了するが、前記2つの駐車場IDが互いに一致する場合には、その判定がYESとなり、ステップS2904に移行する。 If the two parking lot IDs do not match each other, the determination is NO, and the current execution of this program ends. becomes YES, and the process moves to step S2904.
このステップS2904においては、管理サーバ130が、今回受信した端末ID、駐車場IDおよび人物像を互いに紐付けし、その後、ステップS2905において、管理サーバ130が、それら紐付けされた複数の情報を、図25に例示するように、前記車両・ユーザ管理リストに登録する。
In this step S2904, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
[信号処理ユニット100によって実行される第4物体識別・段階判定プログラム] [Fourth Object Identification/Stage Judgment Program Executed by Signal Processing Unit 100]
図30は、信号処理ユニット130が出庫時に実行する第4物体識別・段階判定プログラムを概念的に表すフローチャートである。
FIG. 30 is a flowchart conceptually showing the fourth object identification/stage determination program executed by the
この第4物体識別・段階判定プログラムは、信号処理ユニット100によって反復的に実行され、各回の実行時には、まず、ステップS3001において、信号処理ユニット100が、第1の実施形態におけると同様に、内側ラインセンサ52に前記駆動信号を出力するとともに、その内側ラインセンサ52から前記センサ信号を入力する。
This fourth object identification/stage determination program is repeatedly executed by the
このステップS3001においては、信号処理ユニット100が、さらに、その内側ラインセンサ52から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか否かを識別する。
In step S3001, the
次に、ステップS3002において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。車両30と識別されていなければ、その判定がNOとなり、このプログラムの今回の実行が終了する。これに対し、車両30と識別されていれば、その判定がYESとなり、続いて、ステップS3003が実行される。
Next, in step S3002, the
このステップS3003においては、信号処理ユニット100が、ステップS3001が物体識別処理を開始したタイミングと実質的に同期するタイミングで(すなわち、例えば、今回の車両30の前端面が内側ラインセンサ52を、外側ラインセンサ50に向かって通過した直後に)、今回の物体としての車両30をカメラ300を用いて1回のみ撮影するかまたは連写する。
In this step S3003, the
カメラ300によって撮影されるときの車両30の前端面(特に、ナンバープレート31を含む)は、内側ラインセンサ52に対して相対的に決まった位置にある。一方、内側ラインセンサ52は、外側ラインセンサ50に対して相対的に決まった位置にあり、また、カメラ300は、その外側ラインセンサ50に対して相対的に決まった位置にある。
The front end face of vehicle 30 (particularly including license plate 31 ) when photographed by
その結果、カメラ300によって撮影されるときの車両30の前端面(特に、ナンバープレート31)と、カメラ300との間の実際の距離が、車両30の種類の如何を問わず、カメラ300の焦点距離と実質的に同じに維持され、よって、カメラ300は任意の車両30の画像を十分にピントよく撮影することが可能となる。
As a result, regardless of the type of
続いて、ステップS3004において、信号処理ユニット100が、上記のようにして撮影したナンバープレート31の画像から、今回の車両30の車両番号を表す数字を抽出する。
Subsequently, in step S3004, the
その後、ステップS3005において、信号処理ユニット100が、第1の実施形態におけると同様に、今度は、外側ラインセンサ50に前記駆動信号を出力するとともに、その外側ラインセンサ50から前記センサ信号を入力する。
After that, in step S3005, the
このステップS3005においては、信号処理ユニット100が、さらに、その外側ラインセンサ50から入力されたセンサ信号に基づき、今回の物体のシルエットを解析し、それに基づき、今回の物体が車両30であるか否かを識別する。
In this step S3005, the
続いて、ステップS3006において、信号処理ユニット100が、今回の物体が車両30として識別されたか否かを判定する。車両30と識別されていなければ、その判定がNOとなり、ステップS3005に戻るが、車両30と識別されていれば、その判定がYESとなり、続いて、ステップS3007が実行される。
Subsequently, in step S<b>3006 , the
このステップS3007においては、信号処理ユニット100が、ステップS3001の実行によって取得されたシルエットと、ステップS3005の実行によって取得されたシルエットとが互いに、幾何学的に十分に近似するか否かを判定することにより、同じ車両30が内側ラインセンサ52および外側ラインセンサ50をそれらの順に通過したか否かを判定する。
In step S3007,
内側ラインセンサ52および外側ラインセンサ50をそれぞれ通過した車両30が同じでなければ、その判定がNOとなり、このプログラムの今回の実行が終了するが、同じであれば、その判定がYESとなり、続いて、ステップS3008が実行される。
If the
このステップS3008においては、信号処理ユニット100が、今回の車両30が今回の駐車場20から出庫したと判定する。
In this step S3008, the
その後、ステップS3009において、信号処理ユニット100が、前記認識された車両番号を今回の駐車場20に固有の駐車場IDに関連付けて、管理サーバ130に、例えば公衆回線網またはグローバルネットワークを介して無線送信する。
After that, in step S3009, the
以上で、このプログラムの今回の実行が終了する。 This completes the execution of this program.
なお付言するに、本実施形態は、第1および第2の実施形態に従うラインセンサ50,52を用いて物体を識別するように実施されるが、これに代えて、それらラインセンサ50,52とは異なる素子構成、画像処理技術、演算アルゴリズムまたは物体識別原理を用いて物体を識別する別のラインセンサを用いて実施してもよい。
Additionally, the present embodiment is implemented to identify objects using the
さらに付言するに、本実施形態においては、各ラインセンサ505,52が、発信機ポスト62と受信機ポスト72とが、識別すべき物体を隔てて互いに対向する透過型であるが、これに対し、発信機ポスト62と受信機ポスト72とが、識別すべき物体に対して同じ側に位置する反射型であってもよい。
Additionally, in this embodiment, each line sensor 505, 52 is of a transmissive type in which the
この反射型の場合、互いに対応する1個の発信機60と1個の受信機70とが1個のペアを構成し、そのペアが複数、一列に並んだ1本のポストを、発信機ポスト62と受信機ポスト72との組合せに代えて用いてもよい。各ペアにおいては、それに属する発信機60から出射した電磁波のうち、物体から反射するか、または、物体に関して前記1本のポストとは反対側に位置する反射面から反射した部分が、同じペアに属する受信機70に入射することになる。
In the case of this reflection type, one
以上、本発明の例示的な複数の実施形態を、駐車場20において、所定の通路としての出入り通路40を通過する3次元物体としての車両30を簡易的に一方向のみから識別して形状的に分類するという用途に使用するシナリオについて説明したが、同様な実施形態は他の用途に使用することが可能である。
As described above, in the
そのような他の用途の一例としては、物流センタにおいて、所定の通路(例えば、コンベヤ)に沿って流れるシート状もしくは板状または3次元形状の物品を識別して形状的に分類する(例えば、サイズごとの分類(最大寸法ごとの分類)、正方形に近いか縦長または横長であるか(アスペクト比ごとの分類)などの複数の分類)という用途がある。 As an example of such other applications, in a distribution center, sheet-like or plate-like or three-dimensional articles flowing along a predetermined passage (e.g., conveyor) are identified and shape-sorted (e.g., There are multiple classifications such as classification by size (classification by maximum dimension), whether it is close to square or vertically or horizontally (classification by aspect ratio).
別の例としては、商業施設(例えば、デパート、飲食店、フードコート、書店)または大衆が利用する公共施設(例えば、道路、地下道、美術館、学校、市役所、駅、空港、バス停、バス、図書館)において、所定の通路に沿って流れる人間(3次元物体)を識別して形状的に分類する(例えば、独立歩行の人間、車いすに乗って歩行している人間、介助者または介助犬を伴う人間、大人、子供などの複数の分類)という用途がある。 Another example is commercial facilities (e.g., department stores, restaurants, food courts, bookstores) or public facilities used by the public (e.g., roads, underpasses, museums, schools, city halls, stations, airports, bus stops, buses, libraries). ), identify and morphologically classify humans (three-dimensional objects) flowing along a predetermined path (for example, humans walking independently, humans walking in wheelchairs, people with caregivers or service dogs) multiple classifications such as humans, adults, and children).
以上、本発明の複数の例示的な実施の形態を図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の概要]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 A number of exemplary embodiments of the present invention have been described in detail above with reference to the drawings. It is possible to implement the present invention in other forms with various modifications and improvements based on the above.
Claims (9)
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
前記施設は、2つの監視位置を有し、
前記監視部は、幾何学的に互いに近似するシルエット画像が前記2つの監視位置においてそれぞれ時間的に先後して取得された場合に、前記物体が前記2つの監視位置間を移動する移動状態にあると判定する移動状態判定部を含む施設監視システム。 A facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image ,
The facility has two monitoring positions,
The monitoring unit is in a moving state in which the object moves between the two monitoring positions when silhouette images that are geometrically similar to each other are acquired at the two monitoring positions ahead of each other in time. A facility monitoring system including a movement state determination unit that determines that
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像を画面上に表示するディスプレイと、
前記取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間であるか否かを判別し、
前記ディスプレイは、前記監視部が前記物体が人間であると判別した場合に、前記取得されたシルエット画像を前記画面上に表示する施設監視システム。 A facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a display for displaying the obtained silhouette image on the screen;
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
The monitoring unit determines whether the object is a human being,
The facility monitoring system, wherein the display displays the obtained silhouette image on the screen when the monitoring unit determines that the object is a person.
前記施設に設けられ、その施設に存在する物体に電磁波を照射し、その照射された電磁波と前記物体とを相対的にx方向とy方向とにスキャンすることにより、前記物体のシルエット画像を取得するシルエット画像取得装置と、
その取得されたシルエット画像に基づき、前記物体の動きを監視する監視部と
を含み、
その監視部は、前記物体が人間である場合に、前記取得されたシルエット画像に基づき、前記人間が、単独で歩行している人間であるか、車いすに乗って移動している人間であるか、または、介助者もしくは介助犬を伴って歩行している人間であるかを判別する移動形態判定部を含む施設監視システム。 A facility monitoring system for monitoring a facility,
A silhouette image of the object is obtained by irradiating an object existing in the facility with an electromagnetic wave and scanning the irradiated electromagnetic wave and the object relatively in the x direction and the y direction. a silhouette image acquisition device that
a monitoring unit that monitors the movement of the object based on the obtained silhouette image;
including
When the object is a human, the monitoring unit determines whether the human is walking alone or moving in a wheelchair, based on the obtained silhouette image. Alternatively, a facility monitoring system including a movement form determination unit that determines whether the person is walking with a helper or a service dog.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023099246A JP7418056B2 (en) | 2019-11-07 | 2023-06-16 | Facility monitoring system |
JP2023218879A JP2024035248A (en) | 2019-11-07 | 2023-12-26 | Facility monitoring systems and programs |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019201997 | 2019-11-07 | ||
JP2019201997 | 2019-11-07 | ||
JP2021176461A JP7227650B2 (en) | 2019-11-07 | 2021-10-28 | Facility monitoring system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021176461A Division JP7227650B2 (en) | 2019-11-07 | 2021-10-28 | Facility monitoring system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023099246A Division JP7418056B2 (en) | 2019-11-07 | 2023-06-16 | Facility monitoring system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023057101A JP2023057101A (en) | 2023-04-20 |
JP7303598B2 true JP7303598B2 (en) | 2023-07-05 |
Family
ID=73022479
Family Applications (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020072595A Active JP6780886B1 (en) | 2019-11-07 | 2020-04-14 | Object identification management system |
JP2020170307A Active JP6974882B2 (en) | 2019-11-07 | 2020-10-08 | User identification management system |
JP2021176461A Active JP7227650B2 (en) | 2019-11-07 | 2021-10-28 | Facility monitoring system |
JP2023015148A Active JP7303598B2 (en) | 2019-11-07 | 2023-02-03 | Facility monitoring system |
JP2023099246A Active JP7418056B2 (en) | 2019-11-07 | 2023-06-16 | Facility monitoring system |
JP2023218879A Pending JP2024035248A (en) | 2019-11-07 | 2023-12-26 | Facility monitoring systems and programs |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020072595A Active JP6780886B1 (en) | 2019-11-07 | 2020-04-14 | Object identification management system |
JP2020170307A Active JP6974882B2 (en) | 2019-11-07 | 2020-10-08 | User identification management system |
JP2021176461A Active JP7227650B2 (en) | 2019-11-07 | 2021-10-28 | Facility monitoring system |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023099246A Active JP7418056B2 (en) | 2019-11-07 | 2023-06-16 | Facility monitoring system |
JP2023218879A Pending JP2024035248A (en) | 2019-11-07 | 2023-12-26 | Facility monitoring systems and programs |
Country Status (1)
Country | Link |
---|---|
JP (6) | JP6780886B1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002029631A (en) | 2000-07-12 | 2002-01-29 | Suehiro Giken Kk | Loading method and loading system |
JP2006268471A (en) | 2005-03-24 | 2006-10-05 | Nec Fielding Ltd | Automatic poacher recognition system and method, management organization system and program |
JP2017041214A (en) | 2015-08-21 | 2017-02-23 | 日本信号株式会社 | Vehicle model determination apparatus |
JP2017094055A (en) | 2015-11-20 | 2017-06-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Gesture recognition method, apparatus and wearable device |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3289068B2 (en) * | 1992-02-26 | 2002-06-04 | オムロン株式会社 | Vehicle detection device |
JPH06307827A (en) * | 1993-01-13 | 1994-11-04 | Toshiba Corp | Car type judging device |
JP3207696B2 (en) * | 1995-02-22 | 2001-09-10 | 三菱重工業株式会社 | Vehicle type identification device |
JP2002024988A (en) * | 2000-07-07 | 2002-01-25 | Mitsubishi Heavy Ind Ltd | Traffic measuring device and illumination control device |
JP4695351B2 (en) * | 2003-06-05 | 2011-06-08 | 三菱電機株式会社 | Wireless communication system and road-to-vehicle communication method |
JP2007199801A (en) * | 2006-01-24 | 2007-08-09 | Mitsubishi Heavy Ind Ltd | Etc system for motorcycle |
JP5022020B2 (en) * | 2006-12-21 | 2012-09-12 | 三菱重工業株式会社 | Vehicle shooting device |
JP5214396B2 (en) * | 2008-10-14 | 2013-06-19 | 株式会社東芝 | Automatic ticket gate |
JP5321547B2 (en) * | 2010-07-21 | 2013-10-23 | カシオ計算機株式会社 | Image distribution system and server |
JP2013196043A (en) * | 2012-03-15 | 2013-09-30 | Glory Ltd | Specific person monitoring system |
US8957787B1 (en) * | 2014-09-30 | 2015-02-17 | Al-Jouharah A. S. A. Al-Hmalan | System and method for disabled parking spot enforcement |
KR101496390B1 (en) * | 2014-11-04 | 2015-02-27 | 주식회사 사라다 | System for Vehicle Number Detection |
SG11201804456QA (en) * | 2015-11-30 | 2018-07-30 | Mitsubishi Heavy Industries Machinery Systems Ltd | Toll collection system, position measurement method, and program |
JP6379238B2 (en) * | 2017-02-16 | 2018-08-22 | 楽天株式会社 | Information processing system and information processing method |
JP6852651B2 (en) * | 2017-10-25 | 2021-03-31 | トヨタ自動車株式会社 | Vehicle management system, commercial facility management system, and commercial facility management program |
JP2019159372A (en) * | 2018-03-07 | 2019-09-19 | キヤノン株式会社 | Authentication apparatus, authentication system, authentication method, computer program and storage medium |
JP7016043B2 (en) * | 2018-04-25 | 2022-02-04 | パナソニックIpマネジメント株式会社 | Intercom system, processing method and program |
-
2020
- 2020-04-14 JP JP2020072595A patent/JP6780886B1/en active Active
- 2020-10-08 JP JP2020170307A patent/JP6974882B2/en active Active
-
2021
- 2021-10-28 JP JP2021176461A patent/JP7227650B2/en active Active
-
2023
- 2023-02-03 JP JP2023015148A patent/JP7303598B2/en active Active
- 2023-06-16 JP JP2023099246A patent/JP7418056B2/en active Active
- 2023-12-26 JP JP2023218879A patent/JP2024035248A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002029631A (en) | 2000-07-12 | 2002-01-29 | Suehiro Giken Kk | Loading method and loading system |
JP2006268471A (en) | 2005-03-24 | 2006-10-05 | Nec Fielding Ltd | Automatic poacher recognition system and method, management organization system and program |
JP2017041214A (en) | 2015-08-21 | 2017-02-23 | 日本信号株式会社 | Vehicle model determination apparatus |
JP2017094055A (en) | 2015-11-20 | 2017-06-01 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Gesture recognition method, apparatus and wearable device |
Also Published As
Publication number | Publication date |
---|---|
JP2022009665A (en) | 2022-01-14 |
JP2021076576A (en) | 2021-05-20 |
JP6780886B1 (en) | 2020-11-04 |
JP6974882B2 (en) | 2021-12-01 |
JP7418056B2 (en) | 2024-01-19 |
JP7227650B2 (en) | 2023-02-22 |
JP2023126230A (en) | 2023-09-07 |
JP2024035248A (en) | 2024-03-13 |
JP2023057101A (en) | 2023-04-20 |
JP2021077356A (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109686109B (en) | Parking lot safety monitoring management system and method based on artificial intelligence | |
EP3682429B1 (en) | System and method for gate monitoring during departure or arrival of an autonomous vehicle | |
CN107832680B (en) | Computerized method, system and storage medium for video analytics | |
US11513212B2 (en) | Motor vehicle and method for a 360° detection of the motor vehicle surroundings | |
CN106144816B (en) | Occupant detection based on depth transducer | |
Gandhi et al. | Pedestrian protection systems: Issues, survey, and challenges | |
US20140334684A1 (en) | System and method for neighborhood-scale vehicle monitoring | |
US10836309B1 (en) | Distracted driver detection and alert system | |
CN106144798A (en) | The sensor controlled for passenger traffic merges | |
KR20150092545A (en) | Warning method and system using prompt situation information data | |
CN107662867B (en) | Step roller monitoring and maintenance operator monitoring for passenger conveyors | |
CN106297298B (en) | Traffic monitoring method, apparatus and system | |
JP7303598B2 (en) | Facility monitoring system | |
KR20190078688A (en) | Artificial intelligence-based parking recognition system | |
JPH09130781A (en) | Broad area supervisory equipment | |
CN109633684A (en) | For the method, apparatus of classification, machine learning system and machine readable storage medium | |
JP7401292B2 (en) | Parking lot control system, parking lot control method, and program | |
KR20170007070A (en) | Method for visitor access statistics analysis and apparatus for the same | |
Kawthankar et al. | A survey on smart automobiles using Internet of Things for digital India | |
JP2021117816A (en) | Parking lot control system, parking lot control method, and program | |
JP6695603B1 (en) | Object identification method and object identification system | |
JP2021034010A (en) | Mobile body and user identification management system | |
dos Santos et al. | A Low-Cost Bidirectional People Counter Device for Assisting Social Distancing Monitoring for COVID-19 | |
Li et al. | Pedestrian Behavior Study to Advance Pedestrian Safety in Smart Transportation Systems Using Innovative LiDAR Sensors | |
KR20160086536A (en) | Warning method and system using prompt situation information data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230203 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20230203 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230220 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20230323 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230531 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230613 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230616 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7303598 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |