JP2014186650A - Passenger detection system - Google Patents

Passenger detection system Download PDF

Info

Publication number
JP2014186650A
JP2014186650A JP2013062359A JP2013062359A JP2014186650A JP 2014186650 A JP2014186650 A JP 2014186650A JP 2013062359 A JP2013062359 A JP 2013062359A JP 2013062359 A JP2013062359 A JP 2013062359A JP 2014186650 A JP2014186650 A JP 2014186650A
Authority
JP
Japan
Prior art keywords
passenger
detection
information
data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013062359A
Other languages
Japanese (ja)
Other versions
JP5568153B1 (en
Inventor
Hitoshi Tomiyama
均 富山
Ikuo Suzuki
郁夫 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AIRPORT INTELLIGENT COMMUNICATIONS SERVICE CO Ltd
Original Assignee
AIRPORT INTELLIGENT COMMUNICATIONS SERVICE CO Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AIRPORT INTELLIGENT COMMUNICATIONS SERVICE CO Ltd filed Critical AIRPORT INTELLIGENT COMMUNICATIONS SERVICE CO Ltd
Priority to JP2013062359A priority Critical patent/JP5568153B1/en
Application granted granted Critical
Publication of JP5568153B1 publication Critical patent/JP5568153B1/en
Publication of JP2014186650A publication Critical patent/JP2014186650A/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Devices For Checking Fares Or Tickets At Control Points (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a passenger detection system 1 highly efficiently detecting passengers while reducing a load of devices constituting a system and a database capacity.SOLUTION: An information reading device 10 is installed at an entrance of a detection area for acquiring initial feature quantity data acquired from boarding ticket information and an initial appearance image of a passenger. A plurality of passenger detection devices 30 are installed within the detection area. A central processor 100 selects at least one passenger detection device of the plurality of passenger detection devices on the basis of information on transportation means included in the boarding ticket information and transit information of the transportation means acquired from transit database 130. When the feature quantity data extracted from the image-captured person matches the initial feature quantity data, the passenger detection device determines to detect a specific passenger.

Description

本発明は、航空機、船舶、鉄道等の交通手段に搭乗する乗客を探知するシステムに関し、特に、交通手段の出発時刻間際になっても、交通手段に搭乗していない乗客を所定のエリア内において効率よく探し出す為の乗客探知システムに関する。   The present invention relates to a system for detecting passengers boarding transportation means such as airplanes, ships, and railroads. In particular, passengers who are not boarding transportation means even within the predetermined area even when the departure time of transportation means is about The present invention relates to a passenger detection system for efficient search.

空港のターミナルビルにおいて国際便に搭乗する乗客は、搭乗開始時刻の所定時間前に搭乗手続を済ませ、保安検査を経て制限エリアに入り、出発時刻の所定時間前には搭乗を済ませる規則となっている。
しかし、乗客が保安検査場へ入場した時刻が搭乗便の出発時刻に迫っていたり、制限エリア内で買い物中に出発時間を忘れたりする等、様々な理由によって搭乗開始時刻が過ぎても搭乗口に乗客が現れないことがある。航空会社は乗客を探し出すために場内放送などによって呼び出しを行うが、制限エリアが広い場合には、乗客を探し出すことが困難である。
乗客の探知を容易にするため、特許文献1には、乗客のトレーサビリティチェックを行う搭乗セキュリティチェックシステムが記載されている。この発明では、まず、保安検査場の入口付近に設置された第一のネットワークカメラにより乗客の顔を撮影してデータベースに登録する。そして、空港内の任意の場所に設置された第二のネットワークカメラにより撮影された人物の顔と、データベースに登録された乗客の顔と、を空港サーバーの行動追跡管理部により照合する。2つの顔が照合された場合には、乗客を撮影した第二のネットワークカメラの位置と撮影された時刻とをデータベースに登録して、乗客の行動を追跡管理する。
Passengers who board international flights at airport terminal buildings are required to complete boarding procedures in advance of the boarding start time, enter the restricted area through security inspections, and board the boarding before the departure time. Yes.
However, even when the boarding start time has passed due to various reasons, such as when the passenger entered the security checkpoint is approaching the departure time of the boarding flight, or forgetting the departure time while shopping in the restricted area, the boarding gate Passengers may not appear. The airline company makes a call by a local broadcast to find passengers, but it is difficult to find passengers when the restricted area is large.
In order to facilitate the detection of passengers, Patent Document 1 describes a boarding security check system that performs a traceability check of passengers. In the present invention, first, a passenger's face is photographed and registered in a database by a first network camera installed near the entrance of the security checkpoint. Then, the action tracking management unit of the airport server collates the face of the person photographed by the second network camera installed at an arbitrary location in the airport with the face of the passenger registered in the database. When the two faces are collated, the position of the second network camera that captured the passenger and the time when the passenger was captured are registered in a database, and the behavior of the passenger is tracked and managed.

特許第4528262号Japanese Patent No. 4528262

特許文献1に記載のシステムにおいては、乗客を追跡管理するので、乗客の現在位置を把握することは容易である。しかし、乗客が撮影されるごとに、行動追跡管理部がデータベースに登録された乗客の顔と撮影された人物の顔とを照合する必要がある。そのため、行動追跡管理部を有する空港サーバーの装置負荷が高くなるという問題がある。また、第二のネットワークカメラが乗客を撮影する度にデータベースにその旨の情報を登録するので、データベース容量が肥大化しやすいという問題がある。
本発明は、上述の事情に鑑みてなされたものであり、システムを構成する装置の負荷、及びデータベース容量を削減しつつ、乗客を効率よく探し出す為の乗客探知システムを提供することを目的とする。
In the system described in Patent Document 1, since passengers are tracked and managed, it is easy to grasp the current position of the passengers. However, every time a passenger is photographed, the behavior tracking management unit needs to collate the face of the passenger registered in the database with the face of the photographed person. Therefore, there is a problem that the load on the airport server having the behavior tracking management unit is increased. Moreover, since the information to that effect is registered in the database every time the second network camera captures a passenger, there is a problem that the database capacity tends to increase.
The present invention has been made in view of the above-described circumstances, and an object of the present invention is to provide a passenger detection system for efficiently searching for passengers while reducing the load on the devices constituting the system and the database capacity. .

上記の課題を解決するために、請求項1に記載の発明は、入口から少なくとも1つの搭乗口に至る所定の探知エリアにおいて、特定の乗客を探知する乗客探知システムであって、前記入口に設置されて、乗客が所持する搭乗券の搭乗券情報を読み取る情報読取手段と、前記乗客を撮影する読込カメラと、を備えた情報読込装置と、前記情報読込装置が取得した搭乗券情報と、前記読込カメラが撮影した前記乗客の初期外観像から得られる前記乗客の初期特徴量データと、を対応づけて記憶する乗客データベースと、前記乗客データベースから、前記特定の乗客の初期特徴量データを抽出する中央処理装置と、前記探知エリア内に設置されて、前記探知エリア内を撮影する探知カメラと、前記探知カメラにより撮影された人物の外観像から得られる特徴量データと前記初期特徴量データとが一致したときに前記探知カメラにより撮影された人物が前記特定の乗客であると判定するマッチング手段と、を夫々備えた複数の乗客探知装置と、前記搭乗口から出発する少なくとも1つの交通手段に関する運行情報を記憶する運行データベースと、を備え、前記中央処理装置は、前記乗客データベースから取得した搭乗券情報に含まれる交通手段に関する情報と、前記運行データベースから取得した交通手段に関する運行情報とに基づいて、前記複数の乗客探知装置のうちの少なくとも1つの乗客探知装置を選定する乗客探知装置選定手段を備えたことを特徴とする。   In order to solve the above-mentioned problem, the invention according to claim 1 is a passenger detection system for detecting a specific passenger in a predetermined detection area from the entrance to at least one boarding gate, and is installed at the entrance. An information reading means for reading boarding pass information of a boarding pass possessed by a passenger, a reading camera for photographing the passenger, boarding pass information acquired by the information reading device, The passenger feature database obtained by associating and storing the passenger's initial feature data obtained from the passenger's initial appearance image photographed by the reading camera, and extracting the initial feature data of the specific passenger from the passenger database Obtained from a central processing unit, a detection camera installed in the detection area and photographing the detection area, and an appearance image of a person photographed by the detection camera Matching means for determining that the person photographed by the detection camera is the specific passenger when the feature quantity data matches the initial feature quantity data, and a plurality of passenger detection devices, respectively, An operation database for storing operation information relating to at least one means of transportation departing from the boarding gate, wherein the central processing unit includes information relating to means of transportation included in boarding pass information acquired from the passenger database, and the operation database. And a passenger detection device selection means for selecting at least one passenger detection device among the plurality of passenger detection devices based on the operation information on the transportation means acquired from the vehicle.

探知エリアは入口と、出口としての搭乗口とを有する閉鎖的エリアである。探知エリアの入口には情報読込装置が設置され、探知エリア内には複数の乗客探知装置が設置される。乗客が探知エリアに入場するときに、情報読込装置の情報読取手段が搭乗券から交通手段に関する情報を含む搭乗券情報を読み取り、情報読込装置の読込カメラが乗客の外観像を撮影する。情報読込装置が取得した情報は、乗客データベースに登録される。特定の乗客を探知する場合、まず中央処理装置は、特定の乗客が搭乗する交通手段に関する情報を乗客データベースから抽出し、抽出された交通手段についての運行情報を運行データベースから抽出する。続いて中央処理装置は、抽出した交通手段についての運行情報から、探知エリア内に設置された複数の乗客探知装置のうち、乗客を探知させる乗客探知装置を選定する。中央処理装置によって選定された乗客探知装置は、探知カメラが撮影した人物から抽出された特徴量データと特定の乗客の初期特徴量データとが一致したときに、特定の乗客を発見したと判断する。   The detection area is a closed area having an entrance and a boarding gate as an exit. An information reading device is installed at the entrance of the detection area, and a plurality of passenger detection devices are installed in the detection area. When the passenger enters the detection area, the information reading means of the information reading device reads boarding pass information including information on the transportation means from the boarding pass, and the reading camera of the information reading device takes an appearance image of the passenger. Information acquired by the information reading device is registered in the passenger database. When detecting a specific passenger, first, the central processing unit extracts information on the transportation means on which the specific passenger is boarded from the passenger database, and extracts operation information about the extracted transportation means from the operation database. Subsequently, the central processing unit selects a passenger detection device that detects a passenger from a plurality of passenger detection devices installed in the detection area, based on the extracted operation information about the transportation means. The passenger detection device selected by the central processing unit determines that the specific passenger has been found when the feature data extracted from the person photographed by the detection camera matches the initial feature data of the specific passenger. .

請求項2の発明は、前記搭乗券情報は、乗客が搭乗する交通手段を特定する搭乗便名を含み、前記運行データベースには、前記搭乗便名と前記搭乗口とが関連づけて登録されており、前記乗客探知装置選定手段は、前記乗客データベースから取得された搭乗便名に基づいて前記運行データベースから搭乗口の情報を取得し、前記入口から前記該搭乗口に至るエリアに設置された乗客探知装置を選定することを特徴とする。
請求項2の発明では、中央処理装置は、搭乗券情報に含まれる搭乗便名から交通手段が出発する場所としての搭乗口の情報を取得する。ここで、乗客は、入口から探知エリアに入場し、探知エリア内を移動して搭乗口から出場する。中央処理装置は乗客を探知させる装置として、入口から搭乗口に至るエリアに設置された乗客探知装置を選定し、選定された装置に乗客を探知させることで、乗客を効率的に探知する。
請求項3の発明は、前記特定の乗客のデータを入力する入力手段と、前記入力手段から入力された前記特定の乗客を示すデータを前記中央処理装置に送信する通信手段と、を備えた端末装置を備え、中央処理装置は、前記端末装置から送信された特定の乗客を示すデータをキーとして、前記乗客データベースに前記初期特徴量データを検索させ、前記乗客データベースから取得した前記初期特徴量データを、前記乗客探知装置選定手段によって選定された乗客探知装置に送信することを特徴とする。
請求項3の発明では、端末装置から任意の乗客を特定して、乗客探知装置に探知させることができる。
In the invention of claim 2, the boarding pass information includes a boarding flight name specifying a transportation means on which a passenger boardes, and the boarding flight name and the boarding gate are associated and registered in the operation database. The passenger detection device selection means acquires boarding gate information from the operation database based on the boarding flight name acquired from the passenger database, and detects passengers installed in an area from the entrance to the boarding gate. The device is selected.
In the invention of claim 2, the central processing unit acquires information on the boarding gate as a place where the transportation means departs from the boarding flight name included in the boarding pass information. Here, the passenger enters the detection area from the entrance, moves in the detection area, and enters from the boarding gate. The central processing unit selects a passenger detection device installed in an area from the entrance to the boarding gate as a device for detecting a passenger, and detects the passenger efficiently by causing the selected device to detect the passenger.
The invention of claim 3 is a terminal comprising: input means for inputting data of the specific passenger; and communication means for transmitting data indicating the specific passenger input from the input means to the central processing unit. The initial processing amount data acquired from the passenger database by causing the passenger database to search the initial feature amount data using data indicating a specific passenger transmitted from the terminal device as a key. Is transmitted to the passenger detection device selected by the passenger detection device selection means.
In invention of Claim 3, arbitrary passengers can be specified from a terminal device, and a passenger detection apparatus can be made to detect.

請求項4の発明は、前記端末装置は、音声信号を集音するマイクと、集音した音声データを前記乗客探知装置に送信する通信手段と、を備え、前記乗客探知装置は、前記通信手段から受信した音声データを出力するスピーカを備えたことを特徴とする。
請求項4の発明では、各乗客探知装置は夫々スピーカを備えており、特定の乗客から近距離にある乗客探知装置のスピーカからオペレーターの音声を放送することで、特定の乗客に対してピンポイントで呼びかけを行うことができる。
請求項5の発明は、前記乗客探知装置は、前記マッチング手段により判定された前記特定の乗客の像を追跡する乗客追跡手段を備え、前記乗客追跡手段は、追跡中の人物像にマーカ画像を合成することを特徴とする。
請求項5の発明では、発見された特定の乗客の像にマーカ画像を合成するので、特定の乗客と他の乗客とを視覚的に区別できる。
請求項6の発明は、前記入口が保安検査場入口であり、前記所定の探知エリアが制限エリアであることを特徴とする。
請求項6の発明は、保安検査場入口から、搭乗口までの制限エリア内において乗客を探知する。
According to a fourth aspect of the present invention, the terminal device includes a microphone that collects an audio signal, and a communication unit that transmits the collected audio data to the passenger detection device. The passenger detection device includes the communication unit. A speaker is provided for outputting audio data received from the TV.
In the invention of claim 4, each passenger detection device is provided with a speaker, and the voice of the operator is broadcast from the speaker of the passenger detection device at a short distance from the specific passenger, thereby pinpointing the specific passenger. You can make a call at.
According to a fifth aspect of the present invention, the passenger detection device includes a passenger tracking unit that tracks the image of the specific passenger determined by the matching unit, and the passenger tracking unit adds a marker image to the person image being tracked. It is characterized by combining.
In the invention of claim 5, since the marker image is synthesized with the image of the specific passenger found, the specific passenger and other passengers can be visually distinguished.
The invention according to claim 6 is characterized in that the entrance is a security inspection site entrance and the predetermined detection area is a restricted area.
The invention of claim 6 detects a passenger in a restricted area from the security checkpoint entrance to the boarding gate.

本発明によれば、乗客を探知する必要がある場合に乗客探知装置に乗客を探知させるので、システムを構成する装置の負荷を低減できる。
また、本発明は、乗客の探知に必要な搭乗券情報と乗客の外観像から得られる初期特徴量データとを乗客データベースに記憶するので、乗客の位置を逐次データベースに登録する場合に比べてデータベース容量を削減できる。
さらに、本発明によれば、搭乗券情報に含まれる交通手段の情報と、運行データベースに登録された交通手段の運行情報とに基づいて、複数の乗客探知装置の中から乗客を探知させる装置を選定するので、乗客を効率的に探し出すことができる。
According to the present invention, when it is necessary to detect a passenger, the passenger detection device detects the passenger, so the load on the devices constituting the system can be reduced.
Further, the present invention stores boarding pass information necessary for passenger detection and initial feature data obtained from the passenger appearance image in the passenger database, so that the database is compared with the case where the position of the passenger is sequentially registered in the database. Capacity can be reduced.
Further, according to the present invention, there is provided an apparatus for detecting a passenger from a plurality of passenger detection devices based on information on transportation means included in boarding pass information and operation information on transportation means registered in the operation database. Since the selection is made, passengers can be found efficiently.

空港における乗客のチェックインから搭乗に至る諸手続の流れについて説明するための概要図である。It is a schematic diagram for demonstrating the flow of the various procedures from a passenger's check-in to boarding in an airport. 本発明の一実施形態に係る乗客探知システムの概略図である。1 is a schematic diagram of a passenger detection system according to an embodiment of the present invention. 情報読込装置の機能ブロック図である。It is a functional block diagram of an information reading apparatus. 中央処理装置とデータベース装置の概要を示すブロック図である。It is a block diagram which shows the outline | summary of a central processing unit and a database apparatus. 乗客探知装置の機能ブロック図である。It is a functional block diagram of a passenger detection device. 端末装置の機能ブロック図である。It is a functional block diagram of a terminal device. 端末装置の表示部に表示される画面例を示す図であり、(a)は情報入力画面を示し、(b)は探知確認用画面を示し、(c)は探知結果画面を示す図である。It is a figure which shows the example of a screen displayed on the display part of a terminal device, (a) shows an information input screen, (b) shows a screen for detection confirmation, (c) is a figure which shows a detection result screen. . 情報読込装置の処理を示すフローチャートである。It is a flowchart which shows the process of an information reading apparatus. 中央処理装置における乗客データのデータベース装置への登録処理を示すフローチャートである。It is a flowchart which shows the registration process to the database apparatus of the passenger data in a central processing unit. 中央処理装置におけるフライト情報のデータベース装置への登録処理を示すフローチャートである。It is a flowchart which shows the registration process to the database apparatus of the flight information in a central processing unit. 端末装置の処理を示すフローチャートである。It is a flowchart which shows the process of a terminal device. 中央処理装置の乗客探知に関わる処理を示すフローチャートである。It is a flowchart which shows the process in connection with the passenger detection of a central processing unit. 乗客探知装置の処理を示すフローチャートである。It is a flowchart which shows the process of a passenger detection apparatus.

〔第一の実施形態〕
以下、本発明を図に示した実施形態を用いて詳細に説明する。但し、この実施形態に記載される構成要素、種類、組み合わせ、形状、その相対配置などは特定的な記載がない限り、この発明の範囲をそれのみに限定する主旨ではなく単なる説明例に過ぎない。
本発明に係る乗客探知システムは、保安検査場入口等の入口(探知エリアの入口)から、航空機等の交通手段が出発する少なくとも1つの搭乗口(出発ゲート)に至る所定の探知エリアにおいて、特定の乗客を探知するシステムである。特に、本発明に係る乗客探知システムは、乗客の外観像をもとに特定の乗客を探知する乗客探知装置を探知エリア内に複数備え、入口から、特定の乗客が利用する交通手段の搭乗口に至るエリアに設置された乗客探知装置に乗客を探知させる点に特徴がある。
[First embodiment]
Hereinafter, the present invention will be described in detail with reference to embodiments shown in the drawings. However, the components, types, combinations, shapes, relative arrangements, and the like described in this embodiment are merely illustrative examples and not intended to limit the scope of the present invention only unless otherwise specified. .
The passenger detection system according to the present invention is specified in a predetermined detection area from an entrance such as a security checkpoint entrance (detection area entrance) to at least one boarding gate (departure gate) from which a transportation means such as an aircraft departs. Is a system to detect passengers. In particular, the passenger detection system according to the present invention includes a plurality of passenger detection devices in the detection area for detecting a specific passenger based on the appearance image of the passenger, and the boarding gate of the transportation means used by the specific passenger from the entrance It is characterized in that a passenger detection device installed in an area leading to detects a passenger.

以下、乗客探知システムを空港に設置した場合の実施形態に基づいて説明するが、この乗客探知システムは空港以外にも、鉄道の駅、バスターミナル、フェリーターミナル等、種々の交通手段の発着ターミナルに設置することが可能である。
〔乗客の流れ〕
図1は、空港における乗客(搭乗者)のチェックインから搭乗に至る諸手続の流れについて説明するための概要図である。
乗客1000は、空港ターミナルビル1001に到着した後、航空券を提示してチェックインカウンター1002(又は自動チェックイン機)にて搭乗手続を行い、搭乗券1003を受け取る。受託手荷物があれば、チェックインカウンター1002で預け、保安検査場1004に向かう。
保安検査場1004では、搭乗券1003及びパスポートのチェックを行う。また、航空機の安全な運航を保証するため、乗客及び機内持ち込み手荷物の保安検査を行う。保安検査後のエリアは、航空機機内と同様に安全が保証された制限エリアとなり、一般客の立ち入りが制限される。保安検査場1004を通過した乗客は、出国審査場1005にて出国審査を受ける。その後、乗客は複数の搭乗口1006のうち、搭乗する航空機が出発する搭乗口1006aまで移動し、搭乗口1006aから航空機に搭乗することになる。
Hereinafter, the passenger detection system will be described based on an embodiment in the case where it is installed at an airport. It is possible to install.
[Passenger flow]
FIG. 1 is a schematic diagram for explaining the flow of various procedures from check-in to boarding for passengers (passengers) at an airport.
After arriving at the airport terminal building 1001, the passenger 1000 presents an air ticket, performs boarding procedures at the check-in counter 1002 (or an automatic check-in machine), and receives the boarding ticket 1003. If there is checked baggage, check it in at the check-in counter 1002 and go to the security checkpoint 1004.
At the security checkpoint 1004, the boarding pass 1003 and the passport are checked. In addition, in order to guarantee safe operation of the aircraft, security inspections of passengers and carry-on baggage will be conducted. The area after the security inspection is a restricted area in which safety is guaranteed in the same manner as in an aircraft, and entry of general customers is restricted. Passengers who have passed the security checkpoint 1004 are subjected to an immigration check at the immigration checkpoint 1005. Thereafter, the passenger moves to the boarding port 1006a where the boarding aircraft departs from among the plurality of boarding ports 1006, and board the aircraft from the boarding port 1006a.

〔基本的なシステム構成〕
本発明の実施形態に係る乗客探知システムのシステム構成について説明する。乗客探知システムは、制限エリア等の所定の探知エリア内にいる乗客が、搭乗予定の航空機の出発時刻間際になっても搭乗していない場合に、制限エリア内において乗客を効率よく探し出すためのシステムである。
なお、「所定の探知エリア」は、必ずしも搭乗券保有者のみが入場できる制限エリアに限られない。
[Basic system configuration]
A system configuration of a passenger detection system according to an embodiment of the present invention will be described. A passenger detection system is a system for efficiently finding passengers in a restricted area when a passenger in a predetermined detection area such as a restricted area has not boarded at the departure time of an aircraft scheduled to be boarded. It is.
The “predetermined detection area” is not necessarily limited to a restricted area where only the boarding pass holder can enter.

図2は、本発明の一実施形態に係る乗客探知システムの概略図である。本実施形態に係る乗客探知システム1は、制限エリアの入口となる保安検査場1004の入口(探知エリアの入口)に設置された情報読込装置10と、制限エリア内の各所に設置された複数の乗客探知装置30と、乗客探知装置30に乗客を探知させるための端末装置50と、情報読込装置10や乗客探知装置30等、乗客探知システムを構成する各装置を仲介する中央処理装置100と、乗客に関する情報を集積するデータベース装置(DB装置120)と、から概略構成されている。各装置は、LAN(Local Area Network)、又はWAN(Wide Area Network)等のネットワークNにて互いに接続されている。また、乗客探知システム1は、フライトインフォメーションシステム(FIS130)と接続されており、FIS130からフライト情報を受信して、DB装置120に登録する。
なお、制限エリアは図1に示すように、入口としての保安検査場入口と出口としての搭乗口とを有する閉鎖的エリアであり、乗客は保安検査場入口から制限エリアに入場し、制限エリア内を移動して搭乗口から出場する。
FIG. 2 is a schematic diagram of a passenger detection system according to an embodiment of the present invention. The passenger detection system 1 according to the present embodiment includes an information reading device 10 installed at an entrance of a security checkpoint 1004 (entrance of a detection area) serving as an entrance of a restricted area, and a plurality of devices installed in various places within the restricted area. A passenger detection device 30, a terminal device 50 for causing the passenger detection device 30 to detect a passenger, a central processing unit 100 that mediates each device constituting the passenger detection system, such as the information reading device 10 and the passenger detection device 30, and the like. And a database device (DB device 120) that accumulates information about passengers. The devices are connected to each other via a network N such as a LAN (Local Area Network) or a WAN (Wide Area Network). The passenger detection system 1 is connected to a flight information system (FIS 130), receives flight information from the FIS 130, and registers it in the DB device 120.
As shown in FIG. 1, the restricted area is a closed area having an entrance for security inspection as an entrance and a boarding entrance as an exit, and passengers enter the restricted area from the entrance to the security inspection area. Move to enter the boarding gate.

〔情報読込装置〕
情報読込装置について説明する。図3は、情報読込装置の機能ブロック図である。
情報読込装置10は、乗客が所持する搭乗券に記載された情報(搭乗券情報)を読み取るバーコード読取器11(情報読取手段)と、乗客を撮影する読込カメラ15と、を備えている。情報読込装置10は、搭乗券情報と乗客の顔画像とから乗客データを生成し、生成した乗客データを中央処理装置100に送信する。
情報読込装置10は、乗客が制限エリアに入場する際に、確実に通過する位置に設置されている。ここで、制限エリアは、乗客探知システム1によって乗客を探知可能なエリアであり、情報読込装置10は、乗客が制限エリアに入場する際に通過する位置に設置される。
情報読込装置10は、乗客が所持する搭乗券から情報(バーコード)を読み取るバーコード読取器11と、バーコード読取器11を制御するとともに読み取られた情報から数値・記号情報を抽出するバーコード読取器コントローラ13と、乗客の初期外観像(初期顔画像:静止画)を撮影する読込カメラ15と、読込カメラ15により撮影された乗客の初期顔画像から顔の特徴量(初期特徴量データ)を算出する画像処理部17と、バーコード読取器コントローラ13が抽出した数値・記号情報と読込カメラ15が撮影した初期顔画像と画像処理部17が算出した初期特徴量データとから乗客データを生成する乗客データ生成部19と、乗客データ生成部19が生成した乗客データを中央処理装置100に送信する通信部21と、を備えている。
[Information reading device]
An information reading apparatus will be described. FIG. 3 is a functional block diagram of the information reading apparatus.
The information reading device 10 includes a barcode reader 11 (information reading means) that reads information (boarding ticket information) described in a boarding pass carried by a passenger, and a reading camera 15 that takes a picture of the passenger. The information reading device 10 generates passenger data from the boarding pass information and the passenger's face image, and transmits the generated passenger data to the central processing unit 100.
The information reading device 10 is installed at a position where the passenger can surely pass when entering the restricted area. Here, the restricted area is an area where passengers can be detected by the passenger detection system 1, and the information reading device 10 is installed at a position where the passenger passes when entering the restricted area.
The information reading device 10 includes a bar code reader 11 that reads information (bar code) from a boarding pass carried by a passenger, and a bar code that controls the bar code reader 11 and extracts numerical / symbol information from the read information. A reader controller 13, a reading camera 15 that captures an initial appearance image (initial face image: still image) of a passenger, and a facial feature amount (initial feature amount data) from the passenger's initial face image captured by the reading camera 15 Passenger data is generated from the image processing unit 17 for calculating the image, the numerical value / symbol information extracted by the barcode reader controller 13, the initial face image taken by the reading camera 15, and the initial feature amount data calculated by the image processing unit 17. A passenger data generation unit 19 that transmits the passenger data generated by the passenger data generation unit 19 to the central processing unit 100. .

搭乗券には、搭乗日、便名、乗客の氏名、及びチェックインシーケンス番号が記載されている。チェックインシーケンス番号は、各搭乗券に付与された固有の(ユニークな)番号である。これらの情報は、例えばバーコード(1次元コード)により搭乗券に印字されている。なお、搭乗券に情報を印字又は記録する方式は、上述のものに限定するものではなく、2次元コードや磁気など他の方法を用いて搭乗券に情報を記録してもよい。搭乗日及び便名(搭乗便名)は、乗客が搭乗する航空機を特定するための情報である。
バーコード読取器11は、搭乗券に印字されたバーコードから情報を読み取って、読み取った情報をバーコード読取器コントローラ13に出力する。バーコード読取器コントローラ13は、バーコード読取器11からの読取情報を数値・記号情報に変換することによって搭乗券に記載された情報を抽出し、乗客データ生成部19に出力する。
The boarding pass includes the boarding date, flight number, passenger name, and check-in sequence number. The check-in sequence number is a unique (unique) number assigned to each boarding pass. Such information is printed on the boarding pass by, for example, a bar code (one-dimensional code). Note that the method of printing or recording information on the boarding pass is not limited to the above-described method, and information may be recorded on the boarding pass using another method such as a two-dimensional code or magnetism. The boarding date and the flight name (boarding flight name) are information for specifying the aircraft on which the passenger is boarding.
The barcode reader 11 reads information from the barcode printed on the boarding pass and outputs the read information to the barcode reader controller 13. The bar code reader controller 13 extracts the information described in the boarding pass by converting the read information from the bar code reader 11 into numerical value / symbol information, and outputs the information to the passenger data generation unit 19.

読込カメラ15は、バーコード読取器11が搭乗券のバーコードを読み取るタイミングで、保安検査場の入口ゲートを通過する乗客の顔画像を撮影し、撮影した顔画像を画像処理部17に出力する。読込カメラ15は、乗客の顔を個別に、且つ確実に撮影可能な位置に設置されている。1つの情報読込装置10が複数の読込カメラ15を備えていても構わない。また、読込カメラ15は、動画像を撮影する(複数の静止画像を連続的に撮影する)ビデオカメラであってもよい。
画像処理部17は、読込カメラ15により撮影された乗客の顔画像から人物の顔領域を抽出し、抽出した顔領域について正規化処理を行って、所定のアルゴリズムに基づいて乗客の顔の特徴量を算出する。即ち、画像処理部17は、顔画像の輝度変化、色調変化等から、顔の輪郭、目、鼻、口等の位置情報を検出する。更に、画像処理部17は、検出された顔の各パーツの位置情報から、顔の特徴量を算出する。
The reading camera 15 captures the face image of the passenger passing through the entrance gate of the security checkpoint at the timing when the barcode reader 11 reads the barcode on the boarding pass, and outputs the captured face image to the image processing unit 17. . The reading camera 15 is installed at a position where the faces of passengers can be photographed individually and reliably. One information reading device 10 may include a plurality of reading cameras 15. The reading camera 15 may be a video camera that captures a moving image (captures a plurality of still images continuously).
The image processing unit 17 extracts a person's face area from the passenger's face image photographed by the reading camera 15, performs normalization processing on the extracted face area, and based on a predetermined algorithm, features of the passenger's face Is calculated. That is, the image processing unit 17 detects position information such as a face outline, eyes, nose, mouth, and the like from a change in brightness, a change in color tone, and the like of the face image. Further, the image processing unit 17 calculates a facial feature amount from the positional information of each detected part of the face.

ここで、情報読込装置10が複数の読込カメラ15を有する場合や、読込カメラ15が動画像を撮影するカメラである場合等、一人の乗客について複数の静止画像を得ることができる場合、画像処理部17は、取得された複数の静止画像から、所定のアルゴリズムに従って乗客の顔領域を抽出しやすい静止画像を選択して、画像処理を行う。
画像処理部17は、顔画像から算出された顔の特徴量データと、特徴量データの算出の元になった顔画像とを、乗客データ生成部19に出力する。
乗客データ生成部19は、バーコード読取器11により読み取られた搭乗券の情報と、読込カメラ15により撮影された乗客の初期顔画像と、画像処理部17により算出された乗客の初期特徴量データとを、チェックインシーケンス番号により関連づけた乗客データを生成し、通信部21を介して中央処理装置100に送信する。この乗客データには、チェックインシーケンス番号、搭乗日、便名、乗客の氏名、乗客の初期顔画像、及び乗客の顔の特徴量データが含まれる。
Here, when the information reading apparatus 10 includes a plurality of reading cameras 15 or when the reading camera 15 is a camera that captures a moving image, a plurality of still images can be obtained for one passenger. The unit 17 selects a still image from which a passenger's face area can be easily extracted from a plurality of acquired still images according to a predetermined algorithm, and performs image processing.
The image processing unit 17 outputs the facial feature amount data calculated from the face image and the face image from which the feature amount data is calculated to the passenger data generation unit 19.
The passenger data generation unit 19 includes information on the boarding pass read by the barcode reader 11, the initial facial image of the passenger photographed by the reading camera 15, and the initial feature data of the passenger calculated by the image processing unit 17. Is generated by the check-in sequence number and is transmitted to the central processing unit 100 via the communication unit 21. The passenger data includes a check-in sequence number, a boarding date, a flight name, a passenger name, a passenger initial face image, and passenger face feature data.

通信部21は、端末装置50等との通信を可能とし、データの送受信を行う部分であり、NIC(Network Interface Card)や、送受信回路等によって実現される。通信部21は、乗客データ生成部19により生成された乗客データを、中央処理装置に送信する。
なお、バーコード読取器コントローラ13と画像処理部17と乗客データ生成部19とは、CPU、ROM、RAM等を備えた周知のコンピュータ装置から構成することができる。この場合、バーコード読取器コントローラ13と画像処理部17と乗客データ生成部19は、CPUが所定のメモリに格納されたプログラムを実行することによって実現される。
The communication unit 21 is a part that enables communication with the terminal device 50 and the like, and transmits and receives data, and is realized by a NIC (Network Interface Card), a transmission / reception circuit, or the like. The communication unit 21 transmits the passenger data generated by the passenger data generation unit 19 to the central processing unit.
The bar code reader controller 13, the image processing unit 17, and the passenger data generation unit 19 can be configured from a known computer device including a CPU, a ROM, a RAM, and the like. In this case, the barcode reader controller 13, the image processing unit 17, and the passenger data generation unit 19 are realized by the CPU executing a program stored in a predetermined memory.

〔中央処理装置〕
中央処理装置に図4に基づいて説明する。図4は、中央処理装置とDB装置の概要を示すブロック図である。図4には、中央処理装置を構成する各機能をブロックにより示している。
中央処理装置100は、通信部101と、制御部103と、フライト情報登録部105と、乗客データ登録部107と、探知対象者データ抽出部109と、乗客探知装置選定部111と、探知対象者データ生成部113と、探知結果登録部115と、転送処理部117と、を備えている。
通信部101は、端末装置50等との通信を可能とし、データの送受信を行う部分であり、NIC(Network Interface Card)や、送受信回路等によって実現される。
制御部103、フライト情報登録部105、乗客データ登録部107、探知対象者データ抽出部109、乗客探知装置選定部111、探知対象者データ生成部113、探知結果登録部115、及び、転送処理部117は、CPU(Central Processing Unit)、ROM、及びRAM等を備えた周知のコンピュータ装置から構成することができる。上記各部は、CPUが所定のメモリに格納されたプログラムを実行することによって実現される。
[Central processing unit]
The central processing unit will be described with reference to FIG. FIG. 4 is a block diagram showing an overview of the central processing unit and the DB device. In FIG. 4, each function which comprises a central processing unit is shown with the block.
The central processing unit 100 includes a communication unit 101, a control unit 103, a flight information registration unit 105, a passenger data registration unit 107, a detection target person data extraction unit 109, a passenger detection unit selection unit 111, and a detection target person. A data generation unit 113, a detection result registration unit 115, and a transfer processing unit 117 are provided.
The communication unit 101 is a part that enables communication with the terminal device 50 and the like and transmits and receives data, and is realized by a NIC (Network Interface Card), a transmission / reception circuit, or the like.
Control unit 103, flight information registration unit 105, passenger data registration unit 107, detection target person data extraction unit 109, passenger detection device selection unit 111, detection target person data generation unit 113, detection result registration unit 115, and transfer processing unit 117 can be configured from a well-known computer device including a CPU (Central Processing Unit), a ROM, a RAM, and the like. Each of the above units is realized by the CPU executing a program stored in a predetermined memory.

制御部103は、ネットワークNを介して受信したデータを中央処理装置100の各部に振り分けるとともに、中央処理装置100を構成する各部の制御を行う。
フライト情報登録部105は、FIS130から受信したフライト情報をDB装置120のフライトDB121に登録する。なお、フライト情報の具体的構成については、DB装置の構成と共に後述する。
乗客データ登録部107は、情報読込装置10から受信した乗客データを、DB装置120の乗客DB123に登録する。
The control unit 103 distributes data received via the network N to each unit of the central processing unit 100 and controls each unit constituting the central processing unit 100.
The flight information registration unit 105 registers the flight information received from the FIS 130 in the flight DB 121 of the DB device 120. The specific configuration of the flight information will be described later together with the configuration of the DB device.
The passenger data registration unit 107 registers the passenger data received from the information reading device 10 in the passenger DB 123 of the DB device 120.

探知対象者データ抽出部109は、端末装置50から探知リクエストを受信した場合に、探知リクエストに含まれる探知対象者(特定の乗客)に関するデータ(探知対象者データ)に合致する全ての乗客データをDB装置120の乗客DB123から抽出する。即ち、探知対象者データ抽出部109は、端末装置50から送信された特定の乗客を示すデータ(探知対象者データ)をキーとして乗客DB123に初期特徴量データを検索させる。
ここで、探知対象者データは、必ずしも乗客を個別に特定可能な情報である必要はない。探知対象者データは、探知対象となる単数又は複数の乗客を特定できるデータを含んでいればよい。例えば探知対象者データは便名のみを含むデータであってもよい。
また探知対象者データ抽出部109は、DB装置120の乗客DB123内に含まれる便名を参照して、DB装置120のフライトDB121から当該便名の付された航空機のフライト情報を抽出する。探知対象者データ抽出部109は、DB装置120から抽出したフライト情報に含まれる搭乗口番号を乗客探知装置選定部111に出力する。さらに、探知対象者データ抽出部109は、DB装置120のフライトDB121から抽出したフライト情報のうち、搭乗口番号以外の情報を探知対象者データ生成部113に出力する。
When the detection target data extraction unit 109 receives a detection request from the terminal device 50, the detection target person data extraction unit 109 extracts all passenger data that matches data (detection target person data) related to the detection target person (specific passenger) included in the detection request. Extracted from the passenger DB 123 of the DB device 120. That is, the detection target person data extraction unit 109 causes the passenger DB 123 to search for initial feature data using data (detection target person data) indicating a specific passenger transmitted from the terminal device 50 as a key.
Here, detection target person data does not necessarily need to be information that can individually identify passengers. The detection target person data only needs to include data that can identify one or a plurality of passengers to be detected. For example, the detection target person data may be data including only the flight number.
Further, the detection target person data extraction unit 109 refers to the flight name included in the passenger DB 123 of the DB device 120 and extracts flight information of the aircraft with the flight name from the flight DB 121 of the DB device 120. The detection target person data extraction unit 109 outputs the boarding gate number included in the flight information extracted from the DB device 120 to the passenger detection device selection unit 111. Further, the detection target person data extraction unit 109 outputs information other than the boarding gate number among the flight information extracted from the flight DB 121 of the DB device 120 to the detection target person data generation unit 113.

乗客探知装置選定部111は、複数の乗客探知装置から探知対象者を探知させる少なくとも1つの乗客探知装置を選定する手段である。乗客探知装置選定部111は、探知対象者データ抽出部109から受信した航空機の搭乗口番号に基づいて探知対象者を探知させる乗客探知装置30を選定する。また、乗客探知装置選定部111は、選定した乗客探知装置30に関する情報を通信部101を介して端末装置に送信する。
具体的には、乗客探知装置選定部111は、探知対象者が搭乗する航空機の搭乗口番号と、DB装置に格納されている乗客探知装置設置位置情報(以下単に「設置位置情報」と言う)とから、探知対象者の予測移動範囲内に含まれる乗客探知装置30の設置位置とアドレス番号を抽出する。そして、乗客探知装置30の設置位置を端末装置に送信する。なお、探知対象者の移動範囲の予測方法、乗客探知装置30の選定方法については後述する。
また、乗客探知装置選定部111は、端末装置50から乗客探知装置の変更(追加又は削減)命令があった場合には、乗客を探知させる乗客探知装置を変更し、最終的に乗客を探知させる乗客探知装置のアドレス番号を、探知対象者データ生成部113に出力する。
The passenger detection device selection unit 111 is means for selecting at least one passenger detection device that detects a detection target person from a plurality of passenger detection devices. The passenger detection device selection unit 111 selects the passenger detection device 30 that detects the detection target person based on the boarding gate number of the aircraft received from the detection target person data extraction unit 109. In addition, the passenger detection device selection unit 111 transmits information related to the selected passenger detection device 30 to the terminal device via the communication unit 101.
Specifically, the passenger detection device selection unit 111 includes a boarding port number of an aircraft on which the detection target person boardes, and passenger detection device installation position information (hereinafter simply referred to as “installation position information”) stored in the DB device. Then, the installation position and address number of the passenger detection device 30 included in the predicted movement range of the detection target person are extracted. And the installation position of the passenger detection apparatus 30 is transmitted to a terminal device. A method for predicting the movement range of the detection target person and a method for selecting the passenger detection device 30 will be described later.
Moreover, when there is a change (addition or reduction) instruction for the passenger detection device from the terminal device 50, the passenger detection device selection unit 111 changes the passenger detection device that detects the passenger and finally detects the passenger. The address number of the passenger detection device is output to the detection target person data generation unit 113.

探知対象者データ生成部113は、端末装置50から受信したアドレス番号を有する乗客探知装置30に対して、探知対象者データ抽出部109から出力された探知対象者に関するデータと共に、探知開始リクエストを、通信部101を介して送信する。
探知結果登録部115は、乗客探知装置30から受信した検知結果に基づいて、乗客を検知結果を示す「検知フラグ」を、DB装置120内の乗客データファイル内に書き込む。
また、探知結果登録部115は探知結果画面を生成し、生成した探知結果画面を、探知開始リクエストを送信した端末装置に対して送信する。
転送処理部117は、乗客探知装置30から受信した動画像を、探知開始リクエストを送信した端末装置50に対して送信すると共に、端末装置から受信した音声データを乗客探知装置30に送信する、いわば中継装置として動作する。
The detection target person data generation unit 113 sends a detection start request to the passenger detection apparatus 30 having the address number received from the terminal device 50 together with the data related to the detection target person output from the detection target person data extraction unit 109. It transmits via the communication unit 101.
The detection result registration unit 115 writes a “detection flag” indicating the detection result of the passenger in the passenger data file in the DB device 120 based on the detection result received from the passenger detection device 30.
In addition, the detection result registration unit 115 generates a detection result screen, and transmits the generated detection result screen to the terminal device that transmitted the detection start request.
The transfer processing unit 117 transmits the moving image received from the passenger detection device 30 to the terminal device 50 that transmitted the detection start request, and transmits the audio data received from the terminal device to the passenger detection device 30. Operates as a relay device.

〔DB装置〕
DB装置について図4に基づいて説明する。図4には、DB装置に格納されるデータ、及びデータの構成を示している。
DB装置120は、フラッシュメモリやハードディスク装置等の不揮発性記憶装置によって実現される。DB装置120に対しては中央処理装置100からデータの格納(書き込み)、変更(更新)、又は読み出し等が行われる。DB装置120には、フライト情報を登録するフライトDB121(運行データベース)、乗客データを登録する乗客DB123(乗客データベース)、乗客探知装置30の設置位置情報を格納する設置位置DB125(設置位置データベース)と、を有する。DB装置120に登録されるフライト情報と乗客データは、リアルタイムに登録又は更新されるデータである。また、設置位置DB125に登録される設置位置情報は固定的な情報であるが、必要に応じて更新される。
[DB device]
The DB device will be described with reference to FIG. FIG. 4 shows the data stored in the DB device and the structure of the data.
The DB device 120 is realized by a nonvolatile storage device such as a flash memory or a hard disk device. Data is stored (written), changed (updated), or read from the central processing unit 100 to the DB device 120. The DB device 120 includes a flight DB 121 (operation database) for registering flight information, a passenger DB 123 (passenger database) for registering passenger data, an installation location DB 125 (installation location database) for storing installation location information of the passenger detection device 30, and Have. The flight information and passenger data registered in the DB device 120 are data registered or updated in real time. The installation position information registered in the installation position DB 125 is fixed information, but is updated as necessary.

以下、各データの構成を説明する。
フライトDB121には、空港から出発する航空機のフライトに関する情報が登録される。各フライト情報は、便名、出発時刻(定刻、又は変更)、ターミナル名、搭乗口番号、及びタイムスタンプを含んで構成されており、便名によって関連づけられている。これらの情報は、FISから提供されるデータである。
便名は、空港から出発する航空機の便名であり、便ごとに固有の番号が与えられている。各便のフライト情報は、便名に基づいて他の便のフライト情報と識別される。
出発時刻は、航空機の出発予定時刻であり、出発時刻の変更があった場合には変更後の時刻が更新登録される。なお、「出発時刻」は出発日の情報を含む。ターミナル名、及び搭乗口番号は、当該便の航空機が利用するターミナルビル及び搭乗口の情報である。タイムスタンプは、当該フライト情報がFIS130に新規登録された時刻、又は変更登録された時刻を示す情報である。
Hereinafter, the configuration of each data will be described.
In the flight DB 121, information related to flights of aircraft departing from the airport is registered. Each flight information includes a flight name, departure time (on-time or change), terminal name, boarding gate number, and time stamp, and is associated with the flight name. These pieces of information are data provided from the FIS.
The flight number is the flight number of the aircraft departing from the airport, and a unique number is given to each flight. The flight information of each flight is identified from the flight information of other flights based on the flight name.
The departure time is the scheduled departure time of the aircraft, and when the departure time is changed, the changed time is updated and registered. The “departure time” includes information on the departure date. The terminal name and boarding gate number are information on the terminal building and boarding gate used by the aircraft of the flight. The time stamp is information indicating the time when the flight information is newly registered in the FIS 130 or the time when the flight information is changed and registered.

乗客DB123には、航空機に搭乗する人物に関する情報である乗客データが登録される。各乗客データは、チェックインシーケンス番号、搭乗日、便名、氏名、顔画像(初期顔画像)、特徴量データ(初期特徴量データ)、登録時刻、及び検知フラグを含んで構成されており、これらはチェックインシーケンス番号によって関連づけられている。チェックインシーケンス番号、搭乗日、便名、氏名、顔画像、及び特徴量データは、情報読込装置10から送信されたデータである。また、検知フラグは、乗客が探知された場合に乗客探知装置30から送信されるデータである。
チェックインシーケンス番号は、乗客ごとに与えられる固有の(ユニークな)番号であるので、各乗客のデータは、チェックインシーケンス番号に基づいて他の乗客のデータと識別され、管理される。搭乗日及び便名は、乗客が搭乗する航空機の出発日及び便名を示すデータである。顔画像は、乗客の顔を撮影した静止画像である。特徴量データは、乗客の顔画像から得られた、乗客の顔の特徴量に関するデータである。登録時刻は、乗客データがDB装置に登録された時刻の情報である。検知フラグは、乗客探知装置30によって乗客が検知できたことを示すフラグである。
In the passenger DB 123, passenger data that is information related to a person boarding the aircraft is registered. Each passenger data includes a check-in sequence number, a boarding date, a flight name, a name, a face image (initial face image), feature amount data (initial feature amount data), a registration time, and a detection flag. These are related by a check-in sequence number. The check-in sequence number, boarding date, flight name, name, face image, and feature amount data are data transmitted from the information reading device 10. The detection flag is data transmitted from the passenger detection device 30 when a passenger is detected.
Since the check-in sequence number is a unique (unique) number given to each passenger, the data of each passenger is identified and managed from the data of other passengers based on the check-in sequence number. The boarding date and flight number are data indicating the departure date and flight number of the aircraft on which the passenger is boarding. The face image is a still image obtained by photographing a passenger's face. The feature amount data is data relating to the feature amount of the passenger's face obtained from the passenger's face image. The registration time is information on the time when the passenger data is registered in the DB device. The detection flag is a flag indicating that a passenger can be detected by the passenger detection device 30.

設置位置DB125には、乗客探知装置の設置位置を示す設置位置情報が登録される。各設置位置情報は、乗客探知装置のアドレス番号、乗客探知装置の設置位置を含んで構成される。
アドレス番号は、乗客探知装置を特定するために各乗客探知装置に割り振られた固有の番号であり、各乗客探知装置30はアドレス番号により他の乗客探知装置30と識別される。アドレス番号には、例えばネットワーク上の位置を示すIPアドレスを用いることができる。乗客探知装置の設置位置は、空港内に設置された乗客探知装置の実体的な位置を示す情報であり、ターミナルのマップと共に、マップの該当する場所に関連づけて登録されている。
In the installation position DB 125, installation position information indicating the installation position of the passenger detection device is registered. Each installation position information includes an address number of the passenger detection device and an installation position of the passenger detection device.
The address number is a unique number assigned to each passenger detection device in order to specify the passenger detection device, and each passenger detection device 30 is identified from the other passenger detection devices 30 by the address number. As the address number, for example, an IP address indicating a position on the network can be used. The installation position of the passenger detection device is information indicating a substantial position of the passenger detection device installed in the airport, and is registered in association with a corresponding place on the map together with the terminal map.

〔フライトインフォメーションシステム(FIS)〕
FIS130は、フライト情報、具体的には、航空機の出発時刻(定刻、変更)、便名、出発ターミナル名、搭乗口番号等を、航空機の運行に関わる情報(運行情報)を管理するシステムである。フライト情報の新規登録や変更があった場合にFIS130は、新規登録や変更されたフライト情報を中央処理装置100に送信する。FIS130は、サーバー用コンピュータによって実現される。乗客探知システム1とFIS130とはネットワークを介して接続されている。また、両システムは、通信インターフェースによって通信可能となっている。
[Flight Information System (FIS)]
The FIS 130 is a system that manages flight information, specifically, aircraft departure time (on time, change), flight name, departure terminal name, boarding gate number, etc., information related to aircraft operation (operation information). . When the flight information is newly registered or changed, the FIS 130 transmits the newly registered or changed flight information to the central processing unit 100. The FIS 130 is realized by a server computer. The passenger detection system 1 and the FIS 130 are connected via a network. Both systems can communicate with each other via a communication interface.

〔乗客探知装置〕
乗客探知装置について説明する。図5は、乗客探知装置の機能ブロック図である。
乗客探知装置30は、中央処理装置100を介して端末装置50から送信された探知開始リクエストに基づいて、乗客の探知を行う装置である。
乗客探知装置30は、中央処理装置100との間で通信を行う通信部31と、所定の範囲内を撮影する探知カメラ33と、探知カメラ33により撮影した画像を処理して撮影範囲内に映る人物の特徴量データを抽出する特徴量データ抽出部35と、通信部31を介して中央処理装置100から受信した探知対象者の初期特徴量データと、特徴量データ抽出部35により抽出された撮影人物の特徴量データとをマッチング処理するマッチング部37と、マッチング部37によるマッチング結果としての検知情報を生成し、生成した検知情報を通信部31を介して中央処理装置100に送信する検知情報生成部39と、検知された乗客を探知カメラ33により撮影した画像内において追跡する乗客追跡部41と、デジタル音声データからアナログ音声信号を生成する音声生成処理部43と、音声生成処理部43が生成した音声信号を出力するスピーカ45と、を備えている。
[Passenger detection device]
A passenger detection device will be described. FIG. 5 is a functional block diagram of the passenger detection device.
The passenger detection device 30 is a device that detects a passenger based on a detection start request transmitted from the terminal device 50 via the central processing unit 100.
Passenger detection device 30 processes communication image 31 with central processing unit 100, detection camera 33 that images within a predetermined range, and images captured by detection camera 33 and displays them within the imaging range. A feature amount data extraction unit 35 that extracts feature amount data of a person, an initial feature amount data of a person to be detected received from the central processing unit 100 via the communication unit 31, and a photograph extracted by the feature amount data extraction unit 35 A matching unit 37 that performs matching processing with human feature amount data, and detection information generation that generates detection information as a matching result by the matching unit 37 and transmits the generated detection information to the central processing unit 100 via the communication unit 31 Unit 39, passenger tracking unit 41 for tracking a detected passenger in an image taken by detection camera 33, and analog from digital audio data A sound generating unit 43 for generating a voice signal, and a speaker 45 for outputting an audio signal sound generating unit 43 has generated, the.

通信部31は、中央処理装置100等との通信を可能とし、データの送受信を行う部分であり、NIC(Network Interface Card)や、送受信回路等によって実現される。
特徴量データ抽出部35、マッチング部37、検知情報生成部39、乗客追跡部41、及び音声生成処理部43は、CPU、ROM、RAM等を備えた周知のコンピュータ装置から構成することができ、各部は、CPUが所定のメモリに格納されたプログラムを実行することによって実現される。
乗客探知装置30は、中央処理装置100より受信した探知対象者の特徴量データと、探知カメラ33により撮影したリアルタイム画像に含まれる人物の顔画像から得られた特徴量データとのマッチング処理を行い、2つの特徴量データが一致(マッチング)した場合、探知対象者を検知した旨を中央処理装置100に送信する。また、探知カメラ33が撮影する画像に写る探知対象者(検知された乗客)の自動追跡を行う。また、乗客探知装置30は中央処理装置から送信された音声データをスピーカ45から出力する。
探知カメラ33は、所定の撮影範囲内の動画像を撮影する装置である。探知カメラ33により撮影された動画像中のフレーム画像は、後段の特徴量データ抽出部35、及び乗客追跡部41に夫々送信される。
The communication unit 31 is a part that enables communication with the central processing unit 100 and the like and transmits and receives data, and is realized by a NIC (Network Interface Card), a transmission / reception circuit, or the like.
The feature amount data extraction unit 35, the matching unit 37, the detection information generation unit 39, the passenger tracking unit 41, and the voice generation processing unit 43 can be configured by a known computer device including a CPU, a ROM, a RAM, and the like. Each unit is realized by the CPU executing a program stored in a predetermined memory.
The passenger detection device 30 performs a matching process between the feature amount data of the person to be detected received from the central processing unit 100 and the feature amount data obtained from the face image of the person included in the real-time image captured by the detection camera 33. When the two feature amount data match (match), the fact that the detection target person has been detected is transmitted to the central processing unit 100. In addition, the detection target person (detected passenger) in the image captured by the detection camera 33 is automatically tracked. In addition, the passenger detection device 30 outputs the audio data transmitted from the central processing unit from the speaker 45.
The detection camera 33 is a device that captures a moving image within a predetermined capturing range. The frame image in the moving image photographed by the detection camera 33 is transmitted to the subsequent feature amount data extraction unit 35 and the passenger tracking unit 41, respectively.

特徴量データ抽出部35は、探知カメラ33により撮影されたフレーム画像の中から人物の顔領域を抽出し、抽出した顔領域部分の画像の正規化処理を行って、所定のアルゴリズムに基づいて人物の顔の特徴量を抽出する。即ち、特徴量データ抽出部35は、フレーム画像中の人物の顔領域について、輝度変化、色調変化等から、顔の輪郭、目、鼻、口等の位置情報を検出する。更に、特徴量データ抽出部35は、検出された顔の各パーツの位置から、顔の特徴量を算出する。
特徴量データ抽出部35は、算出した顔の特徴量(特徴量データ)と、当該顔が検出されたフレーム画像中の位置とを対応付けて、マッチング部37に出力する。また、特徴量データ抽出部35は、人物の顔の特徴量の抽出に用いた画像データ(フレーム画像)を検知情報生成部39に送信する。
The feature amount data extraction unit 35 extracts a person's face area from the frame image captured by the detection camera 33, performs normalization processing on the extracted face area image, and based on a predetermined algorithm, the person's face area is extracted. The feature amount of the face is extracted. That is, the feature amount data extraction unit 35 detects position information such as a face outline, eyes, nose, and mouth from a change in luminance, a change in color tone, and the like for a face area of a person in a frame image. Further, the feature amount data extraction unit 35 calculates a face feature amount from the position of each part of the detected face.
The feature amount data extraction unit 35 associates the calculated feature amount of the face (feature amount data) with the position in the frame image where the face is detected, and outputs it to the matching unit 37. The feature amount data extraction unit 35 transmits image data (frame image) used for extracting the feature amount of the person's face to the detection information generation unit 39.

マッチング部37は、特徴量データ抽出部35により抽出された特徴量データと、中央処理装置100から送信された探知対象者の特徴量データとの相関値(類似度)を算出し、相関値が所定の基準値以上を満たす場合に、探知カメラ33により撮影された人物が探知対象となっている乗客である、と判定する。なお、探知カメラ33に複数の人物が写っている場合は、複数の人物のうち最も相関値が高く、且つ、相関値が所定の基準値以上を満たす人物が、探知対象者であると判定する。
探知対象者が見つかった場合、マッチング部37は、マッチング結果として、探知対象者の顔が検出されたフレーム画像中の位置(領域)と、その特徴量データとを、検知情報生成部39に出力する。
また、マッチング部37は、探知対象者の顔が検出されたフレーム画像中の位置と追跡開始命令とを乗客追跡部41に対して送信する。
The matching unit 37 calculates a correlation value (similarity) between the feature amount data extracted by the feature amount data extraction unit 35 and the feature amount data of the detection target person transmitted from the central processing unit 100, and the correlation value is calculated. When the predetermined reference value or more is satisfied, it is determined that the person photographed by the detection camera 33 is a passenger to be detected. When a plurality of persons are captured in the detection camera 33, it is determined that a person having the highest correlation value and satisfying a correlation value equal to or higher than a predetermined reference value among the plurality of persons is a detection target person. .
When the detection target person is found, the matching unit 37 outputs the position (region) in the frame image where the face of the detection target person is detected and the feature amount data to the detection information generation unit 39 as a matching result. To do.
The matching unit 37 transmits the position in the frame image where the face of the detection target person is detected and the tracking start command to the passenger tracking unit 41.

検知情報生成部39は、探知対象である乗客が検知された場合、即ちマッチング部37からマッチング結果を受信した場合に、その旨を示す検知情報を生成する。検知情報は、少なくとも自装置(乗客を発見した乗客探知装置)のアドレス番号、検知フラグ、チェックインシーケンス番号又は乗客名、マッチングした際の顔画像である検知顔画像(静止画)、検知顔画像の特徴量データを含んだ情報である。
ここで、検知顔画像は、探知対象者の顔領域を含む所定のサイズの画像をフレーム画像から切り出したものである。検知情報生成部39は、特徴量データ抽出部35から受信した画像データと、マッチング部37から受信した探知対象者の顔が検出されたフレーム画像中の位置(領域)とから、マッチングした顔画像(検知顔画像)を切り出す。
検知情報生成部39は、生成した検知情報を、通信部31を介して中央処理装置100に送信する。
When a passenger who is a detection target is detected, that is, when a matching result is received from the matching unit 37, the detection information generating unit 39 generates detection information indicating that fact. The detection information includes at least the address number of the own device (passenger detection device that found the passenger), the detection flag, the check-in sequence number or the passenger name, the detected face image (still image) that is the face image when matched, and the detected face image This information includes feature quantity data.
Here, the detected face image is obtained by cutting out an image of a predetermined size including the face area of the detection target person from the frame image. The detection information generation unit 39 matches the face image based on the image data received from the feature data extraction unit 35 and the position (region) in the frame image where the face of the detection target received from the matching unit 37 is detected. Cut out (detected face image).
The detection information generation unit 39 transmits the generated detection information to the central processing unit 100 via the communication unit 31.

乗客追跡部41は、探知対象者が発見された場合に、発見された探知対象者の追跡を行う。乗客追跡部41は、マッチング部37がマッチングした顔部分を含んだ探知対象者像の画像データ内における変化を検出することによって、乗客を追跡する。追跡には、周知の移動体監視手法を用いればよい。
即ち、乗客追跡部41は、マッチング部37から追跡開始指令を受信した場合、マッチング部が乗客を検知した第一のフレーム画像中の乗客の顔の位置から、当該顔を含む乗客の身体領域(全身又は体の一部分を含む領域)を抽出する。また、第一のフレーム画像の輝度画像と、第一のフレーム画像の撮影後に撮影された第二のフレーム画像の輝度画像との差分を取ることにより、乗客の身体領域の時間的な移動を検出する。同様に、第二のフレーム画像と、第二のフレーム画像の撮影後に撮影された第三のフレーム画像との間で差分を取る。このような処理を、フレーム画像間で順次行うことにより、乗客の身体領域の時間的な移動を連続的に検出する。
さらに、乗客追跡部41は、追跡中の人物像にマーカ画像を合成する。即ち、乗客追跡部41は、各フレーム画像中の追跡中の人物像の身体領域の全体を囲む検出枠(マーカ画像)を元のフレーム画像に合成した動画を生成し、中央処理装置100に送信する。マーカ画像は人物像を追跡可能な図形であれば良い。このように、マーカ画像を合成することで、発見された乗客と他の乗客とを動画像中で視覚的に区別することができる。
音声生成処理部43は、中央処理装置100を介して端末装置50から受信したデジタル音声データをD/A変換してアナログ音声信号を生成する。
生成された音声信号は、スピーカ45から出力される。
The passenger tracking unit 41 tracks the detected detection target person when the detection target person is detected. The passenger tracking unit 41 tracks the passenger by detecting a change in the image data of the detection target person image including the face portion matched by the matching unit 37. For tracking, a known moving body monitoring method may be used.
That is, when the passenger tracking unit 41 receives a tracking start command from the matching unit 37, the passenger tracking unit 41 includes a body region of the passenger (including the face) from the position of the passenger's face in the first frame image in which the matching unit has detected the passenger. A region including a whole body or a part of the body). Also, the temporal movement of the passenger's body area is detected by taking the difference between the luminance image of the first frame image and the luminance image of the second frame image taken after taking the first frame image. To do. Similarly, a difference is taken between the second frame image and the third frame image shot after shooting the second frame image. By sequentially performing such processing between frame images, temporal movement of the passenger's body region is continuously detected.
Further, the passenger tracking unit 41 synthesizes the marker image with the person image being tracked. That is, the passenger tracking unit 41 generates a moving image in which a detection frame (marker image) surrounding the entire body region of the person image being tracked in each frame image is combined with the original frame image, and is transmitted to the central processing unit 100. To do. The marker image may be a graphic that can trace a person image. Thus, by synthesizing the marker images, the discovered passenger and other passengers can be visually distinguished in the moving image.
The voice generation processing unit 43 generates an analog voice signal by D / A converting digital voice data received from the terminal device 50 via the central processing unit 100.
The generated audio signal is output from the speaker 45.

〔端末装置〕
端末装置について説明する。図6は、端末装置の機能ブロック図である。
端末装置50は、乗客探知装置30に乗客の現在位置を探知させるための装置である。即ち、端末装置50は乗客探知装置30に探知させる乗客を特定する手段である。端末装置50は、周知のコンピュータ装置から構成することができる。端末装置50から中央処理装置100に対して、探知対象とする乗客に関する情報を送信することにより、乗客探知装置30に乗客を探知させることができる。
端末装置50は、例えば搭乗口脇に固定的に設置した端末であってもよいし、自由に運搬が可能なモバイル端末であってもよい。固定的に設置する場合は、例えばデスクトップ型のパーソナルコンピュータや、ノート型のパーソナルコンピュータとすることができる。また、モバイル端末とする場合には、タブレット型コンピュータやスマートホン(多機能携帯電話)とすることができる。
[Terminal device]
The terminal device will be described. FIG. 6 is a functional block diagram of the terminal device.
The terminal device 50 is a device for causing the passenger detection device 30 to detect the current position of the passenger. That is, the terminal device 50 is a means for specifying a passenger to be detected by the passenger detection device 30. The terminal device 50 can be configured from a known computer device. By transmitting information about passengers to be detected from the terminal device 50 to the central processing unit 100, the passenger detection device 30 can detect the passengers.
The terminal device 50 may be a terminal that is fixedly installed beside the boarding gate, for example, or may be a mobile terminal that can be freely transported. In the case of fixed installation, for example, a desktop personal computer or a notebook personal computer can be used. In the case of a mobile terminal, a tablet computer or a smart phone (multifunctional mobile phone) can be used.

端末装置50は、表示部51と、表示制御部53と、入力部55と、処理部57と、マイク59と、音声処理部61と、通信部63と、を備えている。
表示部51は、液晶ディスプレイやタッチパネル等によって実現される。タッチパネルとした場合は、表示部51を入力部55と兼用することができる。表示部51は、乗客探知装置30に乗客を探知させる前に、初期画面として情報入力画面を表示し、或いは通信部63を介して中央処理装置100から送信されてきた探知結果画面等を含む各種データを表示し、或いは入力部55から入力したデータ等を表示する。
表示部51へ表示する内容は、表示制御部53により制御される。
The terminal device 50 includes a display unit 51, a display control unit 53, an input unit 55, a processing unit 57, a microphone 59, an audio processing unit 61, and a communication unit 63.
The display unit 51 is realized by a liquid crystal display, a touch panel, or the like. In the case of a touch panel, the display unit 51 can also be used as the input unit 55. The display unit 51 displays an information input screen as an initial screen before the passenger detection device 30 detects a passenger, or various types including a detection result screen transmitted from the central processing unit 100 via the communication unit 63. Data is displayed or data input from the input unit 55 is displayed.
The content displayed on the display unit 51 is controlled by the display control unit 53.

入力部55は、オペレーターが所定のデータを入力したときに、入力されたデータを処理部57に受け渡す部分である。入力部55は、キーボードや、タッチパネル及びマウス等のポインティングデバイス等によって実現できる。
処理部57は、表示部51に表示させるデータとして中央処理装置から受信したデータを表示制御部53に出力する。また、処理部57は、入力部55から入力されたデータを通信部63を介して中央処理装置100に送信する。処理部57は、CPU(Central Processing Unit)が、所定のメモリに格納されたプログラムを実行することによって実現される。
通信部63は、中央処理装置100等との通信を可能とし、データの送受信を行う部分であり、NIC(Network Interface Card)や、送受信回路等によって実現される。
音声処理部61は、マイク59から入力されたアナログ音声信号をA/D変換し、生成されたデジタル音声データを通信部63に出力する。
The input unit 55 is a part that delivers the input data to the processing unit 57 when the operator inputs predetermined data. The input unit 55 can be realized by a keyboard, a pointing device such as a touch panel and a mouse, or the like.
The processing unit 57 outputs data received from the central processing unit to the display control unit 53 as data to be displayed on the display unit 51. Further, the processing unit 57 transmits data input from the input unit 55 to the central processing unit 100 via the communication unit 63. The processing unit 57 is realized by a CPU (Central Processing Unit) executing a program stored in a predetermined memory.
The communication unit 63 is a part that enables communication with the central processing unit 100 and the like and transmits and receives data, and is realized by a NIC (Network Interface Card), a transmission / reception circuit, or the like.
The audio processing unit 61 performs A / D conversion on the analog audio signal input from the microphone 59, and outputs the generated digital audio data to the communication unit 63.

図7は、端末装置の表示部に表示される画面例を示す図であり、(a)は情報入力画面を示し、(b)は探知確認用画面を示し、(c)は探知結果画面を示す図である。
端末装置50の表示部51には、図示する表示画面70が表示される。表示画面70には、乗客探知装置30に探知させる乗客のデータを入力するための情報入力タブ71aと、乗客を探知させる乗客探知装置30位置を決定するための探知確認タブ77aと、乗客が見つかった場合にその結果を表示するための探知結果タブ87aとが表示される。各タブを選択することにより、情報入力画面71、探知確認用画面77、探知結果画面87に夫々遷移することができる。
図7(a)に示す情報入力画面71は、乗客探知装置30による探知を開始する前に表示される初期画面である。情報入力画面71には、乗客探知装置30に探知させる乗客の情報を入力する複数の情報入力欄73と送信ボタン75が配置されている。各情報入力欄73には、夫々便名入力欄73a、氏名入力欄73b、チェックインシーケンス番号を入力する番号入力欄73cが配置されている。また、画面右下に配置された送信ボタン75を選択することによって、入力された情報(探知対象者データ)と探知リクエストが中央処理装置100に送信される。
本図では、3名分の情報入力欄73を有する構成であるが、情報入力欄の数はこれより多くても少なくても構わない。
FIG. 7 is a diagram showing an example of a screen displayed on the display unit of the terminal device, where (a) shows an information input screen, (b) shows a detection confirmation screen, and (c) shows a detection result screen. FIG.
A display screen 70 shown in the figure is displayed on the display unit 51 of the terminal device 50. On the display screen 70, an information input tab 71a for inputting passenger data to be detected by the passenger detection device 30, a detection confirmation tab 77a for determining the position of the passenger detection device 30 for detecting the passenger, and a passenger is found. In the case of detection, a detection result tab 87a for displaying the result is displayed. By selecting each tab, it is possible to transition to an information input screen 71, a detection confirmation screen 77, and a detection result screen 87, respectively.
An information input screen 71 shown in FIG. 7A is an initial screen displayed before the detection by the passenger detection device 30 is started. On the information input screen 71, a plurality of information input fields 73 for inputting passenger information to be detected by the passenger detection device 30 and a transmission button 75 are arranged. In each information input field 73, a flight number input field 73a, a name input field 73b, and a number input field 73c for inputting a check-in sequence number are arranged. Further, by selecting the transmission button 75 arranged at the lower right of the screen, the input information (detection target person data) and the detection request are transmitted to the central processing unit 100.
In this figure, the information input fields 73 for three persons are provided, but the number of information input fields may be larger or smaller.

図7(b)に示す探知確認用画面77は、情報入力画面71の送信ボタン75を選択した後に、中央処理装置100から送信される応答内容を表示する画面である。
探知確認用画面77には、ターミナルのマップ79と、探知開始ボタン81とが表示されている。マップ79には、搭乗口の番号(搭乗口番号83)が表示されている。また、乗客探知装置の位置がアイコン85(85a、85b)によって表示されている。
アイコン85のうち、アイコン85aは選択された乗客探知装置を示すアイコン、即ち乗客を探知させる乗客探知装置を示すアイコンである。また、アイコン85bは、選択されなかった乗客探知装置を示すアイコンである。乗客探知装置の設置位置及びマップについては、予め端末装置50において保持していてもよいし、中央処理装置100から探知リクエストに対する応答としてその都度受信してもよい。
探知確認用画面77には、まず中央処理装置100が決定した乗客の探知範囲(乗客を探知させる乗客探知装置の位置)が示される。各アイコン85を選択する度にアイコン85aとアイコン85bが交互に表示され、乗客探知装置30の選択又は非選択を切り換えることができる。即ち、オペレーターが任意で乗客の探知範囲を変更することができる。
探知開始ボタン81を選択すると、中央処理装置100に探知開始リクエストが送信され、選択された乗客探知装置による乗客の探知が開始される。
A detection confirmation screen 77 shown in FIG. 7B is a screen that displays the response content transmitted from the central processing unit 100 after the transmission button 75 of the information input screen 71 is selected.
On the detection confirmation screen 77, a terminal map 79 and a detection start button 81 are displayed. The map 79 displays the boarding gate number (boarding port number 83). Further, the position of the passenger detection device is displayed by an icon 85 (85a, 85b).
Of the icons 85, the icon 85a is an icon indicating a selected passenger detection device, that is, an icon indicating a passenger detection device that detects a passenger. The icon 85b is an icon indicating a passenger detection device that has not been selected. The installation position and map of the passenger detection device may be held in the terminal device 50 in advance, or may be received from the central processing device 100 as a response to the detection request each time.
First, the detection confirmation screen 77 shows the passenger detection range (position of the passenger detection device that detects the passenger) determined by the central processing unit 100. Each time the icon 85 is selected, the icon 85a and the icon 85b are alternately displayed, and the selection or non-selection of the passenger detection device 30 can be switched. That is, the operator can arbitrarily change the passenger detection range.
When the detection start button 81 is selected, a detection start request is transmitted to the central processing unit 100, and passenger detection by the selected passenger detection device is started.

図7(c)に示す探知結果画面87は、探知確認用画面77の探知開始ボタン81を選択した後に、中央処理装置100から送信される探知結果を表示する画面である。
探知結果画面87には、探知確認用画面77と同様のターミナルのマップ79と、選択された乗客探知装置、言い換えれば乗客探知を行った乗客探知装置の位置がアイコン85aとして表示されている。更に、乗客探知を行った乗客探知装置のうち、乗客を発見した乗客探知装置30は、アイコン85cとして表示されている。
また、探知結果画面87は、発見された乗客のデータを表示する乗客データ表示欄89と、現在の乗客の状況を表示する動画表示欄91と、を有している。
乗客データ表示欄89には、発見された乗客が搭乗する予定の便名89aと乗客の氏名89bとが表示される。また、保安検査場にて撮影された乗客の顔画像である初期顔画像89cと、検知されたときの乗客の顔画像である検知顔画像89dと、が表示される。
A detection result screen 87 shown in FIG. 7C is a screen for displaying a detection result transmitted from the central processing unit 100 after the detection start button 81 on the detection confirmation screen 77 is selected.
On the detection result screen 87, a terminal map 79 similar to the detection confirmation screen 77 and the position of the selected passenger detection device, in other words, the passenger detection device that performed the passenger detection are displayed as an icon 85a. Furthermore, among the passenger detection devices that have detected passengers, the passenger detection device 30 that has detected a passenger is displayed as an icon 85c.
Further, the detection result screen 87 has a passenger data display column 89 that displays data of discovered passengers, and a moving image display column 91 that displays the current status of passengers.
In the passenger data display field 89, a flight name 89a and a passenger's name 89b that the discovered passenger is scheduled to board are displayed. In addition, an initial face image 89c, which is a passenger's face image taken at a security checkpoint, and a detected face image 89d, which is a passenger's face image when detected, are displayed.

動画表示欄91は、乗客を発見した乗客探知装置から送信される動画像を表示する動画像表示欄91aと、動画送信中の乗客探知装置30のスピーカからオペレーターの音声を放送するためのマイクボタン91bと、乗客探知装置から送信される動画像の配信をオフする追跡終了ボタン91cと、を有する。マイクボタン91bを選択することにより、オペレーターの音声データが、中央処理装置100を介して、動画送信中の乗客探知装置30に送信される。音声データを受信した動画像送信中の乗客探知装置30は、スピーカから音声を放送する。音声の放送中に再度マイクボタン91bを選択することにより、中央処理装置100を介して乗客探知装置30に放送中止リクエストが送信され、放送が中止される。即ち、マイクボタン91bは、放送をオン/オフするボタンである。
動画像送信中の乗客探知装置30は、乗客から近距離にある乗客探知装置30である。従って、動画像送信中の乗客探知装置30のスピーカ45からオペレーターの音声を放送することで、乗客に対してピンポイントで呼びかけを行うことができる。
The moving image display column 91 includes a moving image display column 91a for displaying a moving image transmitted from the passenger detection device that has found the passenger, and a microphone button for broadcasting the operator's voice from the speaker of the passenger detection device 30 that is transmitting the moving image. 91b and a tracking end button 91c for turning off the distribution of the moving image transmitted from the passenger detection device. By selecting the microphone button 91b, the voice data of the operator is transmitted via the central processing unit 100 to the passenger detection device 30 that is transmitting a moving image. The passenger detection device 30 that is transmitting the moving image that has received the audio data broadcasts the audio from the speaker. By selecting the microphone button 91b again during the audio broadcast, a broadcast stop request is transmitted to the passenger detection device 30 via the central processing unit 100, and the broadcast is stopped. That is, the microphone button 91b is a button for turning on / off broadcasting.
The passenger detection device 30 that is transmitting a moving image is the passenger detection device 30 located at a short distance from the passenger. Accordingly, by broadcasting the operator's voice from the speaker 45 of the passenger detection device 30 that is transmitting a moving image, it is possible to call the passenger pinpointly.

〔探知装置の選定方法〕
乗客の移動範囲の予測方法について説明する。中央処理装置100の乗客探知装置選定部111は、乗客の予測移動範囲内に設置された乗客探知装置30に、乗客を探知させる。
乗客(探知対象者)は、保安検査場を通過した後、搭乗する予定の航空機の搭乗口まで必ず移動する。従って、予測移動範囲は、少なくとも保安検査場出口から探知対象者が搭乗する予定の航空機の搭乗口までのルート(エリア)を含むように設定する。即ち、乗客探知装置選定部111は、保安検査場出口から搭乗口までの範囲に設置された乗客探知装置30を、乗客を探知させる装置として選定する。このように、乗客探知装置を選定することで、乗客を効率的に探知することができる。ここで、乗客の予測移動範囲内に設置された乗客探知装置30は、乗客の予測行動範囲内を撮影可能な乗客探知装置である。
[Selection method of detection device]
A method for predicting the movement range of the passenger will be described. The passenger detection device selection unit 111 of the central processing unit 100 causes the passenger detection device 30 installed within the passenger's predicted movement range to detect the passenger.
Passengers (persons to be detected) must move to the boarding gate of the aircraft that they plan to board after passing the security checkpoint. Therefore, the predicted movement range is set so as to include at least a route (area) from the security inspection station exit to the boarding gate of the aircraft on which the person to be detected is to board. That is, the passenger detection device selection unit 111 selects the passenger detection device 30 installed in the range from the security inspection station exit to the boarding gate as a device for detecting a passenger. Thus, a passenger can be detected efficiently by selecting a passenger detection device. Here, the passenger detection device 30 installed within the predicted movement range of the passenger is a passenger detection device capable of photographing the passenger's predicted action range.

図7(b)は、端末装置に表示される探知確認用画面を示す図である。この図は、13番の搭乗口を利用する航空機に搭乗する乗客を乗客探知装置に探知させる例である。マップ79の図中下方は保安検査場出口であり、保安検査場から13番の搭乗口までを乗客探知装置30による探知範囲としている。乗客探知装置選定部111は、乗客が搭乗する航空機が利用する搭乗口の位置から予測される乗客の行動範囲内を撮影可能な乗客探知装置に乗客を探知させる。
なお、このような探知範囲の決定の仕方は一例である。例えば、保安検査場の通過時刻(乗客データの登録時刻)と探知開始時刻との時間差に応じて、乗客探知装置30による探知範囲を変更する処理をしてもよい。
例えば、保安検査場の通過時刻(乗客データの登録時刻)と探知開始時刻との間に大きな時間差がない場合(時間差が所定のしきい値以下の場合)には、保安検査場から搭乗口までの範囲に限定して乗客を探知する。他方、保安検査場の通過時刻と探知開始時刻との間に大きな時間差がある場合(時間差が所定のしきい値を超える場合)には、搭乗口周辺を含め、やや広い範囲を探知対象とするようにしてもよい。
更に、保安検査場から搭乗口までの範囲を超える場所であっても年齢や性別を問わず乗客が利用する可能性のある施設(例えば化粧室)の周辺を必ず探知範囲に含めるようにしてもよい。また、年齢や性別がわかる場合には、当該年齢及び性別の乗客が立ち寄る可能性の高い施設の周辺及び当該施設と搭乗口との間を含めて探知するようにしてもよい。
このように、乗客が必ず通過すると考えられる範囲に設置された(又は、通過すると考えられる範囲を撮影可能な)乗客探知装置により乗客を探知するので、効率よく乗客を探し出すことができる。
FIG. 7B is a diagram showing a detection confirmation screen displayed on the terminal device. This figure is an example in which a passenger detecting device detects a passenger boarding an aircraft using the boarding gate No. 13. The lower side of the map 79 in the figure is a security inspection area exit, and the area from the security inspection area to the boarding gate No. 13 is a detection range by the passenger detection device 30. The passenger detection device selection unit 111 causes a passenger detection device that can capture a passenger's action range predicted from the position of the boarding gate used by the aircraft on which the passenger is boarding to detect the passenger.
Note that this method of determining the detection range is an example. For example, the detection range by the passenger detection device 30 may be changed according to the time difference between the passage time of the security checkpoint (passenger data registration time) and the detection start time.
For example, if there is no significant time difference between the passage time of the security checkpoint (passenger data registration time) and the detection start time (when the time difference is less than or equal to a predetermined threshold value), from the security checkpoint to the boarding gate Detect passengers in the limited range. On the other hand, when there is a large time difference between the passage time of the security checkpoint and the detection start time (when the time difference exceeds a predetermined threshold), the detection target is a slightly wide range including the vicinity of the boarding gate. You may do it.
Furthermore, even if the location exceeds the range from the security checkpoint to the boarding gate, the area around the facility (for example, a restroom) that passengers may use regardless of age or gender must be included in the detection range. Good. In addition, when the age and gender are known, it may be detected including the vicinity of the facility where passengers of that age and sex are likely to stop and between the facility and the boarding gate.
Thus, since the passenger is detected by the passenger detection device installed in the range where the passenger is supposed to pass (or the range considered to pass) can be photographed, the passenger can be found efficiently.

また、乗り継ぎ客は、航空機の到着ターミナル内の乗り継ぎ検査場を必ず通過するので、乗り継ぎ検査場の入口に情報読込装置を設置し、乗客データを取得する。航空機の到着ターミナルと出発ターミナルが同じ場合は、乗り継ぎ検査場の出口から、次に搭乗する航空機の搭乗口までの間を探知範囲に設定すればよい。
航空機の到着ターミナルと出発ターミナルが異なる場合は、通常乗り継ぎ検査場を通過した後、専用のバスゲートから連絡バスに乗り、出発ターミナルの専用バスゲートまで移動する。乗り継ぎ客は出発ターミナルの専用バスゲートから次に搭乗する航空機のゲートまで移動する。従って、乗り継ぎ検査場の出口から到着ターミナルのバスゲートまでの間と、出発ターミナルのバスゲートから次に搭乗する航空機の搭乗口までの間を探知範囲に設定すればよい。
In addition, since the transit passenger always passes through the transit inspection area in the arrival terminal of the aircraft, an information reading device is installed at the entrance of the transit inspection area to acquire passenger data. If the arrival terminal and departure terminal of the aircraft are the same, the detection range from the exit of the transit inspection area to the boarding gate of the next boarding aircraft may be set.
If the arrival terminal and departure terminal of the aircraft are different, after passing through the normal transit inspection area, take a connecting bus from the dedicated bus gate and move to the dedicated bus gate of the departure terminal. Transit passengers travel from a dedicated bus gate at the departure terminal to the gate of the next boarding aircraft. Accordingly, the detection range may be set between the exit of the transit inspection site and the bus gate of the arrival terminal, and between the bus gate of the departure terminal and the boarding gate of the next boarding aircraft.

本乗客探知システムの処理について、フローに基づいて説明する。
〔情報読込装置の処理フロー〕
図8は、情報読込装置の処理を示すフローチャートである。
ステップS5において、情報読込装置10は、乗客から提示された搭乗券のバーコードを読み取り、搭乗券に記載された情報(搭乗日・便名・乗客の氏名・チェックインシーケンス番号)を抽出する。即ち、バーコード読取器11が、乗客から差し出された搭乗券のバーコードを読み取る。バーコード読取器11は、バーコードから読み取った読取情報をバーコード読取器コントローラ13に出力する。バーコード読取器コントローラ13は、読取情報を数値・記号情報に変換することによって搭乗券に記載された情報を抽出し、乗客データ生成部19に出力する。
The processing of the passenger detection system will be described based on the flow.
[Processing flow of information reading device]
FIG. 8 is a flowchart showing processing of the information reading apparatus.
In step S <b> 5, the information reading device 10 reads the barcode of the boarding pass presented by the passenger, and extracts information (boarding date / flight name / passenger name / check-in sequence number) described in the boarding pass. That is, the bar code reader 11 reads the bar code of the boarding pass provided by the passenger. The barcode reader 11 outputs the reading information read from the barcode to the barcode reader controller 13. The bar code reader controller 13 extracts the information described in the boarding pass by converting the read information into numerical value / symbol information, and outputs the information to the passenger data generation unit 19.

ステップS10において、情報読込装置10は、搭乗券のバーコードを読み取るタイミングで、読込カメラ15により保安検査場の入口ゲートを通過する乗客の顔画像(初期顔画像)を撮影する。読込カメラ15は、撮影した顔画像を画像処理部17に出力する。画像処理部17は、読込カメラ15から送られた顔画像から、人物の顔領域を所定のアルゴリズムに従って抽出し、当該顔領域部分の正規化処理を行って所定のアルゴリズムに基づいて、乗客の顔の特徴量を抽出する。画像処理部17は、乗客の初期顔画像と顔の特徴量データとを乗客データ生成部19に出力する。
ステップS15において情報読込装置10は、バーコード読取器コントローラ13から出力された搭乗券の情報と、画像処理部17から出力された乗客の初期顔画像と顔の特徴量データと、を関連づけた乗客データを生成し、生成した乗客データを中央処理装置100に登録リクエストと共に送信する。
In step S <b> 10, the information reading device 10 captures a face image (initial face image) of a passenger passing through the entrance gate of the security checkpoint with the reading camera 15 at the timing of reading the bar code of the boarding pass. The reading camera 15 outputs the captured face image to the image processing unit 17. The image processing unit 17 extracts a human face area from the face image sent from the reading camera 15 according to a predetermined algorithm, performs normalization processing on the face area portion, and based on the predetermined algorithm, the face of the passenger Extract feature values. The image processing unit 17 outputs the passenger's initial face image and facial feature data to the passenger data generation unit 19.
In step S15, the information reading device 10 associates the boarding pass information output from the barcode reader controller 13, the passenger's initial face image output from the image processing unit 17, and facial feature data. Data is generated, and the generated passenger data is transmitted to the central processing unit 100 together with a registration request.

〔中央処理装置の処理フロー(乗客データのDBへの登録処理)〕
図9は、中央処理装置における乗客データのDB装置への登録処理を示すフローチャートである。
中央処理装置100の制御部103は、ネットワークN経由で情報読込装置10から乗客データの登録リクエストがあったか否かを常時監視している(ステップS20においてNo)。情報読込装置10から乗客データの登録リクエストがあった場合(ステップS20においてYes)、制御部103は、受信した乗客データを乗客データ登録部107に出力する。
ステップS25において乗客データ登録部107は、受信した乗客データが新規な乗客データかを確認する。即ち、乗客データ登録部107は、受信した乗客データに含まれるチェックインシーケンス番号がDB装置120内の乗客DB123に既に登録されているか否かを確認する。チェックインシーケンス番号が既に乗客DB123に登録されている場合には、その乗客データは新規な乗客データではないので(ステップS25にてNo)、当該乗客データを登録せずに処理を終了する。
他方、受信した乗客データに含まれるチェックインシーケンス番号が乗客DB123に登録されていない場合には、その乗客データは新規な乗客データであるので(ステップS25にてYes)、乗客データ登録部107は、乗客データと登録時刻とを乗客DB123に格納する(ステップS30)。
[Processing flow of central processing unit (registration processing of passenger data to DB)]
FIG. 9 is a flowchart showing registration processing of passenger data in the DB device in the central processing unit.
The control unit 103 of the central processing unit 100 constantly monitors whether there is a passenger data registration request from the information reading device 10 via the network N (No in step S20). When there is a passenger data registration request from the information reading device 10 (Yes in step S <b> 20), the control unit 103 outputs the received passenger data to the passenger data registration unit 107.
In step S25, the passenger data registration unit 107 confirms whether the received passenger data is new passenger data. That is, the passenger data registration unit 107 confirms whether the check-in sequence number included in the received passenger data is already registered in the passenger DB 123 in the DB device 120. If the check-in sequence number has already been registered in the passenger DB 123, the passenger data is not new passenger data (No in step S25), so the process is terminated without registering the passenger data.
On the other hand, when the check-in sequence number included in the received passenger data is not registered in the passenger DB 123, the passenger data is new passenger data (Yes in step S25). The passenger data and the registration time are stored in the passenger DB 123 (step S30).

〔中央処理装置の処理フロー(フライト情報のDBへの登録処理)〕
図10は、中央処理装置におけるフライト情報のDB装置への登録処理を示すフローチャートである。
中央処理装置100の制御部103は、ネットワークN経由でFIS130からフライト情報の登録リクエストがあったか否かを常時監視している(ステップS35においてNo)。FIS130からフライト情報の登録リクエストがあった場合(ステップS35においてYes)、制御部103は、受信したフライト情報をフライト情報登録部105に出力する。
ステップS40においてフライト情報登録部105は、受信したフライト情報が新規なフライト情報であるか否かを確認する。即ち、フライト情報登録部105は、受信したフライト情報に含まれる便名がDB装置120内のフライトDB121に既に登録されているか否かを確認する。
[Processing flow of central processing unit (flight information registration process in DB)]
FIG. 10 is a flowchart showing a process of registering flight information in the DB device in the central processing unit.
The control unit 103 of the central processing unit 100 constantly monitors whether there is a flight information registration request from the FIS 130 via the network N (No in step S35). When there is a flight information registration request from the FIS 130 (Yes in step S <b> 35), the control unit 103 outputs the received flight information to the flight information registration unit 105.
In step S40, the flight information registration unit 105 confirms whether or not the received flight information is new flight information. That is, the flight information registration unit 105 checks whether or not the flight name included in the received flight information is already registered in the flight DB 121 in the DB device 120.

当該便名が既にフライトDBに登録されている場合には(ステップS40にてNo)、フライトDBに登録されている当該フライト情報のタイムスタンプと、FIS130から受信したフライト情報のタイムスタンプとを比較する(ステップS42)。
フライトDBに登録されているフライト情報のタイムスタンプよりもFIS130から受信したフライト情報のタイムスタンプの方が新しい場合には(ステップS42にてYes)、そのフライト情報を、既存のフライト情報に上書きする処理を行う(ステップS45)。また、フライトDBに登録されているフライト情報のタイムスタンプよりもFIS130から受信したフライト情報のタイムスタンプの方が古い場合には(ステップS42にてNo)、には当該フライト情報を登録せずに処理を終了する。
他方、当該便名がフライトDBに登録されていない場合には、受信したフライト情報が新規なフライト情報であるので(ステップS40にてYes)、フライトDBに受信したフライト情報を新規に登録する(ステップS50)。
When the flight name is already registered in the flight DB (No in step S40), the time stamp of the flight information registered in the flight DB is compared with the time stamp of the flight information received from the FIS 130. (Step S42).
If the time stamp of the flight information received from the FIS 130 is newer than the time stamp of the flight information registered in the flight DB (Yes in step S42), the flight information is overwritten on the existing flight information. Processing is performed (step S45). If the time stamp of the flight information received from the FIS 130 is older than the time stamp of the flight information registered in the flight DB (No in step S42), the flight information is not registered. The process ends.
On the other hand, when the flight name is not registered in the flight DB, since the received flight information is new flight information (Yes in step S40), the received flight information is newly registered in the flight DB ( Step S50).

〔端末装置の処理フロー〕
図11は、端末装置の処理を示すフローチャートである。
端末装置50の処理部57は、送信ボタンが選択されたか否かを常時監視している(ステップS55においてNo)。端末装置50の情報入力欄に探知する乗客に関する情報が入力され送信ボタンが選択された場合(ステップS55においてYes)、処理部57は、通信部63を介して入力された乗客に関する情報(探知対象者データ)、及び探知リクエストを中央処理装置100に送信する(ステップS60)。
ステップS65において、端末装置50の処理部57は、中央処理装置100から「探知確認用画面」及び乗客を探知させるための「乗客探知装置の位置情報」を受信したか否かを監視する(ステップS65においてNo)。「探知確認用画面」及び乗客「乗客探知装置の位置情報」を受信した場合(ステップS65においてYes)、処理部57は、これらを表示制御部53に出力する。
[Processing flow of terminal equipment]
FIG. 11 is a flowchart showing processing of the terminal device.
The processing unit 57 of the terminal device 50 constantly monitors whether or not the transmission button has been selected (No in step S55). When the information related to the passenger to be detected is input to the information input field of the terminal device 50 and the transmission button is selected (Yes in step S55), the processing unit 57 receives the information related to the passenger input via the communication unit 63 (detection target). Person data) and a detection request are transmitted to the central processing unit 100 (step S60).
In step S65, the processing unit 57 of the terminal device 50 monitors whether or not the “detection confirmation screen” and “position information of the passenger detection device” for detecting the passenger are received from the central processing unit 100 (step S65). No in S65). When the “detection confirmation screen” and the passenger “position information of the passenger detection device” are received (Yes in step S65), the processing unit 57 outputs these to the display control unit 53.

ステップS70において表示制御部53は、「探知確認用画面」及び「乗客探知装置の位置情報」を表示部51に表示させるように制御する。即ち、表示制御部53は、表示部51に探知確認画面(図7(b)参照)を表示部51に表示させるとともに、探知確認画面のマップ上に乗客を探知させる乗客探知装置の位置をアイコン85aにて表示する。
ステップS75において処理部57は、探知開始ボタンが選択されたか否かを監視している(ステップS75においてNo)。また、このステップでは、乗客を探知させる乗客探知装置の選択/非選択の入力を受け付ける。探知開始ボタンが選択された場合は、ステップS80の処理を行う。
ステップS80において処理部57は、選択された乗客探知装置のアドレス番号とともに、探知開始リクエストを中央処理装置100に送信する。
In step S <b> 70, the display control unit 53 controls the display unit 51 to display the “detection confirmation screen” and the “position information of the passenger detection device”. That is, the display control unit 53 causes the display unit 51 to display a detection confirmation screen (see FIG. 7B) on the display unit 51, and displays the position of the passenger detection device that detects the passenger on the map of the detection confirmation screen. Displayed at 85a.
In step S75, the processing unit 57 monitors whether or not the detection start button has been selected (No in step S75). In this step, an input for selecting / deselecting a passenger detection device that detects a passenger is accepted. If the detection start button is selected, the process of step S80 is performed.
In step S80, the processing unit 57 transmits a detection start request to the central processing unit 100 together with the address number of the selected passenger detection device.

ステップS85において処理部57は、中央処理装置100から「探知結果画面」を受信したか否かを監視している(ステップS85においてNo)。中央処理装置100から「探知結果画面」を受信した場合(ステップS85においてYes)、処理部57は、これらを表示制御部53に出力する。
ステップS90において表示制御部53は、表示部51に「探知結果画面」を表示させるように制御する。即ち、表示制御部53は、表示部51に探知結果画面(図7(c)参照)を表示させるとともに、探知結果画面のマップ上に乗客を探知した乗客探知装置の位置をアイコン85cとして表示し、探知された乗客の情報と、現在の乗客の状況を示す動画を表示する。なお。この動画は、追跡終了リクエストが送信されるまで表示される。
ステップS95において処理部57は、マイクボタンが選択されたか否かを監視している(ステップS95においてNo)。マイクボタンが選択されない場合は、ステップS115の処理を行う。マイクボタンが選択された場合は(ステップS95においてYes)、ステップS100の処理を行う。
In step S85, the processing unit 57 monitors whether or not the “detection result screen” is received from the central processing unit 100 (No in step S85). When the “detection result screen” is received from the central processing unit 100 (Yes in step S85), the processing unit 57 outputs these to the display control unit 53.
In step S <b> 90, the display control unit 53 controls the display unit 51 to display a “detection result screen”. That is, the display control unit 53 displays the detection result screen (see FIG. 7C) on the display unit 51, and displays the position of the passenger detection device that detected the passenger on the map of the detection result screen as an icon 85c. The detected passenger information and a video showing the current passenger status are displayed. Note that. This video is displayed until a tracking end request is sent.
In step S95, the processing unit 57 monitors whether or not the microphone button has been selected (No in step S95). If the microphone button is not selected, the process of step S115 is performed. When the microphone button is selected (Yes in step S95), the process of step S100 is performed.

ステップS100において音声処理部61は、マイク59にてオペレーターの音声信号を集音し、放送コマンドと共に中央処理装置100に送信する。即ち、音声処理部61は、マイク59にて集音された音声信号をA/D変換して音声データを生成し、音声データと放送コマンドとを通信部63を介して中央処理装置100に送信する。
ステップS105において処理部57は、マイクボタンが選択されたか否かを監視している(ステップS105においてNo)。即ち、再度マイクボタンが選択されるまで、音声処理部61は、オペレーターの音声を中央処理装置に送信し続ける(ステップS100及びステップS105の処理を行う)。マイクボタンが選択された場合は(ステップS105においてYes)、ステップS110の処理を行う。
ステップS110において音声処理部61は、マイク59によるオペレーターの音声信号の集音を停止し、放送中止リクエストを中央処理装置100に送信する。放送中止リクエストは、乗客探知装置のスピーカからの放送を中止するように中央処理装置に送信されるリクエストである。
In step S100, the voice processing unit 61 collects the voice signal of the operator with the microphone 59 and transmits it to the central processing unit 100 together with the broadcast command. That is, the audio processing unit 61 A / D converts the audio signal collected by the microphone 59 to generate audio data, and transmits the audio data and the broadcast command to the central processing unit 100 via the communication unit 63. To do.
In step S105, the processing unit 57 monitors whether or not the microphone button has been selected (No in step S105). That is, until the microphone button is selected again, the voice processing unit 61 continues to transmit the operator's voice to the central processing unit (the processes of steps S100 and S105 are performed). When the microphone button is selected (Yes in step S105), the process of step S110 is performed.
In step S <b> 110, the voice processing unit 61 stops collecting the operator's voice signal by the microphone 59 and transmits a broadcast stop request to the central processing unit 100. The broadcast stop request is a request transmitted to the central processing unit so as to stop the broadcast from the speaker of the passenger detection device.

ステップS115において処理部57は、追跡終了ボタンが選択されたか否かを監視している(ステップS115においてNo)。追跡終了ボタンが選択された場合は(ステップS115においてYes)、ステップS120の処理を行う。
ステップS120において処理部57は、追跡終了リクエストを中央処理装置100に送信する。即ち、処理部57は、追跡終了ボタンが選択された場合には、乗客探知装置からの動画配信を中止するように中央処理装置100に追跡終了リクエストを送信する。
In step S115, the processing unit 57 monitors whether or not the tracking end button has been selected (No in step S115). When the tracking end button is selected (Yes in step S115), the process of step S120 is performed.
In step S <b> 120, the processing unit 57 transmits a tracking end request to the central processing unit 100. That is, when the tracking end button is selected, the processing unit 57 transmits a tracking end request to the central processing unit 100 so as to stop moving image distribution from the passenger detection device.

〔中央処理装置の処理フロー(乗客探知に関わる処理)〕
図12は、中央処理装置の乗客探知に関わる処理を示すフローチャートである。
中央処理装置100の制御部103は、端末装置50から乗客のデータ(探知対象者データ)を含む探知リクエストが送信されたか否かを常時監視している(ステップS125においてNo)。探知リクエストを受信した場合(ステップS125においてYes)、制御部103は、探知リクエスト等を探知対象者データ抽出部109に出力する。
ステップS130において、探知対象者データ抽出部109は、探知リクエストと共に送信された便名、及び乗客名(又はチェックインシーケンス番号)の情報(探知対象者データ)に基づいて、DB装置から、乗客の探知に必要なデータを抽出する。具体的には、DB装置120のフライトDB121から探知対象者が搭乗する予定の航空機が出発する搭乗口番号を抽出する。また、DB装置120の乗客DB123から、探知対象者の顔画像及び特徴量データを抽出する。
[Processing flow of the central processing unit (processing related to passenger detection)]
FIG. 12 is a flowchart showing processing related to passenger detection of the central processing unit.
The control unit 103 of the central processing unit 100 constantly monitors whether or not a detection request including passenger data (detection target person data) is transmitted from the terminal device 50 (No in step S125). When the detection request is received (Yes in step S125), the control unit 103 outputs the detection request or the like to the detection target person data extraction unit 109.
In step S130, the detection target person data extraction unit 109 extracts the passenger's name from the DB device based on the flight name and the passenger name (or check-in sequence number) information (detection target person data) transmitted together with the detection request. Extract data necessary for detection. Specifically, the boarding gate number from which the aircraft on which the detection target person plans to board is departing from the flight DB 121 of the DB device 120 is extracted. Further, the face image and feature quantity data of the detection target person are extracted from the passenger DB 123 of the DB device 120.

探知対象者データ抽出部109は、抽出した航空機の搭乗口番号を乗客探知装置選定部111に出力し、搭乗口番号以外の探知対象者に関するデータを探知対象者データ生成部113に出力する。
ステップS135において乗客探知装置選定部111は、探知対象者データ抽出部109から受信した搭乗口番号の情報に基づいて、乗客を探知させる乗客探知装置の候補を決定する。即ち、乗客探知装置選定部111は、搭乗口番号の情報に基づいて、DB装置120の設置位置DB125に登録された乗客探知装置30のうち、探知対象者の予測移動範囲内を撮影可能な位置(又は予測移動範囲内)に設置された乗客探知装置30を、乗客を探知させる乗客探知装置の候補として決定する。
The detection target person data extraction unit 109 outputs the extracted boarding gate number of the aircraft to the passenger detection device selection unit 111, and outputs data related to the detection target person other than the boarding gate number to the detection target person data generation unit 113.
In step S <b> 135, the passenger detection device selection unit 111 determines a passenger detection device candidate for detecting a passenger based on the boarding gate number information received from the detection subject data extraction unit 109. That is, the passenger detection device selection unit 111 is a position that can photograph within the predicted movement range of the detection target person among the passenger detection devices 30 registered in the installation position DB 125 of the DB device 120 based on the information of the boarding gate number. The passenger detection device 30 installed in (or within the predicted movement range) is determined as a candidate for a passenger detection device that detects a passenger.

ステップS140において、乗客探知装置選定部111は、探知確認用画面77(画像データ:図7(b)参照)を生成して、乗客探知装置に関する情報と共に探知リクエストを送信してきた端末装置50に送信する。
まず、乗客探知装置選定部111は、ステップS135において候補とされた乗客探知装置30の設置位置とアドレス番号を設置位置DB125から抽出し、探知確認用画面77においてアイコン85aとして表示する。
更に、乗客探知装置選定部111は、探知確認用画面77のマップ79中に表示する乗客探知装置30のうち、乗客を探知させる候補としない乗客探知装置30についても、その設置位置とアドレス番号を設置位置DB125から抽出し、探知確認用画面77にアイコン85bとして表示する。
そして、生成した探知確認用画面77と、設置位置DB125から抽出した乗客探知装置30に関する情報とを探知リクエストを送信してきた端末装置に送信する。
In step S140, the passenger detection device selection unit 111 generates a detection confirmation screen 77 (image data: see FIG. 7B) and transmits it to the terminal device 50 that has transmitted the detection request together with information related to the passenger detection device. To do.
First, the passenger detection device selection unit 111 extracts the installation position and the address number of the passenger detection device 30 that are candidates in step S135 from the installation position DB 125, and displays them on the detection confirmation screen 77 as the icon 85a.
Furthermore, among the passenger detection devices 30 displayed on the map 79 of the detection confirmation screen 77, the passenger detection device selection unit 111 also sets the installation position and address number of the passenger detection device 30 that is not a candidate for detecting passengers. Extracted from the installation position DB 125 and displayed on the detection confirmation screen 77 as an icon 85b.
And the produced | generated detection confirmation screen 77 and the information regarding the passenger detection apparatus 30 extracted from installation position DB125 are transmitted to the terminal device which transmitted the detection request.

このように、乗客を探知させる候補とならなかった乗客探知装置30(非候補の乗客探知装置)についても、探知リクエストを受信した時点でアドレス番号を抽出し、端末装置に送信することで、端末装置50において乗客を探知させる乗客探知装置30を変更した場合でも、改めて設置位置DB125から乗客探知装置30の情報を抽出する必要がないので、乗客を探知させる乗客探知装置30に対して迅速に探知対象者データを送信することができる。
ステップS145において制御部103は、端末装置50から「探知開始リクエスト」を受信したか否かを常時監視している(ステップS145においてNo)。端末装置50から「探知開始リクエスト」を受信した場合は(ステップS145においてYes)、ステップS150の処理を行う。
ステップS150において、乗客探知装置選定部111は端末装置50から「探知開始リクエスト」と共に送信された「選択された乗客探知装置30」のアドレス番号を探知対象者データ生成部113に出力する。
As described above, the passenger detection device 30 (non-candidate passenger detection device) that has not become a candidate for detecting passengers also extracts the address number when receiving the detection request and transmits the address number to the terminal device. Even when the passenger detection device 30 for detecting a passenger in the device 50 is changed, it is not necessary to extract the information of the passenger detection device 30 from the installation position DB 125 again, so that the passenger detection device 30 for detecting a passenger can be detected quickly. Target person data can be transmitted.
In step S145, the control unit 103 constantly monitors whether or not a “detection start request” has been received from the terminal device 50 (No in step S145). When the “detection start request” is received from the terminal device 50 (Yes in step S145), the process of step S150 is performed.
In step S150, the passenger detection device selection unit 111 outputs the address number of the “selected passenger detection device 30” transmitted from the terminal device 50 together with the “detection start request” to the detection target person data generation unit 113.

ステップS152において探知対象者データ生成部113は、乗客探知装置選定部111から受信したアドレス番号を有する乗客探知装置30に対して、探知対象者データ抽出部109から出力された探知対象者に関するデータと共に、「探知開始リクエスト」を通信部101を介して送信する。ここで、探知対象者データは、少なくとも探知対象者の氏名(又はチェックインシーケンス番号)、探知対象者の特徴量データ、を含むデータである。
ステップS155において、制御部103は、乗客探知装置から検知情報を受信する。検知情報は、少なくとも、乗客を発見した乗客探知装置のアドレス番号、検知フラグ、チェックインシーケンス番号又は、乗客名、マッチングした際の顔画像である検知顔画像(静止画)、検知顔画像の特徴量データを含む。また制御部103は、検知情報のうち、探知対象者を検知した乗客探知装置のアドレス番号、探知対象者が発見されたことを示す検知フラグ、探知されたときの乗客の顔画像(静止画)、及びその顔画像から生成された特徴量データを探知結果登録部115に出力する。また、制御部103は、乗客探知装置30から送信された動画を転送処理部117に出力する。
In step S152, the person-to-be-detected data generation unit 113, together with the data about the person to be detected output from the person-to-be-detected data extraction unit 109, with respect to the passenger detection apparatus 30 having the address number received from the passenger detection apparatus selection unit 111 , “Detection start request” is transmitted via the communication unit 101. Here, the detection target person data is data including at least the name (or check-in sequence number) of the detection target person and the feature amount data of the detection target person.
In step S155, the control unit 103 receives detection information from the passenger detection device. The detection information includes at least the address number of the passenger detection device that has detected the passenger, the detection flag, the check-in sequence number or the passenger name, the detected face image (still image) that is a face image when matched, and the features of the detected face image Includes quantity data. In addition, the control unit 103 includes, in the detection information, the address number of the passenger detection device that detected the detection target person, the detection flag indicating that the detection target person has been detected, and the face image (still image) of the passenger when detected. And feature amount data generated from the face image is output to the detection result registration unit 115. In addition, the control unit 103 outputs the moving image transmitted from the passenger detection device 30 to the transfer processing unit 117.

ステップS160において、探知結果登録部115は、探知対象者が検知された旨を示す検知フラグを乗客DB123の当該乗客のレコードに記録する。また探知結果登録部115は、検知情報と探知対象者データに基づいて探知結果画面を生成して、探知開始リクエストを送信してきた端末装置50に送信する。なお、探知結果登録部115が生成する探知結果画面は、図7(c)に示すとおりである。
なお、探知結果画面87の動画像表示欄91aに表示される動画像は、転送処理部117が乗客探知装置30から受信して、逐次、探知開始リクエストを送信した端末装置に転送するものである。
In step S160, the detection result registration unit 115 records a detection flag indicating that the detection target person has been detected in the record of the passenger in the passenger DB 123. The detection result registration unit 115 generates a detection result screen based on the detection information and the detection target person data, and transmits the detection result screen to the terminal device 50 that has transmitted the detection start request. The detection result screen generated by the detection result registration unit 115 is as shown in FIG.
The moving image displayed in the moving image display field 91a of the detection result screen 87 is received by the transfer processing unit 117 from the passenger detection device 30 and sequentially transferred to the terminal device that transmitted the detection start request. .

ステップS165において、転送処理部117は、放送コマンドを受信したか否かを確認している(ステップS165にてNo)。放送コマンドを受信した場合(ステップS165にてYes)、ステップS170の処理を行う。
ステップS170において転送処理部117は、放送コマンドと共に端末装置50から受信したオペレーターの音声データを、乗客を探知した乗客探知装置30に転送する。
ステップS175において、転送処理部117は、放送中止リクエストを受信したか否かを確認している(ステップS175にてNo)。放送中止リクエストを受信した場合(ステップS175にてYes)、オペレーターの音声を放送中の乗客探知装置30に放送中止リクエストを送信する(ステップS180)。
ステップS185において、転送処理部117は、追跡終了リクエストを受信したか否かを確認している(ステップS185にてNo)。追跡終了リクエストを受信した場合は(ステップS185にてYes)、追跡終了リクエストを、乗客の追跡を行っている乗客探知装置に送信する(ステップS190)。
In step S165, the transfer processing unit 117 confirms whether a broadcast command has been received (No in step S165). If a broadcast command has been received (Yes in step S165), the process of step S170 is performed.
In step S170, the transfer processing unit 117 transfers the voice data of the operator received from the terminal device 50 together with the broadcast command to the passenger detection device 30 that has detected the passenger.
In step S175, the transfer processing unit 117 confirms whether or not a broadcast stop request has been received (No in step S175). When the broadcast stop request is received (Yes in step S175), the broadcast stop request is transmitted to the passenger detection device 30 that is broadcasting the operator's voice (step S180).
In step S185, the transfer processing unit 117 confirms whether or not a tracking end request has been received (No in step S185). When the tracking end request is received (Yes in step S185), the tracking end request is transmitted to the passenger detection device that is tracking the passenger (step S190).

〔乗客探知装置の処理フロー〕
図13は、乗客探知装置の処理を示すフローチャートである。
ステップS195において乗客探知装置30は、中央処理装置100から探知対象者データを受信したか否かを確認している(ステップS195においてNo)。探知対象者データを受信した場合(ステップS195においてYes)、ステップS200の処理を行う。
ステップS200において、マッチング部37は、探知対象者データに含まれる特徴量データを抽出する。また、検知情報生成部39は、探知対象者データに含まれる特徴量データ以外のデータ(探知対象者の氏名又はチェックインシーケンス番号)を抽出する。
[Processing flow of passenger detection device]
FIG. 13 is a flowchart showing the processing of the passenger detection device.
In step S195, the passenger detection device 30 confirms whether or not detection target person data has been received from the central processing unit 100 (No in step S195). When the detection target person data is received (Yes in step S195), the process of step S200 is performed.
In step S200, the matching unit 37 extracts feature amount data included in the detection target person data. Further, the detection information generation unit 39 extracts data (name of the detection target person or check-in sequence number) other than the feature amount data included in the detection target person data.

ステップS205において特徴量データ抽出部35は、探知カメラ33に映る人物の特徴量データを抽出する。即ち、探知カメラによって撮影された動画(複数のフレーム画像)中に含まれる人物の顔領域を抽出し、この顔領域について所定のアルゴリズム処理を行うことにより、撮影された人物の顔の特徴量データを生成する。特徴量データ抽出部35は、生成した特徴量データをマッチング部37に出力する。また特徴量データ抽出部35は、特徴量データを抽出する元となったフレーム画像(静止画)を、検知情報生成部39に出力する。
ステップS210においてマッチング部37は、特徴量データ抽出部35から受信した各特徴量データと、中央処理装置から受信した探知対象者の特徴量データとのマッチングを逐次行う。即ち、マッチング部37は、特徴量データ抽出部35から受信した特徴量データと、探知対象者の特徴量データとの相関値(類似度)を算出する。
In step S <b> 205, the feature amount data extraction unit 35 extracts feature amount data of a person shown on the detection camera 33. That is, by extracting a face area of a person included in a moving image (a plurality of frame images) photographed by a detection camera and performing a predetermined algorithm processing on the face area, feature value data of the photographed person's face Is generated. The feature amount data extraction unit 35 outputs the generated feature amount data to the matching unit 37. The feature amount data extraction unit 35 outputs the frame image (still image) from which the feature amount data is extracted to the detection information generation unit 39.
In step S210, the matching unit 37 sequentially performs matching between each feature amount data received from the feature amount data extraction unit 35 and the feature amount data of the person to be detected received from the central processing unit. That is, the matching unit 37 calculates a correlation value (similarity) between the feature amount data received from the feature amount data extraction unit 35 and the feature amount data of the detection target person.

ステップS215においてマッチング部37は、2つの特徴量データがマッチングするか否か(相関値が所定の基準値以上を満たすか否か)を判断する。マッチング部37は、2つの特徴量データがマッチングした場合(ステップS215においてYes)、即ち、2つの特徴量データの相関値が所定の基準値以上を満たした場合に、マッチングした旨の情報を検知情報生成部39に出力するとともに、発見された人物を追跡するように、乗客追跡部41に追跡開始命令を出力する。なお、2つの特徴量データがマッチングしない場合(相関値が所定の基準値を満たしていない場合:ステップS215においてNo)、マッチング部37はステップS210、S215の処理を繰り返す。
ステップS220において乗客追跡部41は、マッチング部37から受信した追跡開始命令に基づいて、発見された探知対象者の追跡を開始する。即ち、乗客追跡部41は、探知カメラ33から受信した各フレーム画像中に映る探知対象者を移動体とみなして、探知対象者の身体領域の時間的な移動を連続的に検出する。また、検出された身体領域を囲むような「枠画像」を生成し、「枠画像」を各フレーム画像に合成して中央処理装置に送信する。
In step S215, the matching unit 37 determines whether or not the two feature amount data match (whether the correlation value satisfies a predetermined reference value or more). The matching unit 37 detects information indicating matching when the two feature quantity data match (Yes in step S215), that is, when the correlation value between the two feature quantity data satisfies a predetermined reference value or more. While outputting to the information generation part 39, a tracking start command is output to the passenger tracking part 41 so that the discovered person may be tracked. If the two feature amount data do not match (when the correlation value does not satisfy the predetermined reference value: No in step S215), the matching unit 37 repeats the processes in steps S210 and S215.
In step S220, the passenger tracking unit 41 starts tracking the detected person to be detected based on the tracking start command received from the matching unit 37. In other words, the passenger tracking unit 41 regards the detection target person shown in each frame image received from the detection camera 33 as a moving object, and continuously detects temporal movement of the body area of the detection target person. Further, a “frame image” surrounding the detected body region is generated, and the “frame image” is combined with each frame image and transmitted to the central processing unit.

ステップS225において、検知情報生成部39は、検知情報を生成して、中央処理装置100に送信する。即ち、検知情報生成部39は、まず特徴量データ抽出部35から受信した画像データから、マッチングした際の顔画像である検知顔画像(静止画)の切り出し処理を行う。検知情報生成部39は、検知顔画像と、ステップS215においてマッチング部37から受信した検知顔画像の特徴量データと、ステップS200において抽出した探知対象者の氏名又はチェックインシーケンス番号と、自装置(乗客を発見した乗客探知装置)のアドレス番号と、検知フラグとを含む情報を生成し検知情報として生成し、ひとまとまりの情報として中央処理装置100に送信する。   In step S225, the detection information generation unit 39 generates detection information and transmits it to the central processing unit 100. That is, the detection information generation unit 39 first performs a cut-out process of a detected face image (still image) that is a face image at the time of matching from the image data received from the feature amount data extraction unit 35. The detection information generating unit 39 detects the detected face image, the feature amount data of the detected face image received from the matching unit 37 in step S215, the name or check-in sequence number of the detection target person extracted in step S200, and the own device ( Information including an address number of a passenger detection device that has detected a passenger) and a detection flag is generated as detection information and transmitted to the central processing unit 100 as a piece of information.

ステップS230において、音声生成処理部43は、放送コマンドを受信したか否かを確認している(ステップS230にてNo)。放送コマンドを受信した場合は(ステップS230にてYes)、ステップS235の処理を行う。
ステップS235において音声生成処理部43は、中央処理装置100から受信した音声データを復調して、スピーカ45からオペレーターの音声を放送する。
ステップS240において、音声生成処理部43は、放送中止リクエストを受信したか否かを確認している(ステップS240にてNo)。放送中止リクエストを受信した場合は(ステップS240にてYes)、ステップS245にて放送を中止する。
ステップS250において、乗客追跡部41は、追跡終了リクエストを受信したか否かを確認している(ステップS250にてNo)。追跡終了リクエストを受信した場合は(ステップS250にてYes)、乗客の追跡を終了する(ステップS255)。即ち、ステップS255では、動画の配信を停止する。
In step S230, the sound generation processing unit 43 confirms whether a broadcast command has been received (No in step S230). If a broadcast command is received (Yes in step S230), the process of step S235 is performed.
In step S235, the voice generation processing unit 43 demodulates the voice data received from the central processing unit 100 and broadcasts the operator's voice from the speaker 45.
In step S240, the sound generation processing unit 43 confirms whether a broadcast stop request has been received (No in step S240). If a broadcast stop request is received (Yes in step S240), the broadcast is stopped in step S245.
In step S250, the passenger tracking unit 41 confirms whether or not a tracking end request has been received (No in step S250). When the tracking end request is received (Yes in step S250), the passenger tracking is ended (step S255). That is, in step S255, the distribution of the moving image is stopped.

以上のように、本乗客探知システムによれば、乗客を探知する必要がある場合に乗客探知装置に乗客を探知させるので、システムを構成する装置の負荷を低減できる。また、システムを構成する各装置によって分散した処理を行うので、中央処理装置に処理負荷が集中しない。
また、本実施形態においては、乗客の探知に必要な搭乗券情報と乗客の顔画像から得られる初期特徴量データとを乗客データベースに記憶するので、乗客の位置を逐次データベースに登録する場合に比べてデータベース容量を大幅に削減できる。
さらに、本実施形態によれば、搭乗券情報に含まれる便名と、フライトDBに登録されたフライト情報中の搭乗口の情報とに基づいて、複数の乗客探知装置の中から乗客を探知させる装置を選定する。この選定により、乗客を探知する範囲を乗客の予測移動範囲に限定することができるので乗客を短時間で効率よく探知できる。
As described above, according to the passenger detection system, when the passenger needs to be detected, the passenger detection device detects the passenger, so that the load on the devices constituting the system can be reduced. In addition, since the distributed processing is performed by each device constituting the system, the processing load is not concentrated on the central processing unit.
In the present embodiment, the boarding pass information necessary for passenger detection and the initial feature value data obtained from the passenger's face image are stored in the passenger database, so that the position of the passenger is sequentially registered in the database. Database capacity can be greatly reduced.
Furthermore, according to this embodiment, based on the flight name contained in boarding pass information, and the information of the boarding gate in the flight information registered into flight DB, a passenger is detected from several passenger detection apparatuses. Select equipment. By this selection, it is possible to limit the passenger detection range to the passenger's predicted movement range, so that the passenger can be detected efficiently in a short time.

〔第二の実施形態〕
乗客DB123に登録される乗客データには、搭乗完了を示す搭乗フラグを記憶してもよい。ここで搭乗フラグは、乗客が搭乗したことを示すフラグである。搭乗済みの乗客のデータには搭乗フラグを立て、未搭乗の乗客データには搭乗フラグを立てないように設定することで、搭乗が完了したか否かを記録する。
例えば、探知対象者データ抽出部109は、探知対象者データに合致する全ての乗客データをDB装置120から抽出する。搭乗フラグが立っている場合には、端末装置にその旨を送信するとともに、当該乗客を乗客探知装置30による探知対象から除外する処理を行う。搭乗フラグが立っていない乗客については、乗客探知装置30による探知対象とする。
乗客DB123に搭乗フラグを登録しておくことで、探知対象者データとして便名のみが指定された場合に、当該便に搭乗する全ての乗客のうち、搭乗が済んでいない全ての乗客を探知対象とすることができる。
[Second Embodiment]
The passenger data registered in the passenger DB 123 may store a boarding flag indicating completion of boarding. Here, the boarding flag is a flag indicating that the passenger has boarded. Whether or not the boarding is completed is recorded by setting a boarding flag in the data of passengers who have already boarded, and setting no boarding flag in the data of passengers who have not boarded.
For example, the detection target person data extraction unit 109 extracts all passenger data that matches the detection target person data from the DB device 120. When the boarding flag is set, a message to that effect is transmitted to the terminal device, and a process of excluding the passenger from the detection target by the passenger detection device 30 is performed. Passengers who do not have a boarding flag are subject to detection by the passenger detection device 30.
By registering the boarding flag in the passenger DB 123, when only the flight name is specified as the detection target person data, all the passengers who have not boarded among all the passengers boarding the flight are to be detected. It can be.

1…乗客探知システム、10…情報読込装置、11…バーコード読取器、13…バーコード読取器コントローラ、15…読込カメラ、17…画像処理部、19…乗客データ生成部、21…通信部、30…乗客探知装置、31…通信部、33…探知カメラ、35…特徴量データ抽出部、37…マッチング部、39…検知情報生成部、41…乗客追跡部、43…音声生成処理部、45…スピーカ、50…端末装置、51…表示部、53…表示制御部、55…入力部、57…処理部、59…マイク、61…音声処理部、63…通信部、70…表示画面、71…情報入力画面、73…情報入力欄、75…送信ボタン、77…探知確認用画面、79…マップ、81…探知開始ボタン、83…搭乗口番号、87…探知結果画面、89…乗客データ表示欄、91…動画表示欄、100…中央処理装置、101…通信部、103…制御部、105…フライト情報登録部、107…乗客データ登録部、109…探知対象者データ抽出部、111…乗客探知装置選定部、113…探知対象者データ生成部、115…探知結果登録部、117…転送処理部、120…DB装置、121…フライトDB、123…乗客DB、125…設置位置DB、130…FIS、1000…乗客、1001…空港ターミナルビル、1002…チェックインカウンター、1003…搭乗券、1004…保安検査場、1005…出国審査場、1006…搭乗口   DESCRIPTION OF SYMBOLS 1 ... Passenger detection system, 10 ... Information reading apparatus, 11 ... Bar code reader, 13 ... Bar code reader controller, 15 ... Reading camera, 17 ... Image processing part, 19 ... Passenger data generation part, 21 ... Communication part, DESCRIPTION OF SYMBOLS 30 ... Passenger detection apparatus, 31 ... Communication part, 33 ... Detection camera, 35 ... Feature-value data extraction part, 37 ... Matching part, 39 ... Detection information generation part, 41 ... Passenger tracking part, 43 ... Voice generation process part, 45 ... Speaker, 50 ... Terminal device, 51 ... Display unit, 53 ... Display control unit, 55 ... Input unit, 57 ... Processing unit, 59 ... Microphone, 61 ... Audio processing unit, 63 ... Communication unit, 70 ... Display screen, 71 ... Information input screen, 73 ... Information input field, 75 ... Send button, 77 ... Detection confirmation screen, 79 ... Map, 81 ... Detection start button, 83 ... Boarding gate number, 87 ... Detection result screen, 89 ... Passenger data display Field, DESCRIPTION OF SYMBOLS 1 ... Movie display column, 100 ... Central processing unit, 101 ... Communication part, 103 ... Control part, 105 ... Flight information registration part, 107 ... Passenger data registration part, 109 ... Detection object person data extraction part, 111 ... Passenger detection apparatus Selection part 113 ... Detection subject data generation part 115 ... Detection result registration part 117 ... Transfer processing part 120 ... DB device 121 ... Flight DB 123 ... Passenger DB 125 ... Installation position DB 130 ... FIS 1000 ... Passenger, 1001 ... Airport terminal building, 1002 ... Check-in counter, 1003 ... Boarding pass, 1004 ... Security checkpoint, 1005 ... Immigration checkpoint, 1006 ... Boarding gate

上記の課題を解決するために、請求項1に記載の発明は、入口から少なくとも1つの搭乗口に至る所定の探知エリアにおいて、特定の乗客を探知する乗客探知システムであって、前記入口に設置されて、乗客が所持する搭乗券から、前記乗客が搭乗する交通手段を特定する搭乗便名を含んだ搭乗券情報を読み取る情報読取手段と、前記乗客を撮影する読込カメラと、を備えた情報読込装置と、前記情報読込装置が取得した搭乗券情報と、前記読込カメラが撮影した前記乗客の初期外観像から得られる前記乗客の初期特徴量データと、を対応づけて記憶する乗客データベースと、前記乗客データベースから、前記特定の乗客の初期特徴量データを抽出する中央処理装置と、前記探知エリア内に設置されて、前記探知エリア内を撮影する探知カメラと、前記探知カメラにより撮影された人物の外観像から得られる特徴量データと前記初期特徴量データとが一致したときに前記探知カメラにより撮影された人物が前記特定の乗客であると判定するマッチング手段と、を夫々備えた複数の乗客探知装置と、前記搭乗口から出発する少なくとも1つの交通手段に関する運行情報として前記搭乗便名と前記搭乗口とを関連づけて記憶する運行データベースと、を備え、前記中央処理装置は、前記乗客データベースから取得した搭乗券情報に含まれる交通手段に関する情報と、前記運行データベースから取得した交通手段に関する運行情報とに基づいて、前記複数の乗客探知装置のうちの少なくとも1つの乗客探知装置を選定する乗客探知装置選定手段を備え、前記乗客探知装置選定手段は、前記乗客データベースから取得された搭乗便名に基づいて前記運行データベースから搭乗口の情報を取得し、前記入口から前記搭乗口に至るエリアに設置された乗客探知装置を選定することを特徴とする。 In order to solve the above-mentioned problem, the invention according to claim 1 is a passenger detection system for detecting a specific passenger in a predetermined detection area from the entrance to at least one boarding gate, and is installed at the entrance. Information reading means for reading boarding pass information including a boarding flight name for specifying a transportation means on which the passenger is boarded from a boarding pass possessed by the passenger, and a reading camera for photographing the passenger A passenger database for storing the reading device, boarding pass information acquired by the information reading device, and the initial feature data of the passenger obtained from the initial appearance image of the passenger photographed by the reading camera; A central processing unit that extracts initial feature data of the specific passenger from the passenger database, and a detection camera that is installed in the detection area and images the detection area And matching that determines that the person photographed by the detection camera is the specific passenger when the feature data obtained from the appearance image of the person photographed by the detection camera matches the initial feature data. A plurality of passenger detection devices each having a means, and an operation database for storing the boarding flight name and the boarding gate in association with each other as operation information relating to at least one means of transportation departing from the boarding gate, The central processing unit is at least one of the plurality of passenger detection devices based on information on transportation means included in boarding pass information acquired from the passenger database and operation information on transportation means obtained from the operation database. includes a passenger detection system selecting means for selecting one of the passenger detecting device, wherein the passenger detection system selecting means, the It acquires information boarding gate from the operation database based on the flight name obtained from the customer database, characterized by selecting the installed passenger detection system in an area leading to the boarding gate from said inlet.

探知エリアは入口と、出口としての搭乗口とを有する閉鎖的エリアである。探知エリアの入口には情報読込装置が設置され、探知エリア内には複数の乗客探知装置が設置される。乗客が探知エリアに入場するときに、情報読込装置の情報読取手段が搭乗券から交通手段に関する情報を含む搭乗券情報を読み取り、情報読込装置の読込カメラが乗客の外観像を撮影する。情報読込装置が取得した情報は、乗客データベースに登録される。特定の乗客を探知する場合、まず中央処理装置は、特定の乗客が搭乗する交通手段に関する情報を乗客データベースから抽出し、抽出された交通手段についての運行情報を運行データベースから抽出する。続いて中央処理装置は、抽出した交通手段についての運行情報から、探知エリア内に設置された複数の乗客探知装置のうち、乗客を探知させる乗客探知装置を選定する。中央処理装置によって選定された乗客探知装置は、探知カメラが撮影した人物から抽出された特徴量データと特定の乗客の初期特徴量データとが一致したときに、特定の乗客を発見したと判断する。
また、中央処理装置は、搭乗券情報に含まれる搭乗便名から交通手段が出発する場所としての搭乗口の情報を取得する。ここで、乗客は、入口から探知エリアに入場し、探知エリア内を移動して搭乗口から出場する。中央処理装置は乗客を探知させる装置として、入口から搭乗口に至るエリアに設置された乗客探知装置を選定し、選定された装置に乗客を
探知させることで、乗客を効率的に探知する。
請求項2の発明は、前記乗客探知装置は、前記マッチング手段により判定された前記特定の乗客の像を追跡する乗客追跡手段を備え、前記乗客追跡手段は、追跡中の人物像にマーカ画像を合成することを特徴とする。
請求項2の発明では、発見された特定の乗客の像にマーカ画像を合成するので、特定の乗客と他の乗客とを視覚的に区別できる。
The detection area is a closed area having an entrance and a boarding gate as an exit. An information reading device is installed at the entrance of the detection area, and a plurality of passenger detection devices are installed in the detection area. When the passenger enters the detection area, the information reading means of the information reading device reads boarding pass information including information on the transportation means from the boarding pass, and the reading camera of the information reading device takes an appearance image of the passenger. Information acquired by the information reading device is registered in the passenger database. When detecting a specific passenger, first, the central processing unit extracts information on the transportation means on which the specific passenger is boarded from the passenger database, and extracts operation information about the extracted transportation means from the operation database. Subsequently, the central processing unit selects a passenger detection device that detects a passenger from a plurality of passenger detection devices installed in the detection area, based on the extracted operation information about the transportation means. The passenger detection device selected by the central processing unit determines that the specific passenger has been found when the feature data extracted from the person photographed by the detection camera matches the initial feature data of the specific passenger. .
Further, the central processing unit acquires information on a boarding gate as a place where the transportation means departs from the boarding flight name included in the boarding pass information. Here, the passenger enters the detection area from the entrance, moves in the detection area, and enters from the boarding gate. The central processing unit selects a passenger detection device installed in the area from the entrance to the boarding gate as a device for detecting passengers.
By detecting it, passengers can be detected efficiently.
According to a second aspect of the present invention, the passenger detection device includes a passenger tracking unit that tracks the image of the specific passenger determined by the matching unit, and the passenger tracking unit adds a marker image to the person image being tracked. It is characterized by combining.
In the invention of claim 2, since the marker image is synthesized with the image of the specific passenger found, the specific passenger and other passengers can be visually distinguished.

請求項3の発明は、入口から少なくとも1つの搭乗口に至る所定の探知エリアにおいて、特定の乗客を探知する乗客探知システムであって、前記入口に設置されて、乗客が所持する搭乗券の搭乗券情報を読み取る情報読取手段と、前記乗客を撮影する読込カメラと、を備えた情報読込装置と、前記情報読込装置が取得した搭乗券情報と、前記読込カメラが撮影した前記乗客の初期外観像から得られる前記乗客の初期特徴量データと、を対応づけて記憶する乗客データベースと、前記乗客データベースから、前記特定の乗客の初期特徴量データを抽出する中央処理装置と、前記探知エリア内に設置されて、前記探知エリア内を撮影する探知カメラと、前記探知カメラにより撮影された人物の外観像から得られる特徴量データと前記初期特徴量データとが一致したときに前記探知カメラにより撮影された人物が前記特定の乗客であると判定するマッチング手段と、前記マッチング手段により判定された前記特定の乗客の像に対してマーカ画像を合成することにより前記特定の乗客を追跡する乗客追跡手段と、を夫々備えた複数の乗客探知装置と、前記搭乗口から出発する少なくとも1つの交通手段に関する運行情報を記憶する運行データベースと、を備え、前記中央処理装置は、前記乗客データベースから取得した搭乗券情報に含まれる交通手段に関する情報と、前記運行データベースから取得した交通手段に関する運行情報とに基づいて、前記複数の乗客探知装置のうちの少なくとも1つの乗客探知装置を選定する乗客探知装置選定手段を備えたことを特徴とする。
探知エリアは入口と、出口としての搭乗口とを有する閉鎖的エリアである。探知エリアの入口には情報読込装置が設置され、探知エリア内には複数の乗客探知装置が設置される。乗客が探知エリアに入場するときに、情報読込装置の情報読取手段が搭乗券から交通手段に関する情報を含む搭乗券情報を読み取り、情報読込装置の読込カメラが乗客の外観像を撮影する。情報読込装置が取得した情報は、乗客データベースに登録される。特定の乗客を探知する場合、まず中央処理装置は、特定の乗客が搭乗する交通手段に関する情報を乗客データベースから抽出し、抽出された交通手段についての運行情報を運行データベースから抽出する。続いて中央処理装置は、抽出した交通手段についての運行情報から、探知エリア内に設置された複数の乗客探知装置のうち、乗客を探知させる乗客探知装置を選定する。中央処理装置によって選定された乗客探知装置は、探知カメラが撮影した人物から抽出された特徴量データと特定の乗客の初期特徴量データとが一致したときに、特定の乗客を発見したと判断する。
また、発見された特定の乗客の像にマーカ画像を合成するので、特定の乗客と他の乗客とを視覚的に区別できる。
請求項の発明は、前記特定の乗客のデータを入力する入力手段と、前記入力手段から入力された前記特定の乗客を示すデータを前記中央処理装置に送信する通信手段と、を備えた端末装置を備え、中央処理装置は、前記端末装置から送信された特定の乗客を示すデータをキーとして、前記乗客データベースに前記初期特徴量データを検索させ、前記乗客データベースから取得した前記初期特徴量データを、前記乗客探知装置選定手段によって選定された乗客探知装置に送信することを特徴とする。
請求項の発明では、端末装置から任意の乗客を特定して、乗客探知装置に探知させることができる。
The invention of claim 3 is a passenger detection system for detecting a specific passenger in a predetermined detection area from the entrance to at least one boarding gate, and is installed at the entrance and boarding a boarding pass carried by the passenger An information reading device comprising information reading means for reading ticket information, a reading camera for photographing the passenger, boarding pass information acquired by the information reading device, and an initial appearance image of the passenger photographed by the reading camera A passenger database that stores the initial feature value data of the passenger obtained in association with each other, a central processing unit that extracts the initial feature value data of the specific passenger from the passenger database, and installed in the detection area A detection camera that captures the inside of the detection area, feature amount data obtained from an appearance image of a person captured by the detection camera, and the initial feature amount data. A matching unit that determines that the person photographed by the detection camera is the specific passenger when the image matches the image, and a marker image is synthesized with the image of the specific passenger determined by the matching unit Passenger tracking means for tracking the specific passenger thereby, a plurality of passenger detection devices, respectively, and an operation database for storing operation information on at least one means of transportation departing from the boarding gate, The central processing unit is at least one of the plurality of passenger detection devices based on the information on the transportation means included in the boarding pass information acquired from the passenger database and the operation information on the transportation means acquired from the operation database. Passenger detection device selection means for selecting two passenger detection devices is provided.
The detection area is a closed area having an entrance and a boarding gate as an exit. An information reading device is installed at the entrance of the detection area, and a plurality of passenger detection devices are installed in the detection area. When the passenger enters the detection area, the information reading means of the information reading device reads boarding pass information including information on the transportation means from the boarding pass, and the reading camera of the information reading device takes an appearance image of the passenger. Information acquired by the information reading device is registered in the passenger database. When detecting a specific passenger, first, the central processing unit extracts information on the transportation means on which the specific passenger is boarded from the passenger database, and extracts operation information about the extracted transportation means from the operation database. Subsequently, the central processing unit selects a passenger detection device that detects a passenger from a plurality of passenger detection devices installed in the detection area, based on the extracted operation information about the transportation means. The passenger detection device selected by the central processing unit determines that the specific passenger has been found when the feature data extracted from the person photographed by the detection camera matches the initial feature data of the specific passenger. .
In addition, since the marker image is synthesized with the image of the specific passenger found, the specific passenger and other passengers can be visually distinguished.
The invention according to claim 4 is a terminal comprising: input means for inputting the data of the specific passenger; and communication means for transmitting data indicating the specific passenger input from the input means to the central processing unit. The initial processing amount data acquired from the passenger database by causing the passenger database to search the initial feature amount data using data indicating a specific passenger transmitted from the terminal device as a key. Is transmitted to the passenger detection device selected by the passenger detection device selection means.
In the invention of claim 4, an arbitrary passenger can be identified from the terminal device and can be detected by the passenger detection device.

請求項の発明は、前記端末装置は、音声信号を集音するマイクと、集音した音声データを前記乗客探知装置に送信する通信手段と、を備え、前記乗客探知装置は、前記通信手段から受信した音声データを出力するスピーカを備えたことを特徴とする。
請求項の発明では、各乗客探知装置は夫々スピーカを備えており、特定の乗客から近距離にある乗客探知装置のスピーカからオペレーターの音声を放送することで、特定の乗客に対してピンポイントで呼びかけを行うことができる
求項6の発明は、前記入口が保安検査場入口であり、前記所定の探知エリアが制限エリアであることを特徴とする。
請求項6の発明は、保安検査場入口から、搭乗口までの制限エリア内において乗客を探知する。
According to a fifth aspect of the present invention, the terminal device includes a microphone that collects an audio signal, and a communication unit that transmits the collected audio data to the passenger detection device. The passenger detection device includes the communication unit. A speaker is provided for outputting audio data received from the TV.
In the invention of claim 5 , each passenger detection device is provided with a speaker, and the voice of the operator is broadcast from the speaker of the passenger detection device at a short distance from the specific passenger, thereby pinpointing the specific passenger. You can make a call at .
Invention Motomeko 6, wherein the inlet is a security checkpoint inlet, wherein the predetermined detection area is restricted area.
The invention of claim 6 detects a passenger in a restricted area from the security checkpoint entrance to the boarding gate.

Claims (6)

入口から少なくとも1つの搭乗口に至る所定の探知エリアにおいて、特定の乗客を探知する乗客探知システムであって、
前記入口に設置されて、乗客が所持する搭乗券の搭乗券情報を読み取る情報読取手段と、前記乗客を撮影する読込カメラと、を備えた情報読込装置と、
前記情報読込装置が取得した搭乗券情報と、前記読込カメラが撮影した前記乗客の初期外観像から得られる前記乗客の初期特徴量データと、を対応づけて記憶する乗客データベースと、
前記乗客データベースから、前記特定の乗客の初期特徴量データを抽出する中央処理装置と、
前記探知エリア内に設置されて、前記探知エリア内を撮影する探知カメラと、前記探知カメラにより撮影された人物の外観像から得られる特徴量データと前記初期特徴量データとが一致したときに前記探知カメラにより撮影された人物が前記特定の乗客であると判定するマッチング手段と、を夫々備えた複数の乗客探知装置と、
前記搭乗口から出発する少なくとも1つの交通手段に関する運行情報を記憶する運行データベースと、を備え、
前記中央処理装置は、前記乗客データベースから取得した搭乗券情報に含まれる交通手段に関する情報と、前記運行データベースから取得した交通手段に関する運行情報とに基づいて、前記複数の乗客探知装置のうちの少なくとも1つの乗客探知装置を選定する乗客探知装置選定手段を備えたことを特徴とする乗客探知システム。
A passenger detection system for detecting a specific passenger in a predetermined detection area from an entrance to at least one boarding gate,
An information reading device provided with information reading means that is installed at the entrance and reads boarding pass information of a boarding pass carried by a passenger, and a reading camera that photographs the passenger,
Passenger database that stores the boarding pass information acquired by the information reading device and the initial feature data of the passenger obtained from the initial appearance image of the passenger taken by the reading camera in association with each other;
A central processing unit for extracting initial feature data of the specific passenger from the passenger database;
A detection camera that is installed in the detection area and images the inside of the detection area, and when the feature amount data obtained from the appearance image of the person imaged by the detection camera matches the initial feature amount data. A plurality of passenger detection devices each comprising a matching means for determining that the person photographed by the detection camera is the specific passenger;
An operation database storing operation information related to at least one means of transportation departing from the boarding gate, and
The central processing unit is at least one of the plurality of passenger detection devices based on information on transportation means included in boarding pass information acquired from the passenger database and operation information on transportation means obtained from the operation database. A passenger detection system comprising a passenger detection device selection means for selecting one passenger detection device.
前記搭乗券情報は、乗客が搭乗する交通手段を特定する搭乗便名を含み、
前記運行データベースには、前記搭乗便名と前記搭乗口とが関連づけて登録されており、
前記乗客探知装置選定手段は、前記乗客データベースから取得された搭乗便名に基づいて前記運行データベースから搭乗口の情報を取得し、前記入口から前記該搭乗口に至るエリアに設置された乗客探知装置を選定することを特徴とする請求項1に記載の乗客探知システム。
The boarding pass information includes a boarding flight name that identifies the means of transportation on which the passenger is boarded,
In the operation database, the boarding flight name and the boarding gate are registered in association with each other,
The passenger detection device selection means acquires boarding gate information from the operation database based on the boarding flight name acquired from the passenger database, and is installed in an area from the entrance to the boarding gate. The passenger detection system according to claim 1, wherein the passenger detection system is selected.
前記特定の乗客のデータを入力する入力手段と、前記入力手段から入力された前記特定の乗客を示すデータを前記中央処理装置に送信する通信手段と、を備えた端末装置を備え、
中央処理装置は、前記端末装置から送信された特定の乗客を示すデータをキーとして、前記乗客データベースに前記初期特徴量データを検索させ、前記乗客データベースから取得した前記初期特徴量データを、前記乗客探知装置選定手段によって選定された乗客探知装置に送信することを特徴とする請求項1又は2に記載の乗客探知システム。
An input unit that inputs data of the specific passenger; and a communication unit that transmits data indicating the specific passenger input from the input unit to the central processing unit.
The central processing unit causes the passenger database to search for the initial feature value data using the data indicating the specific passenger transmitted from the terminal device as a key, and the initial feature value data acquired from the passenger database 3. The passenger detection system according to claim 1, wherein the transmission is transmitted to a passenger detection device selected by a detection device selection means.
前記端末装置は、音声信号を集音するマイクと、集音した音声データを前記乗客探知装置に送信する通信手段と、を備え、
前記乗客探知装置は、前記通信手段から受信した音声データを出力するスピーカを備えたことを特徴とする請求項3に記載の乗客探知システム。
The terminal device includes a microphone that collects an audio signal, and a communication unit that transmits the collected audio data to the passenger detection device,
The passenger detection system according to claim 3, wherein the passenger detection device includes a speaker that outputs audio data received from the communication unit.
前記乗客探知装置は、前記マッチング手段により判定された前記特定の乗客の像を追跡する乗客追跡手段を備え、
前記乗客追跡手段は、追跡中の人物像にマーカ画像を合成することを特徴とする請求項1乃至4の何れか一項に記載の乗客探知システム。
The passenger detection device includes a passenger tracking unit that tracks an image of the specific passenger determined by the matching unit,
The passenger detection system according to any one of claims 1 to 4, wherein the passenger tracking unit synthesizes a marker image with a person image being tracked.
前記入口が保安検査場入口であり、前記所定の探知エリアが制限エリアであることを特徴とする請求項1乃至5の何れか一項に記載の乗客探知システム。   The passenger detection system according to any one of claims 1 to 5, wherein the entrance is a security checkpoint entrance, and the predetermined detection area is a restricted area.
JP2013062359A 2013-03-25 2013-03-25 Passenger detection system Expired - Fee Related JP5568153B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013062359A JP5568153B1 (en) 2013-03-25 2013-03-25 Passenger detection system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013062359A JP5568153B1 (en) 2013-03-25 2013-03-25 Passenger detection system

Publications (2)

Publication Number Publication Date
JP5568153B1 JP5568153B1 (en) 2014-08-06
JP2014186650A true JP2014186650A (en) 2014-10-02

Family

ID=51427205

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013062359A Expired - Fee Related JP5568153B1 (en) 2013-03-25 2013-03-25 Passenger detection system

Country Status (1)

Country Link
JP (1) JP5568153B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015217361A1 (en) 2014-09-12 2016-03-17 Nabtesco Corporation Device for removing debris for use in a switch and method for installing a device for removing debris for use in a switch
JP2017054349A (en) * 2015-09-10 2017-03-16 株式会社東芝 Ticket examination monitoring system
WO2018116973A1 (en) * 2016-12-22 2018-06-28 Necソリューションイノベータ株式会社 Non-boarded passenger search device, non-boarded passenger search method, and recording medium
KR20190062686A (en) * 2017-11-29 2019-06-07 현대자동차주식회사 Automatic Driving control System, vehicle having the same and method for controlling the same
JP2020135740A (en) * 2019-02-25 2020-08-31 株式会社富士通アドバンストエンジニアリング Determination device, determination method and program
JP2021056869A (en) * 2019-09-30 2021-04-08 株式会社デンソーウェーブ Facility user management system
JPWO2021065110A1 (en) * 2019-09-30 2021-10-21 日本電気株式会社 Admission control equipment, admission management methods, and computer programs
US11649067B2 (en) * 2020-06-12 2023-05-16 The Boeing Company Object monitoring system for aircraft

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115565274B (en) * 2022-12-06 2023-03-10 成都智元汇信息技术股份有限公司 Ticket checking method and system for reducing split sales amount of security check ratio and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005055151A1 (en) * 2003-12-03 2005-06-16 Hitachi, Ltd. Boarding security check system and method and computer program
JP2007072781A (en) * 2005-09-07 2007-03-22 Toshiba Corp Entrance management/monitoring system
JP2011215725A (en) * 2010-03-31 2011-10-27 Airport Intelligent Communications Service Co Ltd Passenger movement support system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005055151A1 (en) * 2003-12-03 2005-06-16 Hitachi, Ltd. Boarding security check system and method and computer program
JP2007072781A (en) * 2005-09-07 2007-03-22 Toshiba Corp Entrance management/monitoring system
JP2011215725A (en) * 2010-03-31 2011-10-27 Airport Intelligent Communications Service Co Ltd Passenger movement support system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102015217361A1 (en) 2014-09-12 2016-03-17 Nabtesco Corporation Device for removing debris for use in a switch and method for installing a device for removing debris for use in a switch
JP2017054349A (en) * 2015-09-10 2017-03-16 株式会社東芝 Ticket examination monitoring system
US11281894B2 (en) * 2016-12-22 2022-03-22 Nec Solution Innovators, Ltd. Non-boarded passenger search device, non-boarded passenger search method, and recording medium
WO2018116973A1 (en) * 2016-12-22 2018-06-28 Necソリューションイノベータ株式会社 Non-boarded passenger search device, non-boarded passenger search method, and recording medium
JPWO2018116973A1 (en) * 2016-12-22 2019-10-31 Necソリューションイノベータ株式会社 Non-passenger search device, non-passenger search method, and program
KR102441510B1 (en) 2017-11-29 2022-09-07 현대자동차주식회사 Automatic Driving control System, vehicle having the same and method for controlling the same
KR20190062686A (en) * 2017-11-29 2019-06-07 현대자동차주식회사 Automatic Driving control System, vehicle having the same and method for controlling the same
JP2020135740A (en) * 2019-02-25 2020-08-31 株式会社富士通アドバンストエンジニアリング Determination device, determination method and program
JP7196681B2 (en) 2019-02-25 2022-12-27 富士通株式会社 Determination device, determination method and program
JP2021056869A (en) * 2019-09-30 2021-04-08 株式会社デンソーウェーブ Facility user management system
JPWO2021065110A1 (en) * 2019-09-30 2021-10-21 日本電気株式会社 Admission control equipment, admission management methods, and computer programs
JP7136494B2 (en) 2019-09-30 2022-09-13 日本電気株式会社 Admission control device, admission control method, and computer program
JP7310511B2 (en) 2019-09-30 2023-07-19 株式会社デンソーウェーブ Facility user management system
US11649067B2 (en) * 2020-06-12 2023-05-16 The Boeing Company Object monitoring system for aircraft

Also Published As

Publication number Publication date
JP5568153B1 (en) 2014-08-06

Similar Documents

Publication Publication Date Title
JP5568153B1 (en) Passenger detection system
JP7040463B2 (en) Analysis server, monitoring system, monitoring method and program
JP5851651B2 (en) Video surveillance system, video surveillance method, and video surveillance device
US11113912B2 (en) Information processing apparatus, information processing method, and storage medium
JP2022168070A (en) person detection system
EP3099061A1 (en) Image search system and image search method
US11087119B2 (en) Facial detection and recognition for pedestrian traffic
JP6859364B2 (en) Non-passenger search device, non-passenger search method, and program
JP7223296B2 (en) Information processing device, information processing method and program
US10839200B2 (en) Facial detection and recognition for pedestrian traffic
JP6534597B2 (en) Airport passenger tracking system
CN111539338A (en) Pedestrian mask wearing control method, device, equipment and computer storage medium
CN113677409A (en) Treasure hunting game guiding technology
JP2007293399A (en) Image exchange device, image exchange method, and image exchange program
JP7310511B2 (en) Facility user management system
WO2023005662A1 (en) Image processing method and apparatus, electronic device, program product and computer-readable storage medium
JP2019082450A (en) Information processing apparatus, notification system, method and program
JP2014016969A (en) Face matching system
JP2022146036A (en) Thing left behind detection device, thing left behind detection system and thing left behind detection program
JP7127703B2 (en) Information processing device, information processing method and program
JP7196681B2 (en) Determination device, determination method and program
JP2024052544A (en) Vehicle Abandonment Detection System and Server
JP2019207676A (en) Image processing apparatus and image processing method
CN115280339A (en) Information management system, information management method, and program
JP2018018406A (en) Detection device, monitoring system, detection method, and program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140513

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140617

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140620

R150 Certificate of patent or registration of utility model

Ref document number: 5568153

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees