JP7487901B1 - Queue information providing system, method, and program - Google Patents

Queue information providing system, method, and program Download PDF

Info

Publication number
JP7487901B1
JP7487901B1 JP2023008657A JP2023008657A JP7487901B1 JP 7487901 B1 JP7487901 B1 JP 7487901B1 JP 2023008657 A JP2023008657 A JP 2023008657A JP 2023008657 A JP2023008657 A JP 2023008657A JP 7487901 B1 JP7487901 B1 JP 7487901B1
Authority
JP
Japan
Prior art keywords
person
queue
location
identified
head
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023008657A
Other languages
Japanese (ja)
Other versions
JP2024104452A (en
Inventor
珠実 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2023008657A priority Critical patent/JP7487901B1/en
Application granted granted Critical
Publication of JP7487901B1 publication Critical patent/JP7487901B1/en
Publication of JP2024104452A publication Critical patent/JP2024104452A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザの利便性を向上させることができる、行列情報提供システム、方法、及びプログラムを提供する。【解決手段】行列情報提供システム10にて行列特定部15は、「行列発生候補エリア」が少なくとも1つのカメラによって撮影されたエリア画像に基づいて算出された各人の存在位置に基づいて、所定の起点に存在する先頭の人から順に次の順番の人を特定して先頭の人から最後尾の人まで特定することによって、「行列発生候補エリア」に発生している行列を特定すると共に、その行列に含まれる各人の存在位置を特定する。そして、表示制御部16は、行列特定部15にて特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行する。【選択図】図1[Problem] To provide a queue information system, method, and program that can improve user convenience. [Solution] In a queue information system (10), a queue identification unit (15) identifies a queue that has occurred in a "queue occurrence potential area" by identifying the next person in line starting from the first person at a specified starting point and identifying the next person in line from the first person to the last person based on the location of each person calculated based on an area image of the "queue occurrence potential area" captured by at least one camera, thereby identifying a queue that has occurred in the "queue occurrence potential area" and identifying the location of each person in the queue. Then, a display control unit (16) executes control to display a map showing the location of the last person in the queue identified by the queue identification unit (15). [Selected Figure] Figure 1

Description

本開示は、行列情報提供システム、方法、及びプログラムに関する。 This disclosure relates to a queue information providing system, method, and program.

行列を管理する技術が提案されている(例えば、特許文献1)。特許文献1に開示されている技術では、移動体を行列へ誘導するための行列予定ラインが計画される。 Technology for managing queues has been proposed (for example, see Patent Document 1). In the technology disclosed in Patent Document 1, a planned queue line is planned to guide moving objects into the queue.

特開2022-101924号公報JP 2022-101924 A

しかしながら、特許文献1に開示されている技術では、例えばこれから行列に加わろうとするユーザに対して有用な情報を提供できない可能性がある。例えばユーザは、行列ができている設備まで行き、そして、この行列を辿ってこの行列の最後尾を見つける必要がある。 However, the technology disclosed in Patent Document 1 may not be able to provide useful information to a user who is about to join a queue. For example, the user needs to go to the facility where the queue is formed and then follow the queue to find the end of the queue.

本開示の目的は、ユーザの利便性を向上させることができる、行列情報提供システム、方法、及びプログラムを提供することにある。なお、この目的は、本明細書に開示される複数の実施形態が達成しようとする複数の目的の1つに過ぎないことに留意されるべきである。その他の目的又は課題と新規な特徴は、本明細書の記述又は添付図面から明らかにされる。 The object of the present disclosure is to provide a queue information providing system, method, and program that can improve user convenience. It should be noted that this object is merely one of multiple objects that the multiple embodiments disclosed in this specification aim to achieve. Other objects or problems and novel features will become apparent from the description of this specification or the accompanying drawings.

1つの態様では、行列情報提供システムは、
所定の起点からの行列が発生すると予想されるエリアが少なくとも1つのカメラによって撮影されたエリア画像を取得する第1取得部と、
前記エリア画像に含まれる各人の画像を検出する検出部と、
前記検出された各人の画像から特徴量を抽出する抽出部と、
前記少なくとも1つのカメラの位置と、前記検出された各人の画像の前記エリア画像における画像位置とに基づいて、各人の存在位置を算出する第1算出部と、
前記算出された各人の存在位置に基づいて、前記所定の起点に存在する先頭の人から順に次の順番の人を特定して前記先頭の人から最後尾の人まで特定することによって、前記エリアに発生している行列を特定すると共に、前記特定された行列に含まれる各人の存在位置を特定する行列特定部と、
前記特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行する表示制御部と、
を具備する。
In one aspect, the queue information system includes:
A first acquisition unit that acquires an area image captured by at least one camera of an area where a procession from a predetermined starting point is expected to occur;
A detection unit that detects an image of each person included in the area image;
an extraction unit that extracts features from the detected images of each person;
a first calculation unit that calculates a presence position of each person based on a position of the at least one camera and an image position of an image of each person detected in the area image;
a queue identification unit that identifies a queue occurring in the area by identifying the next person in order from the first person at the specified starting point to the last person based on the calculated location of each person, and also identifies the location of each person included in the identified queue;
a display control unit that executes control to display a map showing the location of the last person in the identified queue;
Equipped with:

他の態様では、行列情報提供システムによって実行される方法は、
所定の起点からの行列が発生すると予想されるエリアが少なくとも1つのカメラによって撮影されたエリア画像に基づいて算出された各人の存在位置に基づいて、前記所定の起点に存在する先頭の人から順に次の順番の人を特定して前記先頭の人から最後尾の人まで特定することによって、前記エリアに発生している行列を特定すると共に、前記特定された行列に含まれる各人の存在位置を特定することと、
前記特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行することと、
を含む。
In another aspect, a method performed by a queue information providing system includes:
Based on the location of each person calculated based on an area image captured by at least one camera in an area where a queue is expected to occur from a predetermined starting point, a queue is identified in the area by identifying the next person in line starting from the first person at the predetermined starting point and identifying the first person to the last person, thereby identifying the queue occurring in the area and identifying the location of each person included in the identified queue;
Executing control to display a map showing the location of the last person in the identified queue; and
including.

他の態様では、プログラムは、
所定の起点からの行列が発生すると予想されるエリアが少なくとも1つのカメラによって撮影されたエリア画像に基づいて算出された各人の存在位置に基づいて、前記所定の起点に存在する先頭の人から順に次の順番の人を特定して前記先頭の人から最後尾の人まで特定することによって、前記エリアに発生している行列を特定すると共に、前記特定された行列に含まれる各人の存在位置を特定することと、
前記特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行することと、
を含む処理を、行列情報提供システムに実行させる。
In another aspect, the program further comprises:
Based on the location of each person calculated based on an area image captured by at least one camera in an area where a queue is expected to occur from a predetermined starting point, a queue is identified in the area by identifying the next person in line starting from the first person at the predetermined starting point and identifying the first person to the last person, thereby identifying the queue occurring in the area and identifying the location of each person included in the identified queue;
Executing control to display a map showing the location of the last person in the identified queue; and
The process includes the steps of:

本開示により、ユーザの利便性を向上させることができる、行列情報提供システム、方法、及びプログラムを提供することができる。 This disclosure provides a queue information system, method, and program that can improve user convenience.

第1実施形態における行列情報提供システムの一例を示す図である。FIG. 1 is a diagram illustrating an example of a queue information providing system according to a first embodiment. 第1実施形態における行列情報提供システムの処理動作の一例を示すフローチャートである。5 is a flowchart showing an example of a processing operation of the queue information providing system in the first embodiment. 第2実施形態における行列情報提供システムの一例を示す図である。FIG. 11 is a diagram illustrating an example of a queue information providing system according to a second embodiment. 第2実施形態における行列情報テーブルの一例を示す図である。FIG. 11 is a diagram illustrating an example of a queue information table in the second embodiment. 第2実施形態における行列情報提供システムの処理動作(行列情報テーブルの作成(更新))の一例を示すフローチャートである。13 is a flowchart showing an example of a processing operation (creation (updating) of a queue information table) of the queue information providing system in the second embodiment. 第2実施形態における行列情報提供システムの処理動作(予測待ち時間の算出)の一例を示すフローチャートである。13 is a flowchart showing an example of a processing operation (calculation of a predicted waiting time) of the queue information providing system in the second embodiment. 第2実施形態における行列情報提供システムの処理動作(表示制御)の一例を示すフローチャートである。13 is a flowchart showing an example of a processing operation (display control) of the queue information providing system in the second embodiment. 第3実施形態における行列情報提供システムの一例を示す図である。FIG. 13 is a diagram illustrating an example of a queue information providing system according to a third embodiment. 第3実施形態における行列情報提供システムの処理動作の一例を示すフローチャートである。13 is a flowchart showing an example of a processing operation of the queue information providing system in the third embodiment. 行列情報提供システムの構成例を示す図である。FIG. 1 is a diagram illustrating an example of the configuration of a queue information providing system.

以下、図面を参照しつつ、実施形態について説明する。なお、実施形態において、同一又は同等の要素には、同一の符号を付し、重複する説明は省略される。 Hereinafter, the embodiments will be described with reference to the drawings. In the embodiments, the same or equivalent elements are given the same reference numerals, and duplicate descriptions will be omitted.

<第1実施形態>
<行列情報提供システムの構成例>
図1は、第1実施形態における行列情報提供システムの一例を示す図である。図1において、行列情報提供システム10は、取得部11と、検出部12と、抽出部13と、算出部14と、行列特定部15と、表示制御部16とを有している。
First Embodiment
<Example of queue information system configuration>
Fig. 1 is a diagram showing an example of a queue information providing system in the first embodiment. In Fig. 1, the queue information providing system 10 includes an acquisition unit 11, a detection unit 12, an extraction unit 13, a calculation unit 14, a queue identification unit 15, and a display control unit 16.

取得部11は、「所定の起点」からの行列が発生すると予想されるエリア(以下では、「行列発生候補エリア」と呼ばれることがある)が少なくとも1つのカメラ(不図示)によって撮影された「エリア画像」を取得する。例えば野球場等の施設では、トイレの前の通路、売店の前の通路等が、それぞれ「行列発生候補エリア」となり得る。そして、「行列発生候補エリア」がトイレの前の通路である場合、「所定の起点」は、例えばトイレの入口である。また、「行列発生候補エリア」が売店の前の通路である場合、「所定の起点」は、例えば売店のレジの前である。 The acquisition unit 11 acquires an "area image" captured by at least one camera (not shown) of an area where a queue is expected to form from a "predetermined starting point" (hereinafter sometimes referred to as a "potential queue occurrence area"). For example, in a facility such as a baseball stadium, the corridor in front of the restroom, the corridor in front of the concession stand, etc. could each be a "potential queue occurrence area." If the "potential queue occurrence area" is the corridor in front of the restroom, the "predetermined starting point" is, for example, the entrance to the restroom. If the "potential queue occurrence area" is the corridor in front of the concession stand, the "predetermined starting point" is, for example, in front of the cash register at the concession stand.

検出部12は、取得部11にて取得された「エリア画像」に含まれる各人の画像(例えば、各人の顔画像)を検出する。 The detection unit 12 detects images of each person (e.g., facial images of each person) included in the "area image" acquired by the acquisition unit 11.

抽出部13は、検出部12にて検出された各人の画像から「特徴量」を抽出する。この抽出された「特徴量」は、人を識別するための情報として用いられる。 The extraction unit 13 extracts "feature amounts" from the image of each person detected by the detection unit 12. The extracted "feature amounts" are used as information for identifying people.

算出部14は、上記の少なくとも1つのカメラ(不図示)の位置と、抽出部13にて検出された各人の画像のエリア画像における画像位置とに基づいて、各人の存在位置を算出する。例えば、「エリア画像」の撮影に用いられたカメラ(不図示)の内部パラメータ及び外部パラメータがわかっていれば、画像位置をワールド座標系の位置に変換することができる。このため、各人の存在位置を算出することができる。 The calculation unit 14 calculates the location of each person based on the location of the at least one camera (not shown) and the image location in the area image of each person detected by the extraction unit 13. For example, if the internal and external parameters of the camera (not shown) used to capture the "area image" are known, the image location can be converted to a location in the world coordinate system. This makes it possible to calculate the location of each person.

行列特定部15は、算出部14にて算出された各人の存在位置に基づいて、行列発生候補エリアに発生している「行列」を特定する。例えば、行列特定部15は、「所定の起点」に存在する先頭の人から順に次の順番の人を特定して先頭の人から最後尾の人まで特定することによって「行列」を特定する。具体的には、行列特定部15は、「所定の起点」の位置と重なる(一致する)位置に存在する人を、その行列の先頭の人として特定する。そして、行列特定部15は、特定した先頭の人の存在位置との間の距離が所定値以下である位置に存在する人を、その先頭の人に対する次の順番の人として特定する。このとき、行列特定部15は、行列のパターン(例えば、延びる方向等)を考慮して、次の順番の人を特定してもよい。そして、行列特定部15は、最後に特定した行列に含まれる人に対する次の順番の人を特定することを繰り返すことによって、行列を特定する。そして、行列特定部15は、最後に特定した行列に含まれる人に対する次の順番の人を特定できないとき、その最後に特定した行列に含まれる人を、最後尾の人として特定する。 The queue identification unit 15 identifies a "queue" occurring in the queue occurrence candidate area based on the location of each person calculated by the calculation unit 14. For example, the queue identification unit 15 identifies the "queue" by identifying the next person in order from the first person present at the "predetermined starting point" to the last person. Specifically, the queue identification unit 15 identifies a person present at a position that overlaps (matches) the position of the "predetermined starting point" as the first person in the queue. Then, the queue identification unit 15 identifies a person present at a position that is a predetermined value or less away from the location of the identified first person as the next person in order relative to the first person. At this time, the queue identification unit 15 may identify the next person in order taking into account the pattern of the queue (for example, the direction in which it extends, etc.). Then, the queue identification unit 15 identifies the queue by repeating the process of identifying the next person in order relative to the person included in the last identified queue. Then, when the queue identification unit 15 cannot identify the person next in line to the person included in the last identified queue, it identifies the person included in the last identified queue as the person at the end.

このように行列を特定することによって、行列特定部15は、エリアに発生している行列と共に、その行列に含まれる各人の存在位置を特定することができる。 By identifying the queue in this way, the queue identification unit 15 can identify the queue that has occurred in the area as well as the location of each person in the queue.

表示制御部16は、行列特定部15にて特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行する。この制御によって、例えば、最後尾の人の存在位置が示された地図が表示装置(不図示)に表示にされる。表示装置(不図示)は、例えば、施設に設置されたディスプレイであってもよいし、この地図を見ることを望むユーザが保持する端末(スマートフォン等)であってもよい。 The display control unit 16 executes control to display a map showing the location of the last person in the queue identified by the queue identification unit 15. Through this control, for example, a map showing the location of the last person is displayed on a display device (not shown). The display device (not shown) may be, for example, a display installed in the facility, or may be a terminal (such as a smartphone) held by a user who wishes to view the map.

以上の行列情報提供システム10の構成により、ユーザは最後尾の人の存在位置に関する情報を得ることができるので、ユーザの利便性を向上させることができる。 The above-described configuration of the queue information system 10 allows users to obtain information about the location of the last person in line, thereby improving user convenience.

ここで、行列情報提供システム10は、1つ又は複数の装置によって構成されていてもよい。すなわち、行列情報提供システム10の取得部11、検出部12、抽出部13、算出部14、行列特定部15、及び表示制御部16の任意の組み合わせは、1つ又は複数の装置に分散配置されていてもよい。例えば、取得部11、検出部12、抽出部13、算出部14、及び行列特定部15は、行列特定装置(不図示)に含まれ、表示制御部16は、サーバ装置(不図示)に含まれていてもよい。 Here, the queue information providing system 10 may be composed of one or more devices. That is, any combination of the acquisition unit 11, detection unit 12, extraction unit 13, calculation unit 14, queue identification unit 15, and display control unit 16 of the queue information providing system 10 may be distributed and arranged in one or more devices. For example, the acquisition unit 11, detection unit 12, extraction unit 13, calculation unit 14, and queue identification unit 15 may be included in a queue identification device (not shown), and the display control unit 16 may be included in a server device (not shown).

また、行列発生候補エリアが複数存在する場合、行列情報提供システム10は、各行列発生候補エリアについて上記の処理を実行してもよい。 In addition, if there are multiple potential queue areas, the queue information system 10 may perform the above process for each potential queue area.

<行列情報提供システムの動作例>
図2は、第1実施形態における行列情報提供システムの処理動作の一例を示すフローチャートである。
<Example of queue information system operation>
FIG. 2 is a flowchart showing an example of a processing operation of the queue information providing system in the first embodiment.

取得部11は、「所定の起点」からの行列が発生すると予想されるエリアが少なくとも1つのカメラ(不図示)によって撮影された「エリア画像」を取得する(ステップS11)。 The acquisition unit 11 acquires an "area image" in which an area where a queue from a "predetermined starting point" is expected to occur is photographed by at least one camera (not shown) (step S11).

検出部12は、取得部11にて取得された「エリア画像」に含まれる各人の画像を検出する(ステップS12)。 The detection unit 12 detects images of each person included in the "area image" acquired by the acquisition unit 11 (step S12).

抽出部13は、検出部12にて検出された各人の画像から特徴量を抽出する(ステップS13)。 The extraction unit 13 extracts features from the images of each person detected by the detection unit 12 (step S13).

算出部14は、上記の少なくとも1つのカメラ(不図示)の位置と、抽出部13にて検出された各人の画像のエリア画像における画像位置とに基づいて、各人の存在位置を算出する(ステップS14)。 The calculation unit 14 calculates the location of each person based on the location of at least one camera (not shown) and the image location in the area image of each person detected by the extraction unit 13 (step S14).

行列特定部15は、算出部14にて算出された各人の存在位置に基づいて、行列発生候補エリアに発生している「行列」と共に、その行列に含まれる各人の存在位置を特定する(ステップS15)。 Based on the location of each person calculated by the calculation unit 14, the queue identification unit 15 identifies the "queue" occurring in the queue occurrence candidate area, as well as the location of each person included in the queue (step S15).

表示制御部16は、行列特定部15にて特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行する(ステップS16)。 The display control unit 16 executes control to display a map showing the location of the last person in the queue identified by the queue identification unit 15 (step S16).

以上のように第1実施形態によれば、行列情報提供システム10にて行列特定部15は、「行列発生候補エリア」が少なくとも1つのカメラによって撮影されたエリア画像に基づいて算出された各人の存在位置に基づいて、所定の起点に存在する先頭の人から順に次の順番の人を特定して先頭の人から最後尾の人まで特定することによって、「行列発生候補エリア」に発生している行列を特定すると共に、その行列に含まれる各人の存在位置を特定する。そして、表示制御部16は、行列特定部15にて特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行する。 As described above, according to the first embodiment, the queue identification unit 15 in the queue information system 10 identifies a queue that has occurred in a "queue occurrence potential area" by identifying the next person in line, starting from the first person at a specified starting point, and then identifying the next person in line from the first person to the last person, based on the location of each person calculated based on an area image of the "queue occurrence potential area" captured by at least one camera, thereby identifying a queue that has occurred in the "queue occurrence potential area" and identifying the location of each person in the queue. Then, the display control unit 16 executes control to display a map showing the location of the last person in the queue identified by the queue identification unit 15.

この行列情報提供システム10の構成により、ユーザは最後尾の人の存在位置に関する情報を得ることができるので、ユーザの利便性を向上させることができる。 This configuration of queue information system 10 allows users to obtain information about the location of the last person in line, improving user convenience.

<第2実施形態>
第2実施形態は、より具体的な実施形態に関する。
Second Embodiment
The second embodiment relates to a more specific embodiment.

<行列情報提供システムの構成例>
図3は、第2実施形態における行列情報提供システムの一例を示す図である。図3において、行列情報提供システム20は、取得部11と、検出部12と、抽出部13と、算出部14と、行列特定部15と、形成部21と、記憶部22と、算出部23と、表示制御部24とを有している。
<Example of queue information system configuration>
Fig. 3 is a diagram showing an example of a queue information system in the second embodiment. In Fig. 3, a queue information system 20 includes an acquisition unit 11, a detection unit 12, an extraction unit 13, a calculation unit 14, a queue identification unit 15, a formation unit 21, a storage unit 22, a calculation unit 23, and a display control unit 24.

形成部21は、「行列情報(行列情報テーブル22A)」を形成し、形成した「行列情報(行列情報テーブル22A)」を記憶部22に記憶させる。図4は、第2実施形態における行列情報テーブルの一例を示す図である。図4に示すように、行列情報テーブル22Aは、行列特定部15によって特定された行列における人の順番に応じて並べられた複数のエントリを含む。そして、各エントリは、行列特定部15によって特定された行列に含まれる各人の特徴量(例えば顔識別情報)と存在位置(位置座標)とを含んでいる。また、図4に示すように、行列情報テーブル22Aにおける最初のエントリには、「先頭フラグ」が付されてもよい。さらに、行列情報テーブル22Aにおける最初のエントリは、先頭フラグが付された時間(つまり、先頭になった時間)が含められてもよい。また、行列情報テーブル22Aにおける最後のエントリには、「最後尾フラグ」が付されてもよい。また、各人の特徴量(例えば顔識別情報)には、IDが付されてもよい。なお、行列発生候補エリアが複数存在する場合、行列発生候補エリアごとに「行列情報(行列情報テーブル22A)」が形成される。 The forming unit 21 forms "queue information (queue information table 22A)" and stores the formed "queue information (queue information table 22A)" in the storage unit 22. FIG. 4 is a diagram showing an example of a queue information table in the second embodiment. As shown in FIG. 4, the queue information table 22A includes a plurality of entries arranged according to the order of people in the queue identified by the queue identification unit 15. Each entry includes the feature amount (e.g., face identification information) and the location (location coordinates) of each person included in the queue identified by the queue identification unit 15. Also, as shown in FIG. 4, the first entry in the queue information table 22A may be assigned a "head flag". Furthermore, the first entry in the queue information table 22A may include the time when the head flag was assigned (i.e., the time when it became the head). Also, the last entry in the queue information table 22A may be assigned a "tail flag". Also, an ID may be assigned to the feature amount (e.g., face identification information) of each person. Note that, when there are a plurality of queue generation candidate areas, "queue information (queue information table 22A)" is formed for each queue generation candidate area.

ここで、取得部11は、所定周期でエリア画像を取得する。そして、検出部12、抽出部13、算出部14、及び行列特定部15は、所定周期で取得されるエリア画像に基づいて、所定周期で処理を実行する。そして、形成部21は、所定周期で実行された検出部12、抽出部13、算出部14、及び行列特定部15による処理によって得られた情報を用いて、所定周期で「行列情報(行列情報テーブル22A)」を更新する。 Here, the acquisition unit 11 acquires an area image at a predetermined cycle. Then, the detection unit 12, the extraction unit 13, the calculation unit 14, and the matrix identification unit 15 execute processing at a predetermined cycle based on the area image acquired at the predetermined cycle. Then, the formation unit 21 updates the "matrix information (matrix information table 22A)" at a predetermined cycle using information obtained by the processing executed at the predetermined cycle by the detection unit 12, the extraction unit 13, the calculation unit 14, and the matrix identification unit 15.

算出部23は、「回転時間」と、行列に含まれる人の数とに基づいて、行列における予測待ち時間を算出する。「回転時間」は、行列における先頭の第1の人が先頭になったタイミングから該第1の人の次の順番の第2の人が先頭になるタイミングまでの時間、又は、この時間の平均値であってもよい。例えば、算出部23は、形成部21から先頭フラグが付されているエントリが変わるタイミングで通知を受け、連続する1つの通知のタイミングと次の通知のタイミングとの間の時間を計測することによって、「回転時間」を計測してもよい。また、算出部23は、「行列情報(行列情報テーブル22A)」のエントリの数をカウントすることによって、行列に含まれる人の数をカウントしてもよい。 The calculation unit 23 calculates the predicted waiting time in the queue based on the "turning time" and the number of people in the queue. The "turning time" may be the time from when the first person at the head of the queue becomes the head to when the second person following the first person becomes the head, or the average value of this time. For example, the calculation unit 23 may measure the "turning time" by receiving a notification from the formation unit 21 when an entry with a head flag changes, and measuring the time between the timing of one successive notification and the timing of the next notification. The calculation unit 23 may also count the number of people in the queue by counting the number of entries in the "queue information (queue information table 22A)".

表示制御部24は、行列における最後尾の人の存在位置と算出部23にて算出された予測待ち時間とが示された地図を表示する制御を実行する。この制御によって、例えば、最後尾の人の存在位置と予測待ち時間とが示された地図が表示装置(不図示)に表示にされる。表示装置(不図示)は、例えば、施設に設置されたディスプレイであってもよいし、この地図を見ることを望むユーザが保持する端末(スマートフォン等)であってもよい。 The display control unit 24 executes control to display a map showing the location of the last person in the queue and the estimated waiting time calculated by the calculation unit 23. Through this control, for example, a map showing the location of the last person in the queue and the estimated waiting time is displayed on a display device (not shown). The display device (not shown) may be, for example, a display installed in the facility, or may be a terminal (such as a smartphone) held by a user who wishes to view the map.

<行列情報提供システムの動作例>
以上の構成を有する行列情報提供システム20の処理動作の一例について説明する。
<Example of queue information system operation>
An example of the processing operation of the queue information providing system 20 having the above configuration will be described.

(行列情報テーブルの作成(更新))
図5は、第2実施形態における行列情報提供システムの処理動作(行列情報テーブルの作成(更新))の一例を示すフローチャートである。図5に示す処理フローは、所定周期(例えば、「第1の周期」)で繰り返されてもよい。
(Create (update) queue information table)
5 is a flowchart showing an example of a processing operation (creation (updating) of a queue information table) of the queue information providing system in the second embodiment. The processing flow shown in FIG. 5 may be repeated at a predetermined period (for example, a "first period").

取得部11は、「所定の起点」からの行列が発生すると予想されるエリアが少なくとも1つのカメラ(不図示)によって撮影された「エリア画像」を取得する(ステップS21)。 The acquisition unit 11 acquires an "area image" in which an area where a queue from a "predetermined starting point" is expected to occur is photographed by at least one camera (not shown) (step S21).

検出部12は、取得部11にて取得された「エリア画像」に含まれる各人の画像を検出する(ステップS22)。 The detection unit 12 detects images of each person included in the "area image" acquired by the acquisition unit 11 (step S22).

抽出部13は、検出部12にて検出された各人の画像から特徴量を抽出する(ステップS23)。 The extraction unit 13 extracts features from the images of each person detected by the detection unit 12 (step S23).

算出部14は、上記の少なくとも1つのカメラ(不図示)の位置と、抽出部13にて検出された各人の画像のエリア画像における画像位置とに基づいて、各人の存在位置を算出する(ステップS24)。 The calculation unit 14 calculates the location of each person based on the location of at least one camera (not shown) and the image location in the area image of each person detected by the extraction unit 13 (step S24).

行列特定部15は、算出部14にて算出された各人の存在位置に基づいて、行列発生候補エリアに発生している「行列」と共に、その行列に含まれる各人の存在位置を特定する(ステップS25)。 Based on the location of each person calculated by the calculation unit 14, the queue identification unit 15 identifies the "queue" occurring in the queue occurrence candidate area, as well as the location of each person included in the queue (step S25).

形成部21は、行列情報テーブル22Aを形成し、形成した行列情報テーブル22Aを記憶部22に記憶させる。なお、既に記憶部22に対応する行列の行列情報テーブル22Aが記憶されている場合、形成部21は、新たに作成した行列情報テーブル22Aによって既に記憶されている行列情報テーブル22Aを更新することになる。 The formation unit 21 forms a queue information table 22A and stores the formed queue information table 22A in the storage unit 22. Note that if a queue information table 22A for the corresponding queue is already stored in the storage unit 22, the formation unit 21 updates the queue information table 22A already stored with the newly created queue information table 22A.

なお、行列情報提供システム20は、第1の周期よりも短い第2の周期で「エリア画像」を取得し、記憶部22に記憶されている行列情報テーブル22Aの各特徴量に対応する各人の画像の「エリア画像」における画像位置を特定してもよい。そして、行列情報提供システム20は、上記の少なくとも1つのカメラ(不図示)の位置と、特定された各人の画像の「エリア画像」における画像位置とに基づいて、各人の存在位置を算出してもよい。そして、行列情報提供システム20は、算出した各人の存在位置によって、対応するエントリの存在位置の値を更新してもよい。 The queue information system 20 may acquire an "area image" at a second period shorter than the first period, and identify the image position in the "area image" of the image of each person corresponding to each feature of the queue information table 22A stored in the memory unit 22. The queue information system 20 may then calculate the location of each person based on the position of the at least one camera (not shown) and the image position in the "area image" of the identified image of each person. The queue information system 20 may then update the location value of the corresponding entry based on the calculated location of each person.

(予測待ち時間の算出)
図6は、第2実施形態における行列情報提供システムの処理動作(予測待ち時間の算出)の一例を示すフローチャートである。
(Calculation of Estimated Waiting Time)
FIG. 6 is a flowchart showing an example of a processing operation (calculation of a predicted waiting time) of the queue information providing system in the second embodiment.

算出部23は、「回転時間」を計測する(ステップS31)。 The calculation unit 23 measures the "rotation time" (step S31).

算出部23は、行列情報テーブル22Aを用いて、行列に含まれる人の数をカウントする(ステップS32)。 The calculation unit 23 counts the number of people in the queue using the queue information table 22A (step S32).

算出部23は、「回転時間」と、行列に含まれる人の数とに基づいて、行列における予測待ち時間を算出する(ステップS33)。なお、計測した「回転時間」の平均値が、予測待ち時間の算出に用いられてもよい。 The calculation unit 23 calculates the predicted waiting time in the queue based on the "turning time" and the number of people in the queue (step S33). Note that the average value of the measured "turning time" may be used to calculate the predicted waiting time.

(表示制御)
図7は、第2実施形態における行列情報提供システムの処理動作(表示制御)の一例を示すフローチャートである。ここでは、ユーザの端末から表示要求を受け付けるケースを一例として説明する。
(Display control)
7 is a flowchart showing an example of the processing operation (display control) of the queue information providing system in the second embodiment. Here, a case where a display request is received from a user terminal will be described as an example.

例えば、ユーザは、端末を操作して施設の地図を端末のディスプレイに表示し、チェックしたい設備を指定する。これにより、端末は、指定された設備に関する情報(指定設備識別情報)を含む表示要求信号を形成し、形成した表示要求信号を行列情報提供システム20に送信する。 For example, the user operates the terminal to display a map of the facility on the terminal display and specify the facility that the user wants to check. As a result, the terminal forms a display request signal that includes information about the specified facility (specified facility identification information) and transmits the formed display request signal to the queue information system 20.

表示制御部24は、ユーザの端末から送信された表示要求信号を受け取る(ステップS41)。 The display control unit 24 receives a display request signal sent from the user's terminal (step S41).

表示制御部24は、表示要求信号に含まれる指定設備識別情報が示す設備に対応する行列情報テーブル22Aを参照して、最後尾の人の存在位置を取得する(ステップ42)。 The display control unit 24 refers to the queue information table 22A corresponding to the facility indicated by the specified facility identification information included in the display request signal to obtain the location of the last person (step 42).

表示制御部24は、表示要求信号に含まれる情報が示す設備に対応する行列について算出部23によって算出された予測待ち時間を取得する(ステップS43)。 The display control unit 24 obtains the predicted waiting time calculated by the calculation unit 23 for the queue corresponding to the facility indicated by the information included in the display request signal (step S43).

表示制御部24は、ステップ42にて取得された最後尾の人の存在位置とステップS43にて取得された予測待ち時間を含めた表示制御信号を形成する(ステップS44)。この表示制御信号は、ユーザの端末に向けて送信される。この表示制御信号を受け取った端末は、表示制御信号に含まれる最後尾の人の存在位置及び予測待ち時間を、ディスプレイに表示されている地図上に表示する。 The display control unit 24 forms a display control signal including the location of the last person acquired in step S42 and the predicted waiting time acquired in step S43 (step S44). This display control signal is transmitted to the user's terminal. The terminal that receives this display control signal displays the location of the last person and the predicted waiting time included in the display control signal on the map displayed on the display.

<第3実施形態>
第3実施形態は、行列に並んでいる人を探す実施形態に関する。以下では、探す対象の人を単に「対象人」と呼ぶことがある。
Third Embodiment
The third embodiment relates to an embodiment for searching for a person waiting in a queue. Hereinafter, the person to be searched for may be simply referred to as a "target person."

<行列情報提供システムの構成例>
図8は、第3実施形態における行列情報提供システムの一例を示す図である。図8において、行列情報提供システム30は、取得部11と、検出部12と、抽出部13と、算出部14と、行列特定部15と、形成部21と、記憶部22と、受付部31と、特定部32と、算出部33と、応答信号形成部34とを有している。
<Example of queue information system configuration>
Fig. 8 is a diagram showing an example of a queue information system in the third embodiment. In Fig. 8, the queue information system 30 includes an acquisition unit 11, a detection unit 12, an extraction unit 13, a calculation unit 14, a queue identification unit 15, a formation unit 21, a storage unit 22, a reception unit 31, an identification unit 32, a calculation unit 33, and a response signal formation unit 34.

受付部31は、対象人を探すことを要求する要求信号(以下では、「捜索要求信号」と呼ぶことがある)を受け付ける。捜索要求信号は、例えば、対象人の顔の特徴量を含む。 The reception unit 31 receives a request signal requesting to search for a target person (hereinafter, sometimes referred to as a "search request signal"). The search request signal includes, for example, facial features of the target person.

特定部32は、捜索要求信号に含まれている対象人の顔の特徴量と、行列情報テーブル22Aとに基づいて、対象人に対応するエントリを特定することによって、対象人の存在位置及び対象人の行列における順番を特定する。なお、それぞれ対応する行列が異なる複数の行列情報テーブル22Aが記憶部22に保持されている場合、捜索要求信号に含まれている対象人の顔の特徴量と一致する特徴量を含む行列情報テーブル22Aを特定することによって、対象人が並んでいる行列を特定できる。 The identification unit 32 identifies the target's location and the target's order in the queue by identifying an entry corresponding to the target based on the facial features of the target included in the search request signal and the queue information table 22A. Note that if multiple queue information tables 22A each corresponding to a different queue are stored in the storage unit 22, the queue in which the target is standing can be identified by identifying a queue information table 22A that includes features matching the facial features of the target included in the search request signal.

算出部33は、各行列情報テーブル22Aに対応する行列の「回転時間」を計測している。そして、算出部33は、「回転時間」と、特定部32にて特定された対象人の行列における順番とに基づいて、対象人の予測待ち時間を算出する。 The calculation unit 33 measures the "turning time" of the queue corresponding to each queue information table 22A. The calculation unit 33 then calculates the predicted waiting time of the target person based on the "turning time" and the position in the queue of the target person identified by the identification unit 32.

応答信号形成部34は、特定部32にて特定された対象人の存在位置及び算出部33にて算出された対象人の予測待ち時間を含む応答信号を形成する。そして、応答信号形成部34は、応答信号を捜索要求信号の送信元に向けて送信する。 The response signal forming unit 34 forms a response signal including the location of the target person identified by the identifying unit 32 and the predicted waiting time of the target person calculated by the calculating unit 33. The response signal forming unit 34 then transmits the response signal toward the sender of the search request signal.

<行列情報提供システムの動作例>
以上の構成を有する行列情報提供システム30の処理動作の一例について説明する。図9は、第3実施形態における行列情報提供システムの処理動作の一例を示すフローチャートである。図9には、行列に並んでいる人を探すための処理動作の一例が示されている。
<Example of queue information system operation>
An example of the processing operation of the queue information system 30 having the above configuration will be described. Fig. 9 is a flowchart showing an example of the processing operation of the queue information system in the third embodiment. Fig. 9 shows an example of the processing operation for searching for people waiting in a queue.

例えば、ユーザは、端末を操作して探す対象の人である対象人の顔の特徴量を含む捜索要求信号を、行列情報提供システム30に向けて送信する。対象人は、例えば、ユーザの家族又は友人等である。対象人の顔の特徴量は、ユーザが端末を用いて予め取得することによって、端末に保持されていてもよい。なお、ユーザは、端末を操作して端末に保存されている家族や友人の写真データを含む捜索要求信号を、行列情報提供システム30に向けて送信してもよい。 For example, a user operates a terminal to send a search request signal including facial features of a target person to be searched for to queue information system 30. The target person may be, for example, a family member or friend of the user. The facial features of the target person may be acquired in advance by the user using the terminal and stored in the terminal. The user may operate the terminal to send a search request signal including photo data of family and friends stored in the terminal to queue information system 30.

受付部31は、端末から送信された捜索要求信号を受け付ける(ステップS51)。 The reception unit 31 receives a search request signal transmitted from the terminal (step S51).

特定部32は、捜索要求信号に含まれている対象人の顔の特徴量と、行列情報テーブル22Aとに基づいて、対象人に対応するエントリを特定することによって、対象人の存在位置及び対象人の行列における順番を特定する(ステップS52)。 The identification unit 32 identifies the target person's location and the target person's order in the queue by identifying an entry corresponding to the target person based on the facial features of the target person included in the search request signal and the queue information table 22A (step S52).

算出部32は、「回転時間」と、特定部32にて特定された対象人の行列における順番とに基づいて、対象人の予測待ち時間を算出する(ステップS53)。 The calculation unit 32 calculates the predicted waiting time of the target person based on the "turning time" and the position in the queue of the target person identified by the identification unit 32 (step S53).

応答信号形成部34は、特定部32にて特定された対象人の存在位置及び算出部33にて算出された対象人の予測待ち時間を含む応答信号を形成する(ステップS54)。そして、応答信号形成部34は、応答信号を捜索要求信号の送信元の端末に向けて送信する(ステップS55)。これにより、ユーザは、対象人がどの行列のどの場所に並んでいて、行列から抜け出すのにどのくらい時間が掛かるかを把握することができる。 The response signal forming unit 34 forms a response signal including the location of the target person identified by the identifying unit 32 and the target person's predicted waiting time calculated by the calculating unit 33 (step S54). The response signal forming unit 34 then transmits the response signal to the terminal that transmitted the search request signal (step S55). This allows the user to know where in the queue the target person is standing and how long it will take for him or her to get out of the queue.

<他の実施形態>
図10は、行列情報提供システムの構成例を示す図である。図10において行列情報提供システム100は、プロセッサ101と、メモリ102とを有している。プロセッサ101は、例えば、マイクロプロセッサ、MPU(Micro Processing Unit)、又はCPU(Central Processing Unit)であってもよい。プロセッサ101は、複数のプロセッサを含んでもよい。メモリ102は、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ102は、プロセッサ101から離れて配置されたストレージを含んでもよい。この場合、プロセッサ101は、図示されていないI/Oインタフェースを介してメモリ102にアクセスしてもよい。
<Other embodiments>
Fig. 10 is a diagram showing an example of the configuration of a queue information system. In Fig. 10, the queue information system 100 has a processor 101 and a memory 102. The processor 101 may be, for example, a microprocessor, a micro processing unit (MPU), or a central processing unit (CPU). The processor 101 may include a plurality of processors. The memory 102 is configured by a combination of a volatile memory and a non-volatile memory. The memory 102 may include a storage located away from the processor 101. In this case, the processor 101 may access the memory 102 via an I/O interface not shown.

第1実施形態から第3実施形態の行列情報提供システム10,20,30は、それぞれ、図10に示した構成を有することができる。第1実施形態から第3実施形態の行列情報提供システム10,20,30の取得部11と、検出部12と、抽出部13と、算出部14と、行列特定部15と、表示制御部16,24と、形成部21と、算出部23と、受付部31と、特定部32と、算出部33と、応答信号形成部34とは、プロセッサ101がメモリ102に記憶されたプログラムを読み込んで実行することにより実現されてもよい。記憶部22は、メモリ102によって実現されてもよい。プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、行列情報提供システム10,20,30に供給することができる。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)を含む。さらに、非一時的なコンピュータ可読媒体の例は、CD-ROM(Read Only Memory)、CD-R、CD-R/Wを含む。さらに、非一時的なコンピュータ可読媒体の例は、半導体メモリを含む。半導体メモリは、例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によって行列情報提供システム10,20,30に供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムを行列情報提供システム10,20,30に供給できる。 The queue information providing systems 10, 20, and 30 of the first to third embodiments may each have the configuration shown in FIG. 10. The acquisition unit 11, detection unit 12, extraction unit 13, calculation unit 14, queue identification unit 15, display control unit 16, 24, formation unit 21, calculation unit 23, reception unit 31, identification unit 32, calculation unit 33, and response signal formation unit 34 of the queue information providing systems 10, 20, and 30 of the first to third embodiments may be realized by the processor 101 reading and executing a program stored in the memory 102. The storage unit 22 may be realized by the memory 102. The program can be stored using various types of non-transitory computer readable media and supplied to the queue information providing systems 10, 20, and 30. Examples of the non-transitory computer readable medium include magnetic recording media (e.g., flexible disks, magnetic tapes, hard disk drives) and magneto-optical recording media (e.g., magneto-optical disks). Further examples of non-transitory computer readable media include CD-ROM (Read Only Memory), CD-R, and CD-R/W. Further examples of non-transitory computer readable media include semiconductor memory. Semiconductor memory includes, for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, and RAM (Random Access Memory). The program may also be provided to the queue information system 10, 20, 30 by various types of transitory computer readable media. Examples of transitory computer readable media include electrical signals, optical signals, and electromagnetic waves. The transitory computer readable media can provide the program to the queue information system 10, 20, 30 via wired communication paths such as electrical wires and optical fibers, or wireless communication paths.

以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 The present invention has been described above with reference to the embodiment, but the present invention is not limited to the above. Various modifications that can be understood by a person skilled in the art can be made to the configuration and details of the present invention within the scope of the invention.

10 行列情報提供システム
11 取得部
12 検出部
13 抽出部
14 算出部
15 行列特定部
16 表示制御部
20 行列情報提供システム
21 形成部
22 記憶部
22A 行列情報テーブル
23 算出部
24 表示制御部
30 行列情報提供システム
31 受付部
32 算出部
32 特定部
33 算出部
34 応答信号形成部
LIST OF SYMBOLS 10 Queue information providing system 11 Acquisition unit 12 Detection unit 13 Extraction unit 14 Calculation unit 15 Queue identification unit 16 Display control unit 20 Queue information providing system 21 Formation unit 22 Storage unit 22A Queue information table 23 Calculation unit 24 Display control unit 30 Queue information providing system 31 Reception unit 32 Calculation unit 32 Identification unit 33 Calculation unit 34 Response signal formation unit

Claims (8)

所定の起点からの行列が発生すると予想されるエリアが少なくとも1つのカメラによって撮影されたエリア画像を取得する第1取得部と、
前記エリア画像に含まれる各人の画像を検出する検出部と、
前記検出された各人の画像から特徴量を抽出する抽出部と、
前記少なくとも1つのカメラの位置と、前記検出された各人の画像の前記エリア画像における画像位置とに基づいて、各人の存在位置を算出する第1算出部と、
前記算出された各人の存在位置に基づいて、前記所定の起点に存在する先頭の人から順に次の順番の人を特定して前記先頭の人から最後尾の人まで特定することによって、前記エリアに発生している行列を特定すると共に、前記特定された行列に含まれる各人の存在位置を特定する行列特定部と、
前記特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行する表示制御部と、
各エントリが前記特定された行列に含まれる各人の前記特徴量と前記存在位置とを含み、且つ、前記特定された行列における人の順番に応じて並べられた複数のエントリを含む、行列情報を形成する形成部と、
対象人を探すことの要求信号であって前記対象人の顔の特徴量を含む要求信号を受け付ける受付部と、
前記対象人の顔の特徴量と前記形成された行列情報とに基づいて、前記対象人に対応するエントリを特定することによって、前記対象人の存在位置及び前記対象人の前記行列における順番を特定する特定部と、
前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記特定された順番とに基づいて、前記対象人の予測待ち時間を算出する第3算出部と、
前記要求信号に対する応答信号であって前記特定された対象人の存在位置及び前記算出された対象人の予測待ち時間を含む応答信号を形成する応答信号形成部と、
を具備する行列情報提供システム。
A first acquisition unit that acquires an area image captured by at least one camera of an area where a procession from a predetermined starting point is expected to occur;
A detection unit that detects an image of each person included in the area image;
an extraction unit that extracts features from the detected images of each person;
a first calculation unit that calculates a presence position of each person based on a position of the at least one camera and an image position of an image of each person detected in the area image;
a queue identification unit that identifies a queue occurring in the area by identifying the next person in order from the first person at the specified starting point to the last person based on the calculated location of each person, and also identifies the location of each person included in the identified queue;
a display control unit that executes control to display a map showing the location of the last person in the identified queue;
a formation unit that forms queue information including a plurality of entries, each of which includes the feature amount and the location of each person included in the specified queue, and which are arranged according to the order of the people in the specified queue;
a reception unit that receives a request signal for searching for a target person, the request signal including facial features of the target person;
an identification unit that identifies an entry corresponding to the target person based on the facial feature amount of the target person and the formed matrix information, thereby identifying a location of the target person and a rank of the target person in the matrix;
a third calculation unit that calculates a predicted waiting time of the target person based on a time from a time when a first person at the head of the specified queue becomes the head to a time when a second person next in line to the first person becomes the head, and the specified order;
a response signal forming unit that forms a response signal to the request signal, the response signal including the location of the identified target person and the calculated predicted waiting time of the target person;
A queue information providing system comprising:
前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記行列に含まれる人の数とに基づいて、前記行列における予測待ち時間を算出する第2算出部をさらに具備する、
請求項1記載の行列情報提供システム。
The method further includes a second calculation unit that calculates a predicted waiting time in the queue based on a time from when a first person at the head of the identified queue becomes the head to when a second person next in line to the first person becomes the head, and the number of people included in the queue.
2. The queue information providing system according to claim 1.
前記行列特定部は、所定周期で、前記エリアに発生している行列を特定すると共に前記特定された行列に含まれる各人の存在位置を特定し、
前記形成部は、前記所定周期で、前記行列情報を更新する、
請求項記載の行列情報提供システム。
the queue identification unit identifies a queue occurring in the area at a predetermined period and identifies a location of each person included in the identified queue;
The formation unit updates the matrix information at the predetermined period.
2. The queue information providing system according to claim 1 .
前記所定周期で、前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記行列に含まれる人の数とに基づいて、前記行列における予測待ち時間を算出する第2算出部をさらに具備し、
前記表示制御部は、前記行列における最後尾の人の存在位置と前記予測待ち時間とが示された地図を表示する制御を実行する、
請求項記載の行列情報提供システム。
a second calculation unit that calculates a predicted waiting time in the queue based on a time from a time when a first person at the head of the identified queue becomes the head to a time when a second person next in line to the first person becomes the head, and a number of people included in the queue,
The display control unit executes control to display a map showing a location of the last person in the queue and the predicted waiting time.
4. The queue information providing system according to claim 3 .
行列情報提供システムによって実行される方法であって、
所定の起点からの行列が発生すると予想されるエリアが少なくとも1つのカメラによって撮影されたエリア画像に基づいて算出された各人の存在位置に基づいて、前記所定の起点に存在する先頭の人から順に次の順番の人を特定して前記先頭の人から最後尾の人まで特定することによって、前記エリアに発生している行列を特定すると共に、前記特定された行列に含まれる各人の存在位置を特定することと、
各エントリが前記特定された行列に含まれる各人の特徴量と前記存在位置とを含み、且つ、前記特定された行列における人の順番に応じて並べられた複数のエントリを含む、行列情報を形成することと、
前記特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行することと、
対象人を探すことの要求信号であって前記対象人の顔の特徴量を含む要求信号を受け付けることと、
前記対象人の顔の特徴量と前記形成された行列情報とに基づいて、前記対象人に対応するエントリを特定することによって、前記対象人の存在位置及び前記対象人の前記行列における順番を特定することと、
前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記特定された順番とに基づいて、前記対象人の予測待ち時間を算出することと、
前記要求信号に対する応答信号であって前記特定された対象人の存在位置及び前記算出された対象人の予測待ち時間を含む応答信号を形成することと、
を含む方法。
A method performed by a queue information providing system, comprising:
Based on the location of each person calculated based on an area image captured by at least one camera in an area where a queue is expected to occur from a predetermined starting point, a queue is identified in the area by identifying the next person in line starting from the first person at the predetermined starting point and identifying the first person to the last person, thereby identifying the queue occurring in the area and identifying the location of each person included in the identified queue;
forming queue information including a plurality of entries, each of which includes a feature amount and the location of each person included in the specified queue, and which are arranged according to the order of the people in the specified queue;
Executing control to display a map showing the location of the last person in the identified queue; and
receiving a request signal for searching for a target person, the request signal including facial features of the target person;
Identifying an entry corresponding to the target person based on the facial feature amount of the target person and the formed matrix information, thereby identifying a location of the target person and a rank of the target person in the matrix;
Calculating a predicted waiting time for the target person based on a time from when a first person at the head of the identified queue becomes the head to when a second person next in line to the first person becomes the head, and based on the identified order;
forming a response signal to the request signal, the response signal including a location of the identified target person and a predicted waiting time of the target person;
The method includes:
前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記行列に含まれる人の数とに基づいて、前記行列における予測待ち時間を算出することをさらに含む、
請求項記載の方法。
and calculating a predicted waiting time in the queue based on a time from when a first person at the head of the identified queue becomes the head to when a second person next in line to the first person becomes the head, and the number of people included in the queue.
The method of claim 5 .
所定の起点からの行列が発生すると予想されるエリアが少なくとも1つのカメラによって撮影されたエリア画像に基づいて算出された各人の存在位置に基づいて、前記所定の起点に存在する先頭の人から順に次の順番の人を特定して前記先頭の人から最後尾の人まで特定することによって、前記エリアに発生している行列を特定すると共に、前記特定された行列に含まれる各人の存在位置を特定することと、
各エントリが前記特定された行列に含まれる各人の特徴量と前記存在位置とを含み、且つ、前記特定された行列における人の順番に応じて並べられた複数のエントリを含む、行列情報を形成することと、
前記特定された行列における最後尾の人の存在位置が示された地図を表示する制御を実行することと、
対象人を探すことの要求信号であって前記対象人の顔の特徴量を含む要求信号を受け付けることと、
前記対象人の顔の特徴量と前記形成された行列情報とに基づいて、前記対象人に対応するエントリを特定することによって、前記対象人の存在位置及び前記対象人の前記行列における順番を特定することと、
前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記特定された順番とに基づいて、前記対象人の予測待ち時間を算出することと、
前記要求信号に対する応答信号であって前記特定された対象人の存在位置及び前記算出された対象人の予測待ち時間を含む応答信号を形成することと、
を含む処理を、行列情報提供システムに実行させるプログラム。
Based on the location of each person calculated based on an area image captured by at least one camera in an area where a queue is expected to occur from a predetermined starting point, a queue is identified in the area by identifying the next person in line starting from the first person at the predetermined starting point and identifying the first person to the last person, thereby identifying the queue occurring in the area and identifying the location of each person included in the identified queue;
forming queue information including a plurality of entries, each of which includes a feature amount and the location of each person included in the specified queue, and which are arranged according to the order of the people in the specified queue;
Executing control to display a map showing the location of the last person in the identified queue; and
receiving a request signal for searching for a target person, the request signal including facial features of the target person;
Identifying an entry corresponding to the target person based on the facial feature amount of the target person and the formed matrix information, thereby identifying a location of the target person and a rank of the target person in the matrix;
Calculating a predicted waiting time for the target person based on a time from when a first person at the head of the identified queue becomes the head to when a second person next in line to the first person becomes the head, and the identified order;
forming a response signal to the request signal, the response signal including a location of the identified target person and a predicted waiting time of the target person;
A program for causing a queue information providing system to execute a process including the steps of:
前記処理は、前記特定された行列における先頭の第1の人が先頭になったタイミングから前記第1の人の次の順番の第2の人が先頭になるタイミングまでの時間と、前記行列に含まれる人の数とに基づいて、前記行列における予測待ち時間を算出することをさらに含む、
請求項記載のプログラム。
The process further includes calculating an estimated waiting time in the queue based on a time from when a first person at the head of the identified queue becomes the head to when a second person who is next in line to the first person becomes the head, and a number of people included in the queue.
The program according to claim 7 .
JP2023008657A 2023-01-24 2023-01-24 Queue information providing system, method, and program Active JP7487901B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023008657A JP7487901B1 (en) 2023-01-24 2023-01-24 Queue information providing system, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023008657A JP7487901B1 (en) 2023-01-24 2023-01-24 Queue information providing system, method, and program

Publications (2)

Publication Number Publication Date
JP7487901B1 true JP7487901B1 (en) 2024-05-21
JP2024104452A JP2024104452A (en) 2024-08-05

Family

ID=91082704

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023008657A Active JP7487901B1 (en) 2023-01-24 2023-01-24 Queue information providing system, method, and program

Country Status (1)

Country Link
JP (1) JP7487901B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317052A (en) 2006-05-29 2007-12-06 Japan Airlines International Co Ltd System for measuring waiting time for lines
JP2013109395A (en) 2011-11-17 2013-06-06 Sharp Corp Queue management device, queue management method, and queue management system
JP2016181882A (en) 2015-03-25 2016-10-13 三菱電機インフォメーションシステムズ株式会社 Device and program for calculating processing time
JP2018194896A (en) 2017-05-12 2018-12-06 キヤノン株式会社 Information processing apparatus, information processing method and program
US20190392572A1 (en) 2017-03-07 2019-12-26 Hangzhou Hikvision Digital Technology Co., Ltd. Method and apparatus for acquiring queuing information, and computer -readable storage medium thereof
JP2022106765A (en) 2017-12-26 2022-07-20 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007317052A (en) 2006-05-29 2007-12-06 Japan Airlines International Co Ltd System for measuring waiting time for lines
JP2013109395A (en) 2011-11-17 2013-06-06 Sharp Corp Queue management device, queue management method, and queue management system
JP2016181882A (en) 2015-03-25 2016-10-13 三菱電機インフォメーションシステムズ株式会社 Device and program for calculating processing time
US20190392572A1 (en) 2017-03-07 2019-12-26 Hangzhou Hikvision Digital Technology Co., Ltd. Method and apparatus for acquiring queuing information, and computer -readable storage medium thereof
JP2018194896A (en) 2017-05-12 2018-12-06 キヤノン株式会社 Information processing apparatus, information processing method and program
JP2022106765A (en) 2017-12-26 2022-07-20 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program

Also Published As

Publication number Publication date
JP2024104452A (en) 2024-08-05

Similar Documents

Publication Publication Date Title
JP5994397B2 (en) Information processing apparatus, information processing method, and program
JPWO2018116488A1 (en) Analysis server, monitoring system, monitoring method and program
US11410461B2 (en) Information processing system, method for managing object to be authenticated, and program
JP2017004252A (en) Image information processing system
KR20160048006A (en) Feedback method for bus information inquiry, mobile terminal and server
CN113033266A (en) Personnel motion trajectory tracking method, device and system and electronic equipment
KR101988639B1 (en) System and method for reserving restaurant
CN113994351A (en) Method and system for dynamic and incremental face recognition
JP2020119284A (en) Information processing device, information processing method, and program
JP2020052822A (en) Information processing apparatus, authentication system, control method thereof, and program
JP2019160227A (en) Information providing system, server device, and information providing method
JPWO2018128015A1 (en) Suspiciousness estimation model generation device
JP7487901B1 (en) Queue information providing system, method, and program
US9851784B2 (en) Movement line conversion and analysis system, method and program
US20210312476A1 (en) Information processing device, information processing method, and program
JP2010009440A (en) Character recognition program, character recognition apparatus, and character recognition method
JP7067593B2 (en) Information processing system, management method for authentication, and program
JP2022169611A (en) Information processing device, information processing system, information processing method, and program
JP7452622B2 (en) Presentation control device, system, method and program
JP6077930B2 (en) Information management apparatus, information management system, communication terminal, and information management method
JP7327571B2 (en) Information processing system, terminal device, authentication target management method, and program
JP2017090062A (en) Information processing system, information processor, information processing method, and program
WO2023084593A1 (en) Information processing device, information processing system, information processing method, and non-transitory computer-readable medium
JP2018195872A (en) Information processing device, information processing system, information processing method, and program
US11184413B2 (en) Information processing apparatus and non-transitory computer readable medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240426

R150 Certificate of patent or registration of utility model

Ref document number: 7487901

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150