JP2019023939A - Wearable terminal - Google Patents

Wearable terminal Download PDF

Info

Publication number
JP2019023939A
JP2019023939A JP2018214820A JP2018214820A JP2019023939A JP 2019023939 A JP2019023939 A JP 2019023939A JP 2018214820 A JP2018214820 A JP 2018214820A JP 2018214820 A JP2018214820 A JP 2018214820A JP 2019023939 A JP2019023939 A JP 2019023939A
Authority
JP
Japan
Prior art keywords
image
congestion
server
congestion degree
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018214820A
Other languages
Japanese (ja)
Inventor
正永 中村
Masanaga Nakamura
正永 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2018214820A priority Critical patent/JP2019023939A/en
Publication of JP2019023939A publication Critical patent/JP2019023939A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To solve the problem in which: a user cannot grasp the congestion state of a place where a monitoring camera is not installed.SOLUTION: A congestion degree estimation server 10 receiving photographed images 12a and image information 12b from a plurality of wearable terminals 20 estimates the number of people and the area of sidewalks from the photographed images 12a through image analysis to calculate the degree of congestion, and records the degree of congestion in a congestion degree table 12c together with positions at which the photographed images 12a are photographed. The congestion degree estimation server then maps the degree of congestion recorded in the congestion degree table 12c on a map in a map database 14 to create a point group congestion degree map 12d and an area congestion degree map 12e. These pieces of data are transmitted according to requests from the wearable terminals 20.SELECTED DRAWING: Figure 1

Description

本発明は、混雑度推定システムに関する。   The present invention relates to a congestion degree estimation system.

ネットワークに接続された複数の監視カメラにより撮影して得られた画像を解析し、混雑状況を把握するシステムが、たとえば特許文献1に開示されている。   For example, Patent Document 1 discloses a system that analyzes an image obtained by photographing with a plurality of monitoring cameras connected to a network and grasps a congestion state.

特開2011−008454JP2011-008454 A

特許文献1に記載の発明では、監視カメラが設置されていない場所の混雑状況を把握することができない。   In the invention described in Patent Document 1, it is not possible to grasp the congestion situation in a place where a surveillance camera is not installed.

請求項1に記載の混雑度推定システムは、複数のウエアラブル端末とサーバとからなる混雑度推定システムであって、ウエアラブル端末は、被写体を撮影する撮影部と、現在位置を算出する位置検出部と、撮影部により撮影して得られた画像、および位置検出部により算出された現在位置をサーバに送信する端末通信部と、を備え、サーバは、複数のウエアラブル端末と通信するサーバ通信部と、複数のウエアラブル端末から送信されてサーバ通信部が受信する画像および現在位置が関連付けられて保存される記憶部と、記憶部に保存された画像を解析して人数と歩道の面積を算出し、算出された人数と歩道の面積とから歩道上の歩行者の混雑度を算出し、算出した混雑度および現在位置を関連付けてサーバ通信部により送信するサーバ制御部とを備える。   The congestion degree estimation system according to claim 1 is a congestion degree estimation system including a plurality of wearable terminals and a server, and the wearable terminal includes a photographing unit for photographing a subject, a position detection unit for calculating a current position, An image obtained by photographing by the photographing unit, and a terminal communication unit that transmits the current position calculated by the position detection unit to the server, and the server communicates with a plurality of wearable terminals, An image transmitted from a plurality of wearable terminals and received by the server communication unit and a storage unit associated with the current position and stored, and an image stored in the storage unit are analyzed to calculate the number of people and the area of the sidewalk. Server control that calculates the degree of congestion of pedestrians on the sidewalk from the number of people and the area of the sidewalk, and associates the calculated degree of congestion with the current position and transmits it by the server communication unit Provided with a door.

本発明によれば、監視カメラが設置されていない場所の混雑状況を把握することができる。   According to the present invention, it is possible to grasp a congestion situation in a place where a surveillance camera is not installed.

第1の実施の形態における混雑度推定システムの構成を示すブロック図The block diagram which shows the structure of the congestion degree estimation system in 1st Embodiment. 混雑度表の一例を示す図Figure showing an example of the congestion table エリア混雑度地図の一例を示す図Figure showing an example of an area congestion map 表示部における表示の一例を示す図The figure which shows an example of the display in a display part 表示部における表示の変化の一例を示す図The figure which shows an example of the change of the display in a display part. 混雑度推定サーバによる定期的な処理を表すフローチャートFlow chart showing regular processing by congestion level estimation server 混雑度推定サーバが通信を受信した際の処理を表すフローチャートFlowchart representing processing when congestion level estimation server receives communication ウエアラブル端末の視線検出部が注視を検出した際の処理を表すフローチャートFlow chart showing processing when gaze detection unit of wearable terminal detects gaze ウエアラブル端末が通信を受信した際の処理を表すフローチャートFlow chart showing processing when wearable terminal receives communication 第2の実施の形態における混雑度推定システムの構成を示すブロック図The block diagram which shows the structure of the congestion degree estimation system in 2nd Embodiment. 混雑度推定サーバが通信を受信した際の処理を表すフローチャートFlowchart representing processing when congestion level estimation server receives communication

(第1の実施の形態)
以下、図1〜9を参照して、混雑度推定システムの第1の実施の形態を説明する。本明細書において、混雑度とは1mあたりに存在する人の数をいい、混雑度が高いほど混雑している状態を示す。
図1は、混雑度推定システム1の構成を示すブロック図である。混雑度推定システム1は、混雑度推定サーバ10と、複数のウエアラブル端末20とから構成され、これらはネットワーク回線Xにより接続される。
混雑度推定サーバ10は、サーバ制御部11と、サーバ記憶部12と、サーバ通信部13と、地図データベース14と、顔画像データベース15とを備える。
サーバ制御部11は、不図示のCPU、ROM、およびRAMを備え、後述するプログラムをROMに保存し、そのプログラムをRAMに展開して実行する。RAMは、後述するプログラムの実行において、計算結果の一時的な保存にも使用される。
(First embodiment)
Hereinafter, a first embodiment of the congestion degree estimation system will be described with reference to FIGS. In this specification, the degree of congestion refers to the number of people existing per 1 m 2 , and indicates a state of congestion as the degree of congestion increases.
FIG. 1 is a block diagram showing the configuration of the congestion degree estimation system 1. The congestion level estimation system 1 includes a congestion level estimation server 10 and a plurality of wearable terminals 20, which are connected by a network line X.
The congestion degree estimation server 10 includes a server control unit 11, a server storage unit 12, a server communication unit 13, a map database 14, and a face image database 15.
The server control unit 11 includes a CPU, a ROM, and a RAM (not shown), stores a program (to be described later) in the ROM, and develops and executes the program on the RAM. The RAM is also used for temporarily storing calculation results in the execution of a program to be described later.

サーバ記憶部12は、不図示の磁気ディスクから構成され、サーバ記憶部12には、撮影画像12aと、画像情報12bと、混雑度表12cと、点群混雑度地図12dと、エリア混雑度地図12eと、処理対象条件とが保存されている。
撮影画像12aは、ウエアラブル端末20により撮影され、サーバ通信部13がウエアラブル端末20から受信した画像である。画像情報12bは、ウエアラブル端末20により撮影画像12aに関する各種情報であり、撮影画像12aとともにウエアラブル端末20から送信される。画像情報12bは、たとえば撮影位置、撮影時刻、撮影時にウエアラブル端末20の撮影部24が向いていた方向(以下、「撮影方向」と呼ぶ)、撮影画像12aを送信したウエアラブル端末20のネットワーク回線Xにおける識別情報、すなわちIPアドレスなどである。
The server storage unit 12 includes a magnetic disk (not shown), and the server storage unit 12 includes a captured image 12a, image information 12b, a congestion degree table 12c, a point cloud congestion degree map 12d, and an area congestion degree map. 12e and processing target conditions are stored.
The captured image 12 a is an image captured by the wearable terminal 20 and received from the wearable terminal 20 by the server communication unit 13. The image information 12b is various information related to the captured image 12a by the wearable terminal 20, and is transmitted from the wearable terminal 20 together with the captured image 12a. The image information 12b includes, for example, a shooting position, a shooting time, a direction in which the shooting unit 24 of the wearable terminal 20 faces at the time of shooting (hereinafter referred to as “shooting direction”), and the network line X of the wearable terminal 20 that has transmitted the shot image 12a. Identification information, i.e., an IP address.

混雑度表12cは、ある撮影画像12aが撮影された位置、その撮影画像12aをサーバ制御部11が画像解析して得られた混雑度、および性別ごと、年齢層ごとの混雑度を保存しており、たとえば図2に示すものである。
図2は混雑度表12cの一例を示しており、左から順に、ある撮影画像12aが撮影された緯度および経度、ある撮影画像12aから算出された性別および年齢層を問わない合計の混雑度、20歳未満の男性の混雑度、20歳〜60歳の男性の混雑度、60歳以上の男性の混雑度、20歳未満の女性の混雑度、20歳〜60歳の女性の混雑度、60歳以上の女性の混雑度、年齢及び性別が不明な者の混雑度、を示している。1つの撮影画像12aから図2の1行分の情報が得られる。
The congestion degree table 12c stores the position where a certain photographed image 12a is photographed, the congestion degree obtained by image analysis of the photographed image 12a by the server control unit 11, and the degree of congestion for each gender and age group. For example, as shown in FIG.
FIG. 2 shows an example of the congestion degree table 12c. In order from the left, the latitude and longitude at which a certain photographed image 12a was photographed, the total congestion degree regardless of gender and age group calculated from the certain photographed image 12a, Congestion of men under 20 years, congestion of men between 20 and 60 years old, congestion of men over 60 years of age, congestion of women under 20 years of age, congestion of women between 20 and 60 years old, 60 It shows the degree of congestion for women over the age, and the degree of congestion for those whose age and gender are unknown. Information for one line in FIG. 2 is obtained from one captured image 12a.

点群混雑度地図12dは、混雑度表12cに記載されている混雑度の情報を、地図データベース14に保存されている地図上に点として表示した画像であり、たとえば混雑度の高低を点の濃淡、大きさ、輝度により表現する。また、性別および年齢層ごとに分類して表示する場合には、色により複数に分類された混雑度を一覧性よく表示できる。
エリア混雑度地図12eは、地図データベース14に保存されている地図を所定のエリアに分割し、混雑度表12cから算出したエリアごとの平均混雑度を視覚的に表示する、たとえば図3に示す画像である。
図3は、エリア混雑度地図12eの一例を示しており、メッシュ状にエリアを分割し、東西方向に西から1、2、3、・・、南北方向に北からA、B、C、・・と名称を付して、各エリアはその組み合わせによりA1やC5と呼ぶ。図3では棒グラフの高さにより混雑度の高さを表しており、その内訳を性別および年齢層別の種別ごとに異なる態様により表示している。
処理対象条件は、サーバ制御部11が後述するプログラムにより定期的に処理する対象となる撮影画像12aの条件であり、たとえば撮影時刻が現在から15分以内で、かつ緯度および経度が○○県△△市の範囲内であることである。
The point cloud congestion level map 12d is an image in which the congestion level information described in the congestion level table 12c is displayed as a point on the map stored in the map database 14, for example, the level of the congestion level is displayed as a point. Expressed by shading, size, and brightness. In addition, when classified and displayed for each sex and age group, the degree of congestion classified into a plurality of colors can be displayed with a good list.
The area congestion degree map 12e divides the map stored in the map database 14 into predetermined areas, and visually displays the average congestion degree for each area calculated from the congestion degree table 12c. For example, the image shown in FIG. It is.
FIG. 3 shows an example of the area congestion degree map 12e, in which the area is divided into meshes, and A, B, C,... From the north in the north-south direction, 1, 2, 3,. -Names are given, and each area is called A1 or C5 depending on the combination. In FIG. 3, the height of the congestion level is represented by the height of the bar graph, and the breakdown is displayed in a different manner for each type according to sex and age group.
The processing target condition is a condition of the captured image 12a to be processed periodically by a program described later by the server control unit 11. For example, the shooting time is within 15 minutes from the present, and the latitude and longitude are XX prefectures. △ Being within the city.

図1に戻って説明を継続する。
サーバ通信部13は、ネットワーク回線Xを介して複数のウエアラブル端末20と通信を行う。サーバ通信部13は常に外部からの通信を待ち受けており、通信を受信するとサーバ制御部11に通知する。
地図データベース14は、不図示の磁気ディスクから構成され、地図データベース14には、少なくとも建物の位置、地形、主要な駅のデータを含む地図が保存される。そのため、地図データベース14を参照することにより、ある緯度と経度で表現される位置について屋内外の判断、すなわち建物の内部か否かを判断することができる。また、ユーザは地形及び駅により位置を把握できる。地図データベース14にはさらに、一般的な外側線の幅やガードレースの支柱の間隔の情報が保存されている。
Returning to FIG. 1, the description will be continued.
The server communication unit 13 communicates with a plurality of wearable terminals 20 via the network line X. The server communication unit 13 always waits for external communication, and notifies the server control unit 11 when communication is received.
The map database 14 includes a magnetic disk (not shown), and the map database 14 stores a map including at least building positions, topography, and main station data. Therefore, by referring to the map database 14, it is possible to determine whether the position expressed by a certain latitude and longitude is indoors or outdoors, that is, whether the position is inside the building. Further, the user can grasp the position from the topography and the station. The map database 14 further stores information on the width of a general outer line and the interval between guard race posts.

顔画像データベース15は、不図示の磁気ディスクから構成され、顔画像データベース15には、性別および年齢層ごとに分類された顔の特徴量のサンプルが保存される。このサンプルは、性別および年齢層別が明らかな、膨大な数の顔画像から作成される。そのため、性別および年齢層が未知の顔画像があった場合に、その顔画像から特徴量を算出し、顔画像データベース15に保存されている特徴量のサンプルと比較することにより、その性別と年齢層を判別することができる。
ウエアラブル端末20は、端末制御部21と、端末通信部22と、表示部23と、撮影部24と、端末記憶部25と、視線検出部26と、GPS受信機27と、電子コンパス28とを備え、たとえばメガネの形態を有する。
The face image database 15 is composed of a magnetic disk (not shown), and the face image database 15 stores samples of facial feature amounts classified by gender and age group. This sample is created from an enormous number of facial images with clear gender and age groups. Therefore, when there is a face image whose gender and age group are unknown, the feature amount is calculated from the face image, and compared with the feature amount sample stored in the face image database 15, the sex and age The layer can be determined.
The wearable terminal 20 includes a terminal control unit 21, a terminal communication unit 22, a display unit 23, a photographing unit 24, a terminal storage unit 25, a line-of-sight detection unit 26, a GPS receiver 27, and an electronic compass 28. For example in the form of glasses.

端末制御部21は、不図示のCPU、ROM、およびRAMを備え、後述するプログラムをROMに保存し、そのプログラムをRAMに展開して実行する。また端末制御部21は、一定時間ごと、たとえば5分ごとに撮影部24に撮影の指令、GPS受信機27に現在位置算出の指令、電子コンパス28に撮影方向取得の指令を送る。そして、撮影部24から出力された画像、GPS受信機27から出力された現在位置、および電子コンパス28から出力された撮影部24の撮影方向を、現在時刻とともに混雑度推定サーバ10へ送信する。
端末通信部22は、ネットワーク回線Xを介して混雑度推定サーバ10と通信を行う。端末通信部22は常に外部からの通信を待ち受けており、通信を受信すると端末制御部21に通知する。
The terminal control unit 21 includes a CPU, a ROM, and a RAM (not shown), stores a program (to be described later) in the ROM, and develops and executes the program on the RAM. In addition, the terminal control unit 21 sends a shooting command to the shooting unit 24 at regular intervals, for example, every 5 minutes, a command to calculate the current position to the GPS receiver 27, and a command to acquire the shooting direction to the electronic compass 28. Then, the image output from the imaging unit 24, the current position output from the GPS receiver 27, and the imaging direction of the imaging unit 24 output from the electronic compass 28 are transmitted to the congestion degree estimation server 10 together with the current time.
The terminal communication unit 22 communicates with the congestion degree estimation server 10 via the network line X. The terminal communication unit 22 always waits for communication from the outside, and notifies the terminal control unit 21 when the communication is received.

表示部23は、不図示のヘッドマウントディスプレイから構成され、端末制御部21から入力されたデータおよび動作設定用アイコンを表示する。たとえば、端末制御部21からエリア混雑度地図12eが入力されると、表示部23は図4に示す表示を行う。図4は、表示部23に表示されるエリア混雑度地図12e、動作設定用アイコンV、およびエリア混雑度地図12eの凡例Lの一例を示している。図4に示す動作設定用アイコンVをウエアラブル端末20のユーザが注視すると、その注視が視線検出部26により検出されて、端末制御部21が後述するプログラムを実行することにより表示部23の表示が変化する。たとえば、視線検出部26がユーザによる凡例Lのいずれかの項目の注視を検出すると、端末制御部21に注視した項目が出力される。そして、端末制御部21は選択された項目だけを表示部23に表示させる。図5は、表示部23にエリア混雑度地図12eの選択された項目だけを表示した一例を示している。図4の例では男性の全ての年齢層を表示していたが、図5の例では選択された60歳以上の年齢層のみが表示されている。   The display unit 23 includes a head-mounted display (not shown), and displays data input from the terminal control unit 21 and an operation setting icon. For example, when the area congestion degree map 12e is input from the terminal control unit 21, the display unit 23 performs the display shown in FIG. FIG. 4 shows an example of the legend L of the area congestion degree map 12e, the operation setting icon V, and the area congestion degree map 12e displayed on the display unit 23. When the user of the wearable terminal 20 gazes at the operation setting icon V shown in FIG. 4, the gaze is detected by the line-of-sight detection unit 26, and the terminal control unit 21 executes a program described later, whereby the display on the display unit 23 is displayed. Change. For example, when the line-of-sight detection unit 26 detects a gaze on any item in the legend L by the user, the item on the terminal control unit 21 is output. And the terminal control part 21 displays only the selected item on the display part 23. FIG. FIG. 5 shows an example in which only selected items of the area congestion degree map 12e are displayed on the display unit 23. In the example of FIG. 4, all the age groups of men are displayed, but in the example of FIG. 5, only the selected age group of 60 years or older is displayed.

撮影部24は、不図示のカメラを備える。撮影部24は、端末制御部21からの指令により被写体を撮影し、撮影して得られた画像を端末制御部21に出力する。本明細書では、画像とは静止画像および連続的に撮影された一連の静止画像、すなわち動画像の両方を含む概念である。撮影部24は、端末制御部21からリアルタイム動画像の出力の指令を受けると、出力停止の指令を受けるまで連続的に撮影を行い、得られた画像であるリアルタイム動画像を端末制御部21に出力する。
端末記憶部25は、不図示のフラッシュメモリにより構成され、この端末記憶部25はには、混雑度推定サーバ10から受信したデータ、たとえば混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eが保存される。
The imaging unit 24 includes a camera (not shown). The photographing unit 24 photographs a subject in response to a command from the terminal control unit 21 and outputs an image obtained by photographing to the terminal control unit 21. In this specification, an image is a concept including both a still image and a series of still images taken continuously, that is, a moving image. When receiving a real-time moving image output command from the terminal control unit 21, the imaging unit 24 continuously shoots until receiving an output stop command, and the obtained real-time moving image is transmitted to the terminal control unit 21. Output.
The terminal storage unit 25 is configured by a flash memory (not shown). The terminal storage unit 25 includes data received from the congestion level estimation server 10, such as a congestion level table 12c, a point cloud congestion level map 12d, or an area congestion level. The degree map 12e is stored.

視線検出部26は、不図示の赤外線カメラを備え、ユーザが注視している表示部23の座標を端末制御部21に出力する。視線検出部26は、赤外線カメラでユーザの眼球を撮影し、既知の視線検出手法によりユーザの視線の方向、およびウインクを検出する。視線の検出方法は例えば、瞳孔の中心と角膜曲率中心位置から視線を検出する手法が知られている。視線検出部26は、赤外線カメラによりユーザの目を撮影しているので、赤外線カメラにより撮影して得られた画像から黒目部分が消失したことにより、目を閉じたことを検出できる。無意識に行う瞬きと、意識的に行うウインクとを判別するために目を閉じている時間を利用し、たとえば目を閉じている時間が0.5秒〜2.0秒の場合をウインクと判断する。そして、目を閉じている時間が0.5秒未満の場合を瞬きと判断する。   The line-of-sight detection unit 26 includes an infrared camera (not shown), and outputs the coordinates of the display unit 23 being watched by the user to the terminal control unit 21. The line-of-sight detection unit 26 shoots the user's eyeball with an infrared camera, and detects the direction of the user's line of sight and wink using a known line-of-sight detection method. For example, a method for detecting the line of sight from the center of the pupil and the central position of the corneal curvature is known. The line-of-sight detection unit 26 can detect that the eyes are closed because the black-eye portion disappears from the image obtained by photographing with the infrared camera because the user's eyes are photographed with the infrared camera. The time when the eyes are closed is used to discriminate between the blink that is performed unconsciously and the wink that is performed consciously. To do. Then, it is determined that the eye is closed when the eye is closed for less than 0.5 seconds.

視線検出部26は、一定時間にわたってユーザの視線の方向が一定であり、なおかつ瞬きをしていない場合には、ユーザがある点を注視していると判断する。そして、既知である表示部23の位置とユーザの視線の方向とから、ユーザが表示部23を注視していると判断する場合は、視線検出部26は、端末制御部21にユーザが注視している表示部23の座標を出力する。また、注視を検出した後にユーザによるウインクを検出した場合には、視線検出部26は表示部23の座標に続けてウインクの検出を端末制御部21に出力する。
GPS受信機27は、複数の衛星から電波を受信して現在地を算出し、端末制御部21からの要求に応じて現在地を端末制御部21に出力する。電子コンパス28は、3軸の地磁気センサを備え、端末制御部21からの要求に応じて、撮影部24の撮影方向の向きを端末制御部21に出力する。
地図データベース29は、混雑度推定サーバ10の地図データベース14と同様である。
The line-of-sight detection unit 26 determines that the user is gazing at a certain point when the direction of the user's line of sight is constant over a certain period of time and the user is not blinking. Then, when it is determined that the user is gazing at the display unit 23 from the known position of the display unit 23 and the direction of the user's line of sight, the line-of-sight detection unit 26 pays attention to the terminal control unit 21. The coordinates of the display unit 23 is output. Further, when a wink is detected by the user after detecting a gaze, the line-of-sight detection unit 26 outputs the wink detection to the terminal control unit 21 following the coordinates of the display unit 23.
The GPS receiver 27 receives radio waves from a plurality of satellites, calculates the current location, and outputs the current location to the terminal control unit 21 in response to a request from the terminal control unit 21. The electronic compass 28 includes a triaxial geomagnetic sensor, and outputs the orientation of the imaging direction of the imaging unit 24 to the terminal control unit 21 in response to a request from the terminal control unit 21.
The map database 29 is the same as the map database 14 of the congestion degree estimation server 10.

第1の実施の形態の動作を説明する。
(1)サーバの定期的な動作
混雑度推定サーバ10のサーバ制御部11は、一定の時間間隔ごと、たとえば10分ごとに図6のフローチャートで動作が表されるプログラムを実行し、混雑度表12c、点群混雑度地図12d、およびエリア混雑度地図12eを新たに作成する。
ステップS102では、サーバ制御部11は、サーバ記憶部12に保存されている混雑度表12c、点群混雑度地図12d、およびエリア混雑度地図12eを削除してステップS104に進む。
The operation of the first embodiment will be described.
(1) Periodic operation of the server The server control unit 11 of the congestion degree estimation server 10 executes a program whose operation is represented in the flowchart of FIG. 6 at regular time intervals, for example, every 10 minutes, and the congestion degree table 12c, a point cloud congestion degree map 12d, and an area congestion degree map 12e are newly created.
In step S102, the server control unit 11 deletes the congestion degree table 12c, the point cloud congestion degree map 12d, and the area congestion degree map 12e stored in the server storage unit 12, and proceeds to step S104.

ステップS104では、サーバ制御部11は、サーバ記憶部12に保存されている全ての画像情報12bを参照して、サーバ記憶部12に保存されている処理対象条件に該当する撮影画像12aを抽出する。そして、抽出した撮影画像12aの一覧を処理対象リストとして作成し、サーバ制御部11のRAMに保存してステップS106に進む。処理対象条件とは、たとえば撮影時刻が現在から15分以内で、かつ緯度および経度が○○県△△市の範囲内であることである。
ステップS106では、サーバ制御部11は、処理対象リストの先頭に記載されている撮影画像12aを処理対象に設定してステップS108に進む。後述するように、処理対象リストに記載された撮影画像12aは、リストの先頭から順番に処理対象となる。
In step S <b> 104, the server control unit 11 refers to all the image information 12 b stored in the server storage unit 12 and extracts a captured image 12 a corresponding to the processing target condition stored in the server storage unit 12. . Then, a list of the extracted captured images 12a is created as a processing target list, stored in the RAM of the server control unit 11, and the process proceeds to step S106. The processing target condition is that, for example, the photographing time is within 15 minutes from the present, and the latitude and longitude are within the range of XX prefecture ΔΔ city.
In step S106, the server control unit 11 sets the captured image 12a described at the top of the processing target list as a processing target, and proceeds to step S108. As will be described later, the captured image 12a described in the processing target list becomes a processing target in order from the top of the list.

ステップS108では、サーバ制御部11は、処理対象である撮影画像12aが撮影された撮影位置が含まれる画像情報12b、および地図データベース14を参照し、その撮影位置が屋外か否かを判断する。撮影位置が屋外であると判断する場合はステップS110に進み、撮影位置が屋外ではないと判断する場合はステップS124に進む。歩道の混雑度を算出することを目的としているからである。
ステップS110では、サーバ制御部11は、処理対象である撮影画像12aに画像処理を行い、認識した人物の足の付近が歩道であること、歩道の色はおおよそ均一であること、壁と歩道の色は明確なコントラストを有すること、などから歩道のエリアを抽出する。そして、撮影画像12aに撮影されている既知の大きさ、または既知の長さを有する物体を、たとえば地図データベース14に保存されている外側線の幅やガードレールの支柱の間隔の情報を利用して歩道の面積を算出し、RAMに保存してステップS112に進む。
In step S108, the server control unit 11 refers to the image information 12b including the photographing position where the photographed image 12a to be processed is photographed and the map database 14, and determines whether or not the photographing position is outdoors. If it is determined that the shooting position is outdoors, the process proceeds to step S110. If it is determined that the shooting position is not outdoors, the process proceeds to step S124. This is because the purpose is to calculate the degree of congestion on the sidewalk.
In step S110, the server control unit 11 performs image processing on the captured image 12a that is the processing target, and that the vicinity of the recognized person's foot is a sidewalk, the color of the sidewalk is approximately uniform, The sidewalk area is extracted from the fact that the color has a clear contrast. Then, an object having a known size or a known length photographed in the photographed image 12a is used, for example, by using information on the width of the outer line and the interval between the guard rail columns stored in the map database 14. The area of the sidewalk is calculated, stored in the RAM, and the process proceeds to step S112.

ステップS112では、サーバ制御部11は、処理対象の撮影画像12aに画像処理を行い、顔画像データベース15を利用して撮影画像12aに撮影されている全ての人物について性別および年齢層を推定してステップS114に進む。顔画像データベース15には、性別および年齢が明らかな膨大な数の顔画像から作成した「顔の特徴量のサンプル」が保存されている。そのため、撮影画像12aに含まれている顔の特徴量を算出し、顔画像データベース15に保存されているサンプルと相関を比較することにより、性別および年齢層を推定できる。ただし、後ろを向いている場合や下を向いている場合など、処理対象の撮影画像12aから顔を認識できない場合にはステップS112では性別および年齢層を推定できない。
ステップS114では、サーバ制御部11は、ステップS112における画像処理により、処理対象の撮影画像12aに撮影されている全ての人の性別および年齢層が推定できたか否かを判断する。全て判断できたと判断する場合はステップS122に進み、1人でも推定できなかった人がいると判断する場合はステップS116に進む。
In step S112, the server control unit 11 performs image processing on the captured image 12a to be processed, and estimates the gender and age group for all persons photographed in the captured image 12a using the face image database 15. Proceed to step S114. The face image database 15 stores “samples of facial feature values” created from a large number of face images whose gender and age are clear. Therefore, the gender and the age group can be estimated by calculating the feature amount of the face included in the photographed image 12a and comparing the correlation with the sample stored in the face image database 15. However, if the face cannot be recognized from the captured image 12a to be processed, such as when facing backward or facing downward, the sex and age group cannot be estimated in step S112.
In step S114, the server control unit 11 determines whether or not the gender and age group of all persons photographed in the processing target captured image 12a have been estimated by the image processing in step S112. If it is determined that all have been determined, the process proceeds to step S122. If it is determined that there is a person who cannot be estimated by one person, the process proceeds to step S116.

ステップS116では、サーバ制御部11は、処理対象の撮影画像12aが撮影された位置から所定の範囲内位置で撮影された他の撮影画像12a(以後、参照画像と呼ぶ)を用いて、ステップS112では性別および年齢層が推定できなかった人物(以下、判別対象者と呼ぶ)の性別および年齢層を推定する。参照画像は、処理対象の撮影画像12aを撮影したウエアラブル端末20、または他のウエアラブル端末20により撮影されて得られた撮影画像12aであって、画像情報12bに保存されている撮影位置、撮影時刻、および撮影方向によりサーバ記憶部12から抽出される。抽出した参照画像から判別対象者を認識するために、撮影位置、撮影時刻、撮影方向に加えて、処理対象の撮影画像12aにおける判別対象者の服装を利用する。そして、参照画像における判別対象者の画像を対象として、顔画像データベース15から判別対象者の性別および年齢層を推定する。ただし、複数の参照画像において判別対象者を抽出できた場合には、それら複数の参照画像における判別対象者の画像を対象として性別および年齢層を推定する。その後、ステップS118に進む。   In step S116, the server control unit 11 uses another captured image 12a (hereinafter referred to as a reference image) captured at a position within a predetermined range from the position where the captured image 12a to be processed is captured, in step S112. Then, the gender and age group of a person whose sex and age group could not be estimated (hereinafter referred to as a discrimination target person) are estimated. The reference image is a photographed image 12a obtained by photographing the wearable terminal 20 that photographed the photographed image 12a to be processed, or another wearable terminal 20, and the photographing position and the photographing time stored in the image information 12b. And extracted from the server storage unit 12 according to the shooting direction. In order to recognize the person to be discriminated from the extracted reference image, the clothes of the person to be discriminated in the captured image 12a to be processed are used in addition to the shooting position, shooting time, and shooting direction. Then, the gender and age group of the discrimination target person are estimated from the face image database 15 for the discrimination target person image in the reference image. However, when a discrimination target person can be extracted from a plurality of reference images, the gender and the age group are estimated with respect to the discrimination target person images in the plurality of reference images. Thereafter, the process proceeds to step S118.

ステップS118では、サーバ制御部11は、ステップS116における処理により、全ての判別対象者の性別および年齢層が推定できたか否かを判断する。全ての判別対象者の性別および年齢層が推定できたと判断する場合はステップS122に進み、いずれかの判別対象者の性別および年齢層が推定できなかったと判断する場合はステップS120に進む。
ステップS120では、サーバ制御部11は、処理対象の撮影画像12aおよび参照画像を用いて、判別対象者と並んで歩行している者を特定し、判別対象者の性別および年齢層は、判別対象者と並んで歩行している者と同一であると推定し、ステップS122に進む。性別および年齢層が近い友人同士が並んで歩くことが多いからである。なお、ステップS120においても性別および年齢層が不明の場合には、性別および年齢を不明として扱う。
In step S118, the server control unit 11 determines whether or not the genders and age groups of all discrimination target persons have been estimated by the process in step S116. If it is determined that the genders and age groups of all discrimination target persons have been estimated, the process proceeds to step S122. If it is determined that the genders and age groups of any discrimination target persons have not been estimated, the process proceeds to step S120.
In step S120, the server control unit 11 uses the captured image 12a to be processed and the reference image to identify a person who is walking alongside the person to be discriminated, and the gender and age group of the person to be discriminated are determined as the object to be discriminated. It is estimated that it is the same as the person walking side by side with the person, and the process proceeds to step S122. This is because friends of close gender and age often walk side by side. In step S120, when the sex and age group are unknown, the sex and age are treated as unknown.

ステップS122では、サーバ制御部11は、ステップS112において検出した人数、すなわち処理対象の撮影画像12aに撮影されていた人数を、ステップS108において算出した歩道の面積で除算して、単位面積当たりの人数、すなわち混雑度を算出する。また、ステップS112〜S120において推定した性別および年齢層別の人数を、ステップS108において算出した歩道の面積で除算して、性別および年齢層別の混雑度も算出する。サーバ制御部11は、処理対象の撮影画像12aの画像情報12bから撮影画像12aが撮影された緯度および経度を取得し、算出した混雑度とともに混雑度表12cに記録し、ステップS124に進む。図2に示す例においては、ステップS122が実行されるたびに、混雑度表12cが1行ずつ増える。なお、全ての処理対象である撮影画像12aについて処理が完了すると、混雑度表12cが完成する。   In step S122, the server control unit 11 divides the number of people detected in step S112, that is, the number of people photographed in the captured image 12a to be processed, by the area of the sidewalk calculated in step S108 to obtain the number of people per unit area. That is, the degree of congestion is calculated. Further, the number of people by sex and age group estimated in steps S112 to S120 is divided by the area of the sidewalk calculated in step S108 to calculate the degree of congestion by sex and age group. The server control unit 11 acquires the latitude and longitude at which the captured image 12a was captured from the image information 12b of the captured image 12a to be processed, records the latitude and longitude along with the calculated congestion level in the congestion level table 12c, and proceeds to step S124. In the example shown in FIG. 2, every time step S122 is executed, the congestion degree table 12c increases by one row. When the processing is completed for all the captured images 12a to be processed, the congestion degree table 12c is completed.

ステップS124では、サーバ制御部11は、現在の処理対象の撮影画像12aが、ステップS104において作成した処理対象リストに記載されている最後の画像であるか否かを判断する。最後の画像であると判断する場合はステップS126に進み、最後の画像ではないと判断する場合は処理対象リストに記載されている次の画像を処理対象に設定し、ステップS108に戻る。
ステップS126では、サーバ制御部11は、エリア混雑度地図12eを作成する準備として、混雑度表12cに記載された混雑度について所定のエリアごとの平均値を算出してステップS128に進む。所定のエリアとは、たとえば東西方向、南北方向に沿って切り分けたメッシュ状の50m四方のエリアであり、混雑度表12cに記載の緯度と経度からいずれのエリアに属するかを判断する。たとえば、あるエリアに図2に示した3つの地点のみが含まれる場合は、それぞれの合計混雑度が3.2、2.1、2.2なので、そのエリアの合計混雑度は平均値である2.5である。なお前述のように、すでに全ての処理対象である撮影画像12aについて処理が完了しているので、ステップS126の処理が開始された時には混雑度表12cは完成されている。
In step S124, the server control unit 11 determines whether or not the current captured image 12a to be processed is the last image described in the processing target list created in step S104. If it is determined that the image is the last image, the process proceeds to step S126. If it is determined that the image is not the last image, the next image described in the process target list is set as the process target, and the process returns to step S108.
In step S126, as preparation for creating the area congestion degree map 12e, the server control unit 11 calculates an average value for each predetermined area for the congestion degree described in the congestion degree table 12c, and proceeds to step S128. The predetermined area is, for example, a mesh-like 50 m square area cut along the east-west direction and the north-south direction, and it is determined which area belongs to the latitude and longitude described in the congestion degree table 12c. For example, if an area includes only the three points shown in FIG. 2, the total congestion levels are 3.2, 2.1, and 2.2, so the total congestion level of the area is an average value. 2.5. As described above, since the processing has already been completed for all the captured images 12a to be processed, the congestion degree table 12c is completed when the processing of step S126 is started.

ステップS128では、サーバ制御部11は、混雑度表12cに記載されている情報を地図データベース14に保存されている地図の対応する位置に点データとして書込み、点群混雑度地図12dを作成してサーバ記憶部12に保存する。また、ステップS126において算出したエリアごとの混雑度の平均値を用いてエリア混雑度地図12eを作成し、サーバ記憶部12に保存する。その後、図6のフローチャートを終了する。点群混雑度地図12dでは、混雑度の大小を点の輝度により表現してもよいし、点の大きさにより表現してもよい。また、性別および年齢層ごとに表示する色を異ならせて区別してもよいし、性別および年齢層ごとに異なる点群混雑度地図12dを作成してもよい。エリア混雑度地図12eは、色の濃淡によりエリアごとの混雑度を表現してもよいし、性別および年齢層ごとに表示する色を異ならせて区別してもよい。さらに、性別および年齢層別の種別ごとに識別可能に表示した積み上げ棒グラフにより表示してもよい。   In step S128, the server control unit 11 writes the information described in the congestion degree table 12c as point data in the corresponding position of the map stored in the map database 14, and creates the point cloud congestion map 12d. Save in the server storage unit 12. In addition, the area congestion degree map 12e is created using the average value of the congestion degree for each area calculated in step S126, and is stored in the server storage unit 12. Thereafter, the flowchart of FIG. 6 ends. In the point cloud congestion map 12d, the degree of congestion may be expressed by the brightness of a point or by the size of a point. In addition, the colors displayed for each gender and age group may be differentiated, or a different point cloud congestion map 12d may be created for each gender and age group. The area congestion degree map 12e may express the degree of congestion for each area by color shading, or may distinguish the colors displayed for each sex and age group. Furthermore, you may display by the stacked bar graph displayed so that identification according to the classification according to sex and age group was possible.

(2)ウエアラブル端末からの要求によるサーバの動作
混雑度推定サーバ10は、ウエアラブル端末20から、混雑度に関する情報または撮影画像12aのダウンロード要求、リアルタイム動画像の配信要求、および撮影した画像などのアップロード要求の通信を受ける。サーバ通信部13は常に外部からの通信を待ち受けており、通信を受信するとサーバ制御部11に受信したデータを出力する。サーバ制御部11は、サーバ通信部13からデータの出力を受けると、以下のようにサーバ通信部13が受信したデータを参照して処理を決定する。
(2) Server operation in response to a request from the wearable terminal The congestion degree estimation server 10 uploads information related to the degree of congestion or a download request for the captured image 12a, a distribution request for a real-time moving image, and a captured image from the wearable terminal 20. Receive request communication. The server communication unit 13 always waits for communication from the outside, and when the communication is received, the received data is output to the server control unit 11. When receiving data output from the server communication unit 13, the server control unit 11 determines processing with reference to the data received by the server communication unit 13 as follows.

図7は、混雑度推定サーバ10が、ウエアラブル端末20から通信を受けるとサーバ制御部11が実行するプログラムの動作を表すフローチャートである。本フローチャートの説明において、本フローチャートにより動作が表されるプログラムを実行するきっかけとなった通信を行ったウエアラブル端末20を「処理要求端末」と呼ぶ。
ステップS202では、サーバ制御部11は、受信したデータに画像データが含まれるか否かにより、当該通信がアップロード要求であるか否かを判断する。受信したデータが画像データを含むと判断する場合はステップS204に進み、受信したデータが画像データを含まないと判断する場合はステップS206に進む。
FIG. 7 is a flowchart showing the operation of a program executed by the server control unit 11 when the congestion degree estimation server 10 receives communication from the wearable terminal 20. In the description of this flowchart, the wearable terminal 20 that has performed communication that triggered the execution of the program whose operation is represented by this flowchart is referred to as a “processing request terminal”.
In step S202, the server control unit 11 determines whether or not the communication is an upload request based on whether or not the received data includes image data. If it is determined that the received data includes image data, the process proceeds to step S204. If it is determined that the received data does not include image data, the process proceeds to step S206.

ステップS204では、サーバ制御部11は、受信したデータに含まれる画像データを撮影画像12aとしてサーバ記憶部12に保存する。また、受信したデータの画像データ以外のデータ、すなわち撮影位置、撮影時刻、撮影方向および、データを送信したウエアラブル端末20のネットワーク回線Xにおける識別情報を画像情報12bとして、同時に受信した撮影画像12aと関連付けてサーバ記憶部12に保存し、図7のフローチャートを終了する。   In step S204, the server control unit 11 stores the image data included in the received data in the server storage unit 12 as a captured image 12a. Further, data other than the image data of the received data, that is, the shooting position, the shooting time, the shooting direction, and the identification information in the network line X of the wearable terminal 20 that has transmitted the data as the image information 12b, The association is stored in the server storage unit 12, and the flowchart of FIG. 7 ends.

ステップS206では、サーバ制御部11は、受信したデータが撮影画像12aやリアルタイム動画像の要求であるか、混雑度に関する情報の要求であるかを判断する。これは、受信したデータに位置を指定する情報、たとえば緯度と経度、またはエリアの名称が含まれるか否かにより判断する。受信したデータに位置を指定する情報が含まれる場合には、撮影画像12aやリアルタイム動画像の要求であるとしてステップS208に進む。受信したデータに位置を指定する情報が含まれない場合には、混雑度に関する情報の要求であるとしてステップS207に進む。なお、以下では受信したデータに含まれていた位置を指定する情報により指定される位置を「指定位置」と呼ぶ。   In step S206, the server control unit 11 determines whether the received data is a request for a captured image 12a or a real-time moving image or a request for information regarding the degree of congestion. This is determined based on whether the received data includes information specifying the position, for example, latitude and longitude, or the name of the area. If the received data includes information specifying the position, it is determined that the request is for a captured image 12a or a real-time moving image, and the process proceeds to step S208. If the received data does not include information specifying the position, the process proceeds to step S207 as a request for information on the degree of congestion. Hereinafter, a position designated by information designating a position included in the received data is referred to as “designated position”.

ステップS207では、サーバ制御部11は、受信したデータは、混雑度表12c、点群混雑度地図12d、エリア混雑度地図12eのいずれかの要求なので、要求に応じたデータをサーバ記憶部12から読み出して処理要求端末に送信し、図7のフローチャートを終了する。
ステップS208では、サーバ制御部11は、受信したデータにリアルタイム動画像の指定が付加されているか否かを判断する。リアルタイム動画像の指定が付加されていると判断する場合はステップS210に進み、リアルタイム動画像の指定が付加されていないと判断する場合はステップS220に進む。
ステップS210では、サーバ制御部11は、サーバ記憶部12に保存されている画像情報12bを参照して、「指定位置に最も近い撮影位置」を有するウエアラブル端末20(以下、「リアルタイム動画像配信端末」と呼ぶ)のネットワーク回線Xにおける識別情報を検索し、ステップS212に進む。たとえば、リアルタイム動画像配信端末のIPアドレスを取得して、ステップS212に進む。
In step S207, since the received data is a request for one of the congestion degree table 12c, the point cloud congestion map 12d, and the area congestion map 12e, the data corresponding to the request is sent from the server storage unit 12. The data is read and transmitted to the processing request terminal, and the flowchart of FIG. 7 is terminated.
In step S208, the server control unit 11 determines whether or not real-time moving image designation is added to the received data. If it is determined that the designation of the real-time moving image is added, the process proceeds to step S210, and if it is determined that the designation of the real-time moving image is not added, the process proceeds to step S220.
In step S210, the server control unit 11 refers to the image information 12b stored in the server storage unit 12, and wears the wearable terminal 20 having the “photographing position closest to the designated position” (hereinafter, “real-time moving image distribution terminal”). ") Is searched for the network line X, and the process proceeds to step S212. For example, the IP address of the real-time moving image distribution terminal is acquired, and the process proceeds to step S212.

ステップS212では、サーバ制御部11は、ステップS210において検索したリアルタイム動画像配信端末の識別情報を利用して、リアルタイム動画像配信端末にリアルタイム動画像を要求しステップS214に進む。
ステップS214では、サーバ制御部11は、リアルタイム動画像配信端末から受信すると処理要求端末へのリアルタイム動画像の送信処理を開始し、ステップS216に進む。なお、これ以後はステップS218において送信を停止するまで、リアルタイム動画像配信端末から受信した動画像の処理要求端末への送信は継続されている。
In step S212, the server control unit 11 requests a real-time moving image from the real-time moving image distribution terminal using the identification information of the real-time moving image distribution terminal searched in step S210, and proceeds to step S214.
In step S214, upon receiving from the real-time moving image distribution terminal, the server control unit 11 starts transmission processing of the real-time moving image to the processing request terminal, and proceeds to step S216. Thereafter, transmission of the moving image received from the real-time moving image distribution terminal to the processing requesting terminal is continued until transmission is stopped in step S218.

ステップS216では、サーバ制御部11は、所定時間だけ待機してステップS218に進む。前述のとおり、このステップS216における待機時間中にも、リアルタイム動画像配信端末から受信したリアルタイム動画像の処理要求端末への送信は継続している。
ステップS218では、サーバ制御部11は、リアルタイム動画像配信端末からのリアルタイム動画像の受信、および処理要求端末へのリアルタイム動画像の送信を終了し、図7のフローチャートを終了する。
ステップS220では、サーバ制御部11は、画像情報12bを参照して、撮影位置が指定位置から所定距離内で、かつ現在時刻から所定時間以内に撮影された撮影画像12aを選択し、ステップS222に進む。
In step S216, the server control unit 11 waits for a predetermined time and proceeds to step S218. As described above, transmission of the real-time moving image received from the real-time moving image distribution terminal to the processing requesting terminal continues during the standby time in step S216.
In step S218, the server control unit 11 ends the reception of the real-time moving image from the real-time moving image distribution terminal and the transmission of the real-time moving image to the process requesting terminal, and ends the flowchart of FIG.
In step S220, the server control unit 11 refers to the image information 12b, selects the captured image 12a that is captured within a predetermined distance from the specified position and within a predetermined time from the current time, and proceeds to step S222. move on.

ステップS222では、サーバ制御部11は、ステップS220において選択した撮影画像12aを処理要求端末へ送信し、図7のフローチャートを終了する。   In step S222, the server control unit 11 transmits the captured image 12a selected in step S220 to the process requesting terminal, and ends the flowchart of FIG.

(3)ウエアラブル端末の動作
ウエアラブル端末20の視線検出部26は常にユーザの視線の動きを検出している。視線検出部26は、表示部23に図4のように混雑度データが表示されている際に、ユーザが表示部23の地図または動作設定アイコンVを注視したことを検出すると、端末制御部21にユーザが注視していた表示部23の座標および注視後のウインクの有無を出力する。
(3) Operation of Wearable Terminal The line-of-sight detection unit 26 of the wearable terminal 20 always detects the movement of the user's line of sight. When the line-of-sight detection unit 26 detects that the user gazes at the map or the operation setting icon V on the display unit 23 while the congestion degree data is displayed on the display unit 23 as illustrated in FIG. 4, the terminal control unit 21. The coordinates of the display unit 23 that the user is gazing at and the presence or absence of the wink after the gazing are output.

図8は、端末制御部21が視線検出部26から入力を受けると実行するプログラムの動作を表すフローチャートである。
ステップS302では、端末制御部21は、視線検出部26から入力されたユーザの注視座標と、表示部23に表示されているデータを使用して、ユーザが注視していたのは地図上の点であるか否かを判断する。地図上の点であると判断する場合はステップS304に進み、地図上の点ではないと判断する場合はステップS314に進む。
ステップS304では、端末制御部21は、視線検出部26からユーザがウインクをしたという情報が入力されたか否かを判断する。ウインクをしたという情報が入力されたと判断する場合はステップS306に進み、ウインクをしたという情報が入力されていないと判断する場合はステップS308に進む。
FIG. 8 is a flowchart showing the operation of a program that is executed when the terminal control unit 21 receives an input from the line-of-sight detection unit 26.
In step S <b> 302, the terminal control unit 21 uses the user's gaze coordinates input from the line-of-sight detection unit 26 and the data displayed on the display unit 23, and the user is watching the point on the map. It is determined whether or not. If it is determined that the point is on the map, the process proceeds to step S304. If it is determined that the point is not on the map, the process proceeds to step S314.
In step S <b> 304, the terminal control unit 21 determines whether information indicating that the user winks is input from the line-of-sight detection unit 26. If it is determined that the information indicating winking has been input, the process proceeds to step S306. If it is determined that the information indicating winking has not been input, the process proceeds to step S308.

ステップS306では、端末制御部21は、リアルタイム動画像の指定とともに、ユーザが注視していた位置を混雑度推定サーバ10に送信し、ステップS310に進む。端末制御部21は、ユーザの注視していた地理的な位置を、表示部23の表示およびユーザの注視していた表示画面上の座標から、緯度と経度、またはエリアの名称として特定する。
ステップS308では、端末制御部21は、ユーザが注視していた地理的な位置を混雑度推定サーバ10に送信し、ステップS310に進む。ただし、ステップS306とは異なり、リアルタイム動画像の指定を行わない。ユーザが注視していた位置は、表示部23の表示およびユーザの注視していた表示画面上の座標から、緯度と経度、またはエリアの名称として特定する。
In step S306, the terminal control unit 21 transmits the position where the user is gazing to the congestion degree estimation server 10 together with the designation of the real-time moving image, and proceeds to step S310. The terminal control unit 21 specifies the geographical position that the user is watching from the display on the display unit 23 and the coordinates on the display screen that the user is watching as the latitude and longitude, or the name of the area.
In step S308, the terminal control unit 21 transmits the geographical position that the user is watching to the congestion degree estimation server 10, and the process proceeds to step S310. However, unlike step S306, the real-time moving image is not designated. The position where the user was gazing is specified as the latitude and longitude or the name of the area from the display on the display unit 23 and the coordinates on the display screen where the user was gazing.

ステップS310では、端末制御部21は、混雑度推定サーバ10からリアルタイム動画像、撮影画像12a、点群混雑度地図12dまたはエリア混雑度地図12eを受信してステップS312に進む。
ステップS312では、端末制御部21は、混雑度推定サーバ10から受信したデータを表示部23に表示して図8のフローチャートを終了する。
ステップS314では、端末制御部21は、ユーザの注視していた座標からユーザが注視していた動作設定アイコンVがV1〜V4のいずれかを特定し、注視していたアイコンにマーカMをセットして表示部23の表示を更新してステップS316に進む。ただし、アイコンV1かアイコンV2に1つのマーカMが、アイコンV3かアイコンV4に1つのマーカMがセットされる。
In step S310, the terminal control unit 21 receives the real-time moving image, the captured image 12a, the point cloud congestion degree map 12d, or the area congestion degree map 12e from the congestion degree estimation server 10, and proceeds to step S312.
In step S312, the terminal control unit 21 displays the data received from the congestion degree estimation server 10 on the display unit 23, and ends the flowchart of FIG.
In step S314, the terminal control unit 21 specifies any one of the operation setting icons V1 to V4 that the user is watching from the coordinates that the user is watching, and sets the marker M to the icon that was watching. Then, the display on the display unit 23 is updated, and the process proceeds to step S316. However, one marker M is set for the icon V1 or the icon V2, and one marker M is set for the icon V3 or the icon V4.

ステップS316では、端末制御部21は、ステップS314による表示部23の表示更新後の表示において、受信設定のアイコンである地図V1と表V2のいずれが選択されているか、すなわちどちらにマーカMがセットされているかを判断する。地図V1が選択されていると判断する場合はステップ318に進み、表V2が選択されていると判断する場合はステップS324に進む。
ステップS318では、端末制御部21は、ステップS314による表示部23の表示更新後の表示において、表示設定のアイコンであるドットV3とエリアV4のいずれが選択されているか、すなわちどちらにマーカMがセットされているかを判断する。ドットV3が選択されていると判断する場合はステップ322に進み、エリアV4が選択されていると判断する場合はステップ320に進む。
In step S316, the terminal control unit 21 determines which one of the map V1 and the table V2, which are reception setting icons, is selected in the display after the display update of the display unit 23 in step S314, that is, in which of the markers M is set. Judge whether it has been. If it is determined that the map V1 is selected, the process proceeds to step 318, and if it is determined that the table V2 is selected, the process proceeds to step S324.
In step S318, the terminal control unit 21 determines which of the dot V3, which is the display setting icon, and the area V4 is selected in the display after the display update of the display unit 23 in step S314, that is, in which of the markers M is set. Judge whether it has been. If it is determined that the dot V3 is selected, the process proceeds to step 322. If it is determined that the area V4 is selected, the process proceeds to step 320.

ステップS320では、端末制御部21は、混雑度推定サーバ10にエリア表示のマッピングデータであるエリア混雑度地図12eの要求を送信し、ステップS310に進む。
ステップS322では、端末制御部21は、混雑度推定サーバ10に点表示のマッピングデータである点群混雑度地図12dの要求を送信し、ステップS310に進む。
ステップS324では、端末制御部21は、混雑度推定サーバ10に混雑度表12cの要求を送信し、ステップS326に進む。
ステップS326では、端末制御部21は、混雑度推定サーバ10から混雑度表12cを受信してステップS328に進む。
In step S320, the terminal control unit 21 transmits a request for the area congestion degree map 12e, which is mapping data for area display, to the congestion degree estimation server 10, and the process proceeds to step S310.
In step S322, the terminal control unit 21 transmits a request for the point cloud congestion degree map 12d, which is point display mapping data, to the congestion degree estimation server 10, and the process proceeds to step S310.
In step S324, the terminal control unit 21 transmits a request for the congestion degree table 12c to the congestion degree estimation server 10, and the process proceeds to step S326.
In step S326, the terminal control unit 21 receives the congestion level table 12c from the congestion level estimation server 10, and proceeds to step S328.

ステップS328では、端末制御部21は、表示設定のアイコンであるドットV3とエリアV4のいずれが選択されているか、すなわちどちらにマーカMがセットされているかを判断する。ドットV3が選択されていると判断する場合はステップ334に進み、表V2が選択されていると判断する場合はステップS330に進む。
ステップS330では、端末制御部21は、図6のステップS126と同様に、エリア混雑度地図12eを作成する準備として、混雑度表12cに記載された混雑度について所定のエリアごとの平均値を算出してステップS332に進む。所定のエリアとは、たとえば東西方向、南北方向に沿って切り分けたメッシュ状の50m四方のエリアであり、混雑度表12cに記載の緯度と経度からいずれのエリアに属するかを判断する。
In step S328, the terminal control unit 21 determines which one of the dot V3 and the area V4, which are display setting icons, is selected, that is, which marker M is set. If it is determined that the dot V3 is selected, the process proceeds to step 334. If it is determined that the table V2 is selected, the process proceeds to step S330.
In step S330, as in step S126 of FIG. 6, the terminal control unit 21 calculates an average value for each predetermined area for the congestion degree described in the congestion degree table 12c as preparation for creating the area congestion degree map 12e. Then, the process proceeds to step S332. The predetermined area is, for example, a mesh-like 50 m square area cut along the east-west direction and the north-south direction, and it is determined which area belongs to the latitude and longitude described in the congestion degree table 12c.

ステップS332では、端末制御部21は、混雑度推定サーバ10から受信した混雑度表12cに記載されている情報を、地図データベース29に保存されている地図の対応する位置に点データとして書込み、点群混雑度地図12dを作成する。そして、表示部23に表示させ、図8のフローチャートを終了する。
ステップS334では、端末制御部21は、ステップS330において作成したデータにより、エリア混雑度地図12eを作成して表示部23に表示し、図8のフローチャートを終了する。
In step S332, the terminal control unit 21 writes the information described in the congestion degree table 12c received from the congestion degree estimation server 10 as point data at the corresponding position of the map stored in the map database 29. A group congestion degree map 12d is created. And it is made to display on the display part 23, and the flowchart of FIG. 8 is complete | finished.
In step S334, the terminal control unit 21 creates an area congestion degree map 12e based on the data created in step S330 and displays it on the display unit 23, and ends the flowchart of FIG.

ウエアラブル端末20の端末通信部22は、常に外部からの通信を待ち受けており、リアルタイム動画像の要求を受信すると端末制御部21に伝達する。
図9は、端末通信部22から通信の受信を伝達されると端末制御部21が実行するプログラムの動作を示すフローチャートである。
ステップS402では、端末制御部21は、撮影部24による撮影を開始し、撮影したリアルタイムの動画像を要求を送信した混雑度推定サーバ10へ端末通信部22から送信してステップS404に進む。ステップS402の実行以後は、ステップS406において接続が切断されるまでは、撮影部24により撮影した動画像は混雑度推定サーバ10へ継続的に送信される。
The terminal communication unit 22 of the wearable terminal 20 always waits for external communication, and transmits a request for a real-time moving image to the terminal control unit 21.
FIG. 9 is a flowchart showing the operation of a program executed by the terminal control unit 21 when communication reception is transmitted from the terminal communication unit 22.
In step S402, the terminal control unit 21 starts photographing by the photographing unit 24, transmits the photographed real-time moving image from the terminal communication unit 22 to the congestion degree estimation server 10 that transmitted the request, and proceeds to step S404. After execution of step S402, the moving image captured by the imaging unit 24 is continuously transmitted to the congestion degree estimation server 10 until the connection is disconnected in step S406.

ステップS404では、端末制御部21は、所定の時間、たとえば10秒間待機してステップS406に進む。ただし、所定の時間の間であっても当該ウエアラブル端末20のユーザによる、視線検出部26からの明示の入力によりステップS406に進んでもよい。
ステップS406では、端末制御部21は、混雑度推定サーバ10への動画像の送信および撮影部24による撮影を終了し、図9のフローチャートを終了する。
In step S404, the terminal control unit 21 waits for a predetermined time, for example, 10 seconds, and proceeds to step S406. However, even during a predetermined time, the user of the wearable terminal 20 may proceed to step S406 by an explicit input from the line-of-sight detection unit 26.
In step S406, the terminal control unit 21 ends the transmission of the moving image to the congestion degree estimation server 10 and the shooting by the shooting unit 24, and the flowchart of FIG. 9 ends.

(動作の要約)
第1の実施の形態において、混雑度推定サーバ10およびウエアラブル端末20は以下の動作を行う。
ウエアラブル端末20は、一定時間間隔ごとに撮影部24により撮影して得られた撮影画像12aを、撮影位置の情報などとともに混雑度推定サーバ10に送信する。
複数のウエアラブル端末20から撮影画像12aおよび画像情報12bを受信する混雑度推定サーバ10は、画像解析により撮影画像12aから人数および歩道の面積を算出して混雑度を算出し、その撮影画像12aが撮影された位置とともに混雑度表12cに記録する。そして、混雑度表12cに記録された混雑度を地図データベース14の地図にマッピングし、点群混雑度地図12dおよびエリア混雑度地図12eを作成する。混雑度推定サーバ10は、要求に応じて混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eを送信する。
(Summary of operation)
In the first embodiment, the congestion degree estimation server 10 and the wearable terminal 20 perform the following operations.
The wearable terminal 20 transmits the captured image 12a obtained by photographing by the photographing unit 24 at regular time intervals to the congestion degree estimation server 10 together with information on the photographing position.
The congestion level estimation server 10 that receives the captured image 12a and the image information 12b from the plurality of wearable terminals 20 calculates the congestion level by calculating the number of people and the area of the sidewalk from the captured image 12a by image analysis, and the captured image 12a It records on the congestion degree table | surface 12c with the image | photographed position. Then, the congestion level recorded in the congestion level table 12c is mapped to the map of the map database 14, and a point cloud congestion level map 12d and an area congestion level map 12e are created. The congestion degree estimation server 10 transmits the congestion degree table 12c, the point cloud congestion degree map 12d, or the area congestion degree map 12e as requested.

ウエアラブル端末20は、動作設定アイコンVの設定に従い、混雑度推定サーバ10から混雑度表12cを受信して、点群混雑度地図12dまたはエリア混雑度地図12eを作成して表示部23に表示する。もしくは、混雑度推定サーバ10から点群混雑度地図12dまたはエリア混雑度地図12eを受信して表示部23に表示する。
混雑度推定サーバ10は、外部からの要求に応じて、作成された混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eを送信する。さらに、位置を指定した要求を受けると、指定された位置付近で撮影された撮影画像12a、または指定された位置付近のウエアラブル端末20からのリアルタイム動画像を送信する。
The wearable terminal 20 receives the congestion level table 12c from the congestion level estimation server 10 according to the setting of the operation setting icon V, creates the point cloud congestion level map 12d or the area congestion level map 12e, and displays it on the display unit 23. . Alternatively, the point cloud congestion map 12 d or the area congestion map 12 e is received from the congestion estimation server 10 and displayed on the display unit 23.
The congestion degree estimation server 10 transmits the created congestion degree table 12c, the point cloud congestion degree map 12d, or the area congestion degree map 12e in response to a request from the outside. Further, when a request for designating a position is received, a captured image 12a photographed near the designated position or a real-time moving image from the wearable terminal 20 near the designated position is transmitted.

ウエアラブル端末20は視線検出部26を備え、ウエアラブル端末20のユーザが表示部23上の点を注視していることを検出すると、視線検出部26は端末制御部21に注視位置の情報を伝達する。端末制御部21は、ユーザが地図上の点を注視していたと判断する場合は、混雑度推定サーバ10に位置情報を送信し、指定した位置付近で撮影された撮影画像12aまたはリアルタイム動画像を混雑度推定サーバ10から受信する。端末制御部21は、ユーザが動作設定アイコンVを注視していたと判断する場合は、注視されていたアイコンVにマーカMをセットし、混雑度推定サーバ10に情報を要求して受信したデータに基づき、点群混雑度地図12dまたはエリア混雑度地図12eを表示部23に表示する。   The wearable terminal 20 includes a line-of-sight detection unit 26. When the wearable terminal 20 detects that the user of the wearable terminal 20 is gazing at a point on the display unit 23, the line-of-sight detection unit 26 transmits gaze position information to the terminal control unit 21. . When the terminal control unit 21 determines that the user is gazing at a point on the map, the terminal control unit 21 transmits position information to the congestion degree estimation server 10, and the captured image 12a or the real-time moving image captured in the vicinity of the specified position is transmitted. Received from the congestion degree estimation server 10. When the terminal control unit 21 determines that the user is gazing at the operation setting icon V, the terminal control unit 21 sets the marker M on the icon V being gazed at, and requests information from the congestion degree estimation server 10 to the received data. Based on this, the point cloud congestion map 12d or the area congestion map 12e is displayed on the display unit 23.

以上説明した第1の実施の形態において、混雑度推定システム1は以下の作用効果を奏する。
(1)混雑度推定システム1は、複数のウエアラブル端末20と混雑度推定サーバ10とから構成される。ウエアラブル端末20は、被写体を撮影する撮影部24と、現在位置を算出するGPS受信機27と、撮影部24により撮影して得られた画像、およびGPS受信機27により算出した現在位置をサーバに送信する端末通信部22と、を備える。混雑度推定サーバ10は、複数のウエアラブル端末20と通信するサーバ通信部13と、複数のウエアラブル端末20から送信されてサーバ通信部13が受信する撮影画像12aおよび現在位置が関連付けられて保存されるサーバ記憶部12と、サーバ記憶部12に保存された撮影画像12aを解析して人数と面積とから算出される混雑度を算出し、算出した混雑度および現在位置をサーバ通信部13により送信するサーバ制御部11とを備える。
In the first embodiment described above, the congestion degree estimation system 1 has the following operational effects.
(1) The congestion level estimation system 1 includes a plurality of wearable terminals 20 and a congestion level estimation server 10. The wearable terminal 20 uses a photographing unit 24 for photographing a subject, a GPS receiver 27 for calculating a current position, an image obtained by photographing by the photographing unit 24, and a current position calculated by the GPS receiver 27 in a server. A terminal communication unit 22 for transmission. The congestion degree estimation server 10 stores a server communication unit 13 that communicates with a plurality of wearable terminals 20, a captured image 12a that is transmitted from the plurality of wearable terminals 20 and received by the server communication unit 13 and a current position in association with each other. The server storage unit 12 and the captured image 12a stored in the server storage unit 12 are analyzed to calculate the degree of congestion calculated from the number of people and the area, and the calculated degree of congestion and the current position are transmitted by the server communication unit 13. And a server control unit 11.

ウエアラブル端末20を装着してユーザが移動することにより、監視カメラが設置されていない場所の混雑状況を、混雑度推定システム1を利用している他のユーザが把握することができる。また、混雑度が高い場所ほどウエアラブル端末20を装着しているユーザがいる可能性が高いため、混雑度が高い場所ほど多くの撮影画像12aを得ることができ、混雑度の算出精度が向上する。   When the user moves while wearing the wearable terminal 20, another user using the congestion degree estimation system 1 can grasp the congestion situation in a place where the surveillance camera is not installed. In addition, since there is a high possibility that there is a user wearing the wearable terminal 20 in a place where the degree of congestion is high, more photographed images 12a can be obtained in a place where the degree of congestion is high, and the calculation accuracy of the degree of congestion is improved. .

(2)混雑度推定サーバ10は、地図を保存する地図データベース14をさらに備える。サーバ制御部11は、地図データベース14に保存されている地図上の、その混雑度の算出に使用した撮影画像12aが撮影された位置に算出した混雑度をマッピングし、算出した混雑度がマッピングされた地図をサーバ通信部13により送信する。
そのため、ウエアラブル端末20は地図データベース14を備える必要がなく、少ない記憶領域で足りる。また、算出した混雑度を地図上にマッピングする処理が不要なので、ウエアラブル端末20の計算量を削減することができる。
(2) The congestion degree estimation server 10 further includes a map database 14 that stores a map. The server control unit 11 maps the calculated congestion degree on the map stored in the map database 14 at the position where the captured image 12a used for calculating the congestion degree is captured, and the calculated congestion degree is mapped. The server communication unit 13 transmits the map.
Therefore, the wearable terminal 20 does not need to include the map database 14, and a small storage area is sufficient. Moreover, since the process which maps the calculated congestion degree on a map is unnecessary, the calculation amount of the wearable terminal 20 can be reduced.

(3)混雑度推定サーバ10のサーバ制御部11は、ウエアラブル端末20から位置を指定した情報の送信要求を受信すると、サーバ記憶部12に保存されている撮影画像12aの中から指定された位置に最も近い、または指定された位置から所定距離範囲内の現在位置を有する撮影画像12aを、送信要求を送信したウエアラブル端末20に送信する。
ウエアラブル端末20は、位置を指定した情報の送信要求を混雑度推定サーバ10に送信することにより、指定した位置付近で撮影された撮影画像12aを受信できるので、指定した位置の様子を具体的に知ることができる。
(3) When the server control unit 11 of the congestion degree estimation server 10 receives a transmission request for information specifying a position from the wearable terminal 20, the position specified from the captured image 12a stored in the server storage unit 12 The photographed image 12a having the current position within a predetermined distance range from the designated position is transmitted to the wearable terminal 20 that has transmitted the transmission request.
The wearable terminal 20 can receive the captured image 12a photographed in the vicinity of the designated position by transmitting a transmission request for information designating the position to the congestion degree estimation server 10, so that the state of the designated position is specifically described. I can know.

(4)混雑度推定サーバ10のサーバ制御部11は、ウエアラブル端末20から位置を指定した情報の送信要求を受信すると、受信した位置に最も近い、または指定された位置から所定距離範囲内の現在位置を有するウエアラブル端末20にリアルタイム動画像の送信を要求する。そして、当該ウエアラブル端末20から受信したリアルタイム動画像を送信要求を送信したウエアラブル端末20に送信する。
ウエアラブル端末20は、地図上の位置を混雑度推定サーバ10に送信することにより、指定した位置付近で撮影されたリアルタイム動画像を受信できるので、指定した位置の現在の様子を詳しく知ることができる。
(4) When the server control unit 11 of the congestion degree estimation server 10 receives a transmission request for information specifying a position from the wearable terminal 20, the server control unit 11 is closest to the received position or currently within a predetermined distance range from the specified position. The wearable terminal 20 having the position is requested to transmit a real-time moving image. And the real-time moving image received from the said wearable terminal 20 is transmitted to the wearable terminal 20 which transmitted the transmission request.
The wearable terminal 20 can receive a real-time moving image photographed in the vicinity of the designated position by transmitting the position on the map to the congestion degree estimation server 10, and can thus know in detail the current state of the designated position. .

(5)ウエアラブル端末20は、ユーザの目による入力を検出し、目の動きにより位置の情報を入力する視線検出部26を備える。視線検出部26が、ユーザによる表示部23に表示されている地図上の点の注視を検出すると、注視している位置を指定して情報の送信要求を混雑度推定サーバ10へ送信するサーバ制御部11とをさらに備える。
そのため、ウエアラブル端末20のユーザは、手を使わずに目の動きのみで容易に地図上の位置を混雑度推定サーバ10へ送信し、指定した位置の画像を受信して閲覧することができる。
(5) The wearable terminal 20 includes a line-of-sight detection unit 26 that detects an input by the user's eyes and inputs position information by movement of the eyes. When the line-of-sight detection unit 26 detects the gaze of a point on the map displayed on the display unit 23 by the user, the server control that designates the gaze position and transmits an information transmission request to the congestion degree estimation server 10. And a unit 11.
Therefore, the user of the wearable terminal 20 can easily transmit the position on the map to the congestion degree estimation server 10 by only the movement of the eyes without using a hand, and can receive and browse the image at the designated position.

(6)サーバ制御部11は、顔画像データベース15を利用して撮影画像12aに撮影されている全ての人物について性別および年齢層を推定して、性別および年齢層ごとに混雑度を算出する。
そのため、ウエアラブル端末20のユーザは、市場調査または宣伝広告の対象となる性別および年齢層を特定し、対象者の混雑度が高くかつ対象者以外の混雑度が低いエリアを対象エリアとすることで、市場調査や宣伝広告の効率を向上させることができる。
(6) The server control unit 11 estimates the gender and the age group for all persons photographed in the captured image 12a using the face image database 15, and calculates the degree of congestion for each gender and age group.
For this reason, the user of wearable terminal 20 identifies the gender and age group that are the targets of market research or advertising, and makes the target area an area where the degree of congestion of the target person is high and the degree of congestion other than the target person is low. , Can improve the efficiency of market research and advertising.

(7)ウエアラブル端末20は、撮影部24の撮影方向を検出する電子コンパス28をさらに備える。ウエアラブル端末20の端末通信部22は、撮影部24により撮影して得られた撮影画像12a、GPS受信機27により検出した現在位置、および電子コンパス28により検出した撮影部24の撮影方向を混雑度推定サーバ10に送信する。混雑度推定サーバ10のサーバ制御部11は、混雑度算出処理において、複数のウエアラブル端末20から受信した、撮影画像12a、現在位置、撮影方向を組み合わせて、複数の撮影画像12aに撮影された同一人物を識別し、受信した複数のうち1以上の撮影画像12aを用いて人物の性別および年齢層を推定する。
そのため、ある撮影画像12aでは後ろ姿しか撮影されておらず、性別および年齢層の判別が不可能であっても、撮影位置、時刻、向き、服装などを利用して他の撮影画像12aから同一人物を識別し、性別および年齢層を判別することにより、システム全体として性別および年齢層が不明な人の数を減らすことができる。また、複数の角度から撮影された撮影画像12aを用いることにより、性別および年齢層の推定精度を向上させることができる。
(7) The wearable terminal 20 further includes an electronic compass 28 that detects the shooting direction of the shooting unit 24. The terminal communication unit 22 of the wearable terminal 20 includes the captured image 12a captured by the capturing unit 24, the current position detected by the GPS receiver 27, and the capturing direction of the capturing unit 24 detected by the electronic compass 28. It transmits to the estimation server 10. The server control unit 11 of the congestion degree estimation server 10 combines the photographed image 12a, the current position, and the photographing direction received from the plurality of wearable terminals 20 in the congestion degree calculation process, and the same photographed in the plurality of photographed images 12a. A person is identified, and the gender and age group of the person are estimated using one or more of the received images 12a.
For this reason, only a rear view is taken in a certain photographed image 12a, and even if it is impossible to discriminate gender and age group, the same person can be identified from other photographed images 12a using the photographing position, time, direction, clothes, etc. By discriminating and discriminating the gender and age group, it is possible to reduce the number of people whose sex and age group are unknown as the whole system. Further, by using the captured image 12a captured from a plurality of angles, it is possible to improve the estimation accuracy of the sex and the age group.

(変形例1)
第1の実施の形態においては、ウエアラブル端末20のみが混雑度推定サーバ10と通信を行ったが、ネットワーク回線Xに接続されている他の通信機器が混雑度推定サーバ10と通信を行ってもよい。
他の通信機器は、混雑度推定サーバ10に撮影画像12aを送信しないが、汎用的な入力デバイス、たとえばマウスとキーボードによりある位置を指定して混雑度推定サーバ10に情報送信の要求を送信し、その位置付近の撮影画像12aまたはリアルタイム動画像を受信してもよい。また、混雑度表12c、点群混雑度地図12d、またはエリア混雑度地図12eを混雑度推定サーバ10に要求して受信してもよい。
この変形例1によれば、ウエアラブル端末20が撮影し、混雑度推定サーバ10が加工または中継する情報を多様な情報通信機器から利用することができる。
(Modification 1)
In the first embodiment, only the wearable terminal 20 communicates with the congestion degree estimation server 10, but even if other communication devices connected to the network line X communicate with the congestion degree estimation server 10. Good.
Other communication devices do not transmit the captured image 12a to the congestion degree estimation server 10, but transmit a request for information transmission to the congestion degree estimation server 10 by designating a certain position using a general-purpose input device such as a mouse and a keyboard. The captured image 12a or the real-time moving image near the position may be received. Further, the congestion degree table 12c, the point cloud congestion degree map 12d, or the area congestion degree map 12e may be requested from the congestion degree estimation server 10 and received.
According to the first modification, information taken by the wearable terminal 20 and processed or relayed by the congestion degree estimation server 10 can be used from various information communication devices.

(変形例2)
第1の実施の形態においてウエアラブル端末20は、定期的に撮影を行い撮影画像12a、すなわち静止画像を混雑度推定サーバ10に送信したが、静止画像ではなく動画像を撮影して混雑度推定サーバ10に送信してもよい。また、ウエアラブル端末20はリアルタイム動画像の要求を受けた際に新たに撮影を行い、撮影して得られた撮影画像12aを混雑度推定サーバ10に送信してもよい。
(Modification 2)
In the first embodiment, the wearable terminal 20 periodically shoots and transmits a captured image 12a, that is, a still image, to the congestion degree estimation server 10. However, the wearable terminal 20 captures a moving image instead of a still image and collects the congestion degree estimation server. 10 may be transmitted. Wearable terminal 20 may newly take a picture when receiving a request for a real-time moving image, and may send photographed image 12 a obtained by photographing to congestion degree estimation server 10.

(変形例3)
第1の実施の形態において混雑度推定サーバ10は、位置の指定およびリアルタイムの指定を受けると、ある1台のウエアラブル端末20に対してのみリアルタイム動画像を要求したが、要求対象はこれに限定されない。混雑度推定サーバ10は、指定された位置に最も近い、または指定された位置から所定範囲内、たとえば10メートル以内に撮影位置を有する複数のウエアラブル端末20に対してリアルタイム動画像を要求してもよい。そして、複数のウエアラブル端末20から受信したリアルタイム動画像を縮小し、複数のリアルタイム動画像を同時に処理要求端末へ送信してもよい。たとえば、4台のウエアラブル端末20から受信した4つのリアルタイム動画像を縮小し、1画面にその4つのリアルタイム動画像を収めて、処理要求端末へ送信してもよい。また、受信した複数のリアルタイム動画像を順次切り替えながら処理要求端末へ送信してもよい。また、順次切り替える場合には1台のウエアラブル端末20からリアルタイム動画像を受信する時間は短くてもよい。
この変形例3によれば、処理要求端末は複数のウエアラブル端末20により撮影されたリアルタイム動画像を受信できるので、指定した位置の情報をより詳しく知ることができる。また、1台のウエアラブル端末20から配信される動画像の時間を短くすることにより、動画像を配信しているウエアラブル端末20の特定、およびウエアラブル端末20により撮影されている者の特定を難しくし、プライバシーを保護することができる。
(Modification 3)
In the first embodiment, when the congestion degree estimation server 10 receives the designation of the position and the designation of the real time, the congestion degree estimation server 10 requests the real time moving image only for a certain wearable terminal 20, but the request target is limited to this. Not. Even if the congestion degree estimation server 10 requests real-time moving images from a plurality of wearable terminals 20 that are closest to the specified position or have shooting positions within a predetermined range, for example, 10 meters from the specified position. Good. Then, the real-time moving images received from the plurality of wearable terminals 20 may be reduced, and the plurality of real-time moving images may be simultaneously transmitted to the processing requesting terminal. For example, the four real-time moving images received from the four wearable terminals 20 may be reduced, and the four real-time moving images may be stored on one screen and transmitted to the processing requesting terminal. Moreover, you may transmit to the process request | requirement terminal, switching the several real-time moving image received sequentially. Further, when switching sequentially, the time for receiving a real-time moving image from one wearable terminal 20 may be short.
According to the third modification, the processing requesting terminal can receive real-time moving images photographed by the plurality of wearable terminals 20, so that the information on the designated position can be known in more detail. In addition, by shortening the time of a moving image distributed from one wearable terminal 20, it is difficult to specify the wearable terminal 20 that distributes the moving image and the person who is photographed by the wearable terminal 20. , Can protect privacy.

(変形例4)
第1の実施の形態においてウエアラブル端末20は、ウエアラブル端末20のユーザからの入力は視線検出部26のみが受けたが、ユーザからの情報入力手段はこれに限定されない。ウエアラブル端末20がタッチセンサまたはボタンを備え、端末制御部21は、図8に動作を示したプログラムの実行の際に、ユーザによるタッチセンサまたはボタンを用いた表示画面上の座標の入力を、視線検出部26による視線の検出と同様に扱ってもよい。
この変形例4によれば、ウエアラブル端末20のユーザは多彩な方法で位置情報の入力を行うことができる。
(Modification 4)
In the first embodiment, the wearable terminal 20 receives input from the user of the wearable terminal 20 only by the line-of-sight detection unit 26, but the information input means from the user is not limited to this. The wearable terminal 20 includes a touch sensor or a button, and the terminal control unit 21 receives an input of coordinates on the display screen using the touch sensor or the button by the user when executing the program whose operation is illustrated in FIG. You may handle similarly to the detection of the gaze by the detection part 26. FIG.
According to the fourth modification, the user of the wearable terminal 20 can input position information by various methods.

(変形例5)
第1の実施の形態において、年齢層は3区分に分かれているが、年齢層の区分はこれに限定されない。年齢層の区分は、第1の実施の形態よりも少ない2区分でもよいし、第1の実施の形態よりも多い4区分以上でもよいし、1歳ごとの区分すなわち年齢の区分でもよい。また、年齢層の区分をなくして性別のみの区分でもよい。
第1の実施の形態において、図3に示したエリア混雑度地図12eの一例では、棒グラフの高さにより混雑度の高低を表現したが、表現方法はこれに限定されず、色の濃淡により表現してもよい。また、図3では男性の混雑度を表示しているが、女性の混雑度も併せて表示してもよいし、特定の性別および年齢層のみを表示してもよい。
(Modification 5)
In the first embodiment, the age group is divided into three categories, but the age group category is not limited to this. The age group may be divided into two categories less than those of the first embodiment, may be four or more categories more than those of the first embodiment, or may be an age group, that is, an age category. Moreover, the division of only sex may be sufficient without the division of an age group.
In the first embodiment, in the example of the area congestion degree map 12e shown in FIG. 3, the level of congestion is expressed by the height of the bar graph, but the expression method is not limited to this, and the expression is expressed by color shading. May be. In FIG. 3, the male congestion level is displayed, but the female congestion level may also be displayed, or only a specific gender and age group may be displayed.

また、図3に示すエリア混雑度地図12eでは、棒グラフの幅が太いため、地形や鉄道線路、行政区分の境界線などが描かれる地表部が一切表示されていないが、棒グラフの幅を補足する、もしくは半透明の表示にして地表部を表示してもよい。
第1の実施の形態において、混雑度推定サーバ10がウエアラブル端末20から受信するデータに撮影時刻が含まれることを前提としていた。しかし、受信したデータに撮影時刻が含まれていない場合は、混雑度推定サーバ10がデータを受信した時刻を撮影時刻とし、その時刻を画像情報12bとして保存してもよい。
第1の実施の形態において、処理対象条件は混雑度推定サーバ10のサーバ記憶部12に保存されていたが、これは外部から書き変え可能であってもよい。たとえば、ウエアラブル端末20から通信により書き換え可能であってもよい。
In addition, in the area congestion degree map 12e shown in FIG. 3, since the bar graph has a large width, the surface portion on which the topography, railroad tracks, administrative boundaries, etc. are drawn is not displayed at all, but the width of the bar graph is supplemented. Alternatively, the surface portion may be displayed in a translucent display.
In the first embodiment, it is assumed that the time of photographing is included in data received from the wearable terminal 20 by the congestion degree estimation server 10. However, if the received data does not include the shooting time, the time when the congestion degree estimation server 10 receives the data may be set as the shooting time, and the time may be stored as the image information 12b.
In the first embodiment, the processing target condition is stored in the server storage unit 12 of the congestion degree estimation server 10, but this may be rewritten from the outside. For example, it may be rewritable by communication from the wearable terminal 20.

(第2の実施の形態)
図10〜11を参照して、本発明による混雑度推定システムの第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、第1の実施の形態における動作に加えて、ウエアラブル端末が撮影して得られた画像を利用した探索を行う点で、第1の実施の形態と異なる。
探索する対象は、画像により特定される、人物、ユーザの所有物、ペットなどであり、その画像はウエアラブル端末20から探索対象画像12fとして混雑度推定サーバ10に送信される。混雑度推定サーバ10が探索対象画像12fの被写体を被写体として含む撮影画像12aを探索し、その撮影画像12aの画像情報12bをウエアラブル端末20に送信することで、ウエアラブル端末20のユーザは探索対象にたどり着くことができる。
(Second Embodiment)
With reference to FIGS. 10-11, 2nd Embodiment of the congestion degree estimation system by this invention is described. In the following description, the same components as those in the first embodiment are denoted by the same reference numerals, and different points will be mainly described. Points that are not particularly described are the same as those in the first embodiment. This embodiment is different from the first embodiment in that, in addition to the operation in the first embodiment, a search is performed using an image obtained by photographing the wearable terminal.
The search target is a person, a user's property, a pet, or the like specified by the image, and the image is transmitted from the wearable terminal 20 to the congestion degree estimation server 10 as the search target image 12f. The congestion degree estimation server 10 searches the photographed image 12a including the subject of the search target image 12f as the subject, and transmits the image information 12b of the photographed image 12a to the wearable terminal 20, whereby the user of the wearable terminal 20 becomes the search target. You can get there.

図10は、第2の実施の形態における混雑度推定システム1のブロック図である。第2の実施の形態における、混雑度推定システム1の構成の第1の実施の形態との主な違いは、サーバ記憶部12には探索対象画像12fおよび探索結果連絡先12gがさらに保存される点である。
検索対象画像12fは、混雑度推定サーバ10がウエアラブル端末20から受信する画像である。撮影画像12aも検索対象画像12fと同様にウエアラブル端末20から受信するが、撮影画像12aは撮影位置、撮影時刻、等とともに送信されるのに対して、検索対象画像12fは画像のみが送信されるため、混雑度推定サーバ10はどちらの画像として扱うかを判断できる。後述するように混雑度推定サーバ10は、検索対象画像12fとして保存されている画像に撮影されている被写体が撮影されている撮影画像12aを探索する。
FIG. 10 is a block diagram of the congestion degree estimation system 1 according to the second embodiment. The main difference of the configuration of the congestion degree estimation system 1 in the second embodiment from the first embodiment is that the search target image 12f and the search result contact 12g are further stored in the server storage unit 12. Is a point.
The search target image 12 f is an image received from the wearable terminal 20 by the congestion degree estimation server 10. The photographed image 12a is also received from the wearable terminal 20 in the same manner as the search target image 12f, but the photographed image 12a is transmitted together with the photographing position, photographing time, etc., whereas only the image is transmitted as the retrieval target image 12f. Therefore, the congestion degree estimation server 10 can determine which image to handle. As will be described later, the congestion degree estimation server 10 searches for a photographed image 12a in which a subject photographed in an image stored as the search target image 12f is photographed.

探索結果連絡先12gには、検索対象画像12fを送信したウエアラブル端末20のネットワーク上の識別子、たとえばIPアドレスが、その探索対象画像12fと関連付けて保存されている。混雑度推定サーバ10は、検索対象画像12fを受信しても必ずしもすぐには検索対象画像12fを含む撮影画像12aを発見できないため、将来発見した際に情報を送信する目的で、その情報の送信先を探索結果連絡先12gとして保存する。   In the search result contact 12g, an identifier on the network of the wearable terminal 20 that has transmitted the search target image 12f, for example, an IP address is stored in association with the search target image 12f. The congestion level estimation server 10 cannot immediately find the captured image 12a including the search target image 12f even if it receives the search target image 12f, and therefore transmits the information for the purpose of transmitting information when it is discovered in the future. The destination is stored as a search result contact 12g.

第2の実施の形態における動作を説明する。
図11のフローチャートに示すプログラムは、第1の実施の形態における図7のフローチャートに示すプログラムに代わって、第2の実施の形態においてサーバ制御部11がサーバ通信部13からデータの出力を受けると実行する処理手順を示すものである。
The operation in the second embodiment will be described.
The program shown in the flowchart of FIG. 11 replaces the program shown in the flowchart of FIG. 7 in the first embodiment, and when the server control unit 11 receives data output from the server communication unit 13 in the second embodiment. The processing procedure to be executed is shown.

ステップS502では、サーバ制御部11は、受信した画像が探索対象画像12fであるか否かを判断する。探索対象画像12fは撮影画像12aと同様に画像であるが、撮影画像12aとは異なり撮影位置などの付帯する情報がないので、撮影画像12aと区別することができる。サーバ制御部11は、探索対象画像12fを受信したと判断する場合はステップS504に進み、探索対象画像12fを受信していないと判断する場合はステップS202Aに進む。なお、ステップS202A以下の処理も、図7とは一部異なるので後に説明する。
ステップS504では、サーバ制御部11は、サーバ記憶部12に保存されている全ての撮影画像12aを対象として、受信した探索対象画像12fの被写体が被写体として含まれる画像を検索し、ステップS506に進む。
In step S502, the server control unit 11 determines whether the received image is the search target image 12f. The search target image 12f is an image similar to the photographed image 12a. However, unlike the photographed image 12a, the search target image 12f can be distinguished from the photographed image 12a because there is no additional information such as a photographing position. When determining that the search target image 12f has been received, the server control unit 11 proceeds to step S504, and when determining that the search target image 12f has not been received, the server control unit 11 proceeds to step S202A. Note that the processing in step S202A and subsequent steps is partly different from that in FIG. 7 and will be described later.
In step S504, the server control unit 11 searches for all the captured images 12a stored in the server storage unit 12 for images including the subject of the received search target image 12f as a subject, and the process proceeds to step S506. .

ステップS506では、サーバ制御部11は、ステップS504における検索により、サーバ記憶部12に保存されているいずれかの撮影画像12aに探索対象画像12fが含まれていたか否かを判断する。いずれかの撮影画像12aに探索対象画像12fが含まれていたと判断する場合はステップS508に進み、いずれの撮影画像12aにも探索対象画像12fが含まれていなかったと判断する場合はステップS510に進む。
ステップS508では、サーバ制御部11は、ステップS504における検索により探索対象画像12fを含むと判断した撮影画像12aの画像情報12b、および探索対象画像12fを、探索対象画像12fを送信したウエアラブル端末20に送信し、ステップS510に進む。
In step S506, the server control unit 11 determines whether or not the search target image 12f is included in any one of the captured images 12a stored in the server storage unit 12 by the search in step S504. If it is determined that any of the captured images 12a includes the search target image 12f, the process proceeds to step S508. If any of the captured images 12a is determined not to include the search target image 12f, the process proceeds to step S510. .
In step S508, the server control unit 11 sends the image information 12b of the captured image 12a determined to include the search target image 12f by the search in step S504 and the search target image 12f to the wearable terminal 20 that has transmitted the search target image 12f. Then, the process proceeds to step S510.

ステップS510では、サーバ制御部11は、受信した探索対象画像12fをサーバ記憶部12に保存する。また、その探索対象画像12fを送信したウエアラブル端末20のネットワーク上の識別子、たとえばIPアドレスを、その探索対象画像12fと関連付けて探索結果連絡先12gに保存し、図11のフローチャートを終了する。
ステップS202Aでは、サーバ制御部11は、受信したデータに画像データが含まれるか否かにより、当該通信がアップロード要求であるか否かを判断する。受信したデータは画像データを含むと判断する場合はステップS514に進み、受信したデータは画像データを含まないと判断する場合はステップS512に進む。
ステップS512では、サーバ制御部11は、図7におけるステップS206以下の処理を行い、図11のフローチャートを終了する。
In step S <b> 510, the server control unit 11 stores the received search target image 12 f in the server storage unit 12. Further, the identifier on the network of the wearable terminal 20 that has transmitted the search target image 12f, for example, the IP address is stored in the search result contact 12g in association with the search target image 12f, and the flowchart of FIG. 11 is ended.
In step S202A, the server control unit 11 determines whether or not the communication is an upload request based on whether or not the received data includes image data. If it is determined that the received data includes image data, the process proceeds to step S514. If it is determined that the received data does not include image data, the process proceeds to step S512.
In step S512, the server control unit 11 performs the processing in step S206 and subsequent steps in FIG. 7 and ends the flowchart in FIG.

ステップS514では、サーバ制御部11は、サーバ記憶部12に保存している探索対象画像12fから、受信したデータに含まれる画像データの一部と一致する探索対象画像12fを検索し、ステップS516に進む。
ステップS516では、サーバ制御部11は、ステップS514における処理の結果から、受信したデータに含まれる画像データが、サーバ記憶部12に保存しているいずれかの探索対象画像12fの被写体を含むか否かを判断する。いずれかの探索対象画像12fを含むと判断する場合はステップS518に進み、いずれの探索対象画像12fも含まないと判断する場合はステップS204Aに進む。
In step S514, the server control unit 11 searches the search target image 12f stored in the server storage unit 12 for a search target image 12f that matches a part of the image data included in the received data, and proceeds to step S516. move on.
In step S516, the server control unit 11 determines whether the image data included in the received data includes the subject of any of the search target images 12f stored in the server storage unit 12, based on the result of the process in step S514. Determine whether. If it is determined that any of the search target images 12f is included, the process proceeds to step S518. If it is determined that any of the search target images 12f is not included, the process proceeds to step S204A.

ステップS518では、サーバ制御部11は、ステップS504における検索により探索対象画像12fを含むと判断した撮影画像12aの画像情報12b、および当該探索対象画像12fを、当該探索対象画像12fに関連付けられた探索結果連絡先12gに記載のウエアラブル端末20へ送信し、ステップS204Aに進む。
ステップS204Aでは、サーバ制御部11は、受信したデータに含まれる画像データを撮影画像12aとしてサーバ記憶部12に保存し、受信したデータの画像データ以外を画像情報12bとしてサーバ記憶部12に保存して図7のフローチャートを終了する。
混雑度推定サーバ10のサーバ制御部11が、一定の時間間隔ごとに図6のフローチャートで動作が表されるプログラムを実行し、混雑度表12c、点群混雑度地図12d、およびエリア混雑度地図12eを新たに作成する点は、第1の実施の形態と同様である。
In step S518, the server control unit 11 searches the image information 12b of the captured image 12a determined to include the search target image 12f by the search in step S504, and the search target image 12f associated with the search target image 12f. The result is transmitted to the wearable terminal 20 described in the contact 12g, and the process proceeds to step S204A.
In step S204A, the server control unit 11 saves the image data included in the received data as the captured image 12a in the server storage unit 12, and saves other than the image data of the received data as the image information 12b in the server storage unit 12. Then, the flowchart of FIG.
The server control unit 11 of the congestion degree estimation server 10 executes a program whose operation is represented by the flowchart of FIG. 6 at regular time intervals, and the congestion degree table 12c, the point cloud congestion degree map 12d, and the area congestion degree map The point that 12e is newly created is the same as in the first embodiment.

ウエアラブル端末20の動作を説明する。
ウエアラブル端末20の視線検出部26は、ユーザのウインクを検出すると端末制御部21にウインクの検出を出力し、それを受けた端末制御部21は、撮影部24により被写体を撮影し、撮影して得られた画像を端末記憶部25に保存する。端末制御部21は、ユーザによる不図示のボタン操作により、端末記憶部25に保存しているいずれかの画像の全体、またはある一部分を混雑度推定サーバ10に送信することができる。この画像は、混雑度推定サーバ10では探索対象画像12fとして扱われる。
混雑度推定サーバ10により、探索対象画像12fを含む撮影画像12aが発見されると、ウエアラブル端末20は、その撮影画像12aの画像情報12b、すなわちその撮影画像12aが撮影された位置、時刻、撮影方向および探索対象画像12fを受信する。
The operation of the wearable terminal 20 will be described.
The line-of-sight detection unit 26 of the wearable terminal 20 outputs a wink detection to the terminal control unit 21 when detecting the wink of the user, and the terminal control unit 21 that receives the wink captures and shoots the subject by the imaging unit 24. The obtained image is stored in the terminal storage unit 25. The terminal control unit 21 can transmit all or a part of any image stored in the terminal storage unit 25 to the congestion degree estimation server 10 by a button operation (not shown) by the user. This image is handled as the search target image 12f in the congestion degree estimation server 10.
When the captured image 12a including the search target image 12f is found by the congestion degree estimation server 10, the wearable terminal 20 captures the image information 12b of the captured image 12a, that is, the position, time, and image of the captured image 12a. The direction and the search target image 12f are received.

第2の実施の形態において、混雑度推定システム1は第1の実施の形態の他に以下の動作を行う。
混雑度推定サーバ10は、探索対象画像12fを受信すると、サーバ記憶部12に保存している全ての撮影画像12aを検索し、探索対象画像12fを含む撮影画像12aの画像情報12bを、探索対象画像12fを送信したウエアラブル端末20に送信する。また、探索対象画像12fを受信した後に新たに撮影画像12aを受信すると、その撮影画像12aが探索対象画像12fを含むか否かを判断し、含む場合はその撮影画像12aの画像情報12bを探索対象画像12fを送信したウエアラブル端末20に送信する。
In the second embodiment, the congestion degree estimation system 1 performs the following operation in addition to the first embodiment.
Upon receiving the search target image 12f, the congestion degree estimation server 10 searches all the captured images 12a stored in the server storage unit 12, and searches the image information 12b of the captured image 12a including the search target image 12f as the search target. The image 12f is transmitted to the wearable terminal 20 that has transmitted the image 12f. When a new captured image 12a is received after receiving the search target image 12f, it is determined whether or not the captured image 12a includes the search target image 12f, and if so, the image information 12b of the captured image 12a is searched. The target image 12f is transmitted to the wearable terminal 20 that has transmitted the target image 12f.

以上説明した第2の実施の形態において、混雑度推定システム1は以下の作用効果を奏する。
(1)混雑度推定サーバ10のサーバ制御部11は、探索対象画像12fを含む撮影画像12aを検索し、探索対象画像12fを含む撮影画像12aの画像情報12bを探索対象画像12fの送信元に送信する。
そのため、混雑度推定システム1のユーザは、子供の写真や遺失物の写真を探索対象画像12fとして送信することにより、迷子の子供や遺失物の所在地を容易に知ることができる。
(2)混雑度推定サーバ10のサーバ制御部11は、探索対象画像12fを受信すると、サーバ記憶部12に保存されている全ての撮影画像12aを検索し、探索対象画像12fを含む撮影画像12aの画像情報12bを探索対象画像12fの送信元に送信する。
そのため、混雑度推定システム1のユーザは、得られた情報から探索対象の過去の移動軌跡を知ることができる。さらに、得られた移動軌跡を用いて、今後の移動予測をすることができる。
In the second embodiment described above, the congestion degree estimation system 1 has the following operational effects.
(1) The server control unit 11 of the congestion degree estimation server 10 searches the captured image 12a including the search target image 12f, and uses the image information 12b of the captured image 12a including the search target image 12f as the transmission source of the search target image 12f. Send.
Therefore, the user of the congestion degree estimation system 1 can easily know the location of the lost child or the lost item by transmitting the child's photo or the lost item's photo as the search target image 12f.
(2) Upon receiving the search target image 12f, the server control unit 11 of the congestion degree estimation server 10 searches all the captured images 12a stored in the server storage unit 12, and the captured image 12a including the search target image 12f. The image information 12b is transmitted to the transmission source of the search target image 12f.
Therefore, the user of the congestion level estimation system 1 can know the past movement trajectory of the search target from the obtained information. Furthermore, future movement prediction can be performed using the obtained movement trajectory.

(3)混雑度推定サーバ10のサーバ制御部11は、探索対象画像12fの受信後に、新たに撮影画像12aを受信すると、その撮影画像12aに含まれる探索対象画像12fを特定し、その探索対象画像12fの送信元に受信した撮影画像12aの画像情報12bを送信する。
そのため、混雑度推定サーバ10において、探索対象画像12fの検索が可能な限り早期に行い、探索対象画像12fの送信元に最新の情報を伝達できる。
(3) When the server control unit 11 of the congestion degree estimation server 10 receives a new captured image 12a after receiving the search target image 12f, the server control unit 11 specifies the search target image 12f included in the captured image 12a, and the search target The received image information 12b of the captured image 12a is transmitted to the transmission source of the image 12f.
Therefore, the congestion degree estimation server 10 can search the search target image 12f as early as possible, and can transmit the latest information to the transmission source of the search target image 12f.

(変形例6)
第2の実施の形態において、探索対象画像12fを含む撮影画像12aが特定された場合に、その撮影画像12aの画像情報12bおよびその探索対象画像12fを送信したが、送信するデータはこれに限定されない。
撮影画像12aの画像情報12bから緯度および経度を抽出して、その位置を撮影画像12aの撮影位置として地図データベース14に保存されている地図にマッピングし、その地図もあわせて送信してもよい。さらに、地図を所定の大きさのエリアに分割し、探索対象画像12fを含む撮影画像12aの撮影位置が各エリアに含まれる数の多少により識別可能に表示してもよい。たとえば、探索対象画像12fを含む撮影画像12aが多く撮影されたエリアほど、明るく表示してもよい。
この変形例6によれば、探索対象の所在を容易に把握することができる。特に、ペットが探索対象の場合には、一箇所には留まらず移動を繰り返していることが多いので、撮影された頻度の高いエリアを把握することにより、発見が容易になる。
(Modification 6)
In the second embodiment, when the captured image 12a including the search target image 12f is specified, the image information 12b of the captured image 12a and the search target image 12f are transmitted. However, the data to be transmitted is limited to this. Not.
The latitude and longitude may be extracted from the image information 12b of the photographed image 12a, the position may be mapped to a map stored in the map database 14 as the photographed position of the photographed image 12a, and the map may be transmitted together. Further, the map may be divided into areas of a predetermined size, and the shooting positions of the shot images 12a including the search target image 12f may be displayed so as to be identifiable depending on the number included in each area. For example, an area where a large number of captured images 12a including the search target image 12f are captured may be displayed brighter.
According to the sixth modification, the location of the search target can be easily grasped. In particular, when a pet is a search target, the movement is not limited to one place, and the movement is often repeated. Therefore, the detection is facilitated by grasping the area where the frequency is high.

上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。
上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。
The above-described embodiments and modifications may be combined.
Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other embodiments conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

1 … 混雑度推定システム
10 … 混雑度推定サーバ
11 … サーバ制御部
12 … サーバ記憶部
12a … 撮影画像
12b … 画像情報
12c … 混雑度表
12d … 点群混雑度地図
12e … エリア混雑度地図
12f … 探索対象画像
12g … 探索結果連絡先
13 … サーバ通信部
14 … 地図データベース
15 … 顔画像データベース
20 … ウエアラブル端末
21 … 端末制御部
22 … 端末通信部
23 … 表示部
24 … 撮影部
25 … 端末記憶部
26 … 視線検出部
27 … GPS受信機
28 … 電子コンパス
29 … 地図データベース
DESCRIPTION OF SYMBOLS 1 ... Congestion degree estimation system 10 ... Congestion degree estimation server 11 ... Server control part 12 ... Server storage part 12a ... Captured image 12b ... Image information 12c ... Congestion degree table 12d ... Point cloud congestion degree map 12e ... Area congestion degree map 12f ... Search target image 12g ... Search result contact 13 ... Server communication unit 14 ... Map database 15 ... Face image database 20 ... Wearable terminal 21 ... Terminal control unit 22 ... Terminal communication unit 23 ... Display unit 24 ... Shooting unit 25 ... Terminal storage unit 26 ... Eye gaze detection unit 27 ... GPS receiver 28 ... Electronic compass 29 ... Map database

本発明は、ウェアラブル端末に関する。 The present invention relates to a wearable terminal .

本発明の第1の態様によるウェアラブル端末は、撮影部により撮影して得られた撮影画像を撮影位置情報とともに混雑度情報生成サーバに送信する送信部と、前記混雑度情報生成サーバによって生成され、前記撮影画像から算出された人数および歩道の面積により算出される前記歩道の混雑度と前記撮影位置情報とに基づく混雑度地図を、前記混雑度情報生成サーバから受信して表示する表示部とを備える。The wearable terminal according to the first aspect of the present invention is generated by a transmission unit that transmits a captured image obtained by photographing by a photographing unit together with photographing position information to a congestion degree information generation server, and the congestion degree information generation server, A display unit that receives and displays a congestion degree map based on the degree of congestion of the sidewalk calculated from the number of people and the area of the sidewalk calculated from the captured image and the shooting position information from the congestion degree information generation server; Prepare.
本発明の第2の態様によるウェアラブル端末は、ユーザーにより指定された位置情報を、撮影画像から算出された人数および歩道の面積により算出される前記歩道の混雑度と撮影位置情報とに基づいて混雑度地図を生成する混雑度情報生成サーバに送信する送信部と、前記位置情報に対応する位置が撮影された前記撮影画像を、前記混雑度情報生成サーバから受信して表示する表示部とを備える。In the wearable terminal according to the second aspect of the present invention, the position information designated by the user is congested based on the number of people calculated from the photographed image and the area of the sidewalk and the degree of congestion of the sidewalk and the photographing position information. A transmission unit that transmits to a congestion degree information generation server that generates a degree map, and a display unit that receives and displays the captured image taken of the position corresponding to the position information from the congestion degree information generation server. .

Claims (1)

複数のウエアラブル端末とサーバとからなる混雑度推定システムであって、
前記ウエアラブル端末は、
被写体を撮影する撮影部と、
現在位置を算出する位置検出部と、
前記撮影部により撮影して得られた画像、および前記位置検出部により算出された前記現在位置を前記サーバに送信する端末通信部と、を備え、
前記サーバは、
前記複数のウエアラブル端末と通信するサーバ通信部と、
前記複数のウエアラブル端末から送信されて前記サーバ通信部が受信する前記画像および前記現在位置が関連付けられて保存される記憶部と、
前記記憶部に保存された前記画像を解析して人数と歩道の面積を算出し、算出された前記人数と前記歩道の面積とから前記歩道上の歩行者の混雑度を算出し、前記算出した混雑度および前記現在位置を関連付けて前記サーバ通信部により送信するサーバ制御部とを備える混雑度推定システム。
A congestion degree estimation system comprising a plurality of wearable terminals and servers,
The wearable terminal is
A shooting section for shooting the subject;
A position detector for calculating the current position;
An image obtained by photographing by the photographing unit, and a terminal communication unit that transmits the current position calculated by the position detecting unit to the server,
The server
A server communication unit that communicates with the plurality of wearable terminals;
A storage unit that stores the image and the current position associated with each other and transmitted from the plurality of wearable terminals and received by the server communication unit;
Analyzing the image stored in the storage unit to calculate the number of people and the area of the sidewalk, calculating the degree of congestion of pedestrians on the sidewalk from the calculated number of people and the area of the sidewalk, and calculating A congestion degree estimation system comprising: a server control unit that associates a congestion degree and the current position and transmits the association by the server communication unit.
JP2018214820A 2018-11-15 2018-11-15 Wearable terminal Pending JP2019023939A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018214820A JP2019023939A (en) 2018-11-15 2018-11-15 Wearable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018214820A JP2019023939A (en) 2018-11-15 2018-11-15 Wearable terminal

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014104623A Division JP6435640B2 (en) 2014-05-20 2014-05-20 Congestion degree estimation system

Publications (1)

Publication Number Publication Date
JP2019023939A true JP2019023939A (en) 2019-02-14

Family

ID=65368542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018214820A Pending JP2019023939A (en) 2018-11-15 2018-11-15 Wearable terminal

Country Status (1)

Country Link
JP (1) JP2019023939A (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062664A1 (en) * 2006-11-22 2008-05-29 Sony Corporation Image display system, display device and display method
JP2008310577A (en) * 2007-06-14 2008-12-25 Nec Corp Guidance method for tourist, and system and program therefor
JP2009238251A (en) * 2009-07-16 2009-10-15 Olympus Corp User support device
JP2012238104A (en) * 2011-05-10 2012-12-06 Nec Commun Syst Ltd Congestion information collection-display device, congestion information management server, and congestion information display system, method, and program
JP5438859B1 (en) * 2013-05-30 2014-03-12 パナソニック株式会社 Customer segment analysis apparatus, customer segment analysis system, and customer segment analysis method
JP2014049086A (en) * 2012-09-04 2014-03-17 Toshiba Tec Corp Information processing device and program
JP2014092931A (en) * 2012-11-02 2014-05-19 Sony Corp Image display device and information input device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008062664A1 (en) * 2006-11-22 2008-05-29 Sony Corporation Image display system, display device and display method
JP2008310577A (en) * 2007-06-14 2008-12-25 Nec Corp Guidance method for tourist, and system and program therefor
JP2009238251A (en) * 2009-07-16 2009-10-15 Olympus Corp User support device
JP2012238104A (en) * 2011-05-10 2012-12-06 Nec Commun Syst Ltd Congestion information collection-display device, congestion information management server, and congestion information display system, method, and program
JP2014049086A (en) * 2012-09-04 2014-03-17 Toshiba Tec Corp Information processing device and program
JP2014092931A (en) * 2012-11-02 2014-05-19 Sony Corp Image display device and information input device
JP5438859B1 (en) * 2013-05-30 2014-03-12 パナソニック株式会社 Customer segment analysis apparatus, customer segment analysis system, and customer segment analysis method

Similar Documents

Publication Publication Date Title
JP6573346B1 (en) Person search system and person search method
JP7184148B2 (en) Monitoring system, management device and monitoring method
US10592551B2 (en) Clothing information providing system, clothing information providing method, and program
US10972864B2 (en) Information recommendation method, apparatus, device and computer readable storage medium
EP3340177A1 (en) Method and system for creating virtual message onto a moving object and searching the same
JP6099833B1 (en) Image processing apparatus, image processing system, and image processing method
JP6126759B1 (en) Information provision system
JP2013251800A (en) Information processing apparatus, information processing method, and program
JPWO2009038149A1 (en) Video provision system and video provision method
JP2012203669A (en) Terminal device, information processor, object identification method, program and object identification system
JP2007228512A (en) Visible light communication system and information processing apparatus
WO2021068553A1 (en) Monitoring method, apparatus and device
KR101929875B1 (en) Method for providing voice guidance service for vision impairment using stream live broadcast in real time
CN117579791B (en) Information display system with image capturing function and information display method
JP6435640B2 (en) Congestion degree estimation system
JP2014164374A (en) Information display system, information terminal, server device, control method of information terminal, control method of server device, and program
JPWO2013024667A1 (en) Interest point extraction apparatus, interest point extraction method, and program
CN111310524A (en) Multi-video association method and device
JP2015215766A (en) Evacuation route providing system, evacuation route providing method, and evacuation route providing program
JP2019023939A (en) Wearable terminal
US9832427B2 (en) Camera, camera system, and self-diagnosis method
JP6796000B2 (en) Monitoring support device and monitoring system
JP2020047259A (en) Person search system and person search method
JP5885480B2 (en) Information processing apparatus, control method for information processing apparatus, and program
CN108876924B (en) Method and device for determining fire evacuation path

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200721