JP2020025258A - Communication terminal, communication system, communication method, and program - Google Patents

Communication terminal, communication system, communication method, and program Download PDF

Info

Publication number
JP2020025258A
JP2020025258A JP2019137065A JP2019137065A JP2020025258A JP 2020025258 A JP2020025258 A JP 2020025258A JP 2019137065 A JP2019137065 A JP 2019137065A JP 2019137065 A JP2019137065 A JP 2019137065A JP 2020025258 A JP2020025258 A JP 2020025258A
Authority
JP
Japan
Prior art keywords
unit
data processing
terminal
image
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019137065A
Other languages
Japanese (ja)
Inventor
加藤 喜永
Yoshinaga Kato
喜永 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/526,617 priority Critical patent/US11017544B2/en
Publication of JP2020025258A publication Critical patent/JP2020025258A/en
Pending legal-status Critical Current

Links

Abstract

To solve the problem in which: in a conventional communication terminal, the communication terminal transmits photographic image data and a recognition request to a server (another device) every time a change occurs in an object, and when the same object is photographed by the communication terminal, unnecessary transmission of the photographic data and recognition request is therefore performed, and in some cases, unnecessary communication fee is generated.SOLUTION: A communication terminal (2) transmits image data of a predetermined portion of an object to cause another device (7) to perform collation of an image, and comprises transmission means that transmits, to the another device, image data of a predetermined portion of a first object at a first time. When the distance between a first position indicating the position of the first object at the first time and a second position indicating the position of a second object at a second time after a predetermined time from the first time is equal to or less than a predetermined distance or less than the predetermined distance, the transmission means does not transmit image data of a predetermined portion of the second object (S218).SELECTED DRAWING: Figure 28

Description

本開示内容は、通信端末、通信システム、通信方法、及びプログラムに関する。   The present disclosure relates to a communication terminal, a communication system, a communication method, and a program.

近年、Web API(Application Programming Interface)の収益モデルの1つにWeb APIを使うときに料金を徴収する「課金モデル」がある。単価を低く設定する必要はあるが、使用回数が増加すれば一定の収益を期待できるため、主流モデルの一つとして既に知られている。   2. Description of the Related Art In recent years, as one of profit models of Web API (Application Programming Interface), there is a “billing model” for collecting a fee when using a Web API. Although it is necessary to set a low unit price, if the number of uses increases, a certain profit can be expected, and thus it is already known as one of the mainstream models.

また、従来、Web APIを利用して、カメラを備えた通信端末が人等の物体を撮影し、物体の移動等による変化が生じた場合に、撮影画像データをサーバに送信すると共に物体認証を要求し、通信端末はサーバから認識結果を受信する技術が開示されている(特許文献1参照)。   In addition, conventionally, using a Web API, a communication terminal equipped with a camera shoots an object such as a person, and when there is a change due to movement of the object or the like, transmits the shot image data to a server and performs object authentication. There is disclosed a technology in which a communication terminal makes a request and a communication terminal receives a recognition result from a server (see Patent Document 1).

しかし、従来の技術では、撮影対象に変化が生じる度に、通信端末がサーバに撮影画像データ及び認識要求を送信していたため、通信端末で同じ物体が撮影された場合には、撮影画像データ及び認識要求の送信が無駄になり、場合によっては無駄な通信料が発生してしまうという課題が生じていた。   However, in the related art, the communication terminal transmits the captured image data and the recognition request to the server every time a change occurs in the imaging target. Therefore, when the same object is captured by the communication terminal, the captured image data and There has been a problem that the transmission of the recognition request is wasted, and in some cases, an unnecessary communication fee is generated.

請求項1に係る発明は、物体の所定部分の画像データを送信することで、他の装置に画像の照合を行わせる通信端末であって、第1の時点における第1の物体の所定部分の画像データを前記他の装置へ送信する送信手段を有し、前記第1の時点における第1の物体の位置を示す第1の位置と、前記第1の時点より所定時間後の第2の時点における第2の物体の位置を示す第2の位置との間の距離が、所定以下又は所定未満である場合には、前記送信手段は、前記第2の物体の所定部分の画像データを送信しないことを特徴とする通信端末である。   The invention according to claim 1 is a communication terminal that transmits image data of a predetermined portion of an object to cause another device to perform image collation, wherein the communication terminal transmits the image data of a predetermined portion of the first object at a first time point. Transmitting means for transmitting image data to the other device, a first position indicating a position of the first object at the first time, and a second time after a predetermined time from the first time If the distance between the second object and the second position indicating the position of the second object is less than or equal to a predetermined value or less than a predetermined value, the transmission unit does not transmit the image data of the predetermined portion of the second object. A communication terminal characterized in that:

以上説明したように本発明によれば、撮影対象の状況に応じて、認識要求などを実施することで、処理に伴う時間や金銭を抑制することができるという効果を奏する。   As described above, according to the present invention, by performing a recognition request or the like in accordance with the situation of an imaging target, there is an effect that time and money involved in processing can be reduced.

本実施形態に係る通信システムの概略図である。It is a schematic diagram of a communication system concerning this embodiment. 実時間データ処理端末のハードウェア構成図である。It is a hardware block diagram of a real-time data processing terminal. 撮像ユニットのハードウェア構成図である。It is a hardware block diagram of an imaging unit. 図4(a)は撮像ユニット40bで撮影された半球画像(前側)、図4(b)は撮像ユニット40bで撮影された半球画像(後側)、図4(c)は正距円筒図法により表された画像を示した図である。4A is a hemispherical image (front side) photographed by the imaging unit 40b, FIG. 4B is a hemispherical image (rear side) photographed by the imaging unit 40b, and FIG. 4C is a equirectangular projection. FIG. 4 is a diagram showing a displayed image. 近端末データ処理装置又は分散データ処理端末のハードウェア構成図である。It is a hardware block diagram of a near terminal data processing apparatus or a distributed data processing terminal. 集中データ処理サーバのハードウェア構成図である。It is a hardware block diagram of a centralized data processing server. 画像取得端末における実時間データ処理端末及び近端末データ処理装置のソフトウェア構成図である。FIG. 3 is a software configuration diagram of a real-time data processing terminal and a near terminal data processing device in the image acquisition terminal. 通信システムの機能ブロック図である。It is a functional block diagram of a communication system. 通信システムの機能ブロック図である。It is a functional block diagram of a communication system. (a)は撮像素子情報管理テーブルの概念図、(b)はサイクル値管理テーブルの概念図である。(A) is a conceptual diagram of an image sensor information management table, and (b) is a conceptual diagram of a cycle value management table. (a)は画像取得プログラム管理テーブルの概念図、(b)は合成処理プログラム管理テーブルの概念図、(c)は歪み補正プログラム管理テーブルの概念図、(d)はサービスプログラム管理テーブルの概念図である。(A) is a conceptual diagram of an image acquisition program management table, (b) is a conceptual diagram of a synthesis processing program management table, (c) is a conceptual diagram of a distortion correction program management table, and (d) is a conceptual diagram of a service program management table. It is. 照合データ管理テーブルの概念図である。It is a conceptual diagram of a collation data management table. セッション管理テーブルの概念図である。It is a conceptual diagram of a session management table. 物体情報管理テーブルの概念図である。It is a conceptual diagram of an object information management table. 物体変位管理テーブルの概念図である。It is a conceptual diagram of an object displacement management table. 端末IDの概念図である。It is a conceptual diagram of a terminal ID. 認証サーバ管理テーブルの概念図である。It is a conceptual diagram of an authentication server management table. 認証管理テーブルの概念図である。It is a conceptual diagram of an authentication management table. 認証処理を示したシーケンス図である。FIG. 7 is a sequence diagram illustrating an authentication process. 認証処理を示したシーケンス図である。FIG. 7 is a sequence diagram illustrating an authentication process. 分散データ処理端末の画面例を示す図である。It is a figure showing the example of a screen of a distributed data processing terminal. 分散データ処理端末の画面例を示す図である。It is a figure showing the example of a screen of a distributed data processing terminal. 画像認識の開始要求の処理を示したシーケンス図である。FIG. 9 is a sequence diagram illustrating a process of a request for starting image recognition. 実時間データ処理端末の実時間処理の準備処理を示したシーケンス図である。FIG. 9 is a sequence diagram illustrating a preparation process of a real-time process of the real-time data processing terminal. プログラムの取得処理を示したシーケンス図である。FIG. 9 is a sequence diagram illustrating a program acquisition process. 画像認識の処理を示したシーケンス図である。FIG. 4 is a sequence diagram illustrating a process of image recognition. 実時間処理のうちの物体検出の処理を示したフローチャートである。It is the flowchart which showed the object detection processing of the real time processing. 実時間処理のうちのイベント生成の処理を示したフローチャートである。It is the flowchart which showed the process of event generation in real time processing. 実時間処理のうちのイベント生成の処理を示したフローチャートである。It is the flowchart which showed the process of event generation in real time processing. 照合する処理を示したシーケンス図である。FIG. 7 is a sequence diagram illustrating a process of performing collation. 照合処理を示したフローチャートである。9 is a flowchart illustrating a matching process. 分散データ処理端末における撮像画像の表示例を示した図である。FIG. 5 is a diagram illustrating a display example of a captured image in a distributed data processing terminal. 第2の実施形態に係り、図28に示された処理の変形例を示したフローチャートである。FIG. 29 is a flowchart illustrating a modification of the process illustrated in FIG. 28 according to the second embodiment. 表示更新要求の処理を示したシーケンス図である。FIG. 9 is a sequence diagram illustrating a process of a display update request. 第2の実施形態に係り、図32に示された表示例の変形例である。It is a modification of the display example shown in FIG. 32 according to the second embodiment. 第3の実施形態に係り、(a)は図3(a)にLiDARの機構を搭載した撮像ユニットのハードウェア構成図、図36(b)は図3(b)にLiDARの機構を搭載した撮像ユニットのハードウェア構成図である。According to the third embodiment, (a) is a hardware configuration diagram of an imaging unit equipped with a LiDAR mechanism in FIG. 3 (a), and FIG. 36 (b) is equipped with a LiDAR mechanism in FIG. 3 (b). It is a hardware block diagram of an imaging unit. 第3の実施形態に係り、通信システムの機能ブロック図のうちの実時間データ処理端末の変形例である。According to the third embodiment, it is a modification of the real-time data processing terminal in the functional block diagram of the communication system. 第3の実施形態に係り、図28に示された処理の変形例を示したフローチャートである。FIG. 29 is a flowchart illustrating a modification of the processing illustrated in FIG. 28 according to the third embodiment. 第3の実施形態に係り、図32に示された表示例の変形例である。It is a modification of the display example shown in FIG. 32 according to the third embodiment. 第3の実施形態に係り、図32に示された表示例の変形例であり、LiDARの機能を併用しない場合の表示例である。This is a modification of the display example shown in FIG. 32 according to the third embodiment, and is a display example in a case where the LiDAR function is not used together. 第3の実施形態に係り、図32に示された表示例の変形例であり、LiDARの機能を併用する場合の表示例である。This is a modification of the display example shown in FIG. 32 according to the third embodiment, and is a display example in the case where the function of LiDAR is used together.

●第1の実施形態
まずは、本発明の第1の実施形態について説明する。
First Embodiment First, a first embodiment of the present invention will be described.

〔全体概略〕
以下、図面を用いて、本発明の一実施形態の全体の概略について説明する。本実施形態は、エッジコンピューティングを実現する通信システムを開示している。即ち、本実施形態は、サービス提供サーバ8での処理及び画像取得端末2での処理の協同により、画像取得端末2でサービス提供サーバ8から提供されるサービスを実現する発明を開示している。
[Overall overview]
Hereinafter, an overall outline of an embodiment of the present invention will be described with reference to the drawings. This embodiment discloses a communication system that realizes edge computing. That is, the present embodiment discloses an invention that realizes a service provided from the service providing server 8 in the image acquisition terminal 2 by cooperation of the processing in the service providing server 8 and the processing in the image acquisition terminal 2.

<<実施形態の全体構成>>
図1は、本実施形態に係る通信システムの概略図である。図1に示されているように、本実施形態の通信システムは、実時間データ処理端末3a、近端末データ処理装置5、分散データ処理端末6、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9a,9b,9cによって構築されている。なお、実時間データ処理端末3a、近端末データ処理装置5、及び分散データ処理端末6によって、分散処理システム100が構築されている。
<<< Overall Configuration of Embodiment >>>
FIG. 1 is a schematic diagram of a communication system according to the present embodiment. As shown in FIG. 1, the communication system of the present embodiment includes a real-time data processing terminal 3a, a near terminal data processing device 5, a distributed data processing terminal 6, a centralized data processing server 7, a service providing server 8, It is constructed by authentication servers 9a, 9b, 9c. The real-time data processing terminal 3a, the near-terminal data processing device 5, and the distributed data processing terminal 6 constitute a distributed processing system 100.

近端末データ処理装置5は、イントラネット200を介して分散データ処理端末6と通信可能に接続されている。分散データ処理端末6は、インターネット600を介して、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9a,9b,9cと通信可能に接続されている。なお、認証サーバ9は、認証サーバ9a,9b,9cの総称である。   The near terminal data processing device 5 is communicably connected to the distributed data processing terminal 6 via the intranet 200. The distributed data processing terminal 6 is communicably connected to the centralized data processing server 7, the service providing server 8, and the authentication servers 9a, 9b, 9c via the Internet 600. The authentication server 9 is a general term for the authentication servers 9a, 9b, 9c.

これらのうち、実時間データ処理端末3aは、撮像画像のデータを得るための実時間処理(リアルタイムの処理)を行なう端末である。実時間データ処理端末3aには、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの被写体を撮像する画像センサを備えた撮像ユニット40が着脱自在に接続される。これにより、実時間データ処理端末3aは、撮像ユニット40から入力された撮像画像のデータ(以下、「撮像画像データ」という)をデジタル化し、実時間(たとえば1/60秒ごと)で物体(ここでは、顔)の画像を検出する。実時間データ処理端末3aは、撮像画像のうちの物体部分の領域である部分画像のデータ(以下、「部分画像データ」という)を近端末データ処理装置5に送信する。   Among these, the real-time data processing terminal 3a is a terminal that performs real-time processing (real-time processing) for obtaining data of a captured image. The real-time data processing terminal 3a is detachably connected to an imaging unit 40 having an image sensor for imaging a subject such as a complementary metal oxide semiconductor (CMOS) sensor or a charge coupled device (CCD) sensor. Accordingly, the real-time data processing terminal 3a digitizes the data of the captured image (hereinafter, referred to as “captured image data”) input from the image capturing unit 40, and converts the object (here, every 1/60 second) into an object (here, 1/60 second). Then, the image of the face) is detected. The real-time data processing terminal 3 a transmits data of a partial image (hereinafter, referred to as “partial image data”), which is a region of an object portion in a captured image, to the near-terminal data processing device 5.

近端末データ処理装置5は、実時間データ処理端末3aに最も近いところに配置され、例えばハードウェア的にも密接にデータバスやUSB(Universal Serial Bus)等で1対1に接続されている。近端末データ処理装置5は、実時間データ処理端末3aから受信した部分画像データをJPEG(Joint Photographic Experts Group)などの汎用的なフォーマットに符号化した後、顔画像の照合が行なわれる場合の被照合データとして、イントラネット200を介して分散データ処理端末6に送信する。なお、通常、実時間データ処理端末3aと近端末データ処理装置5は接続されて一体になっており、ここでは、実時間データ処理端末3aと近端末データ処理装置5とで画像取得端末2を構成している。   The near-terminal data processing device 5 is arranged closest to the real-time data processing terminal 3a, and is closely connected, for example, in terms of hardware in a one-to-one manner by a data bus or a USB (Universal Serial Bus). The near-terminal data processing apparatus 5 encodes the partial image data received from the real-time data processing terminal 3a into a general-purpose format such as JPEG (Joint Photographic Experts Group), and then performs processing on the face image when collation is performed. The data is transmitted to the distributed data processing terminal 6 via the intranet 200 as collation data. Normally, the real-time data processing terminal 3a and the near-terminal data processing device 5 are connected and integrated. Here, the real-time data processing terminal 3a and the near-terminal data processing device 5 connect the image acquisition terminal 2 to each other. Make up.

分散データ処理端末6は、近端末データ処理装置5に比較的近い位置で利用者によって利用され、利用者の各種操作を受け付けることが可能なコンピュータである。分散データ処理端末6は、予め、顔画像の照合が行なわれる場合の照合データを登録して保存している。分散データ処理端末6は、インターネット600を介して、集中データ処理サーバ7に、照合データと被照合データとの照合を要求することができる。この場合、分散データ処理端末6は、近端末データ処理装置5から受信した被照合データ、及び予め登録している照合データも送信する。更に、分散データ処理端末6は、集中データ処理サーバ7から、照合結果を示す照合結果情報を応答として受信することができる。また、分散データ処理端末6は、グラフィックインターフェースを介して照合結果を表示させることができる。   The distributed data processing terminal 6 is a computer used by a user at a position relatively close to the near terminal data processing device 5 and capable of receiving various operations by the user. The distributed data processing terminal 6 registers and stores in advance collation data when face images are collated. The distributed data processing terminal 6 can request the centralized data processing server 7 to collate the collation data with the collated data via the Internet 600. In this case, the distributed data processing terminal 6 also transmits the collated data received from the near terminal data processing device 5 and the collation data registered in advance. Further, the distributed data processing terminal 6 can receive, from the centralized data processing server 7, collation result information indicating a collation result as a response. Further, the distributed data processing terminal 6 can display the comparison result via the graphic interface.

集中データ処理サーバ7は、近端末データ処理装置5から比較的遠い位置に設置されており、分散データ処理端末6とはインターネット600等の通信ネットワークを介して通信することができる。集中データ処理サーバ7は、照合要求を示す照合要求情報並びに照合データ及び被照合データを受信した場合、照合データ及び被照合データの照合を行い、類似度を判断する。そして、集中データ処理サーバ7は、分散データ処理端末6に対して、類似度を含んだ照合結果を示す照合結果情報を送信する。   The centralized data processing server 7 is installed at a position relatively far from the near terminal data processing device 5, and can communicate with the distributed data processing terminal 6 via a communication network such as the Internet 600. When receiving the collation request information indicating the collation request, the collation data, and the data to be collated, the centralized data processing server 7 collates the collation data and the data to be collated, and determines the similarity. Then, the centralized data processing server 7 transmits the collation result information indicating the collation result including the similarity to the distributed data processing terminal 6.

サービス提供サーバ8は、画像取得端末2に対して、各種サービスを提供するサーバである。   The service providing server 8 is a server that provides various services to the image acquisition terminal 2.

認証サーバ9aは、画像取得端末2がサービス提供サーバ8からサービスを受けられる正当な権限があるか否かを判断するためにIDの認証を行なう。認証サーバ9b,9cも同様である。   The authentication server 9a performs ID authentication in order to determine whether the image acquisition terminal 2 has a legitimate right to receive a service from the service providing server 8. The same applies to the authentication servers 9b and 9c.

<<ハードウェア構成>>
次に、図2乃至図6を用いて、本実施形態の通信システムの各ハードウェア構成について説明する。
<< hardware configuration >>
Next, each hardware configuration of the communication system according to the present embodiment will be described with reference to FIGS.

<実時間データ処理端末のハードウェア構成>
図2は、実時間データ処理端末のハードウェア構成図である。実時間データ処理端末3aは、CPU301、ROM302、RAM303、EEPROM304、CMOSセンサ305、加速度・方位センサ306、メディアI/F308、GPS受信部309を備えている。
<Hardware configuration of real-time data processing terminal>
FIG. 2 is a hardware configuration diagram of the real-time data processing terminal. The real-time data processing terminal 3a includes a CPU 301, a ROM 302, a RAM 303, an EEPROM 304, a CMOS sensor 305, an acceleration / direction sensor 306, a media I / F 308, and a GPS receiving unit 309.

これらのうち、CPU301は、実時間データ処理端末3a全体の動作を制御する。ROM302は、CPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。EEPROM304は、CPU301の制御にしたがって、実時間データ処理端末用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ305は、CPU301の制御に従って被写体(主に撮像ユニット40の死角)を撮像して、撮影画像データを得る。加速度・方位センサ306は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F308は、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部309は、GPS衛星からGPS信号を受信する。   Among them, the CPU 301 controls the operation of the whole real-time data processing terminal 3a. The ROM 302 stores a program used for driving the CPU 301. The RAM 303 is used as a work area of the CPU 301. The EEPROM 304 reads or writes various data such as a program for a real-time data processing terminal under the control of the CPU 301. The CMOS sensor 305 captures an image of a subject (mainly a blind spot of the image capturing unit 40) under the control of the CPU 301 to obtain captured image data. The acceleration / azimuth sensor 306 is various sensors such as an electronic magnetic compass for detecting geomagnetism, a gyro compass, and an acceleration sensor. The media I / F 308 controls reading or writing (storage) of data from or to a recording medium 307 such as a flash memory. The GPS receiver 309 receives a GPS signal from a GPS satellite.

また、実時間データ処理端末3aは、撮像ユニットI/F313、マイク314、スピーカ315、音入出力I/F316、ディスプレイ317、外部機器接続I/F318、及びタッチパネル321を備えている。   Further, the real-time data processing terminal 3a includes an imaging unit I / F 313, a microphone 314, a speaker 315, a sound input / output I / F 316, a display 317, an external device connection I / F 318, and a touch panel 321.

これらのうち、撮像ユニットI/F313は、外付けの撮像ユニット40が接続された場合に、撮像ユニット40の駆動を制御する回路である。マイク314は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F316は、CPU301の制御に従ってマイク314及びスピーカ315との間で音信号の入出力を処理する回路である。ディスプレイ317は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F318は、各種の外部機器を接続するためのインターフェースである。タッチパネル321は、利用者がディスプレイ317を押下することで、実時間データ処理端末3aを操作する入力手段の一種である。   Among these, the imaging unit I / F 313 is a circuit that controls the driving of the imaging unit 40 when the external imaging unit 40 is connected. The microphone 314 is a kind of a built-in sound collecting means for inputting sound. The sound input / output I / F 316 is a circuit that processes input / output of a sound signal between the microphone 314 and the speaker 315 under the control of the CPU 301. The display 317 is a type of display means such as a liquid crystal display or an organic EL display that displays an image of a subject and various icons. The external device connection I / F 318 is an interface for connecting various external devices. The touch panel 321 is a type of input means for operating the real-time data processing terminal 3a when the user presses the display 317.

また、実時間データ処理端末3aは、バスライン310を備えている。バスライン310は、図2に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   The real-time data processing terminal 3a includes a bus line 310. The bus line 310 is an address bus, a data bus, and the like for electrically connecting each component such as the CPU 301 shown in FIG.

<撮像ユニットのハードウェア構成>
図3は、撮像ユニットのハードウェア構成図である。特に、図3(a)は、撮像ユニット40のうち、単眼の撮像ユニット40aのハードウェア構成図である。図3(b)は、撮像ユニット40のうち、複眼の撮像ユニット40bのハードウェア構成図である。なお、撮像ユニット40は、撮像素子の数が異なる複数種類の撮像ユニット(撮像ユニット40a、40b等)の総称である。
<Hardware configuration of imaging unit>
FIG. 3 is a hardware configuration diagram of the imaging unit. In particular, FIG. 3A is a hardware configuration diagram of a monocular imaging unit 40 a among the imaging units 40. FIG. 3B is a hardware configuration diagram of a compound-eye imaging unit 40 b among the imaging units 40. Note that the image pickup unit 40 is a general term for a plurality of types of image pickup units (image pickup units 40a, 40b, etc.) having different numbers of image pickup devices.

図3(a)に示されているように、撮像ユニット40aは、CMOSやCCD等の撮像素子401a、レンズ402a、及び実時間データ処理端末3aの撮像ユニットI/F313に電気的に接続するための接続I/F408aを有している。撮像ユニット40aが実時間データ処理端末3aの撮像ユニットI/F313に接続された場合には、撮像素子401aは、撮像ユニットI/F313から接続I/F408aを介して送られて来た撮像制御信号により撮像を行い、接続I/F408aを介して撮像ユニットI/F313に撮像画像データを送信する。   As shown in FIG. 3A, the imaging unit 40a is electrically connected to an imaging element 401a such as a CMOS or a CCD, a lens 402a, and an imaging unit I / F 313 of the real-time data processing terminal 3a. Connection I / F 408a. When the imaging unit 40a is connected to the imaging unit I / F 313 of the real-time data processing terminal 3a, the imaging element 401a sends an imaging control signal sent from the imaging unit I / F 313 via the connection I / F 408a. , And transmits the captured image data to the imaging unit I / F 313 via the connection I / F 408a.

また、図3(b)に示されているように、撮像ユニット40bは、CMOSやCCD等の撮像素子401b1,401b2、レンズ402b1,402b2、及び実時間データ処理端末3aの撮像ユニットI/F313に電気的に接続するための接続I/F408bを有している。レンズ402b1,402b2は、例えば、魚眼レンズである。撮像ユニット40aが実時間データ処理端末3aの撮像ユニットI/F313に接続された場合には、撮像素子401aは、撮像ユニットI/F313から接続I/F408aを介して送られて来た撮像制御信号により撮像を行い、接続I/F408bを介して撮像ユニットI/F313に、複数の撮像画像データを送信する。   Further, as shown in FIG. 3B, the imaging unit 40b includes imaging elements 401b1 and 401b2 such as CMOS and CCD, lenses 402b1 and 402b2, and an imaging unit I / F 313 of the real-time data processing terminal 3a. It has a connection I / F 408b for electrical connection. The lenses 402b1 and 402b2 are, for example, fisheye lenses. When the imaging unit 40a is connected to the imaging unit I / F 313 of the real-time data processing terminal 3a, the imaging device 401a sends an imaging control signal sent from the imaging unit I / F 313 via the connection I / F 408a. And transmits a plurality of captured image data to the imaging unit I / F 313 via the connection I / F 408b.

図3(a)に示されている撮像ユニット40aは、一般の平面画像を得るが、図3(b)に示されている撮像ユニット40bは、全天球画像を得ることができる。ここで、図4を用いて、撮像ユニット40bで撮像された画像から正距円筒射影画像ECが作成されるまでの処理の概略を説明する。なお、図4(a)は撮像ユニット40bで撮影された半球画像(前側)、図4(b)は撮像ユニット40bで撮影された半球画像(後側)、図4(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。   While the imaging unit 40a shown in FIG. 3A obtains a general planar image, the imaging unit 40b shown in FIG. 3B can obtain a spherical image. Here, an outline of a process until an equirectangular projected image EC is created from an image captured by the imaging unit 40b will be described with reference to FIG. 4A is a hemispherical image (front side) captured by the imaging unit 40b, FIG. 4B is a hemispherical image (rear side) captured by the imaging unit 40b, and FIG. FIG. 2 is a diagram illustrating an image represented by a projection method (hereinafter, referred to as an “equidistant cylinder projected image”).

図4(a)に示されているように、撮像素子401b1によって得られた画像は、レンズ402b1によって湾曲した半球画像(前側)となる。また、図4(b)に示されているように、撮像素子403bによって得られた画像は、レンズ402b2によって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは合成され、図4(c)に示されているように、正距円筒射影画像ECが作成される。   As shown in FIG. 4A, the image obtained by the image sensor 401b1 is a hemispherical image (front side) curved by the lens 402b1. Also, as shown in FIG. 4B, the image obtained by the image sensor 403b is a hemispherical image (rear side) curved by the lens 402b2. Then, the hemispherical image (front side) and the 180 degree-reversed hemispherical image (rear side) are combined to form an equirectangular projected image EC as shown in FIG. 4C.

<近端末データ処理装置、分散データ処理端末のハードウェア構成>
図5は、近端末データ処理装置又は分散データ処理端末のハードウェア構成図である。ここでは、近端末データ処理装置5と分散データ処理端末6とは、同じハードウェア構成を備えている場合を示しているため、近端末データ処理装置5について説明し、分散データ処理端末6の説明は省略する。
<Hardware configuration of near terminal data processing device and distributed data processing terminal>
FIG. 5 is a hardware configuration diagram of the near terminal data processing device or the distributed data processing terminal. Here, since the near terminal data processing device 5 and the distributed data processing terminal 6 have the same hardware configuration, the near terminal data processing device 5 will be described, and the distributed data processing terminal 6 will be described. Is omitted.

図5に示されているように、近端末データ処理装置5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。   As shown in FIG. 5, the near terminal data processing device 5 includes a CPU 501, a ROM 502, a RAM 503, an EEPROM 504, a CMOS sensor 505, an acceleration / direction sensor 506, a media I / F 508, and a GPS receiving unit 509.

これらのうち、CPU501は、近端末データ処理装置5全体の動作を制御する。ROM502は、CPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、近端末データ処理装置用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に近端末データ処理装置5を操作するユーザの自画像)を撮像し、撮影画像データを得る。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。   Among these, the CPU 501 controls the operation of the entire near terminal data processing device 5. The ROM 502 stores a program used for driving the CPU 501. The RAM 503 is used as a work area of the CPU 501. The EEPROM 504 reads or writes various data such as a near-terminal data processing device program under the control of the CPU 501. The CMOS sensor 505 captures an image of a subject (mainly, a self-portrait of the user who operates the near-terminal data processing device 5) under the control of the CPU 501, and obtains captured image data. The acceleration / azimuth sensor 506 is various sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. The media I / F 508 controls reading or writing (storage) of data from or to a recording medium 507 such as a flash memory. The GPS receiving unit 509 receives a GPS signal from a GPS satellite.

また、近端末データ処理装置5は、遠距離通信回路511、遠距離通信回路511のアンテナ511a、カメラ512、撮像素子I/F513、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。   The near-terminal data processing device 5 includes a long-distance communication circuit 511, an antenna 511a of the long-distance communication circuit 511, a camera 512, an image sensor I / F 513, a microphone 514, a speaker 515, a sound input / output I / F 516, a display 517, An external device connection I / F 518, a short-range communication circuit 519, an antenna 519a of the short-range communication circuit 519, and a touch panel 521 are provided.

これらのうち、遠距離通信回路511は、イントラネット200を介して、他の機器と通信する回路である。カメラ512は、CPU501の制御に従って被写体を撮像して、撮影画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513は、カメラ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、NFC(Near Field Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、近端末データ処理装置5を操作する入力手段の一種である。   Among them, the long-distance communication circuit 511 is a circuit that communicates with other devices via the intranet 200. The camera 512 is a type of a built-in imaging unit that captures an image of a subject under the control of the CPU 501 and obtains captured image data. The image sensor I / F 513 is a circuit that controls driving of the camera 512. The microphone 514 is a kind of built-in sound collecting means for inputting sound. The sound input / output I / F 516 is a circuit that processes input / output of a sound signal between the microphone 514 and the speaker 515 under the control of the CPU 501. The display 517 is a type of display means such as a liquid crystal display or an organic EL display that displays an image of a subject and various icons. The external device connection I / F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as NFC (Near Field Communication) or Bluetooth (registered trademark). The touch panel 521 is a type of input unit that operates the near terminal data processing device 5 when the user presses the display 517.

また、近端末データ処理装置5は、バスライン510を備えている。バスライン510は、図5に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   Further, the near terminal data processing device 5 includes a bus line 510. The bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

<集中データ処理サーバ、サービス提供サーバ、認証サーバのハードウェア構成>
図6は、集中データ処理サーバ、サービス提供サーバ、又は認証サーバのハードウェア構成図である。ここでは、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9は、同じハードウェア構成を備えている場合を示しているため、集中データ処理サーバ7について説明し、サービス提供サーバ8及び認証サーバ9の説明は省略する。
<Hardware configuration of centralized data processing server, service providing server, and authentication server>
FIG. 6 is a hardware configuration diagram of the centralized data processing server, the service providing server, or the authentication server. Here, since the centralized data processing server 7, the service providing server 8, and the authentication server 9 have the same hardware configuration, the centralized data processing server 7 will be described. The description of the server 9 is omitted.

図6は、集中データ処理サーバのハードウェア構成図である。集中データ処理サーバ7は、コンピュータによって構築されており、図6に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)705、記録メディア706、メディアI/F707、ディスプレイ708、ネットワークI/F709、キーボード711、マウス712、CD−RWドライブ714、及び、バスライン710を備えている。なお、集中データ処理サーバ7は、サーバとして機能するため、キーボード711やマウス712等の入力装置や、ディスプレイ708等の出力装置はなくてもよい。   FIG. 6 is a hardware configuration diagram of the centralized data processing server. The centralized data processing server 7 is constructed by a computer, and as shown in FIG. 6, a CPU 701, a ROM 702, a RAM 703, an HD 704, an HDD (Hard Disk Drive) 705, a recording medium 706, a media I / F 707, and a display. 708, a network I / F 709, a keyboard 711, a mouse 712, a CD-RW drive 714, and a bus line 710. Since the centralized data processing server 7 functions as a server, an input device such as the keyboard 711 and the mouse 712 and an output device such as the display 708 may not be provided.

これらのうち、CPU701は、集中データ処理サーバ7全体の動作を制御する。ROM702は、CPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDD705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F709は、インターネット600を利用してデータ通信をするためのインターフェースである。キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。CD−RWドライブ714は、着脱可能な記録媒体の一例としてのCD−RW(Compact Disc-ReWritable)713に対する各種データの読み出し等を制御する。   Among these, the CPU 701 controls the operation of the centralized data processing server 7 as a whole. The ROM 702 stores a program used for driving the CPU 701. The RAM 703 is used as a work area of the CPU 701. The HD 704 stores various data such as programs. The HDD 705 controls reading or writing of various data from or to the HD 704 under the control of the CPU 701. A media I / F 707 controls reading or writing (storage) of data from or to a recording medium 706 such as a flash memory. The display 708 displays various information such as a cursor, a menu, a window, characters, or an image. The network I / F 709 is an interface for performing data communication using the Internet 600. The keyboard 711 is a type of input unit having a plurality of keys for inputting characters, numerical values, various instructions, and the like. The mouse 712 is a type of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. The CD-RW drive 714 controls reading of various data from a CD-RW (Compact Disc-ReWritable) 713 as an example of a removable recording medium.

また、集中データ処理サーバ7は、バスライン710を備えている。バスライン710は、図6に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。   Further, the centralized data processing server 7 includes a bus line 710. The bus line 710 is an address bus, a data bus, and the like for electrically connecting each component such as the CPU 701 shown in FIG.

<<ソフトウェア構成>>
図7は、画像取得端末における実時間データ処理端末及び近端末データ処理装置のソフトウェア構成図である。
<< Software Configuration >>
FIG. 7 is a software configuration diagram of the real-time data processing terminal and the near-terminal data processing device in the image acquisition terminal.

図7に示されているように、実時間データ処理端末3aは、OS300、及び画像認識アプリケーション(以下、「アプリケーション」は「アプリ」と示す)AP1を有している。画像認識アプリAP1は、実時間データ処理端末3aのRAM303の作業上で動作する。このうち、OS300は、基本的な機能を提供し、実時間データ処理端末3a全体を管理する基本ソフトウェアである。画像認識アプリAP1は、撮像画像から人物や動物等の顔を認識するためのアプリである。   As shown in FIG. 7, the real-time data processing terminal 3a has an OS 300 and an image recognition application (hereinafter, “application” is referred to as “app”) AP1. The image recognition application AP1 operates on the work of the RAM 303 of the real-time data processing terminal 3a. The OS 300 is basic software that provides basic functions and manages the entire real-time data processing terminal 3a. The image recognition application AP1 is an application for recognizing a face of a person, an animal, or the like from a captured image.

また、近端末データ処理装置5は、OS500、及び通信アプリAP2を有している。通信アプリAP2は、近端末データ処理装置5のRAM503の作業上で動作する。このうち、OS500は、基本的な機能を提供し、近端末データ処理装置5全体を管理する基本ソフトウェアである。通信アプリAP2は、分散データ処理端末6等の他の端末(装置)と通信を行うためのアプリである。   The near terminal data processing device 5 has an OS 500 and a communication application AP2. The communication application AP2 operates on the work of the RAM 503 of the near terminal data processing device 5. The OS 500 is basic software that provides basic functions and manages the entire near terminal data processing device 5. The communication application AP2 is an application for communicating with another terminal (apparatus) such as the distributed data processing terminal 6.

このように、画像取得端末2では、実時間データ処理端末3aが画像認識を行うのに対して、近端末データ処理装置5がイントラネット200を介して分散データ処理端末6と通信を行なうことで、分散処理を行なうことができる。   As described above, in the image acquisition terminal 2, while the real-time data processing terminal 3a performs image recognition, the near-terminal data processing device 5 communicates with the distributed data processing terminal 6 via the intranet 200, Distributed processing can be performed.

なお、実時間データ処理端末3a及び近端末データ処理装置5は、OSだけでなく、ドライバ、ソフトウェア開発キット(SDK)、またはアプリケーションプログラミングインタフェース(API)を搭載しており、それぞれが異なっていてもよい。   The real-time data processing terminal 3a and the near-terminal data processing device 5 are equipped with not only an OS but also a driver, a software development kit (SDK), or an application programming interface (API). Good.

続いて、図面を用いて、本発明の一実施形態の機能構成及び処理について説明する。   Next, a functional configuration and processing according to an embodiment of the present invention will be described with reference to the drawings.

<<実施形態の機能構成>>
まず、図8乃至図18を用いて、本実施形態に係る通信システムを構成する端末、装置、及びサーバの各機能構成について説明する。図8は、実施形態に係る通信システムの機能ブロック図である。図8は、特に画像取得端末2の機能ブロックを示している。
<< Functional Configuration of Embodiment >>
First, the functional configurations of terminals, devices, and servers that configure the communication system according to the present embodiment will be described with reference to FIGS. FIG. 8 is a functional block diagram of the communication system according to the embodiment. FIG. 8 particularly shows functional blocks of the image acquisition terminal 2.

<実時間データ処理端末の機能構成>
図8に示されているように、実時間データ処理端末3aは、算出部31、判断部33、画像処理部34、物体検出部35、イベント生成部36、表示制御部37、接続部38、記憶・読出部39、及び通信部48を有している。これら各部は、図2に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of real-time data processing terminal>
As shown in FIG. 8, the real-time data processing terminal 3a includes a calculation unit 31, a determination unit 33, an image processing unit 34, an object detection unit 35, an event generation unit 36, a display control unit 37, a connection unit 38, It has a storage / readout unit 39 and a communication unit 48. These units are functions or means realized by operating any of the components shown in FIG. 2 according to a command from the CPU 301 in accordance with a program developed on the RAM 303 from the EEPROM 304.

また、実時間データ処理端末3aは、図2に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。記憶部3000には、後述の形状モデルデータが記憶されている。更に、記憶部3000には、撮像素子情報管理DB3001、サイクル値管理DB3002、画像取得プログラム管理DB3003、合成処理プログラム管理DB3004、歪み補正プログラム管理DB3005、及びサービスプログラム管理DB3006が構築されている。   The real-time data processing terminal 3a has a storage unit 3000 constructed by the ROM 302, the RAM 303, and the EEPROM 304 shown in FIG. The storage unit 3000 stores shape model data described later. Further, in the storage unit 3000, an imaging device information management DB 3001, a cycle value management DB 3002, an image acquisition program management DB 3003, a synthesis processing program management DB 3004, a distortion correction program management DB 3005, and a service program management DB 3006 are constructed.

撮像素子情報管理DB3001は、後述の撮像素子情報管理テーブルによって構成されている。サイクル値管理DB3002は、後述のサイクル値管理テーブルによって構成されている。画像取得プログラム管理DB3003は、後述の画像取得プログラム管理テーブルによって構成されている。合成処理プログラム管理DB3004は、後述の合成処理プログラム管理テーブルによって構成されている。歪み補正プログラム管理DB3005は、後述の歪み補正プログラム管理テーブルによって構成されている。サービスプログラム管理DB3006は、後述のサービスプログラム管理テーブルによって構成されている。   The image sensor information management DB 3001 includes an image sensor information management table described later. The cycle value management DB 3002 is configured by a cycle value management table described later. The image acquisition program management DB 3003 is configured by an image acquisition program management table described later. The composition processing program management DB 3004 is composed of a composition processing program management table described later. The distortion correction program management DB 3005 includes a distortion correction program management table described later. The service program management DB 3006 is configured by a service program management table described later.

(撮像素子情報管理テーブル)
図10(a)は、撮像素子情報管理テーブルを示す概念図である。この撮像素子情報管理テーブルでは、撮像ユニット40の型番、及び撮像ユニット40が有する撮像素子の数、及びこの撮像素子に使われるレンズの種類が関連付けて管理されている。なお、型番は、撮像素子の数及びこの撮像素子に使われるレンズの種類の違いに応じた撮像ユニットの種類を示す種類情報の一例である。
(Imaging element information management table)
FIG. 10A is a conceptual diagram illustrating an image sensor information management table. In the imaging device information management table, the model number of the imaging unit 40, the number of imaging devices included in the imaging unit 40, and the type of lens used in the imaging device are managed in association with each other. The model number is an example of type information indicating the type of image pickup unit according to the number of image pickup devices and the type of lens used in the image pickup device.

(サイクル値管理テーブル)
図10(b)は、サイクル値管理テーブルを示す概念図である。このサイクル値管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び後述の物体認識の処理のサイクル値(Frames Per Second)が関連付けて管理されている。
(Cycle value management table)
FIG. 10B is a conceptual diagram showing a cycle value management table. In the cycle value management table, the number of imaging elements included in the imaging unit 40 and a cycle value (Frames Per Second) of an object recognition process described below are managed in association with each other.

図11に示されている各テーブルは、各プログラムが、実時間データ処理端末3aにインストールされているか否かを管理するためのテーブルである。   Each table shown in FIG. 11 is a table for managing whether each program is installed in the real-time data processing terminal 3a.

(画像取得プログラム管理テーブル)
図11(a)は、画像取得プログラム管理テーブルを示す概念図である。この画像取得プログラム管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び画像取得プログラム(又はこの名称)が関連付けて管理されている。例えば、撮像素子の数「1」の場合の画像取得プログラムが実時間データ処理端末3aにインストールされている場合には、プログラム「ProgC01 (1系統の画像取得)」が関連付けて管理されている。撮像素子の数「2」の場合の画像取得プログラムが実時間データ処理端末3aにインストールされている場合には、プログラム「ProgC02 (2系統の画像取得)」が関連付けて管理されている。
(Image acquisition program management table)
FIG. 11A is a conceptual diagram illustrating an image acquisition program management table. In the image acquisition program management table, the number of image sensors included in the imaging unit 40 and the image acquisition program (or name) are managed in association with each other. For example, if the image acquisition program for the case where the number of imaging elements is “1” is installed in the real-time data processing terminal 3a, the program “ProgC01 (one system of image acquisition)” is managed in association with the program. When the image acquisition program for the case where the number of imaging elements is "2" is installed in the real-time data processing terminal 3a, the program "ProgC02 (two systems of image acquisition)" is managed in association.

(合成処理プログラム管理テーブル)
図11(b)は、合成処理プログラム管理テーブルを示す概念図である。この合成処理プログラム管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び合成処理プログラムの名称が関連付けて管理されている。
(Synthesis processing program management table)
FIG. 11B is a conceptual diagram showing a synthesis processing program management table. In the synthesis processing program management table, the number of image sensors included in the imaging unit 40 and the name of the synthesis processing program are managed in association with each other.

(歪み補正プログラム管理テーブル)
図11(c)は、歪み補正プログラム管理テーブルを示す概念図である。この歪み補正プログラム管理テーブルでは、撮像ユニット40が有するレンズの種類、及び歪み補正プログラム(又はこの名称)が関連付けて管理されている。例えば、レンズの種類「広角」の場合の歪み補正プログラムが実時間データ処理端末3aにインストールされている場合には、プログラム「ProgW01(広角歪み補正)」が関連付けて管理されている。レンズの種類「魚眼」の場合の歪み補正プログラムが実時間データ処理端末3aにインストールされている場合には、プログラム「ProgW02(魚眼歪み補正)」が関連付けて管理されている。
(Distortion correction program management table)
FIG. 11C is a conceptual diagram showing a distortion correction program management table. In the distortion correction program management table, the types of lenses included in the imaging unit 40 and distortion correction programs (or names thereof) are managed in association with each other. For example, when the distortion correction program for the lens type “wide angle” is installed in the real-time data processing terminal 3a, the program “ProgW01 (wide angle distortion correction)” is managed in association with the program. When the distortion correction program for the lens type “fisheye” is installed in the real-time data processing terminal 3a, the program “ProgW02 (fisheye distortion correction)” is managed in association with the program.

(サービスプログラム管理テーブル)
図11(d)は、サービスプログラム管理テーブルを示す概念図である。このサービスプログラム管理テーブルでは、認証サーバを識別するための認証サーバID、及び画像取得端末2が提供されるサービスを実行するためのサービスプログラムの名称が関連付けて管理されている。例えば、認証サーバID「a01」の場合のサービスプログラムが実時間データ処理端末3aにインストールされている場合には、プログラム「ProgD01 (物体検出)」が関連付けて管理されている。また、認証サーバID「a02」の場合のサービスプログラムが実時間データ処理端末3aにインストールされている場合には、プログラム「ProgD02 (物体計数)」が関連付けて管理されている。
(Service program management table)
FIG. 11D is a conceptual diagram showing a service program management table. In the service program management table, an authentication server ID for identifying an authentication server and a name of a service program for executing a service provided by the image acquisition terminal 2 are managed in association with each other. For example, when the service program for the authentication server ID “a01” is installed in the real-time data processing terminal 3a, the program is managed in association with the program “ProgD01 (object detection)”. When the service program for the authentication server ID “a02” is installed in the real-time data processing terminal 3a, the program “ProgD02 (object counting)” is managed in association with the service program.

(物体情報管理テーブル)
図14は、物体情報管理テーブルを示す概念図である。この物体情報管理テーブルでは、(整理)番号、後述の検出可能範囲Pにおける矩形の部分画像の位置、部分画像の幅、部分画像の高さ、及び終了フラグ(ここでは、「*」)が関連付けて管理されている。部分画像の位置は、矩形の画像の左上端の座標の位置を示している。
(Object information management table)
FIG. 14 is a conceptual diagram showing the object information management table. In this object information management table, the (organization) number, the position of the rectangular partial image in the detectable range P described later, the width of the partial image, the height of the partial image, and the end flag (here, “*”) are associated with each other. Managed. The position of the partial image indicates the position of the coordinates of the upper left corner of the rectangular image.

(物体変位管理テーブル)
図15は、物体変位管理テーブルを示す概念図である。この物体変位管理テーブルでは、部分画像を識別するための部分画像ID、この部分画像の検出可能範囲Pにおける位置、部分画像の幅、部分画像の高さ、この部分画像が集中データ処理サーバ7で照合される進捗状況を示した照合進捗状況、部分画像で示された人物の名前、及び終了フラグ(ここでは、「*」)が関連付けて管理されている。これらのうち、部分画像の検出可能範囲Pにおける位置、部分画像の幅、及び部分画像の高さは、物体情報管理テーブル(図14参照)から移行された物体特定情報である。即ち、物体情報管理テーブルにおける情報(位置、幅、高さ)は現在の部分画像を特定するための部分画像特定情報であり、物体変位管理テーブルにおける情報(位置、幅、高さ)は過去の部分画像を特定するための部分画像特定情報である。なお、過去の部分画像は、第1の時点における物体の部分画像である。現在の部分画像は、第1の時点より所定時間後の第2の時点における物体の部分画像である。
(Object displacement management table)
FIG. 15 is a conceptual diagram illustrating an object displacement management table. In this object displacement management table, the partial image ID for identifying the partial image, the position of the partial image in the detectable range P, the width of the partial image, the height of the partial image, and the partial image are stored in the centralized data processing server 7. The collation progress status indicating the collation progress status, the name of the person indicated by the partial image, and the end flag (here, “*”) are managed in association with each other. Among these, the position of the partial image in the detectable range P, the width of the partial image, and the height of the partial image are the object identification information transferred from the object information management table (see FIG. 14). That is, the information (position, width, height) in the object information management table is partial image specifying information for specifying the current partial image, and the information (position, width, height) in the object displacement management table is past information. This is partial image specifying information for specifying a partial image. The past partial image is a partial image of the object at the first time point. The current partial image is a partial image of the object at a second time point after a predetermined time from the first time point.

また、物体情報管理テーブル(図14参照)における「終了フラグ」は、物体情報管理テーブルにおける任意のレコード内の物体の現在の位置が、物体変位管理テーブル(図15参照)の各レコード内における物体の過去の位置と所定距離(閾値)内であるかが判断された場合に、判断が終了したことを示すために付される。一方、物体変位管理テーブルにおける「終了フラグ」は、物体情報管理テーブルから移行された部分画像特定情報がある場合に、この部分画像特定情報を含むレコードに付される。   The “end flag” in the object information management table (see FIG. 14) indicates that the current position of the object in an arbitrary record in the object information management table indicates that the current position of the object in each record in the object displacement management table (see FIG. 15). Is added to indicate that the determination has been completed when it is determined whether the position is within a predetermined distance (threshold) from the past position. On the other hand, the “end flag” in the object displacement management table is added to a record including the partial image specifying information when there is partial image specifying information transferred from the object information management table.

(実時間データ処理端末の各機能構成)
次に、図8を用いて、実時間データ処理端末3aの各機能構成について更に詳細に説明する。
(Functional configuration of real-time data processing terminal)
Next, each functional configuration of the real-time data processing terminal 3a will be described in more detail with reference to FIG.

実時間データ処理端末3aの算出部31は、CPU301の処理によって実現され、物体の最新の位置と、物体の過去の位置との距離を算出する。   The calculation unit 31 of the real-time data processing terminal 3a is realized by the processing of the CPU 301, and calculates the distance between the latest position of the object and the past position of the object.

判断部33は、CPU301の処理によって実現され、各種判断を行なう。例えば、判断部33は、撮像ユニット40から送られて来る型番に基づき、撮像素子情報管理DB3001を参考にして、撮像素子の数を判断する。   The determination unit 33 is realized by the processing of the CPU 301 and performs various determinations. For example, the determining unit 33 determines the number of image sensors based on the model number sent from the image capturing unit 40 and referring to the image sensor information management DB 3001.

画像処理部34は、CPU301の処理によって実現され、図11に示されている各プログラム(画像取得プログラム、画像合成プログラム、歪み補正プログラム、及びサービスプログラム)の実行により、各種画像処理を行なう。具体的には、画像処理部34は、取得するために認証が不要な第1のプログラム(例えば、画像取得プログラム、画像合成プログラム、及び歪み補正プログラム)を実行することで、画像データに対して第1の画像処理(例えば、画像取得、画像合成、歪み補正)を行なう。また、画像処理部34は、取得するために認証が必要な第2のプログラム(例えば、サービスプログラム)を実行することで、画像データに対して第2の画像処理(例えば、物体検出処理、物体計数処理)を行なう。   The image processing unit 34 is realized by the processing of the CPU 301, and performs various types of image processing by executing the programs (image acquisition program, image composition program, distortion correction program, and service program) shown in FIG. Specifically, the image processing unit 34 executes a first program (for example, an image acquisition program, an image synthesis program, and a distortion correction program) that does not require authentication in order to acquire image data. First image processing (for example, image acquisition, image synthesis, distortion correction) is performed. In addition, the image processing unit 34 executes a second program (for example, a service program) that requires authentication in order to perform second image processing (for example, object detection processing, object Counting process).

物体検出部35は、CPU301の処理によって実現され、画像処理部34で取得された撮像画像のデータにおいて、顔などの予め決められた特定の物体の候補となる特徴点を検出し、顔などの予め定められた特定の物体の形状モデルを示す形状モデルデータを参照して、撮像画像の中の物体の位置を検出する。   The object detection unit 35 is realized by the processing of the CPU 301, detects a feature point that is a candidate for a predetermined specific object such as a face in the data of the captured image acquired by the image processing unit 34, and The position of the object in the captured image is detected with reference to shape model data indicating a predetermined shape model of the specific object.

イベント生成部36は、CPU301の処理によって実現され、物体検出部35で物体の位置が検出された旨の検出情報(イベント情報)を生成する。   The event generation unit 36 is realized by the processing of the CPU 301, and generates detection information (event information) indicating that the position of the object has been detected by the object detection unit 35.

表示制御部37は、CPU301の処理によって実現され、表示手段の一例であるディスプレイ317に各種画面を表示させる。   The display control unit 37 is realized by the processing of the CPU 301, and causes the display 317, which is an example of a display unit, to display various screens.

接続部38は、撮像ユニットI/F313、及びCPU301の処理によって実現され、撮像ユニット40を実時間データ処理端末3aに機械的及び電気的に接続するためのインターフェースである。   The connection unit 38 is realized by the processing of the imaging unit I / F 313 and the CPU 301, and is an interface for mechanically and electrically connecting the imaging unit 40 to the real-time data processing terminal 3a.

記憶・読出部39は、CPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。   The storage / read unit 39 is realized by the processing of the CPU 301, and stores various data (or information) in the storage unit 3000 and reads various data (or information) from the storage unit 3000.

通信部48は、外部機器接続I/F318、及びCPU301の処理によって実現され、1対1の通信を介して近端末データ処理装置5の後述の通信部58と各種データ(または情報)の送受信を行う。なお、この通信は有線だけでなく無線であってもよい。   The communication unit 48 is realized by the processing of the external device connection I / F 318 and the CPU 301, and transmits and receives various data (or information) to and from a communication unit 58 of the near terminal data processing device 5 via one-to-one communication. Do. This communication may be wireless as well as wired.

<近端末データ処理装置の機能構成>
図8に示されているように、近端末データ処理装置5は、送受信部51、データ検出部56、表示制御部57、通信部58、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、近端末データ処理装置5において、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of near terminal data processing device>
As shown in FIG. 8, the near terminal data processing device 5 includes a transmission / reception unit 51, a data detection unit 56, a display control unit 57, a communication unit 58, and a storage / readout unit 59. These units are realized by operating any of the components shown in FIG. 5 in the near-terminal data processing device 5 according to an instruction from the CPU 501 in accordance with a program developed from the EEPROM 504 to the RAM 503. Function or means to be performed.

また、近端末データ処理装置5は、図5に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。   In addition, the near terminal data processing device 5 includes a storage unit 5000 configured by the ROM 502, the RAM 503, and the EEPROM 504 illustrated in FIG.

(近端末データ処理装置の各機能構成)
次に、図8を用いて、近端末データ処理装置5の各機能構成について更に詳細に説明する。
(Each functional configuration of the near terminal data processing device)
Next, each functional configuration of the near terminal data processing device 5 will be described in more detail with reference to FIG.

近端末データ処理装置5の送受信部51は、遠距離通信回路511、アンテナ511a、及びCPU501の処理によって実現され、通信ネットワーク(ここでは、イントラネット200)を介して、分散データ処理端末6との間で各種データ(または情報)の送受信を行う。   The transmission / reception unit 51 of the near-terminal data processing device 5 is realized by the processing of the long-distance communication circuit 511, the antenna 511a, and the CPU 501, and communicates with the distributed data processing terminal 6 via a communication network (here, the intranet 200). To send and receive various data (or information).

データ検出部56は、CPU501の処理によって実現され、実時間データ処理端末3aからのデータを受信するべきイベントが発生しているか否か、データの受信が完了したか否かを検出する。   The data detection unit 56 is realized by the processing of the CPU 501, and detects whether an event for receiving data from the real-time data processing terminal 3a has occurred and whether data reception has been completed.

表示制御部57は、CPU501の処理によって実現され、表示手段の一例であるディスプレイ517に各種画面を表示させる。   The display control unit 57 is realized by the processing of the CPU 501, and causes the display 517, which is an example of a display unit, to display various screens.

通信部58は、外部機器接続I/F518、及びCPU501の処理によって実現され、1対1の通信を介して実時間データ処理端末3aの通信部48と各種データ(または情報)の送受信を行う。なお、この通信は有線だけでなく、無線であってもよい。   The communication unit 58 is realized by processing of the external device connection I / F 518 and the CPU 501, and transmits and receives various data (or information) to and from the communication unit 48 of the real-time data processing terminal 3a via one-to-one communication. Note that this communication may be not only wired but also wireless.

記憶・読出部59は、CPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。   The storage / readout unit 59 is realized by the processing of the CPU 501, and stores various data (or information) in the storage unit 5000 and reads various data (or information) from the storage unit 5000.

<分散データ処理端末の機能構成>
図9に示されているように、分散データ処理端末6は、送受信部61、受付部62、判断部63、表示制御部67、及び記憶・読出部69を有している。これら各部は、図5に示されている各構成要素のいずれかが、分散データ処理端末6において、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of distributed data processing terminal>
As illustrated in FIG. 9, the distributed data processing terminal 6 includes a transmitting / receiving unit 61, a receiving unit 62, a determining unit 63, a display control unit 67, and a storage / readout unit 69. These units are realized by the operation of any one of the components shown in FIG. 5 in the distributed data processing terminal 6 by an instruction from the CPU 501 in accordance with a program developed from the EEPROM 504 to the RAM 503. Function or means.

また、分散データ処理端末6は、図5に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部6000を有している。   Further, the distributed data processing terminal 6 includes a storage unit 6000 configured by the ROM 502, the RAM 503, and the EEPROM 504 illustrated in FIG.

(分散データ処理端末の各機能構成)
分散データ処理端末6の送受信部61は、分散データ処理端末6における、遠距離通信回路511、アンテナ511a、及びCPU501の処理によって実現され、通信ネットワーク(ここでは、インターネット600)を介して、集中データ処理サーバ7と各種データ(または情報)の送受信を行う。例えば、送受信部61は、照合データと被照合データとの照合要求を集中データ処理サーバ7に対して送信したり、集中データ処理サーバ7から送られて来た照合結果に対する処理を行ったりする。
(Each functional configuration of distributed data processing terminal)
The transmission / reception unit 61 of the distributed data processing terminal 6 is realized by the processing of the long-distance communication circuit 511, the antenna 511a, and the CPU 501 in the distributed data processing terminal 6, and transmits the centralized data via the communication network (here, the Internet 600). It sends and receives various data (or information) to and from the processing server 7. For example, the transmission / reception unit 61 transmits a request for collation between collation data and data to be collated to the centralized data processing server 7, and performs processing on the collation result sent from the centralized data processing server 7.

受付部62は、分散データ処理端末6における、タッチパネル521、及びCPU501の処理によって実現され、利用者の各種操作を受け付ける。   The receiving unit 62 is realized by the processing of the touch panel 521 and the CPU 501 in the distributed data processing terminal 6, and receives various operations of the user.

判断部63は、分散データ処理端末6におけるCPU501の処理によって実現され、各種判断を行なう。   The determination unit 63 is realized by the processing of the CPU 501 in the distributed data processing terminal 6, and makes various determinations.

表示制御部67は、分散データ処理端末6におけるCPU501の処理によって実現され、表示手段の一例であるディスプレイ517に各種画面を表示させる。   The display control unit 67 is realized by the processing of the CPU 501 in the distributed data processing terminal 6, and causes the display 517, which is an example of a display unit, to display various screens.

記憶・読出部69は、分散データ処理端末6におけるCPU501の処理によって実現され、記憶部6000に各種データ(または情報)を記憶したり、記憶部6000から各種データ(または情報)を読み出したりする。例えば、記憶・読出部69は、受付部62で受け付けられた登録要求により、照合データ(ここでは、顔画像データ)を記憶部6000に記憶して登録させる。   The storage / readout unit 69 is realized by the processing of the CPU 501 in the distributed data processing terminal 6, and stores various data (or information) in the storage unit 6000 and reads various data (or information) from the storage unit 6000. For example, the storage / readout unit 69 stores the collation data (here, face image data) in the storage unit 6000 and registers it in response to the registration request received by the reception unit 62.

<集中データ処理サーバの機能構成>
図9に示されているように、集中データ処理サーバ7は、送受信部71、受付部72、判断部73、特徴量生成部74、照合部75、及び記憶・読出部79を有している。これら各部は、図6に示されている各構成要素のいずれかが、分散データ処理端末6において、HD704からRAM703上に展開されたプログラムに従ったCPU701からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of centralized data processing server>
As illustrated in FIG. 9, the centralized data processing server 7 includes a transmitting / receiving unit 71, a receiving unit 72, a determining unit 73, a feature amount generating unit 74, a collating unit 75, and a storage / readout unit 79. . These units are realized by the operation of one of the components shown in FIG. 6 in the distributed data processing terminal 6 by the instruction from the CPU 701 according to the program expanded from the HD 704 on the RAM 703. Function or means.

また、集中データ処理サーバ7は、図6に示されているROM702、RAM703、及びHD704によって構築される記憶部7000を有している。記憶部7000には、後述の照合側の特徴量データが記憶されている。この記憶部7000には、照合データが記憶されている。更に、記憶部7000には、照合データ管理DB7001が構築されている。照合データ管理DB7001は、後述の照合データ管理テーブルによって構成されている。なお、照合データは、集中データ処理サーバ7以外の他のデータ管理サーバ等で記憶してもよい。   Further, the centralized data processing server 7 has a storage unit 7000 constructed by the ROM 702, the RAM 703, and the HD 704 shown in FIG. The storage unit 7000 stores feature amount data on the collation side described later. This storage unit 7000 stores collation data. Further, a collation data management DB 7001 is constructed in the storage unit 7000. The collation data management DB 7001 includes a collation data management table described later. The collation data may be stored in a data management server other than the centralized data processing server 7 or the like.

(照合データ管理テーブル)
図12は、照合データ管理テーブルを示す概念図である。この照合データ管理テーブルでは、照合データのファイル名を示す画像ファイル、及びこの画像ファイルに係る照合画像で示される人物の名前が関連付けて管理されている。なお、人物の名前は、人物特定情報の一例である。人物特定情報は、漢字だけでなく、英数字や、記号などによって示されても良い。例えば、人物特定情報には、従業員番号、学籍番号、運転免許書番号、日本の制度で使われているマイナンバー等が含まれる。
(Collation data management table)
FIG. 12 is a conceptual diagram showing a collation data management table. In the collation data management table, an image file indicating the file name of the collation data and the name of the person indicated by the collation image related to the image file are managed in association with each other. Note that the name of a person is an example of person identification information. The person identification information may be indicated by not only kanji but also alphanumeric characters and symbols. For example, the person identification information includes an employee number, a student ID number, a driver's license number, a My Number used in the Japanese system, and the like.

(集中データ処理サーバの各機能構成)
集中データ処理サーバ7の送受信部71は、ネットワークI/F709、及びCPU701の処理によって実現され、通信ネットワーク(ここでは、インターネット600)を介して、分散データ処理端末6と各種データ(または情報)の送受信を行う。送受信部71は、照合データと被照合データとの照合要求を分散データ処理端末6から受信したり、分散データ処理端末6に対して照合結果を示す照合結果情報を送信したりする。
(Each functional configuration of the centralized data processing server)
The transmission / reception unit 71 of the centralized data processing server 7 is realized by the processing of the network I / F 709 and the CPU 701, and communicates with the distributed data processing terminal 6 and various data (or information) via a communication network (here, the Internet 600). Send and receive. The transmission / reception unit 71 receives a collation request between collation data and data to be collated from the distributed data processing terminal 6, and transmits collation result information indicating a collation result to the distributed data processing terminal 6.

受付部72は、キーボード711、マウス712、及びCPU701の処理によって実現され、利用者の各種操作を受け付ける。   The receiving unit 72 is realized by the processing of the keyboard 711, the mouse 712, and the CPU 701, and receives various operations of the user.

判断部73は、集中データ処理サーバ7におけるCPU501の処理によって実現され、各種判断を行なう。   The determination unit 73 is realized by the processing of the CPU 501 in the centralized data processing server 7, and makes various determinations.

特徴量生成部74は、CPU701の処理によって実現され、送受信部71によって受信された被照合データ(部分画像データ)及び照合データから特徴量のパラメータを生成する。   The feature amount generation unit 74 is realized by the processing of the CPU 701, and generates a parameter of the feature amount from the data to be verified (partial image data) and the verification data received by the transmission / reception unit 71.

照合部75は、CPU701の処理によって実現され、特徴量生成部74で生成された特徴量を用いて照合データ側の特徴量と被照合データ側の特徴量とを照合し、類似度を示す得点(ポイント)を算出する。   The matching unit 75 is implemented by the processing of the CPU 701, and compares the feature amount on the matching data side with the feature amount on the data to be matched using the feature amount generated by the feature amount generating unit 74, and obtains a score indicating the similarity. (Point) is calculated.

記憶・読出部79は、CPU701の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。   The storage / readout unit 79 is realized by the processing of the CPU 701, and stores various data (or information) in the storage unit 7000 and reads various data (or information) from the storage unit 7000.

<サービス提供サーバの機能構成>
次に、図9、図13乃至図17を用いて、サービス提供サーバ8の各機能構成について詳細に説明する。図9に示されているように、サービス提供サーバ8は、送受信部81、判断部82、取出部87、及び記憶・読出部89を有している。これら各部は、図6に示されている各構成要素のいずれかが、HD704からRAM703上に展開されたサービス提供サーバ8用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of service providing server>
Next, each functional configuration of the service providing server 8 will be described in detail with reference to FIGS. 9 and 13 to 17. As shown in FIG. 9, the service providing server 8 includes a transmission / reception unit 81, a determination unit 82, an extraction unit 87, and a storage / readout unit 89. Each of these units has a function or a function realized by operating any one of the components shown in FIG. 6 according to an instruction from the CPU 701 according to the program for the service providing server 8 expanded on the RAM 703 from the HD 704 or Means.

また、サービス提供サーバ8は、図6に示されているRAM703、及びHD704によって構築される記憶部8000を有している。この記憶部8000には、分散データ処理端末6又は認証サーバ9から送られて来る各種データが記憶される。また、記憶部8000には、図11で示されている各プログラムが全て記憶されており、サービス提供サーバ8は、実時間データ処理端末3aの要求に応じて、要求対象のプログラムを送信することができる。   In addition, the service providing server 8 includes a storage unit 8000 configured by the RAM 703 and the HD 704 illustrated in FIG. The storage unit 8000 stores various data sent from the distributed data processing terminal 6 or the authentication server 9. The storage unit 8000 stores all the programs shown in FIG. 11, and the service providing server 8 transmits the requested program in response to a request from the real-time data processing terminal 3a. Can be.

更に、記憶部8000には、セッション管理DB8001、及び認証サーバ管理DB8002が構築されている。このうち、セッション管理DB8001は、後述のセッション管理テーブルによって構成されている。認証サーバ管理DB8002は、後述の認証サーバ管理テーブルによって構成されている。以下、各テーブルについて詳細に説明する。   Further, a session management DB 8001 and an authentication server management DB 8002 are constructed in the storage unit 8000. Among them, the session management DB 8001 is configured by a session management table described later. The authentication server management DB 8002 is configured by an authentication server management table described later. Hereinafter, each table will be described in detail.

(セッション管理テーブル)
図13は、セッション管理テーブルを示す概念図である。このセッション管理テーブルでは、分散データ処理端末6にサービスを提供するために、分散データ処理端末6と確立する通信セッションを識別するためのセッションID、分散データ処理端末6の利用者を識別するための端末ID、及び端末IDで示される利用者の分散データ処理端末6のIPアドレスが関連付けて記憶されて管理されている。
(Session management table)
FIG. 13 is a conceptual diagram showing a session management table. The session management table includes a session ID for identifying a communication session established with the distributed data processing terminal 6 and a user for identifying a user of the distributed data processing terminal 6 in order to provide a service to the distributed data processing terminal 6. The terminal ID and the IP address of the distributed data processing terminal 6 of the user indicated by the terminal ID are stored and managed in association with each other.

図16(a)、(b)、(c)は、端末ID(identification)の一例として、電子メールアドレスを示しており、それぞれ認証対象部分と認証対象外部分によって構成されている。認証対象部分は、認証サーバ9によって認証される際に利用される利用者IDである。認証対象外部分は、認証サーバ9によって認証される際に利用されない部分である。   FIGS. 16A, 16B, and 16C show an e-mail address as an example of the terminal ID (identification), and are each composed of an authentication target portion and a non-authentication target portion. The authentication target portion is a user ID used when authentication is performed by the authentication server 9. The non-authentication target portion is a portion that is not used when authentication is performed by the authentication server 9.

このうち、図16(a)に示されている第1のパターンでは、認証対象部分は、アカウント名”asai”、ホスト名”myhost”、及びドメイン名の前段部分“ricoo.com”によって構成されている。一方、認証対象外部分は、ドメイン名の後段部分”theta1”によって構成されている。この場合、取出部87は、”/”によって、認証対象部分と認証対象外部分を区別する。   Of these, in the first pattern shown in FIG. 16A, the part to be authenticated is composed of the account name “asai”, the host name “myhost”, and the former part “ricoo.com” of the domain name. ing. On the other hand, the part not to be authenticated is constituted by the latter part “theta1” of the domain name. In this case, the extraction unit 87 distinguishes the part to be authenticated from the part not to be authenticated by “/”.

また、図16(b)も第1のパターンを示しているが、認証対象外部分が図16(a)と異なる。即ち、認証サーバ9は、図16(a)に示されている端末IDと、図16(b)に示されている端末IDでは、認証対象部分が同じであるため、同じIDとして認証する。   FIG. 16B also shows the first pattern, but the part not to be authenticated is different from FIG. 16A. That is, the authentication server 9 authenticates the terminal ID shown in FIG. 16A and the terminal ID shown in FIG. 16B as the same ID because the authentication target portion is the same.

なお、端末IDは、図16(c)に示されている第2のパターンであってもよい。この第2のパターンでは、認証対象部分は、アカウント名の前段部分”asai”によって構成されている。一方、認証対象外部分は、アカウント名の後段部分”theta2”、ホスト名”myhost”、及びドメイン名“ricoo.com”によって構成されている。この場合、取出部87は、”+”によって、認証対象部分と認証対象外部分を区別する。   Note that the terminal ID may be the second pattern shown in FIG. In the second pattern, the authentication target portion is constituted by the first part “asai” of the account name. On the other hand, the non-authentication target part is composed of the latter part of the account name “theta2”, the host name “myhost”, and the domain name “ricoo.com”. In this case, the extraction unit 87 distinguishes the part to be authenticated from the part not to be authenticated by “+”.

(認証サーバ管理テーブル)
図17は、認証サーバ管理テーブルを示す概念図である。この認証サーバ管理テーブルでは、各認証サーバ9を識別するための認証サーバID毎に、各認証サーバ9にアクセスするためのURL(Uniform Resource Locator)が関連付けて記憶されて管理されている。
(Authentication server management table)
FIG. 17 is a conceptual diagram showing the authentication server management table. In the authentication server management table, a URL (Uniform Resource Locator) for accessing each authentication server 9 is stored and managed in association with each authentication server ID for identifying each authentication server 9.

(サービス提供サーバの各機能構成)
次に、図9を用いて、サービス提供サーバ8の各機能構成について詳細に説明する。
(Each functional configuration of the service providing server)
Next, each functional configuration of the service providing server 8 will be described in detail with reference to FIG.

サービス提供サーバ8の送受信部81は、主に、図6に示されているCPU701からの命令、及びネットワークI/F709によって実現され、インターネット600を介して、分散データ処理端末6、又は認証サーバ9と各種データ(または情報)の送受信を行う。   The transmission / reception unit 81 of the service providing server 8 is mainly realized by a command from the CPU 701 shown in FIG. 6 and the network I / F 709, and via the Internet 600, the distributed data processing terminal 6 or the authentication server 9. And various data (or information) are transmitted and received.

判断部82は、主に、図6に示されているCPU701からの命令によって実現され、例えば、分散データ処理端末6にサービスを提供するための通信セッションが既に確立されているか否かを判断する。   The determination unit 82 is mainly realized by an instruction from the CPU 701 shown in FIG. 6, and determines, for example, whether a communication session for providing a service to the distributed data processing terminal 6 has already been established. .

取出部87は、主に、図6に示されているCPU701からの命令によって実現され、端末IDから、図16に示されているようなrID(認証対象部分)を取り出す処理を行う。   The extracting unit 87 is mainly realized by an instruction from the CPU 701 illustrated in FIG. 6, and performs a process of extracting an rID (authentication target portion) as illustrated in FIG. 16 from the terminal ID.

記憶・読出部89は、主に、図6に示されているCPU701からの命令、及びHDD705によって実現され、記憶部8000に各種データを記憶したり、記憶部8000から各種データを読み出したりする。   The storage / readout unit 89 is mainly realized by an instruction from the CPU 701 shown in FIG. 6 and the HDD 705, and stores various data in the storage unit 8000 and reads various data from the storage unit 8000.

<認証サーバの機能構成>
次に、図9及び図18を用いて、認証サーバ9の機能構成について詳細に説明する。認証サーバ9は、送受信部91、認証部92、及び、記憶・読出部99を有している。これら各部は、図6に示されている各構成要素のいずれかが、HD704からRAM703上に展開された認証サーバ9用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of authentication server>
Next, the functional configuration of the authentication server 9 will be described in detail with reference to FIGS. The authentication server 9 includes a transmission / reception unit 91, an authentication unit 92, and a storage / readout unit 99. These units are functions or means realized by operating any one of the constituent elements shown in FIG. 6 by a command from the CPU 701 according to the program for the authentication server 9 expanded on the RAM 703 from the HD 704. It is.

また、認証サーバ9は、図6に示されているRAM703、及びHD704によって構築される記憶部9000を有している。この記憶部9000には、分散データ処理端末6又はサービス提供サーバ8から送られて来る各種データが記憶される。   Further, the authentication server 9 has a storage unit 9000 configured by the RAM 703 and the HD 704 illustrated in FIG. Various data sent from the distributed data processing terminal 6 or the service providing server 8 is stored in the storage unit 9000.

更に、記憶部9000には、認証管理DB9001が構築されている。認証管理DB9001は、後述の認証管理テーブルによって構成されている。以下、このテーブルについて詳細に説明する。   Further, an authentication management DB 9001 is constructed in the storage unit 9000. The authentication management DB 9001 is configured by an authentication management table described later. Hereinafter, this table will be described in detail.

(認証管理テーブル)
図18(a)は認証サーバ9aが有する認証管理テーブルを示す概念図、図18(b)は認証サーバ9bが有する認証管理テーブルを示す概念図、図18(c)は認証サーバ9cが有する認証管理テーブルを示す概念図である。
(Authentication management table)
18A is a conceptual diagram illustrating an authentication management table of the authentication server 9a, FIG. 18B is a conceptual diagram illustrating an authentication management table of the authentication server 9b, and FIG. 18C is an authentication of the authentication server 9c. It is a conceptual diagram showing a management table.

各認証管理テーブルでは、端末IDのうちの利用者ID(認証対象部分)とパスワードとが関連付けて記憶されて管理されている。   In each authentication management table, a user ID (authentication target portion) of the terminal ID and a password are stored in association with each other and managed.

(認証サーバの各機能構成)
次に、図9を用いて、認証サーバ9の各機能構成について詳細に説明する。
(Each functional configuration of the authentication server)
Next, each functional configuration of the authentication server 9 will be described in detail with reference to FIG.

認証サーバ9の送受信部91は、主に、図6に示されているCPU701からの命令、及びネットワークI/F709によって実現され、インターネット600を介して分散データ処理端末6及びサービス提供サーバ8と各種データ(または情報)の送受信を行う。   The transmission / reception unit 91 of the authentication server 9 is mainly realized by instructions from the CPU 701 shown in FIG. 6 and the network I / F 709, and communicates with the distributed data processing terminal 6 and the service providing server 8 via the Internet 600. Send and receive data (or information).

認証部92は、主に、図6に示されているCPU701からの命令によって実現され、認証要求を送信した画像取得端末2に、サービスを受けられる正当な権限があるか否かを判断することで、IDの認証を行なう。   The authentication unit 92 is implemented mainly by a command from the CPU 701 shown in FIG. 6, and determines whether or not the image acquisition terminal 2 that has transmitted the authentication request has valid authority to receive the service. Authenticates the ID.

記憶・読出部99は、主に、図6に示されているCPU701からの命令、及びHDD705によって実現され、記憶部9000に各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。   The storage / readout unit 99 is mainly realized by an instruction from the CPU 701 shown in FIG. 6 and the HDD 705, and stores various data (or information) in the storage unit 9000, and stores various data (or information) from the storage unit 9000. Or information).

<<本実施形態の処理又は動作>>
続いて、図19乃至図32を用いて、本実施形態の処理又は動作について説明する。
<< processing or operation of the present embodiment >>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIGS.

<認証処理>
まずは、図19乃至図22を用いて、認証処理について説明する。図19及び図20は、認証処理を示したシーケンス図である。図21及び図22は、分散データ処理端末の画面例を示す図である。
<Authentication process>
First, the authentication process will be described with reference to FIGS. FIG. 19 and FIG. 20 are sequence diagrams showing the authentication processing. FIG. 21 and FIG. 22 are diagrams illustrating examples of screens of the distributed data processing terminal.

図19に示されているように、分散データ処理端末6の送受信部61からサービス提供サーバ8に対して、認証先選択画面の要求を送信する(ステップS21)。この要求には、分散データ処理端末6の端末IDが含まれている。また、この際、送受信部61は、自端末のIPアドレスを送信する。これにより、サービス提供サーバ8の送受信部81は、認証先選択画面の要求、及び分散データ処理端末6のIPアドレスを受信する。   As shown in FIG. 19, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits a request for an authentication destination selection screen to the service providing server 8 (step S21). This request includes the terminal ID of the distributed data processing terminal 6. At this time, the transmitting / receiving unit 61 transmits the IP address of the terminal itself. Thereby, the transmission / reception unit 81 of the service providing server 8 receives the request for the authentication destination selection screen and the IP address of the distributed data processing terminal 6.

次に、サービス提供サーバ8の判断部82は、セッション管理テーブル(図13参照)に、ステップS21で受信された端末IDが所定のセッションIDと関連づけて管理されているか否かを判断する(ステップS22)。以降、端末IDが管理されていなかった場合について説明する。   Next, the determination unit 82 of the service providing server 8 determines whether the terminal ID received in step S21 is managed in the session management table (see FIG. 13) in association with the predetermined session ID (step S21). S22). Hereinafter, a case where the terminal ID is not managed will be described.

サービス提供サーバ8の送受信部81は分散データ処理端末6に対して、認証先選択画面のデータを送信する(ステップS23)。これにより、分散データ処理端末6の送受信部61は、認証先選択画面のデータを受信する。   The transmission / reception unit 81 of the service providing server 8 transmits the data of the authentication destination selection screen to the distributed data processing terminal 6 (Step S23). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the data of the authentication destination selection screen.

次に、分散データ処理端末6の表示制御部67はディスプレイ517に対して、図21に示されているような認証先選択画面s1を表示させる(ステップS24)。図21では、分散データ処理端末6としての画面例が示されている。この認証先選択画面s1には、端末IDの入力欄b1、パスワードの入力欄b2、及びログイン要求(認証要求)するためのログインボタンb3が表示されている。更に、認証先選択画面s1には、認証サーバ9a,9b,9cをそれぞれ選択するための認証サーバ選択ボタンa1,a2,a3が表示されている。例えば、認証サーバ選択ボタンa1は、利用者が物体検出処理のサービスを受ける場合のボタンである。認証サーバ選択ボタンa2は、利用者が物体計数処理のサービスを受ける場合のボタンである。   Next, the display control unit 67 of the distributed data processing terminal 6 causes the display 517 to display an authentication destination selection screen s1 as shown in FIG. 21 (step S24). FIG. 21 shows a screen example as the distributed data processing terminal 6. The authentication destination selection screen s1 displays a terminal ID input field b1, a password input field b2, and a login button b3 for requesting a login (authentication request). Further, on the authentication destination selection screen s1, authentication server selection buttons a1, a2, and a3 for selecting the authentication servers 9a, 9b, and 9c, respectively, are displayed. For example, the authentication server selection button a1 is a button used when the user receives the service of the object detection processing. The authentication server selection button a2 is a button used when the user receives the service of the object counting process.

ここで、利用者が、入力欄b1に自己の端末ID、入力欄b2に自己のパスワードを入力し、認証サーバ選択ボタンa1,a2,a3のうち所望のボタンを押下し、ログインボタンb3を押下すると、受付部62が各入力及び選択を受け付ける(ステップS25)。ここでは、認証サーバ選択ボタンa1が選択されることで、画像認識処理のうち、物体検出処理プログラムProgD01により物体検出処理が実行される場合について説明する。   Here, the user inputs his / her terminal ID in the input field b1 and his / her password in the input field b2, presses a desired button among the authentication server selection buttons a1, a2, a3, and presses the login button b3. Then, the receiving unit 62 receives each input and selection (Step S25). Here, a case will be described in which the object detection processing is executed by the object detection processing program ProgD01 in the image recognition processing when the authentication server selection button a1 is selected.

送受信部61はサービス提供サーバ8に対して、ID(ここでは、端末ID又は利用者ID)の認証要求を送信する(ステップS26)。この認証要求には、ステップS25で受け付けられた端末ID及びパスワード、並びに認証サーバ9の選択結果及び分散データ処理端末6のURLが含まれている。この認証結果は、認証サーバ9を識別するための認証サーバIDを示している。これにより、サービス提供サーバ8の送受信部81は、IDの認証要求を受信する。   The transmission / reception unit 61 transmits an authentication request for an ID (here, a terminal ID or a user ID) to the service providing server 8 (step S26). This authentication request includes the terminal ID and password received in step S25, the selection result of the authentication server 9, and the URL of the distributed data processing terminal 6. This authentication result indicates an authentication server ID for identifying the authentication server 9. Thereby, the transmitting / receiving unit 81 of the service providing server 8 receives the ID authentication request.

次に、サービス提供サーバ8の記憶・読出部89は、ステップS26で受信された選択結果としての認証サーバIDを検索キーとして、認証サーバ管理テーブル(図17参照)を検索することにより、対応する認証サーバのURLを読み出す(ステップS27)。   Next, the storage / read unit 89 of the service providing server 8 responds by searching the authentication server management table (see FIG. 17) using the authentication server ID as the selection result received in step S26 as a search key. The URL of the authentication server is read (step S27).

次に、取出部87は、ステップS26で受信された端末IDのうち、利用者ID(認証対象部分)のみを取り出す(ステップS28)。そして、送受信部81は、ステップS27で読み出されたURLで示される認証サーバ9に対して、IDの認証要求を送信する(ステップS29)。このIDの認証要求には、ステップS28で取り出された利用者ID(認証対象部分)、ステップS26で受信されたパスワード、及びステップ26で受信された分散データ処理端末6のURLが含まれている。これにより、認証サーバ9の送受信部71は、利用者の認証要求を受信する。   Next, the extraction unit 87 extracts only the user ID (authentication target portion) from the terminal IDs received in step S26 (step S28). Then, the transmission / reception unit 81 transmits an ID authentication request to the authentication server 9 indicated by the URL read in step S27 (step S29). The ID authentication request includes the user ID (the part to be authenticated) extracted in step S28, the password received in step S26, and the URL of the distributed data processing terminal 6 received in step S26. . Thereby, the transmission / reception unit 71 of the authentication server 9 receives the user authentication request.

次に、認証サーバ9の記憶・読出部99は、ステップS29によって受信された利用者ID(認証対象部分)及びパスワードの組を検索キーとし、認証管理テーブル(図18参照)において同じ組の認証対象部分及びパスワードを検索した結果を用いて、認証部92が認証を行なう(ステップS30)。認証部92は、同じ組が管理されている場合には、分散データ処理端末6はサービス提供サーバ8からサービスを受けるための正当な端末であると判断し、同じ組が管理されていない場合には、分散データ処理端末6はサービス提供サーバ8からサービスを受けるための正当な端末でないと判断する。   Next, the storage / readout unit 99 of the authentication server 9 uses the set of the user ID (authentication target portion) and the password received in step S29 as a search key, and sets the same set of authentication in the authentication management table (see FIG. 18). The authentication unit 92 performs authentication using the search result of the target part and the password (step S30). If the same set is managed, the authentication unit 92 determines that the distributed data processing terminal 6 is a legitimate terminal for receiving a service from the service providing server 8, and if the same set is not managed, Determines that the distributed data processing terminal 6 is not a legitimate terminal for receiving a service from the service providing server 8.

なお、ステップS28では、取出部87が端末IDから認証対象部分を取り出したが、これに限るものではない。例えば、サービス提供サーバ8は取出部87を有しておらず、ステップS29において、送受信部81が、パスワード及びURLの他に、端末IDのうち利用者ID(認証対象部分)のみを送信するようにしてもよい。   In step S28, the extracting unit 87 extracts the part to be authenticated from the terminal ID, but the present invention is not limited to this. For example, the service providing server 8 does not have the extracting unit 87, and in step S29, the transmitting / receiving unit 81 transmits only the user ID (authentication target portion) of the terminal ID in addition to the password and the URL. It may be.

続いて、図20に示されているように、認証サーバ9の認証部92は、トークン(送信権)の暗号化を行なう(ステップS41)。そして、送受信部91は、ステップS29によって受信された分散データ処理端末6のURLに基づいて、この分散データ処理端末6に認証結果を送信する(ステップS42)。この認証結果は、分散データ処理端末6が正当であるか否かを示すとともに、ステップS41によって暗号化されたトークンが含まれている。これにより、分散データ処理端末6の送受信部61は、利用者の認証結果を受信する。以降、利用者が正当な権限を有する場合について説明する。   Subsequently, as shown in FIG. 20, the authentication unit 92 of the authentication server 9 encrypts the token (transmission right) (step S41). Then, based on the URL of the distributed data processing terminal 6 received in step S29, the transmission / reception unit 91 transmits an authentication result to the distributed data processing terminal 6 (step S42). The authentication result indicates whether the distributed data processing terminal 6 is valid or not, and includes the token encrypted in step S41. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the authentication result of the user. Hereinafter, a case in which the user has valid authority will be described.

分散データ処理端末6の送受信部61は、サービス提供サーバ8に対して、セッション確立要求を送信する(ステップS43)。このセッション確立要求には、端末ID、及びステップS42で受信された暗号化されているトークンが含まれている。これにより、サービス提供サーバ8の送受信部81は、セッション確立要求を受信する。   The transmission / reception unit 61 of the distributed data processing terminal 6 transmits a session establishment request to the service providing server 8 (Step S43). This session establishment request includes the terminal ID and the encrypted token received in step S42. Thereby, the transmission / reception unit 81 of the service providing server 8 receives the session establishment request.

次に、サービス提供サーバ8は、セッション確立要求を送信した分散データ処理端末6が、ステップS30で正当であると判断されたことを確認するため、送受信部81は認証サーバ9に対してトークンの認証要求を送信する(ステップS44)。このトークンの認証要求には、ステップS43で受信された暗号化されているトークンが含まれている。これにより、認証サーバ9の送受信部91は、トークンの認証要求を受信する。   Next, the service providing server 8 transmits the token establishment request to the authentication server 9 in order to confirm that the distributed data processing terminal 6 that has transmitted the session establishment request is determined to be valid in step S30. An authentication request is transmitted (step S44). This token authentication request includes the encrypted token received in step S43. Thereby, the transmission / reception unit 91 of the authentication server 9 receives the token authentication request.

次に、認証部92は、ステップS44によって受信された、暗号化されているトークンを復号化する(ステップS45)。そして、認証部92は、ステップS41で暗号化する前のトークンと、ステップS45で復号化した後のトークンを比較することで、トークンの認証を行なう(ステップS46)。そして、認証サーバ9の送受信部91は、サービス提供サーバ8に対して、ステップS46の認証結果を送信する(ステップS47)。これにより、サービス提供サーバ8の送受信部81は、認証結果を受信する。以降、ステップS46において、トークンが正当であると判断された場合について説明する。   Next, the authentication unit 92 decrypts the encrypted token received in step S44 (step S45). Then, the authentication unit 92 authenticates the token by comparing the token before encryption in step S41 with the token after decryption in step S45 (step S46). Then, the transmission / reception unit 91 of the authentication server 9 transmits the authentication result of Step S46 to the service providing server 8 (Step S47). Thereby, the transmission / reception unit 81 of the service providing server 8 receives the authentication result. Hereinafter, a case where the token is determined to be valid in step S46 will be described.

次に、サービス提供サーバ8の記憶・読出部89は、セッション管理テーブル(図13参照)において、新たにセッションIDを割り当てるとともに、このセッションIDに対して、ステップS26で受信された端末ID及びIPアドレスを関連付けて管理する(ステップS48)。そして、送受信部81は、分散データ処理端末6に対してサービス提供画面のデータを送信する(ステップS49)。これにより、分散データ処理端末6の送受信部61は、サービス提供画面のデータを受信する。   Next, the storage / readout unit 89 of the service providing server 8 assigns a new session ID in the session management table (see FIG. 13), and assigns the terminal ID and the IP received in step S26 to this session ID. The addresses are managed in association with each other (step S48). Then, the transmitting and receiving unit 81 transmits the data of the service providing screen to the distributed data processing terminal 6 (Step S49). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the data of the service providing screen.

次に、分散データ処理端末6の表示制御部67は、ディスプレイ517上に、図22に示されているようなサービス提供画面s2を表示させる(ステップS50)。図22では、分散データ処理端末6の画面例が示されている。ここでは、サービス提供例として、分散データ処理端末6から画像取得端末2に対する遠隔操作を実現させるための遠隔操作サービスについて説明する。図22に示されているサービス提供画面s2には、遠隔操作対象を特定するためのIPアドレスの入力欄c1、及び「遠隔操作開始」ボタンc2が表示されている。   Next, the display control unit 67 of the distributed data processing terminal 6 displays a service providing screen s2 as shown in FIG. 22 on the display 517 (step S50). FIG. 22 shows a screen example of the distributed data processing terminal 6. Here, as a service providing example, a remote operation service for realizing remote operation from the distributed data processing terminal 6 to the image acquisition terminal 2 will be described. On the service providing screen s2 shown in FIG. 22, an input field c1 of an IP address for specifying a remote operation target and a "start remote operation" button c2 are displayed.

<画像認識の準備処理>
続いて、図23乃至図25を用いて、画像認識の準備処理について説明する。図23は、画像認識の開始要求の処理を示したシーケンス図である。
<Preparation processing for image recognition>
Subsequently, a preparation process for image recognition will be described with reference to FIGS. FIG. 23 is a sequence diagram showing a process of an image recognition start request.

図23に示されているように、分散データ処理端末6では、受付部62が利用者から画像認識の開始要求を受け付ける(ステップS61)。この場合、分散データ処理端末6のGUI(Graphical User Interface)が利用される。これにより、分散データ処理端末6の送受信部61は、近端末データ処理装置5に対して、画像認識の開始要求を示す画像認識の開始要求情報を送信する(ステップS62)。この開始要求情報には、上述の認証処理(図19及び図20参照)で認証を行なった認証サーバ9を識別するための認証サーバIDが含まれている。これにより、近端末データ処理装置5の送受信部51は、画像認識の開始要求情報を受信する。そして、通信部58は、実時間データ処理端末3aに対して、画像認識の開始要求情報を送信する(ステップS63)。これにより、実時間データ処理端末3aの通信部48は、画像認識の開始要求情報を受信する。このように、ユーザーインタフェースを実時間データ処理端末3aから分離することで、分散データ処理端末6から遠隔(リモート)操作が可能となる。   As shown in FIG. 23, in the distributed data processing terminal 6, the receiving unit 62 receives a request for starting image recognition from the user (step S61). In this case, a GUI (Graphical User Interface) of the distributed data processing terminal 6 is used. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits the image recognition start request information indicating the image recognition start request to the near terminal data processing device 5 (step S62). The start request information includes an authentication server ID for identifying the authentication server 9 that has performed authentication in the above-described authentication processing (see FIGS. 19 and 20). Thereby, the transmission / reception unit 51 of the near terminal data processing device 5 receives the image recognition start request information. Then, the communication unit 58 transmits the image recognition start request information to the real-time data processing terminal 3a (step S63). Thereby, the communication unit 48 of the real-time data processing terminal 3a receives the image recognition start request information. In this way, by separating the user interface from the real-time data processing terminal 3a, remote operation from the distributed data processing terminal 6 becomes possible.

図24は、実時間データ処理端末の実時間処理の準備処理を示したシーケンス図である。
図24に示されているように、実時間データ処理端末3aの接続部38は、撮像ユニット40から、この撮像ユニット40の型番を取得する(ステップS71)。この場合、接続部38から撮像ユニット40に型番を要求し、撮像ユニット40がこの要求に応じて自ユニットの型番を送信する。
FIG. 24 is a sequence diagram showing a preparation process for real-time processing of the real-time data processing terminal.
As shown in FIG. 24, the connection unit 38 of the real-time data processing terminal 3a acquires the model number of the imaging unit 40 from the imaging unit 40 (Step S71). In this case, the connection unit 38 requests a model number from the imaging unit 40, and the imaging unit 40 transmits the model number of the own unit in response to the request.

次に、記憶・読出部39は、ステップS71によって取得された型番を検索キーとして、撮像素子情報管理DB3001(図10(a)参照)を検索することにより、対応する撮像素子の数、及びレンズの種類を読み出す(ステップS72)。更に、記憶・読出部39は、ステップS72によって読み出された撮像素子の数を検索キーとして、サイクル値管理DB3002(図10(b)参照)を検索することにより、対応するサイクル値を読み出す(ステップS73)。   Next, the storage / readout unit 39 searches the image sensor information management DB 3001 (see FIG. 10A) using the model number obtained in step S71 as a search key, thereby obtaining the number of corresponding image sensors and the lens. Is read out (step S72). Further, the storage / readout unit 39 reads out the corresponding cycle value by searching the cycle value management DB 3002 (see FIG. 10B) using the number of image sensors read in step S72 as a search key (see FIG. 10B). Step S73).

次に、記憶・読出部39は、ステップS72によって読み出された撮像素子の数を検索キーとして、画像取得プログラム管理DB3003(図11(a)参照)で管理されている画像取得プログラムを検索する(ステップS74)。次に、記憶・読出部39は、ステップS72によって読み出された撮像素子の数を検索キーとして、合成処理プログラム管理DB3004(図11(b)参照)で管理されている合成処理プログラムを検索する(ステップS75)。次に、記憶・読出部39は、ステップS72によって読み出されたレンズの種類を検索キーとして、歪み補正プログラム管理DB3005(図11(c)参照)で管理されている歪み補正プログラムを検索する(ステップS76)。次に、記憶・読出部39は、ステップS72によって読み出されたレンズの種類を検索キーとして、サービスプログラム管理DB3006(図11(d)参照)で管理されているサービスプログラムを検索する(ステップS77)。   Next, the storage / readout unit 39 searches for an image acquisition program managed in the image acquisition program management DB 3003 (see FIG. 11A) using the number of image sensors read in step S72 as a search key. (Step S74). Next, the storage / readout unit 39 searches for a combination processing program managed in the combination processing program management DB 3004 (see FIG. 11B), using the number of imaging elements read in step S72 as a search key. (Step S75). Next, the storage / readout unit 39 searches for a distortion correction program managed in the distortion correction program management DB 3005 (see FIG. 11C) using the lens type read in step S72 as a search key (see FIG. 11C). Step S76). Next, the storage / readout unit 39 searches for a service program managed in the service program management DB 3006 (see FIG. 11D) using the lens type read out in step S72 as a search key (step S77). ).

次に、判断部33は、上記ステップS74〜S77の検索結果に基づき、実行するプログラムが管理されているか否かにより、実行するプログラムが全てインストール済みか否かを判断する(ステップS78)。例えば、ステップS74で、記憶・読出部39が画像処理プログラムを検索した結果、画像処理プログラムが管理されている場合には、判断部33は、インストール済みと判断し、管理されていない場合には、判断部33は、インストール済みではないと判断する。   Next, the determining unit 33 determines whether or not all the programs to be executed have been installed based on whether or not the programs to be executed are managed based on the search results of the above steps S74 to S77 (step S78). For example, in step S74, as a result of the search for the image processing program by the storage / readout unit 39, if the image processing program is managed, the determination unit 33 determines that it is installed, and if it is not managed, The determination unit 33 determines that the installation has not been completed.

そして、判断部33によって、4つ全てのプログラムが管理されていると判断された場合には(ステップS78;YES)、図24に示されている処理は終了する。一方、判断部33によって、4つのプログラムのうち、少なくとも1つのプログラムがインストールされていないと判断された場合には(ステップS78;NO)、後述のステップS91へ進む。   Then, when the determining unit 33 determines that all four programs are managed (step S78; YES), the processing illustrated in FIG. 24 ends. On the other hand, when the determining unit 33 determines that at least one of the four programs is not installed (step S78; NO), the process proceeds to step S91 described below.

図25は、プログラムの取得処理を示したシーケンス図である。ここでは、実時間データ処理端末3aが、図24に示されている処理によってインストールされていないと判明したプログラムを、サービス提供サーバ8から取得する処理を示している。   FIG. 25 is a sequence diagram illustrating a program acquisition process. Here, a process is shown in which the real-time data processing terminal 3a acquires, from the service providing server 8, a program determined to have not been installed by the process shown in FIG.

まず、図25に示されているように、実時間データ処理端末3aの通信部48が、近端末データ処理装置5の通信部58に対して、インストールされていないプログラムの要求を示す要求情報を送信する(ステップS91)。この要求情報には、要求するプログラム名が含まれている。   First, as shown in FIG. 25, the communication unit 48 of the real-time data processing terminal 3a sends request information indicating a request for a program not installed to the communication unit 58 of the near-terminal data processing device 5. It transmits (step S91). This request information includes the name of the requested program.

次に、近端末データ処理装置5の送受信部51は、通信部58によって受信された要求情報を、分散データ処理端末6の送受信部61に送信する(ステップS92)。そして、分散データ処理端末6の送受信部61は、サービス提供サーバ8の送受信部81に要求情報を送信する(ステップS93)。   Next, the transmission / reception unit 51 of the near terminal data processing device 5 transmits the request information received by the communication unit 58 to the transmission / reception unit 61 of the distributed data processing terminal 6 (Step S92). Then, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits the request information to the transmission / reception unit 81 of the service providing server 8 (Step S93).

次に、サービス提供サーバ8では、記憶・読出部89が、要求情報に含まれているプログラム名で示されるプログラムを読み出す(ステップS94)。そして、送受信部81が、読み出されたプログラムを分散データ処理端末6の送受信部61に送信する(ステップS95)。この際、プログラム名も送信される。   Next, in the service providing server 8, the storage / readout unit 89 reads out the program indicated by the program name included in the request information (Step S94). Then, the transmission / reception unit 81 transmits the read program to the transmission / reception unit 61 of the distributed data processing terminal 6 (Step S95). At this time, the program name is also transmitted.

次に、分散データ処理端末6の送受信部61は、近端末データ処理装置5の送受信部51に、プログラム名を含めたプログラムを送信する(ステップS96)。そして、近端末データ処理装置5の通信部58は、実時間データ処理端末3aの通信部48に対して、プログラム名を含めたプログラムを送信する(ステップS97)。   Next, the transmission / reception unit 61 of the distributed data processing terminal 6 transmits the program including the program name to the transmission / reception unit 51 of the near terminal data processing device 5 (Step S96). Then, the communication unit 58 of the near terminal data processing device 5 transmits the program including the program name to the communication unit 48 of the real-time data processing terminal 3a (step S97).

次に、実時間データ処理端末3aの記憶・読出部39は、通信部48によって取得されたプログラムをインストールするとともに、図11に示されている各テーブルのうち、インストールするプログラム名を管理する(ステップS98)。   Next, the storage / readout unit 39 of the real-time data processing terminal 3a installs the program acquired by the communication unit 48 and manages the name of the program to be installed among the tables shown in FIG. 11 ( Step S98).

次に、記憶・読出部39は、画像認識処理に必要な全てのプログラムを起動させる(ステップS99)。これにより、実時間データ処理端末3aが、起動されたプログラムを実行することで、以下に示されている実時間処理を開始する。   Next, the storage / readout unit 39 activates all programs necessary for the image recognition processing (step S99). Thereby, the real-time data processing terminal 3a starts the real-time processing described below by executing the activated program.

<画像認識処理>
ここでは、図21に示される「物体検出処理サービスへのログイン」ボタンb1が押下されて、サービス提供サーバ8が、画像認識処理のサービスのうち、物体検出処理のサービスを実行する場合について説明する。図26は、画像認識処理を示したシーケンス図である。まず、実時間データ処理端末3aは、実時間処理を行なう(ステップS111)。
<Image recognition processing>
Here, a case will be described in which the “login to object detection processing service” button b1 shown in FIG. 21 is pressed and the service providing server 8 executes the object detection processing service among the image recognition processing services. . FIG. 26 is a sequence diagram showing the image recognition processing. First, the real-time data processing terminal 3a performs real-time processing (step S111).

(物体検出処理)
ここで、図27を用いて、実時間処理のうち物体検出の処理について説明する。図27は、実時間処理のうちの物体検出の処理を示したフローチャートである。
(Object detection processing)
Here, the processing of object detection in the real-time processing will be described with reference to FIG. FIG. 27 is a flowchart showing the object detection processing in the real-time processing.

まず、判断部33は、接続されている撮像ユニット40における撮像素子の数が1つであるか否かを判断する(ステップS201)。この場合、判断部33は、上述のステップS72の処理によって読み出された撮像素子の数に基づいて判断する。そして、撮像素子の数が1つの場合には(ステップS201;YES)、画像処理部34が、処理を繰り返すサイクル値を1/60秒に設定する(ステップS202)。この場合、画像処理部34は、上述のステップS73の処理によって読み出されたサイクル値に設定する。   First, the determining unit 33 determines whether or not the number of the imaging elements in the connected imaging unit 40 is one (Step S201). In this case, the determination unit 33 makes the determination based on the number of the imaging elements read by the processing in step S72 described above. If the number of image sensors is one (step S201; YES), the image processing unit 34 sets a cycle value for repeating the process to 1/60 seconds (step S202). In this case, the image processing unit 34 sets the cycle value read by the processing in step S73 described above.

次に、接続部38は、撮像ユニット40から1系統である撮像画像データを取得する(ステップS203)。この撮像画像データは、デジタル画像データであり、たとえば4K画像(幅3840画像×高さ2160画素)のデータである。この場合、接続部38は、図11(a)に示されている画像取得プログラム(ProgC01 (1系統))により処理を実行する。   Next, the connection unit 38 acquires one system of captured image data from the imaging unit 40 (step S203). The captured image data is digital image data, for example, data of a 4K image (3840 images wide × 2160 pixels high). In this case, the connection unit 38 executes processing by the image acquisition program (ProgC01 (one system)) shown in FIG.

次に、物体検出部35が、撮像画像データにおいて、物体の候補となる特徴点を検出することで、物体を検出する(ステップS204)。この場合、画像処理部34は、図11(d)に示されているサービスプログラム(ProgD01 (物体検出処理))により処理を実行する。画像処理部34は、予め記憶部3000に記憶されている物体の形状モデルデータと比較しながら撮像画像の端から矩形を探索し、もっともらしい物体の特徴点の位置を選択する。なお、ステップS204の処理については、例えば、「顔認識技術とその応用:パブリックセーフティを支える要素技術・ソリューション特集 ; バイオメトリクス認証, NEC技報, Vol.63, no.3, pp.26−30, 2010-09」で開示されているような、既知技術を用いることができる。   Next, the object detection unit 35 detects an object by detecting a feature point that is a candidate for the object in the captured image data (step S204). In this case, the image processing unit 34 executes the processing by the service program (ProgD01 (object detection processing)) shown in FIG. The image processing unit 34 searches for a rectangle from the end of the captured image while comparing it with the shape model data of the object stored in the storage unit 3000 in advance, and selects a position of a plausible feature point of the object. The processing in step S204 is described in, for example, “Face Recognition Technology and Its Application: Special Issue on Elemental Technologies and Solutions Supporting Public Safety; Biometrics Authentication, NEC Technical Report, Vol. 63, no. 3, pp. 26-30 , 2010-09 "can be used.

次に、画像処理部34が、検出された物体の画像の歪みを補正する(ステップS205)。
この場合、画像処理部34は、図11(c)に示されている画像処理プログラム(ProgW01(広角歪み補正))により処理を実行する。
Next, the image processing unit 34 corrects the distortion of the image of the detected object (Step S205).
In this case, the image processing unit 34 executes a process using an image processing program (ProgW01 (wide-angle distortion correction)) shown in FIG.

一方、上記ステップS201において、撮像素子の数が1つではない場合には(ステップS201;NO)、画像処理部34は、実時間処理を繰り返すサイクル値を1/30秒に設定する(ステップS206)。この場合、画像処理部34は、上述のステップS73の処理によって読み出されたサイクル値に設定する。サイクル値を1/30秒とすることで、1入力と比較して、サイクル値を大きく取ることにより、後述の画像合成処理が間に合わなくなることを防ぐことが出来る。   On the other hand, if the number of imaging elements is not one in step S201 (step S201; NO), the image processing unit 34 sets the cycle value for repeating the real-time processing to 1/30 seconds (step S206). ). In this case, the image processing unit 34 sets the cycle value read by the processing in step S73 described above. By setting the cycle value to 1/30 second, it is possible to prevent a later-described image synthesizing process from being overtaken by setting the cycle value larger than one input.

次に、接続部38は、撮像ユニット40から2系統である2つの撮像画像データを取得する(ステップS207)。2つの撮像画像データは、それぞれ図4(a)、(b)に示されているような半球画像のデータである。この場合、接続部38は、図11(a)に示されている画像取得プログラム(ProgC02 (2系統))により処理を実行する。   Next, the connection unit 38 acquires two pieces of captured image data of two systems from the imaging unit 40 (Step S207). The two captured image data are hemispherical image data as shown in FIGS. 4A and 4B, respectively. In this case, the connection unit 38 executes processing by the image acquisition program (ProgC02 (two systems)) shown in FIG.

そして、画像処理部34は、2つの撮像画像データを合成して、図4(c)に示されているような正距円筒射影画像ECを作成する(ステップS208)。この場合、画像処理部34は、図11(b)に示されている合成処理プログラム(ProgS02 (合成処理))により処理を実行する。そして、ステップS204に進み、物体検出部35は、正距円筒射影画像ECのデータにおいて、物体の候補となる特徴点を検出することで、物体を検出する。   Then, the image processing unit 34 combines the two captured image data to create an equirectangular projected image EC as shown in FIG. 4C (step S208). In this case, the image processing unit 34 executes the processing by the synthesis processing program (ProgS02 (synthesis processing)) shown in FIG. Then, the process proceeds to step S204, in which the object detection unit 35 detects an object by detecting a feature point that is a candidate for the object in the data of the equirectangular projection image EC.

次に、ステップS205によって、画像処理部34が、検出された物体の画像の歪みを補正する。この場合、画像処理部34は、図11(c)に示されている画像処理プログラム(ProgW02(魚眼歪み補正))により処理を実行する。   Next, in step S205, the image processing unit 34 corrects the distortion of the image of the detected object. In this case, the image processing unit 34 executes the processing by the image processing program (ProgW02 (fisheye distortion correction)) shown in FIG.

以上により、図26に示されているように、実時間データ処理端末3aの通信部48は、近端末データ処理装置5の通信部58へ撮像画像データを送信する(ステップS112)。そして、近端末データ処理装置5の送受信部51は、ステップS112で受信された撮像画像データを、分散データ処理端末6の送受信部61へ送信する(ステップS113)。これにより、分散データ処理端末6の表示制御部67は、ディスプレイ517に、図32に示されているような撮像画像をリアルタイムで表示させる(ステップS114)。図32は、分散データ処理端末における撮像画像の表示例を示した図である。この撮像画像には、物体検出(ここでは、顔検出)された矩形を示す枠が表示されている。ステップS112〜S114は、ストリーミングの処理である。   As described above, as shown in FIG. 26, the communication unit 48 of the real-time data processing terminal 3a transmits the captured image data to the communication unit 58 of the near terminal data processing device 5 (step S112). Then, the transmission / reception unit 51 of the near terminal data processing device 5 transmits the captured image data received in step S112 to the transmission / reception unit 61 of the distributed data processing terminal 6 (step S113). Accordingly, the display control unit 67 of the distributed data processing terminal 6 causes the display 517 to display a captured image as shown in FIG. 32 in real time (step S114). FIG. 32 is a diagram illustrating a display example of a captured image in the distributed data processing terminal. In this captured image, a frame indicating a rectangle in which an object has been detected (here, a face has been detected) is displayed. Steps S112 to S114 are streaming processing.

(イベント生成処理)
次に、図28及び図29を用いて、実時間処理のうちイベント生成の処理を説明する。図28及び図29は、実時間処理のうちのイベント生成の処理を示したフローチャートである。
(Event generation processing)
Next, the event generation processing in the real-time processing will be described with reference to FIGS. FIGS. 28 and 29 are flowcharts showing the event generation processing in the real-time processing.

ステップS204の処理によって、物体検出部35が、物体(ここでは、顔)を検出しなかった場合には(S211;NO)、所定時間(設定されているサイクル値)待機後に(S212)、再びステップS211の処理に戻る。例えば、検出は1秒間に30回行われる。   If the object detection unit 35 does not detect an object (here, a face) by the processing in step S204 (S211; NO), after waiting for a predetermined time (set cycle value) (S212), The process returns to step S211. For example, detection is performed 30 times per second.

これに対し、上述のステップS204の処理によって、物体検出部35が、物体(ここでは、顔)を検出した場合には(S211;YES)、ステップS213の処理へ進む。そして、検出された物体の位置が照合可能範囲Qにない(照合可能範囲Q外にある)場合にも(S211;NO)、ステップS212の処理に進む。   On the other hand, if the object detection unit 35 detects an object (here, a face) by the processing in step S204 described above (S211: YES), the process proceeds to step S213. If the position of the detected object is not in the collation range Q (outside the collation range Q) (S211; NO), the process proceeds to step S212.

ステップS213では、記憶・読出部39が、ステップS204で検出された物体に関する物体情報を、物体情報管理テーブル(図14参照)に新たなレコードとして記憶する。この場合、記憶・読出部39が、既に物体情報管理テーブルに記憶されているレコードに対しては、リセットのために終了フラグを消去する。   In step S213, the storage / readout unit 39 stores the object information regarding the object detected in step S204 as a new record in the object information management table (see FIG. 14). In this case, the storage / readout unit 39 deletes the end flag for the record already stored in the object information management table for resetting.

次に、記憶・読出部39は、物体変位管理テーブルに記憶されている終了フラグを初期化するため、物体変位管理テーブルにおける全てのレコードに対して終了フラグを消去する(S214)。なお、終了フラグは、後述のステップS216で付加されるフラグである。   Next, in order to initialize the end flag stored in the object displacement management table, the storage / readout unit 39 deletes the end flag for all records in the object displacement management table (S214). The end flag is a flag added in step S216 described later.

次に、物体変位管理テーブルにおいて、読み出すレコードが残っている場合は(S215;YES)、記憶・読出部39は、物体変位管理テーブルから1レコードのデータを読み出す(S216)。一方、全てのレコードを読み出し済みである場合は(S215;NO)、後述のステップS220へ進む。   Next, when records to be read remain in the object displacement management table (S215; YES), the storage / readout unit 39 reads data of one record from the object displacement management table (S216). On the other hand, if all records have been read (S215; NO), the process proceeds to step S220 described later.

次に、算出部31は、ステップS213で記憶された最新(現在)の物体の検出位置と、ステップS216で記憶された過去の物体の検出位置(ここでは座標(x, y)とする)との距離を算出する(S217)。そして、判断部33は、ステップS217で算出された距離が所定の閾値よりも短い(未満)か否かを判断する(S218)。本実施形態では、(式1)に示されている平方ユークリッド距離を用いて算出される。なお、判断部33は、所定の閾値以下か否かを判断してもよい。   Next, the calculation unit 31 calculates the latest (current) object detection position stored in step S213 and the past object detection position (here, coordinates (x, y)) stored in step S216. Is calculated (S217). Then, the determining unit 33 determines whether or not the distance calculated in step S217 is shorter (less than) a predetermined threshold (S218). In the present embodiment, it is calculated using the square Euclidean distance shown in (Equation 1). Note that the determination unit 33 may determine whether the value is equal to or less than a predetermined threshold.

平方ユークリッド距離は、より離れた対象ほど大きな重みをもつため、距離が近い過去の物体の位置を見つけ易いという利点がある。なお、他のよく知られた距離の算出方法であってもよく、たとえば、市街地距離や特定の方向(x方向、またはy方向)のみにずれた画素数をカウントする、といった処理を用いることができる。   Since the square Euclidean distance has a larger weight as the distance from the target increases, there is an advantage that the position of a past object having a shorter distance can be easily found. It should be noted that other well-known distance calculation methods may be used, for example, a process of counting the number of pixels shifted only in an urban area distance or a specific direction (x direction or y direction) may be used. it can.

次に、ステップS217で算出された距離が所定の閾値よりも短い場合には(S218;YES)、現在の物体の位置と物体変位管理テーブルで管理されている残りのレコードの過去の位置との間の距離が算出されずに、ステップS219に進む。ステップS217で算出された距離が所定の閾値よりも短くない(同じ又は長い)場合には(S218;NO)、上記ステップS215の処理に戻る。   Next, if the distance calculated in step S217 is shorter than the predetermined threshold (S218; YES), the distance between the current object position and the past position of the remaining records managed in the object displacement management table is determined. The process proceeds to step S219 without calculating the distance between them. If the distance calculated in step S217 is not shorter (same or longer) than the predetermined threshold (S218; NO), the process returns to step S215.

次に、記憶・読出部39は、物体変位管理テーブルにおいて、距離が閾値より短いと判断された過去の物体の位置を示す位置情報を、距離が閾値より短いと判断された最新の物体の位置を示す位置情報に置き換えることで、物体変位管理テーブルを更新する(S219)。この場合、記憶・読出部39は、物体情報管理テーブルと物体変位管理テーブルにおいて、それぞれ置き換えに使われた位置情報を含むレコードの終了フラグ欄に「終了フラグ」を付す。   Next, the storage / readout unit 39 stores, in the object displacement management table, the position information indicating the position of the past object whose distance is determined to be shorter than the threshold, and the position information of the latest object whose distance is determined to be shorter than the threshold. Is updated by updating the object displacement management table (S219). In this case, the storage / readout unit 39 adds “end flag” to the end flag column of the record including the position information used for the replacement in the object information management table and the object displacement management table.

次に、物体変位管理テーブルにおいて、終了フラグが付されていないレコードが残っている場合には(S220;YES)、記憶・読出部39は、当該終了フラグが付されていないレコードを削除して(S221)、図29に示されているステップS231の処理に進む。この処理は、物体変位管理テーブルにおいて終了フラグが付されずに残っている場合には、既に物体(ここでは、人)が後述の照合可能範囲Qから出てしまったと推測できるため、物体変位管理テーブルからレコードを削除して、今後の比較対象から除くようにするための処理である。   Next, in the object displacement management table, when a record to which the end flag is not added remains (S220; YES), the storage / readout unit 39 deletes the record to which the end flag is not added. (S221), the process proceeds to step S231 shown in FIG. In this processing, if the end flag is not added in the object displacement management table and the object remains, it can be estimated that the object (here, a person) has already come out of the collation range Q described later. This is a process for deleting a record from the table and excluding it from future comparison targets.

一方、物体変位管理テーブルにおいて、終了フラグが付されていないレコードが残っていない場合には(S220;NO)、上記ステップS221の処理は省略されて、ステップS231の処理に進む。   On the other hand, if there is no record to which the end flag is not added in the object displacement management table (S220; NO), the process of step S221 is omitted, and the process proceeds to step S231.

次に、物体情報管理テーブルにおいて、終了フラグが付加されていないレコードが残っている場合には(S231;YES)、記憶・読出部39は、この残ったレコードの位置情報を物体変位管理テーブルに新たなレコードとして追加する(S232)。この場合、記憶・読出部39は、追加したレコードにおいて、照合進捗状況を「0(認識前)」で管理する。この処理は、後述の検知可能範囲Pに新しく物体(ここでは、人)が入って来たと推測できるので、その後の変位を管理するための処理である。   Next, when there is a record to which the end flag is not added in the object information management table (S231; YES), the storage / readout unit 39 stores the position information of the remaining record in the object displacement management table. It is added as a new record (S232). In this case, the storage / readout unit 39 manages the collation progress status as “0 (before recognition)” in the added record. This process is a process for managing subsequent displacement since it can be estimated that a new object (here, a person) has entered the detectable range P described later.

また、この場合、記憶・読出部39は、追加したレコードにおけるID欄には、前回追加したIDの値に「+1」して記憶する。なお、記憶・読出部39は、ステップS221でレコードを削除した時にIDのリナンバリングはしない。このようにすることで、照合進捗状況が「1(照合中)」のレコードに対して正しい結果を保存することができる。   In this case, the storage / read unit 39 stores “+1” in the ID column of the added record with the value of the ID added last time. Note that the storage / readout unit 39 does not renumber IDs when deleting a record in step S221. By doing so, a correct result can be stored for a record whose collation progress status is “1 (collating)”.

一方、物体情報管理テーブルにおいて、終了フラグが付加されていないレコードが残っていない場合には(S231;NO)、後述のステップS236の処理に進む。   On the other hand, when there is no record in the object information management table to which the end flag is not added (S231; NO), the process proceeds to step S236 described below.

次に、ステップS232の処理後、判断部33は、物体変位管理テーブルにおいて、照合進捗状況「0(照合前)」の物体が、照合可能範囲Q内にあるか否かを判断する(S233)。この判断は、物体の位置情報に基づいて行われる。そして、ステップS233により、照合可能範囲Qにあると判断された場合には(S233;YES)、画像処理部34は、物体変位管理テーブルのうち、照合可能範囲Q内にある物体の位置、幅、及び高さを参照し、これらの値で定まる部分画像データを切り出して、JPEGなどの汎用形式で符号化する(S234)。この場合、記憶・読出部39は、物体変位管理テーブルの対応するレコードの照合進捗状況を「1(照合中)」に変更する。   Next, after the process of step S232, the determination unit 33 determines whether or not the object with the collation progress status “0 (before collation)” is within the collatable range Q in the object displacement management table (S233). . This determination is made based on the position information of the object. If it is determined in step S233 that the object is within the collation range Q (S233; YES), the image processing unit 34 determines the position and width of the object within the collation range Q in the object displacement management table. , And the height, the partial image data determined by these values is cut out, and encoded in a general-purpose format such as JPEG (S234). In this case, the storage / readout unit 39 changes the collation progress status of the corresponding record in the object displacement management table to “1 (collating)”.

一方、ステップS233において、照合可能範囲Q内にないと判断された場合には(S233;NO)、ステップS236の処理に進む。   On the other hand, if it is determined in step S233 that it is not within the collationable range Q (S233; NO), the process proceeds to step S236.

次に、イベント生成部36は、近端末データ処理装置5に対して部分画像データと部分画像データに関連付けられた部分画像IDを送信することを通知するイベントメッセージを生成する(S235)。具体的には、イベント生成部36は、”Send”といったイベントメッセージを生成する。   Next, the event generation unit 36 generates an event message for notifying the near-terminal data processing device 5 of transmitting the partial image data and the partial image ID associated with the partial image data (S235). Specifically, the event generation unit 36 generates an event message such as “Send”.

続いて、画像処理部34は、表示されている文字画像をクリアしてから、物体変位管理テーブルの照合進捗状況が「1(照合中)」または「2(照合完了)」に関連付けられている位置を参照し、撮像画像の対応する位置に文字画像を合成する(S236)。   Subsequently, after clearing the displayed character image, the image processing unit 34 associates the collation progress status of the object displacement management table with “1 (collating)” or “2 (collation completed)”. With reference to the position, a character image is synthesized at a position corresponding to the captured image (S236).

ここで、図32に、文字が画像を合成した例を示す。図32は、ある部屋に画像取得端末を設置した場合の撮像ユニットによる撮影範囲を示した図である。画像処理部34は、位置(x,y)の部分画像に対しては照合中であることを示すために”!”で表される待機状態マークm1を合成する。また、画像処理部34は、位置(x,y)の部分画像に対して照合結果を示すために名前を参照して部分画像の対応位置に、”Kato”で表される名前情報m2を合成する。この名前情報m2は、物体変位管理DB3008から読み出された情報である。なお、合成後の画像データは、図26に示されているステップS112,S113によって分散データ処理端末6まで送信され、ステップS114で表示される。 Here, FIG. 32 shows an example in which a character combines an image. FIG. 32 is a diagram illustrating a shooting range of the imaging unit when an image acquisition terminal is installed in a certain room. The image processing unit 34 synthesizes a standby state mark m1 represented by “!” To indicate that the partial image at the position (x 2 , y 2 ) is being compared. In addition, the image processing unit 34 refers to the name to indicate the collation result with respect to the partial image at the position (x 3 , y 3 ), and refers to the name and sets the name information m2 represented by “Kato” at the corresponding position of the partial image. Are synthesized. This name information m2 is information read from the object displacement management DB 3008. The combined image data is transmitted to the distributed data processing terminal 6 in steps S112 and S113 shown in FIG. 26, and is displayed in step S114.

次に、通信部48が、後述のステップS318による照合結果を受信していない場合は(S237;NO)、ステップS212の処理へ進む。   Next, when the communication unit 48 has not received the collation result in step S318 described below (S237; NO), the process proceeds to step S212.

一方、通信部48が照合結果(名前と部分画像ID)を受信した場合は(S237;YES)、記憶・読出部39が物体変位管理テーブルにおいて、受信された部分画像IDと関連付けられている名前欄に、受信された名前を記憶する(S238)。この場合、記憶・読出部39は、照合進捗状況を「1(照合中)」から「2(照合完了)」に変更する。そして、画像処理部34は、表示されている文字画像をクリアしてから、受信された部分画像IDに関連付けられた物体変位管理テーブルの位置を参照し、撮像画像の対応する位置に受信した名前で文字画像を合成する(S239)。そして、ステップS212の処理へ戻る。ステップS239により、表示制御部37は、照合中であった”!”の表示を”Kato”のように名前の表示に更新する。これにより、分散データ処理端末6の利用者は照合の進捗状況を迅速に知ることができる。   On the other hand, when the communication unit 48 receives the collation result (the name and the partial image ID) (S237; YES), the storage / readout unit 39 sets the name associated with the received partial image ID in the object displacement management table. The received name is stored in the column (S238). In this case, the storage / readout unit 39 changes the collation progress status from “1 (collating)” to “2 (collation completed)”. Then, after clearing the displayed character image, the image processing unit 34 refers to the position of the object displacement management table associated with the received partial image ID, and receives the received name at the corresponding position in the captured image. To compose a character image (S239). Then, the process returns to step S212. In step S239, the display control unit 37 updates the display of "!" Being collated to the display of the name such as "Kato". Thereby, the user of the distributed data processing terminal 6 can quickly know the progress of the collation.

以上により、実時間処理のうちのイベント生成の処理が終了する。   Thus, the event generation processing of the real-time processing ends.

続いて、図26に戻り、実時間データ処理端末3aの通信部48は、近端末データ処理装置5の通信部58に対して、物体(ここでは、顔)の部分画像データ及び部分画像IDを送信する(S115)。   Subsequently, returning to FIG. 26, the communication unit 48 of the real-time data processing terminal 3a transmits the partial image data and the partial image ID of the object (here, the face) to the communication unit 58 of the near-terminal data processing device 5. It is transmitted (S115).

次に、近端末データ処理装置5では、データ検出部56が、通信部58によって”Send”のイベントメッセージの受信の有無を検出する(S116)。そして、イベントメッセージの受信が検出された場合には(S116;YES)、通信部58は、イベントメッセージと共に送信された部分画像データ及び部分画像IDを受信する(S117)。そして、記憶・読出部59が、記憶部5000に部分画像データを一時的に記憶する(S118)。   Next, in the near-terminal data processing device 5, the data detection unit 56 detects whether or not the “Send” event message has been received by the communication unit 58 (S116). When the reception of the event message is detected (S116; YES), the communication unit 58 receives the partial image data and the partial image ID transmitted together with the event message (S117). Then, the storage / readout unit 59 temporarily stores the partial image data in the storage unit 5000 (S118).

次に、データ検出部56は、部分画像データの受信が完了したか否かを監視する(S119)。このステップS119の処理は、1つのイベントメッセージにつき、全ての部分画像データ及び部分画像IDが受信されるまで繰り返される(S119;NO)。そして、部分画像データの受信が完了した場合には(S119;YES)、記憶・読出部59は、記憶部5000から1つのイベントメッセージと共に送られ、記憶部5000に一時的に記憶されている全ての部分画像データ及び部分画像IDを読み出す(ステップS120)。その後、送受信部51は、イントラネット200を介して、分散データ処理端末6の送受信部61に対して、ステップS120で読み出された全ての部分画像データ及び部分画像IDを送信する(S121)。これにより、分散データ処理端末6の送受信部61は、全ての部分画像データ及び部分画像IDを受信する。部分画像データは、後ほど被照合データとして利用される。   Next, the data detection unit 56 monitors whether the reception of the partial image data has been completed (S119). The process of step S119 is repeated until all partial image data and partial image IDs are received for one event message (S119; NO). Then, when the reception of the partial image data is completed (S119; YES), the storage / readout unit 59 sends all the data temporarily transmitted from the storage unit 5000 together with one event message and temporarily stored in the storage unit 5000. The partial image data and partial image ID are read out (step S120). Thereafter, the transmission / reception unit 51 transmits all the partial image data and the partial image ID read in step S120 to the transmission / reception unit 61 of the distributed data processing terminal 6 via the intranet 200 (S121). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives all the partial image data and the partial image ID. The partial image data is used later as data to be compared.

(照合処理)
続いて、図30乃至図32を用いて、照合処理について説明する。生成の処理を示したフローチャートである。図30は、照合する処理を示したシーケンス図である。図31は、照合処理を示したフローチャートである。図32は、ある部屋に画像取得端末を設置した場合の撮像ユニットによる撮影範囲を示した図である。
(Collation processing)
Subsequently, the collation processing will be described with reference to FIGS. 5 is a flowchart illustrating a generation process. FIG. 30 is a sequence diagram illustrating a process of matching. FIG. 31 is a flowchart showing the collation processing. FIG. 32 is a diagram illustrating a shooting range of the imaging unit when an image acquisition terminal is installed in a certain room.

まず、利用者は、照合データを登録するために、分散データ処理端末6から集中データ処理サーバ7にアクセスすることで、集中データ処理サーバ7に照合データの登録を行う(S311)。具体的には、記憶・読出部79は、記憶部7000照合データを記憶するとともに、照合データ管理DB7001に対して、ファイル名及び名前を関連付けて記憶する。   First, in order to register collation data, the user accesses the centralized data processing server 7 from the distributed data processing terminal 6 to register the collation data in the centralized data processing server 7 (S311). Specifically, the storage / readout unit 79 stores the storage unit 7000 collation data, and stores the collation data management DB 7001 in association with the file name and the name.

次に、集中データ処理サーバ7では、特徴量生成部74が、ステップS311によって登録された照合データをビットマップデータに復号化する変換を行ない、照合データに係る顔画像の目鼻の凹凸や傾き等の個人を識別するための特徴量のパラメータを生成する(S312)。   Next, in the centralized data processing server 7, the feature amount generation unit 74 performs a conversion for decoding the collation data registered in step S311 into bitmap data, and performs processing such as unevenness and inclination of the eyes and nose of the face image related to the collation data. A parameter of a feature amount for identifying the individual is generated (S312).

次に、上述のステップS121の処理により、分散データ処理端末6の送受信部61が、被照合データとしての部分画像データ及び部分画像IDを受信すると、送受信部61は、集中データ処理サーバ7に対して、照合要求を示す照合要求情報を送信する(S313)。この照合要求情報には、被照合データ及び部分画像IDが含まれている。これにより、集中データ処理サーバ7の送受信部71は、照合要求情報を受信する。   Next, when the transmission / reception unit 61 of the distributed data processing terminal 6 receives the partial image data and the partial image ID as the data to be collated by the processing in step S121 described above, the transmission / reception unit 61 sends the centralized data processing server 7 Then, collation request information indicating the collation request is transmitted (S313). The collation request information includes the collated data and the partial image ID. Thereby, the transmission / reception unit 71 of the centralized data processing server 7 receives the collation request information.

次に、集中データ処理サーバ7は、照合処理を行う(S314)。ここで、図31を用いて、照合処理について説明する。図31は、照合処理を示したシーケンス図である。   Next, the centralized data processing server 7 performs a matching process (S314). Here, the collation processing will be described with reference to FIG. FIG. 31 is a sequence diagram illustrating the collation processing.

図31に示されているように、集中データ処理サーバ7の特徴量生成部74が、ステップS313によって受信された被照合データをビットマップデータに復号化する変換を行ない、被照合データに係る顔画像の目鼻の凹凸や傾き等の個人を識別するための特徴量のパラメータを生成する(S401)。   As shown in FIG. 31, the feature amount generation unit 74 of the centralized data processing server 7 performs conversion for decoding the data to be verified received in step S313 into bitmap data, A parameter of a feature amount for identifying an individual such as the unevenness and inclination of the eyes and nose of the image is generated (S401).

次に、記憶・読出部79は、照合データ管理DB7001を検索することで、登録されている照合データが残っているか否かを判断する(S402)。そして、残っていると判断された場合には、照合部75は、両データ(照合データ及び被照合データ)に係る特徴量のパラメータを比較して類似度を算出する(S403)。そして、記憶・読出部79が、ステップS312で登録された照合データに付けられている「名前」と、ステップS403で算出された「類似度」とを組にして一時的に記憶部7000に記憶する(S404)。その後、図12に示されている照合データ管理テーブルにおいて、照合データを次のレコードへ変更して、ステップS402の処理が再度行なわれる。   Next, the storage / readout unit 79 determines whether registered collation data remains by searching the collation data management DB 7001 (S402). If it is determined that the data remains, the matching unit 75 compares the parameters of the feature amounts of both data (the matching data and the data to be matched) to calculate the similarity (S403). Then, the storage / readout unit 79 temporarily stores the “name” attached to the collation data registered in step S312 and the “similarity” calculated in step S403 in the storage unit 7000 as a set. (S404). Thereafter, the collation data is changed to the next record in the collation data management table shown in FIG. 12, and the process of step S402 is performed again.

一方、ステップS402において、照合データが残っていない(全くない場合も含む)と判断された場合には、ステップS405の処理に進む。そして、判断部73は、記憶部7000に一時的に記憶していた各類似度のうち最大の類似度が閾値より大きいか否かを判断する(S405)。   On the other hand, if it is determined in step S402 that no matching data remains (including the case where there is no matching data), the process proceeds to step S405. Then, the determination unit 73 determines whether the maximum similarity among the similarities temporarily stored in the storage unit 7000 is larger than a threshold (S405).

そして、ステップS405において、判断部73が、最大の類似度が閾値よりも大きいと判断した場合には(YES)、記憶・読出部79は、照合データ管理DB7001から最大の類似度の照合データに付けられた「名前」を読み出す(S409)。閾値は、例えば「80%」である。これにより、類似度が低い場合には、「名前」が読み出されない。   Then, in step S405, when the determining unit 73 determines that the maximum similarity is greater than the threshold (YES), the storage / read unit 79 converts the collation data management DB 7001 into the collation data having the maximum similarity. The attached "name" is read out (S409). The threshold is, for example, “80%”. As a result, when the similarity is low, the “name” is not read.

一方、ステップS405において、判断部73が、記憶部7000に一時的に記憶していた各類似度のうち最大の類似度が閾値以下であると判断した場合には(NO)、記憶・読出部79は、記憶部7000から、“Unknown”を示す情報を読み出す(S407)。これにより、ステップS314の照合処理は終了する
続いて、図30に戻り、集中データ処理サーバ7の送受信部71は、分散データ処理端末6に対して、照合結果を示す照合結果情報を送信する(S315)。この照合結果情報には、ステップS406で読み出された「名前」又はステップS407で読み出された情報、及び、ステップS313で受信された部分画像IDが含まれている。これにより、分散データ処理端末6の送受信部61は、照合結果情報を受信する。
On the other hand, if the determination unit 73 determines in step S405 that the maximum similarity among the similarities temporarily stored in the storage unit 7000 is equal to or smaller than the threshold (NO), the storage / readout unit 79 reads information indicating “Unknown” from the storage unit 7000 (S407). Thus, the collation processing in step S314 is completed. Subsequently, returning to FIG. 30, the transmission / reception unit 71 of the centralized data processing server 7 transmits collation result information indicating the collation result to the distributed data processing terminal 6 ( S315). The collation result information includes the “name” read in step S406 or the information read in step S407, and the partial image ID received in step S313. Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the collation result information.

次に、分散データ処理端末6では、表示制御部67が、図32に示されているような照合結果を表示させる(S316)。ここで、図32を用いて、照合結果の表示について具体的に説明する。   Next, in the distributed data processing terminal 6, the display control unit 67 causes the collation result as shown in FIG. 32 to be displayed (S316). Here, the display of the matching result will be specifically described with reference to FIG.

検出可能範囲Pは、撮像ユニット40の撮影範囲が物体(ここでは、顔)を検出することができる範囲である。この検出可能範囲P内に、物体(ここでは、顔)の画像を照合可能な照合可能範囲Qと、この照合可能範囲Q外であって照合不可能な照合不可能範囲Rが含まれる。図32において、マージンa、マージンbは、検出可能範囲Pにおいて、それぞれx方向の左右端、y方向の上下端に設けられた所定の値である。これらの値は、実時間データ処理端末3aが、図25に示されているステップS97で取得したサービスプログラム内に記憶されている。   The detectable range P is a range in which the imaging range of the imaging unit 40 can detect an object (here, a face). The detectable range P includes a collatable range Q in which an image of an object (here, a face) can be collated, and a non-collatable range R that is outside the collatable range Q and cannot be collated. In FIG. 32, a margin a and a margin b are predetermined values provided at the left and right ends in the x direction and the upper and lower ends in the y direction in the detectable range P, respectively. These values are stored in the service program acquired by the real-time data processing terminal 3a in step S97 shown in FIG.

このように、検出可能範囲Pとは別に照合可能範囲Qを設けたのは、検出可能範囲Pは撮像素子401a等の撮像範囲として固定されているため、任意の部屋又は領域の大きさに合った範囲で物体の検出を行うことができるようにするためである。また、これにより、物体が検出可能範囲Pに入った後、照合可能範囲Q内に入る前に検出可能範囲Pから外に出てしまった場合に、実時間データ処理端末3aは、近端末データ処理装置5及び分散データ処理端末6を介して、集中データ処理サーバ7に被照合データを送信しなくて済むため、無駄な通信料を削減することができる。   Thus, the reason that the collation range Q is provided separately from the detection range P is that the detection range P is fixed as an imaging range of the imaging element 401a or the like, so that it matches the size of an arbitrary room or area. This is because the object can be detected in the range in which the object is detected. In addition, when the object enters the detectable range P and then goes out of the detectable range P before entering the collation range Q, the real-time data processing terminal 3 a Since there is no need to transmit the data to be collated to the centralized data processing server 7 via the processing device 5 and the distributed data processing terminal 6, unnecessary communication charges can be reduced.

上述のステップS204の処理による顔検出は、撮影範囲である検出可能範囲Pの全体に渡って行われる。物体が、マージンa,bで決まる矩形の範囲外にある場合は、物体は照合可能範囲Q内にない。この場合、物体は検出可能範囲P内で検出されるが、照合可能範囲Q内では検出されないため、結果的に、物体は、検出可能範囲P内の照合可能範囲Q以外の範囲である照合不可能範囲Rに存在していることになる。   The face detection by the processing in step S204 described above is performed over the entire detectable range P that is the photographing range. If the object is outside the rectangular range determined by the margins a and b, the object is not within the collatable range Q. In this case, the object is detected within the detectable range P, but not detected within the collatable range Q. As a result, the object is not collated in a range other than the collatable range Q within the detectable range P. This means that it exists in the possible range R.

ここで、(x1,y1)は、照合不可能範囲R内に存在する物体が検出された場合の部分画像データの左上隅の座標を示す。   Here, (x1, y1) indicates the coordinates of the upper left corner of the partial image data when an object existing in the non-collating range R is detected.

(x2,y2)は、照合可能範囲Q内に存在する物体が検出された場合の部分画像データの左上隅の座標を示す。また、ここでは、“!”で表された待機状態マークm1が表示されている。この待機状態マークm1は、分散データ処理端末6が照合要求情報を送信後(S313)、集中データ処理サーバ7から照合結果情報を受信する(S315)までの間に表示されている。   (X2, y2) indicates the coordinates of the upper left corner of the partial image data when an object existing in the collationable range Q is detected. Here, a standby state mark m1 represented by “!” Is displayed. This standby state mark m1 is displayed after the distributed data processing terminal 6 transmits the collation request information (S313) and receives the collation result information from the centralized data processing server 7 (S315).

(x3,y3)は、照合可能範囲Q内に存在する物体が検出された場合の部分画像データの左上隅の座標を示す。また、ここでは、“Kato”で表された名前情報m2が表示されている。この名前情報は、ステップS315によって集中データ処理サーバ7から受信された「名前」である。このように、照合可能範囲Qに入った物体は、最初は待機状態マークm1が表示されるが、1〜2秒後には、名前情報m2が表示される。これにより、閲覧者は、表示されている物体(ここでは、顔)が誰であるかを認識(特定)することができる。なお、名前が不明な場合は、“Unknown”と表示される。この表示は、上記ステップ407の処理が実行され、ステップS315によって受信された「名前」が“Unknown”の場合に行われる。   (X3, y3) indicates the coordinates of the upper left corner of the partial image data when an object existing in the collationable range Q is detected. Here, the name information m2 represented by “Kato” is displayed. This name information is the “name” received from the centralized data processing server 7 in step S315. As described above, the object in the collation range Q is displayed with the standby state mark m1 at first, but after 1-2 seconds, the name information m2 is displayed. This allows the viewer to recognize (identify) who the displayed object (here, the face) is. If the name is unknown, "Unknown" is displayed. This display is performed when the process of step 407 is executed and the “name” received in step S315 is “Unknown”.

<<実施形態の主な効果>>
以上説明したように本実施形態によれば、実時間データ処理端末3aで同じ物体が撮影された場合には、実時間データ処理端末3aから近端末データ処理装置5及び分散データ処理端末6を介して、集中データ処理サーバ7に、撮影画像データ及び照合要求の送信を行わない。これにより、実時間データ処理端末3aの利用者に対して、必要以上に通信料金の請求が行われることを抑制することができるという効果を奏する。
<< Main effects of the embodiment >>
As described above, according to the present embodiment, when the same object is photographed by the real-time data processing terminal 3a, the real-time data processing terminal 3a transmits the same object through the near terminal data processing device 5 and the distributed data processing terminal 6. Thus, the transmission of the captured image data and the collation request to the centralized data processing server 7 is not performed. As a result, it is possible to prevent the user of the real-time data processing terminal 3a from being charged more than necessary for the communication fee.

●第2の実施形態
続いて、図33乃至図35を用いて、本発明の第2の実施形態について説明する。なお、本実施形態では、算出部31の機能が増えた以外は、第1の実施形態と同じであるため、ハードウェア構成及び算出部31以外の機能構成については、説明を省略する。
Second Embodiment Next, a second embodiment of the present invention will be described with reference to FIGS. Note that the present embodiment is the same as the first embodiment except that the function of the calculation unit 31 is increased, and thus the description of the hardware configuration and the functional configuration other than the calculation unit 31 is omitted.

<<実施形態の機能構成>>
算出部31は、更に、物体が照合可能範囲Qに一旦入った後であって照合可能範囲Qから出た場合に、照合可能範囲Qに入った人数をカウントするために、カウントのアップを行う。
<< Functional Configuration of Embodiment >>
The calculating unit 31 further increases the count in order to count the number of persons who have entered the collatable range Q when the object once enters the collatable range Q and then exits from the collatable range Q. .

<<本実施形態の処理又は動作>>
続いて、図33乃至図35を用いて、本実施形態の処理又は動作について説明する。本実施形態の処理又は動作は、図28に示されている第1の実施形態のイベント生成の処理の変形例として説明する。なお、図33は、図28に示された処理の変形例を示したフローチャートである。図34は、表示更新要求の処理を示したシーケンス図である。図35は、図32に示された表示例の変形例である。
<< processing or operation of the present embodiment >>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIGS. The processing or operation of this embodiment will be described as a modification of the event generation processing of the first embodiment shown in FIG. FIG. 33 is a flowchart showing a modification of the process shown in FIG. FIG. 34 is a sequence diagram showing the processing of the display update request. FIG. 35 is a modification of the display example shown in FIG.

図28のステップS220において、物体変位管理テーブルに、終了フラグが付されていないレコードが残っている場合には(S220;YES)、算出部31は、照合可能範囲Qに入った物体の数をカウントするため、カウントのアップを行う(S2201a)。そして、実時間データ処理端末3aの通信部48は、近端末データ処理端末5に対して表示更新要求情報を送信する(S2202a)。この表示更新要求情報は、分散データ処理端末6のディスプレイ517に表示されている画像を更新するための要求を示し、算出部31でアップされたカウント数が含まれている。これにより、近端末データ処理端末5の通信部58は、表示更新要求情報を受信する。   In step S220 in FIG. 28, if there is a record in the object displacement management table to which the end flag is not added (S220; YES), the calculation unit 31 calculates the number of objects in the collation range Q. In order to count, the count is increased (S2201a). Then, the communication unit 48 of the real-time data processing terminal 3a transmits display update request information to the near terminal data processing terminal 5 (S2202a). The display update request information indicates a request for updating the image displayed on the display 517 of the distributed data processing terminal 6, and includes the count number incremented by the calculation unit 31. Thereby, the communication unit 58 of the near terminal data processing terminal 5 receives the display update request information.

次に、近端末データ処理端末5の送受信部51は、通信部58で受信された表示更新要求情報(カウント数を含む)を、分散データ処理端末6に送信する(S2203a)。これにより、分散データ処理端末6の送受信部61は、表示更新要求情報を受信する。そして、分散データ処理端末6の表示制御部67は、図32に示されているような照合結果を表示している場合に、更に、図35に示されているように、カウント数m3を表示させるように、表示を変更させる(S2204a)。図35では、カウントを介してしてから現在までに、3名が照合可能範囲Qに入ったことが示されている。   Next, the transmission / reception unit 51 of the near terminal data processing terminal 5 transmits the display update request information (including the count number) received by the communication unit 58 to the distributed data processing terminal 6 (S2203a). Thereby, the transmission / reception unit 61 of the distributed data processing terminal 6 receives the display update request information. Then, when the collation result as shown in FIG. 32 is displayed, the display control unit 67 of the distributed data processing terminal 6 further displays the count number m3 as shown in FIG. The display is changed so as to cause the display (S2204a). FIG. 35 shows that three persons have entered the collatable range Q from the count to the present.

<<実施形態の主な効果>>
以上説明したように本実施形態によれば、図35に示されているように、照合結果だけでなく、照合可能範囲Qに入った延べ人数を表示することで、第1の実施形態の効果に加え、表示内容の有用性を向上させることができるという効果を奏する。
<< Main effects of the embodiment >>
As described above, according to the present embodiment, as shown in FIG. 35, by displaying not only the collation result but also the total number of persons who have entered the collatable range Q, the effect of the first embodiment can be obtained. In addition to this, there is an effect that the usefulness of the display content can be improved.

●第3の実施形態
続いて、図36乃至図41を用いて、本発明の第3の実施形態について説明する。
Third Embodiment Next, a third embodiment of the present invention will be described with reference to FIGS.

第3の実施形態では、第1の実施形態で示された撮像ユニット40a,40b、及び実時間データ処理端末3aに代えて、本実施形態では、撮像ユニット40c,40d、及び実時間データ処理端末3bが用いられる。そのため、以下では、撮像ユニット40c,40dのハードウェア構成、及び実時間データ処理端末3bの機能構成について説明する。なお、実時間データ処理端末3aと実時間データ処理端末3bのハードウェア構成は同様であるため、説明を省略する。   In the third embodiment, instead of the imaging units 40a and 40b and the real-time data processing terminal 3a shown in the first embodiment, in the present embodiment, the imaging units 40c and 40d and the real-time data processing terminal 3b is used. Therefore, the hardware configuration of the imaging units 40c and 40d and the functional configuration of the real-time data processing terminal 3b will be described below. Note that the hardware configuration of the real-time data processing terminal 3a is the same as that of the real-time data processing terminal 3b, and a description thereof will be omitted.

本実施形態では、図3に示されている第1の実施形態の撮像ユニット40a,40bに対して、LiDAR(Light Detection and Ranging)の技術を追加することで、画像処理と光検出による測距を併用することで、物体検出の精度を高める。LiDARは、光を用いたリモートセンシング技術の一つで、パルス状に発光するレーザー照射に対する散乱光を測定し、遠距離にある物体までの距離やその物体の性質を分析する技術である。   In the present embodiment, a LiDAR (Light Detection and Ranging) technique is added to the imaging units 40a and 40b of the first embodiment shown in FIG. , The accuracy of object detection is increased. LiDAR is one of the remote sensing technologies using light, and is a technology that measures scattered light in response to laser irradiation that emits a pulsed light, and analyzes the distance to a distant object and the properties of the object.

<<ハードウェア構成>>
次に、図36を用いて、本実施形態の撮像ユニットのハードウェア構成を説明する。図36(a)は、図3(a)にLiDARの機構を搭載した撮像ユニットのハードウェア構成図である。図36(b)は、図3(b)にLiDARの機構を搭載した撮像ユニットのハードウェア構成図である。なお、撮像ユニット40は、撮像素子の数が異なる複数種類の撮像ユニット(撮像ユニット40c、40d)の総称である。
<< hardware configuration >>
Next, the hardware configuration of the imaging unit of the present embodiment will be described with reference to FIG. FIG. 36A is a hardware configuration diagram of an imaging unit equipped with the LiDAR mechanism shown in FIG. 3A. FIG. 36B is a hardware configuration diagram of an imaging unit equipped with the LiDAR mechanism in FIG. 3B. Note that the imaging unit 40 is a general term for a plurality of types of imaging units (imaging units 40c and 40d) having different numbers of imaging elements.

まずは、図36(a)に示されている撮像ユニット40cについて説明する。図36(a)に示されているように、撮像ユニット40cは、CMOSやCCD等の撮像素子401c、レンズ402c、及び実時間データ処理端末3bの撮像ユニットI/F313に電気的に接続するための接続I/F408cを有している。撮像ユニット40cが実時間データ処理端末3bの撮像ユニットI/F313に接続された場合には、撮像素子401cは、撮像ユニットI/F313から接続I/F408cを介して送られて来た撮像制御信号により撮像を行い、接続I/F408cを介して撮像ユニットI/F313に撮像画像データを送信する。   First, the imaging unit 40c shown in FIG. 36A will be described. As shown in FIG. 36A, the imaging unit 40c is to be electrically connected to an imaging element 401c such as a CMOS or a CCD, a lens 402c, and an imaging unit I / F 313 of the real-time data processing terminal 3b. Has a connection I / F 408c. When the imaging unit 40c is connected to the imaging unit I / F 313 of the real-time data processing terminal 3b, the imaging device 401c transmits an imaging control signal transmitted from the imaging unit I / F 313 via the connection I / F 408c. , And transmits the captured image data to the imaging unit I / F 313 via the connection I / F 408c.

更に、撮像ユニット40cは、LiDARの機構403cを有している。LiDARの機構403cには、光源404c、レンズ405c、受光素子406c、レンズ407cが含まれている。光源404cは、例えば、レーザダイオードにより構成されている。LiDARの機構403cは、少なくとも撮像素子401cの検出可能範囲P内に光を照射することができる。   Further, the imaging unit 40c has a LiDAR mechanism 403c. The LiDAR mechanism 403c includes a light source 404c, a lens 405c, a light receiving element 406c, and a lens 407c. The light source 404c is configured by, for example, a laser diode. The LiDAR mechanism 403c can irradiate light at least within the detectable range P of the image sensor 401c.

光源404cは、物体である測定対象に向けて光を出射する。出射される光は、電磁波である波長領域が800nm〜950nmの近赤外光である。また、光源404cには、接続I/F408cを介して実時間データ処理端末3bから供給された電圧を規定の電圧まで昇圧する駆動回路が設けられている。この駆動回路は、光源404cから光を出射させるための発振信号を生成する。光源404cは、発振信号により、変調光としてパルス幅が数ナノ秒から数100ナノ秒程度の短パルス光を周期的に出射する。   The light source 404c emits light toward a measurement target that is an object. The emitted light is near-infrared light having a wavelength range of 800 nm to 950 nm, which is an electromagnetic wave. Further, the light source 404c is provided with a drive circuit that boosts the voltage supplied from the real-time data processing terminal 3b through the connection I / F 408c to a specified voltage. This drive circuit generates an oscillation signal for emitting light from the light source 404c. The light source 404c periodically emits short pulse light having a pulse width of about several nanoseconds to several hundred nanoseconds as modulated light by an oscillation signal.

レンズ405cは、光源404cから出射された光を透過させ、出射光の出射方向や出射角などの状態を制御する。また、レンズ405cは、光源404cから出射された光を平行光(ほぼ平行光も含む)にコリメートする。このため、LiDARの機構403cは、検出対象の微小領域に対しても距離測定を行うことができる。   The lens 405c allows the light emitted from the light source 404c to pass therethrough and controls the state such as the emission direction and the emission angle of the emitted light. The lens 405c collimates the light emitted from the light source 404c into parallel light (including substantially parallel light). For this reason, the LiDAR mechanism 403c can perform distance measurement even on a minute region to be detected.

受光素子406cは、シリコンPIN(P-Intrinsic-N)フォトダイオードや、アバランシェフォトダイオード(APD:Avalanche Photo Diode)などの各種フォトダイオードを用いて構成されている。また、受光素子406cには、受光した信号を増幅させる受光信号増幅回路が設けられている。受光信号増幅回路は、受光素子406cから出力される電気信号を増幅し、接続I/F408cを介して実時間データ処理端末3bに反射信号として送出する。   The light receiving element 406c is configured using various photodiodes such as a silicon PIN (P-Intrinsic-N) photodiode and an avalanche photodiode (APD). Further, the light receiving element 406c is provided with a light receiving signal amplifying circuit for amplifying a received signal. The light receiving signal amplifying circuit amplifies the electric signal output from the light receiving element 406c and sends it out as a reflected signal to the real-time data processing terminal 3b via the connection I / F 408c.

光源404cから出射された光のうち、レンズ407cを通過して測定対象で反射された光(以下「反射光」という。)を受光して電気的信号に変換し、接続I/F408cを介して実時間データ処理端末3bに電気的信号を送信する。ここで、反射光は、光源404cから出射された電磁波である近赤外光が測定対象で反射されたもの(反射波)である。   Of the light emitted from the light source 404c, the light that passes through the lens 407c and is reflected by the measurement object (hereinafter, referred to as “reflected light”) is received and converted into an electrical signal, and is converted via the connection I / F 408c. An electric signal is transmitted to the real-time data processing terminal 3b. Here, the reflected light is one in which near-infrared light, which is an electromagnetic wave emitted from the light source 404c, is reflected by a measurement target (reflected wave).

レンズ407cは、反射光を通過させ、反射光の入射方向や入射角などの状態を制御する。   The lens 407c allows the reflected light to pass through and controls the state such as the incident direction and the incident angle of the reflected light.

次に、図36(b)に示されている撮像ユニット40dについて説明する。図36(b)に示されているように、撮像ユニット40dは、CMOSやCCD等の撮像素子401d1,401d2、レンズ402d1,402d2、及び実時間データ処理端末3bの撮像ユニットI/F313に電気的に接続するための接続I/F408bを有している。   Next, the imaging unit 40d shown in FIG. 36B will be described. As shown in FIG. 36B, the imaging unit 40d is electrically connected to imaging elements 401d1 and 401d2 such as CMOS and CCD, lenses 402d1 and 402d2, and an imaging unit I / F 313 of the real-time data processing terminal 3b. Has a connection I / F 408b for connecting to the.

更に、撮像ユニット40dは、LiDARの機構403d1,403d2を有している。LiDARの機構403d1には、光源404d1、レンズ405d1、受光素子406d1、及びレンズ407d1が含まれている。LiDARの機構403d1は、撮像素子401d1側に設けられており、少なくとも撮像素子401d1の検出可能範囲Pにおいて撮像素子401d1による検出可能範囲内に光を照射することができる。   Further, the imaging unit 40d has LiDAR mechanisms 403d1 and 403d2. The LiDAR mechanism 403d1 includes a light source 404d1, a lens 405d1, a light receiving element 406d1, and a lens 407d1. The LiDAR mechanism 403d1 is provided on the image sensor 401d1 side, and can irradiate light at least in the detectable range P of the image sensor 401d1 within the detectable range of the image sensor 401d1.

なお、光源404d1、レンズ405d1、受光素子406d1、及びレンズ407d1は、それぞれ、光源404c、レンズ405c、受光素子406c、及びレンズ407cと同様の構成であるため説明を省略する。   Note that the light source 404d1, the lens 405d1, the light receiving element 406d1, and the lens 407d1 have the same configuration as the light source 404c, the lens 405c, the light receiving element 406c, and the lens 407c, respectively, and thus the description is omitted.

また、LiDARの機構403d2には、光源404d2、レンズ405d2、受光素子406d2、及びレンズ407d2が含まれている。LiDARの機構403d2は、撮像素子401d2側に設けられており、少なくとも撮像素子401d2の検出可能範囲Pにおいて撮像素子401d2による検出可能範囲内に光を照射することができる。   The LiDAR mechanism 403d2 includes a light source 404d2, a lens 405d2, a light receiving element 406d2, and a lens 407d2. The LiDAR mechanism 403d2 is provided on the image sensor 401d2 side, and can irradiate light at least in the detectable range P of the image sensor 401d2 within the detectable range of the image sensor 401d2.

なお、光源404d2、レンズ405d2、受光素子406d2、及びレンズ407d2は、それぞれ、光源404c、レンズ405c、受光素子406c、及びレンズ407cと同様の構成であるため説明を省略する。   Note that the light source 404d2, the lens 405d2, the light receiving element 406d2, and the lens 407d2 have the same configuration as the light source 404c, the lens 405c, the light receiving element 406c, and the lens 407c, respectively, and thus description thereof is omitted.

続いて、図面を用いて、本実施形態の機能構成及び処理について説明する。   Next, the functional configuration and processing of the present embodiment will be described with reference to the drawings.

<<実施形態の機能構成>>
続いて、図37を用いて、本実施形態の実時間データ処理端末3bの機能構成について説明する。なお、図37は、通信システムの機能ブロック図のうちの実時間データ処理端末の変形例である。
<< Functional Configuration of Embodiment >>
Subsequently, a functional configuration of the real-time data processing terminal 3b of the present embodiment will be described with reference to FIG. FIG. 37 is a modification of the real-time data processing terminal in the functional block diagram of the communication system.

本実施形態の実時間データ処理端末3bは、第1の実時間データ処理端末3aに対して、更に、発行制御部41及び距離計測部42を有しているため、発行制御部41及び距離計測部42の機能についてのみ説明し、これら以外の機能構成の説明を省略する。なお、発行制御部41、及び距離計測部42は、図2に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって、動作することで実現される機能又は手段である。   The real-time data processing terminal 3b of the present embodiment further includes an issuance control unit 41 and a distance measurement unit 42 with respect to the first real-time data processing terminal 3a. Only the functions of the unit 42 will be described, and descriptions of the other functional configurations will be omitted. Note that the issuance control unit 41 and the distance measurement unit 42 operate according to an instruction from the CPU 301 in accordance with a program expanded from the EEPROM 304 onto the RAM 303 by using any one of the components shown in FIG. Is a function or means realized by.

発光制御部41は、光源404c(又は光源404d1,404d2)の発光制御を行う。   The light emission control unit 41 controls light emission of the light source 404c (or the light sources 404d1 and 404d2).

距離計測部42は、上述の駆動回路で信号を生成した時から開始された時間の計測処理を、反射光を変換した信号を生成した時に停止させて、出射された信号が受光されるまでの時間を計測することで、撮像ユニット40cから測定対象である物体までの距離を計測する。即ち、光源404cから光が出射されてから、この光の反射光が受光されるまでの時間により、撮像ユニット40cを含めた画像取得端末2から測定対象である物体までの距離が計測される。   The distance measurement unit 42 stops the time measurement process started from the time when the signal was generated by the above-described drive circuit when the signal converted from the reflected light is generated, until the emitted signal is received. By measuring the time, the distance from the imaging unit 40c to the object to be measured is measured. That is, the distance from the light emission from the light source 404c to the reception of the reflected light of the light is used to measure the distance from the image acquisition terminal 2 including the imaging unit 40c to the object to be measured.

以上の構成により、撮像ユニット40cが実時間データ処理端末3bに接続された場合、発光制御部41により変調されて光源404cから出射された光は、レンズ405cを介して微小な広がり角を有する光ビームとなる。光源404cから出射された光ビームは、測定対象としての物体(例えば、顔)に照射される。測定対象に照射された光ビームは、測定対象の反射点において一様な方向に散乱して反射される反射光となる。反射光のうち、測定対象に照射された光ビームと同様の光路を経て反射する光成分のみが、光源404cとほぼ同軸に配置されたレンズ407cを介して受光素子406cに入光する。受光素子406cに入光された反射光は、受光素子406cによって反射信号として検出される。これにより、距離計測部42は、光源404cの出射時刻と反射光の受光時刻との時間差を計測することで、測定対象までの距離を計算することができる。   With the above configuration, when the imaging unit 40c is connected to the real-time data processing terminal 3b, the light modulated by the light emission control unit 41 and emitted from the light source 404c is a light having a small divergence angle via the lens 405c. It becomes a beam. The light beam emitted from the light source 404c is applied to an object (for example, a face) as a measurement target. The light beam applied to the measurement target becomes reflected light that is scattered and reflected in a uniform direction at the reflection point of the measurement target. Of the reflected light, only the light component reflected through the same optical path as the light beam irradiated on the measurement target enters the light receiving element 406c via the lens 407c arranged substantially coaxially with the light source 404c. The reflected light that has entered the light receiving element 406c is detected as a reflected signal by the light receiving element 406c. Thus, the distance measurement unit 42 can calculate the distance to the measurement target by measuring the time difference between the emission time of the light source 404c and the reception time of the reflected light.

また、撮像ユニット40dが実時間データ処理端末3bに接続された場合、発光制御部41により変調されて光源404d1,404d2から出射された光は、それぞれレンズ405d1,405d2を介して微小な広がり角を有する光ビームとなる。光源404cから出射された光ビームは、測定対象としての物体(例えば、顔)に照射される。測定対象に照射された光ビームは、測定対象の反射点において一様な方向に散乱して反射される反射光となる。反射光のうち、測定対象に照射された光ビームと同様の光路を経て反射する光成分のみが、それそれ光源404d1,404d2とほぼ同軸に配置されたレンズ407d1,407d2を介して、受光素子406d1,406d2に入光する。受光素子406d1,406d2に入光された反射光は、それぞれ受光素子406d1,406d2によって反射信号として検出される。これにより、距離計測部42は、それぞれ光源404d1,404d2の出射時刻と反射光の受光時刻との時間差を計測することで、測定対象までの距離を計算することができる。   When the imaging unit 40d is connected to the real-time data processing terminal 3b, the light modulated by the light emission control unit 41 and emitted from the light sources 404d1 and 404d2 has a small spread angle through the lenses 405d1 and 405d2, respectively. Light beam. The light beam emitted from the light source 404c is applied to an object (for example, a face) as a measurement target. The light beam applied to the measurement target becomes reflected light that is scattered and reflected in a uniform direction at the reflection point of the measurement target. Of the reflected light, only light components reflected through the same optical path as the light beam irradiated on the measurement target are respectively received by the light receiving element 406d1 via the lenses 407d1 and 407d2 arranged substantially coaxially with the light sources 404d1 and 404d2. , 406d2. The reflected lights entering the light receiving elements 406d1 and 406d2 are detected as reflected signals by the light receiving elements 406d1 and 406d2, respectively. Accordingly, the distance measurement unit 42 can calculate the distance to the measurement target by measuring the time difference between the emission time of the light sources 404d1 and 404d2 and the reception time of the reflected light.

<<本実施形態の処理又は動作>>
続いて、図38乃至図41を用いて、本実施形態の処理又は動作について説明する。なお、本実施形態の処理又は動作は、図28に示されている第1の実施形態のイベント生成の処理の変形例として説明する。図38は、図28に示された処理の変形例を示したフローチャートである。図39は、図32に示された表示例の変形例である。図40は、図32に示された表示例の変形例であり、LiDARの機能を併用しない場合の表示例である。図41は、図32に示された表示例の変形例であり、LiDARの機能を併用する場合の表示例である。ここでは、撮像ユニット40cが実時間データ処理端末3bに接続されている場合について説明するが、撮像ユニット40dが実時間データ処理端末3bに接続されている場合も同様の処理であるため、説明を省略する。
<< processing or operation of the present embodiment >>
Subsequently, the processing or operation of the present embodiment will be described with reference to FIGS. Note that the processing or operation of this embodiment will be described as a modification of the event generation processing of the first embodiment shown in FIG. FIG. 38 is a flowchart showing a modified example of the process shown in FIG. FIG. 39 is a modification of the display example shown in FIG. FIG. 40 is a modification of the display example shown in FIG. 32, and is a display example in which the LiDAR function is not used together. FIG. 41 is a modification of the display example shown in FIG. 32, and is a display example in the case of using the LiDAR function together. Here, the case where the imaging unit 40c is connected to the real-time data processing terminal 3b will be described. However, the same processing is performed when the imaging unit 40d is connected to the real-time data processing terminal 3b. Omitted.

図28のステップS220において、物体変位管理テーブルに、終了フラグが付されていないレコードが残っている場合には(S220;YES)、発光制御部41が、撮像ユニット40の光源404cに対して発光制御を行う(S2201b)。そして、距離計測部42が、出射された信号が受光されるまでの時間を計測することで、撮像ユニット40cから測定対象である物体までの距離を計測する(S2202b)。   In step S220 in FIG. 28, if there is a record in the object displacement management table to which the end flag is not added (S220; YES), the light emission control unit 41 emits light to the light source 404c of the imaging unit 40. The control is performed (S2201b). Then, the distance measurement unit 42 measures the time until the emitted signal is received, thereby measuring the distance from the imaging unit 40c to the object to be measured (S2202b).

次に、判断部33が、距離計測部42による計測結果に基づき、物体検出部35で一つであると認識していた物体において所定の距離差が生じているか否かにより、物体が1つであるか否かを判断する(S2203b)。所定の距離差は例えば20cmである。鼻の先と頬との間の距離は数cmであるため、この程度の差であれば、判断部33は、物体(ここでは、顔)は1つであると判断する(S2203b;YES)。例えば、図39に示されているように、物体それぞれが認識される。ここでは、照合可能範囲Q内に、左上隅の座標が(x2,y2)、(x4,y4)である部分画像データで示される男女の顔が示されている。ここでは、男女は検出可能範囲P内において離れた位置に存在している。この場合、ステップS221の処理に進む。   Next, based on the measurement result by the distance measurement unit 42, the determination unit 33 determines whether one object is recognized by the object detection unit 35 and determines whether there is a predetermined distance difference. Is determined (S2203b). The predetermined distance difference is, for example, 20 cm. Since the distance between the tip of the nose and the cheek is several centimeters, if the difference is about this degree, the determination unit 33 determines that there is one object (here, face) (S2203b; YES). . For example, as shown in FIG. 39, each object is recognized. Here, a face of a man and a woman represented by partial image data in which the coordinates of the upper left corner are (x2, y2) and (x4, y4) are shown in the collationable range Q. Here, the men and women are present at separate positions within the detectable range P. In this case, the process proceeds to step S221.

ところが、図40に示されているように、男女二人が重なることで(例えば、男性の後ろに女性が位置する)、物体検出部35が男女を一つの物体として検出してしまうと、正確な人数カウントができない。ここでは、照合可能範囲Q内に、左上隅の座標が(x5,y5)である部分画像データで示される男女が重なって一体となった顔が示されている。   However, as shown in FIG. 40, when two men and women overlap (for example, a woman is positioned behind a man), and the object detection unit 35 detects the man and woman as one object, Can not count the number of people. Here, a face in which men and women represented by partial image data whose coordinates of the upper left corner are (x5, y5) overlap and are integrated within the collationable range Q is shown.

そこで、本実施形態では、たとえ物体検出部35が一つの物体として検出した場合でも、一つとして検出された物体において、所定の距離差がある場合には、物体が重なっているとみなし、物体(ここでは、顔)は一つではない(複数である)と判断する(S2203b;NO)。ここでは、照合可能範囲Q内に、左上隅の座標が(x2,y2)、(x6,y6)である部分画像データで示される男女の顔がそれぞれ示されている。ここでは、男女は検出可能範囲P内において重なった位置に存在している。この場合、ステップS221の処理が実行されずに、図29に示されるステップS231の処理に進む。   Therefore, in the present embodiment, even if the object detection unit 35 detects the object as one object, if there is a predetermined distance difference between the objects detected as one, the objects are regarded as overlapping, and It is determined that (here, the face) is not one (a plurality of faces) (S2203b; NO). Here, the faces of men and women represented by the partial image data in which the coordinates of the upper left corner are (x2, y2) and (x6, y6) are shown in the collationable range Q, respectively. Here, men and women are present at overlapping positions within the detectable range P. In this case, the process proceeds to step S231 shown in FIG. 29 without executing the process of step S221.

このようにして、判断部33が、物体が照合可能範囲Qから抜けたと判断したタイミングで、直ぐにステップS221の処理を行わず、LiDARの技術を利用することで、本当に物体が照合可能範囲Qから抜けたか否かを判断する。   In this way, at the timing at which the determination unit 33 determines that the object has fallen out of the collation range Q, the processing of step S221 is not immediately performed, and the LiDAR technology is used, so that the object is really out of the collation range Q. It is determined whether or not it has been removed.

これにより、現在(第2の時点)における重なった男女(第2の物体)において所定距離以上の差が生じた場合には、第2の物体は複数の物体であるとして、複数の物体(男女)のそれぞれの現在における位置とこれら複数の物体のそれぞれの過去(第1の時点)における物体の位置との距離の少なくとも一方が、所定以下又は所定未満である場合には、送受信部51は、男女の少なくとも一方に係る所定部分の画像データを送信しない。   With this, when a difference of a predetermined distance or more occurs between the overlapped male and female (second object) at the present time (second time point), it is determined that the second object is a plurality of objects, and the ) Is at least one of a predetermined distance or less and a distance between the current position of the plurality of objects and the position of the object in the past (first time point) of each of the plurality of objects, The image data of the predetermined portion relating to at least one of the male and female is not transmitted.

また、省エネルギーのため、ステップS220後に、実時間データ処理端末2bは、発光制御(S2201b参照)及び距離計算(S2202b参照)を行っている。但し、ステップS220処理の前からLiDARの技術を利用してもよい。   In addition, to save energy, after step S220, the real-time data processing terminal 2b performs light emission control (see S2201b) and distance calculation (see S2202b). However, LiDAR technology may be used before the processing in step S220.

なお、図39乃至図41では、第2の実施形態と同様に、カウント数m3が表示されているが、第1の実施形態のように、カウント数m3が表示されなくてもよい。   Although the count number m3 is displayed in FIGS. 39 to 41 as in the second embodiment, the count number m3 may not be displayed as in the first embodiment.

<<実施形態の主な効果>>
以上説明したように本実施形態によれば、判断部33が、物体が画像処理により照合可能範囲Qから抜けたと一旦判断しても、LiDARの技術を利用して、物体の重なりを判断することで、第1の実施形態よりも更に正確に物体認証を行うことができるという効果を奏する。
<< Main effects of the embodiment >>
As described above, according to the present embodiment, even if the determination unit 33 once determines that the object has fallen out of the collatable range Q by the image processing, it is possible to determine the overlap of the objects using the LiDAR technology. Thus, an effect is obtained that the object authentication can be performed more accurately than in the first embodiment.

〔補足〕
上記実施形態では、ステップS217,S218において、最新の物体の検出位置と過去の物体の検出位置との距離だけを判断材料としたが、これに限るものではない。例えば、最新の物体の部分画像と過去の物体の部分画像との面積差も判断材料にしてもよい。具体的には、以下の2つの条件である(条件1)及び(条件2)を満たしたときに、ステップS219に進むようにしてもよい。この判断によれば、現在の物体の検出位置が過去の検出位置に近かったとしても、不自然に検出領域の大きさに差があれば、同じ物体(ここでは、人)であると認定しないこととすることができる。これによって、本来、照合要求が不要であるべき送信(S115,S121)を更に減らすことができる。
(条件1)過去の物体と最新の物体との距離が所定の閾値未満(又は以下)(ステップS218と同じ)
(条件2)過去の物体と最新の物体との面積差の絶対値が所定の閾値未満(又は以下)
なお、条件2の面積差は、算出部31によって、部分画像の高さと幅から算出された各面積(width*height)の差である。
[Supplement]
In the above embodiment, in steps S217 and S218, only the distance between the detection position of the latest object and the detection position of the past object is used as a criterion, but the present invention is not limited to this. For example, the area difference between the partial image of the latest object and the partial image of the past object may be used as a judgment material. Specifically, when the following two conditions (condition 1) and (condition 2) are satisfied, the process may proceed to step S219. According to this determination, even if the current object detection position is closer to the past detection position, if the size of the detection region is unnaturally different, it is not determined that the objects are the same object (here, a person). It can be. As a result, transmissions (S115, S121) for which a collation request should not be necessary can be further reduced.
(Condition 1) The distance between the past object and the latest object is less than (or less than) a predetermined threshold (same as step S218)
(Condition 2) The absolute value of the area difference between the past object and the latest object is less than (or less than) a predetermined threshold value
The area difference under the condition 2 is a difference between the areas (width * height) calculated by the calculation unit 31 from the height and the width of the partial image.

また、上記実施形態では、待機状態マークm1が”!”で表されているが、これに限るものではない。例えば、砂時計のアイコンや、「照合中」又は「認証中」等のコメントであってもよい。   Further, in the above embodiment, the standby state mark m1 is represented by “!”, But is not limited to this. For example, it may be an hourglass icon or a comment such as "verifying" or "verifying".

また、撮像画像データについて説明したが、これに限らず、撮影されずに利用者によって作成された作成画像データであってもよい。この場合、撮影画像データ及び作成画像データは、「画像データ」の一例である。また。画像取得端末2は、通信端末の一例であり、画像データを外部から取得せず、自端末で作成してもよい。更に、通信端末は、集音により音データを取得してもよいし、温度センサにより温度データを取得してもよいし、湿度センサにより湿度データを取得してもよい。   In addition, the captured image data has been described, but the invention is not limited thereto, and may be created image data created by a user without being photographed. In this case, the captured image data and the created image data are examples of “image data”. Also. The image acquisition terminal 2 is an example of a communication terminal, and the image acquisition terminal 2 may create the image data without acquiring the image data from the outside. Furthermore, the communication terminal may acquire sound data by sound collection, acquire temperature data by a temperature sensor, or acquire humidity data by a humidity sensor.

また、各CPU301,501,701等の各構成要素は、単一であってもよく複数であってもよい。また、画像取得端末2、分散データ処理端末6、及び集中データ処理サーバ7は、それぞれ複数あってもよい。更に、分散データ処理端末6はサーバであってもよい。   The components such as the CPUs 301, 501, and 701 may be single or plural. Further, there may be a plurality of image acquisition terminals 2, distributed data processing terminals 6, and centralized data processing servers 7, respectively. Further, the distributed data processing terminal 6 may be a server.

また、上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated
Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
Further, each function in the above embodiment can be realized by one or a plurality of processing circuits. Here, the `` processing circuit '' in the present embodiment is a processor programmed to execute each function by software such as a processor implemented by an electronic circuit, or an ASIC designed to execute each function described above ( Application Specific Integrated
Circuit), a digital signal processor (DSP), a field programmable gate array (FPGA), a system on a chip (SOC), a GPU, and devices such as conventional circuit modules.

〔その他〕
本実施形態は以下に示すような発明を開示している。
[Others]
This embodiment discloses the following invention.

〔付記項1〕(S218参照)
物体の所定部分の画像データを送信することで、他の装置に画像の照合を行わせる通信端末であって、第1の時点における第1の物体の所定部分の画像データを前記他の装置へ送信する送信手段を有し、前記第1の時点における第1の物体の位置を示す第1の位置と、前記第1の時点より所定時間後の第2の時点における第2の物体の位置を示す第2の位置との間の距離が、所定以下又は所定未満である場合には、前記送信手段は、前記第2の物体の所定部分の画像データを送信しないことを特徴とする通信端末。
[Appendix 1] (see S218)
A communication terminal that transmits image data of a predetermined portion of an object to cause another device to perform image collation, and transmits image data of a predetermined portion of the first object at a first time to the other device. Transmitting means for transmitting, the first position indicating the position of the first object at the first time, and the position of the second object at a second time after a predetermined time from the first time The communication terminal according to claim 1, wherein the transmission unit does not transmit image data of a predetermined portion of the second object when a distance between the second object and the second position is equal to or less than a predetermined value or less than a predetermined value.

〔付記項2〕(S220,S221参照)
前記第2の時点における前記第2の物体の位置が、照合可能範囲外になった場合には、前記送信手段は、前記第2の物体の所定部分の画像データを送信しないことを特徴とする付記項1に記載の通信端末。
[Appendix 2] (see S220, S221)
When the position of the second object at the second time point is out of the collationable range, the transmitting unit does not transmit image data of a predetermined portion of the second object. The communication terminal according to claim 1.

〔付記項3〕(S231,S232参照)
前記第1の時点における前記第1の物体の位置が、照合可能範囲内に入った場合に、前記送信手段は、前記第1の物体の所定部分の画像データを送信することを特徴とする付記項1又は2に記載の通信端末。
[Appendix 3] (see S231 and S232)
When the position of the first object at the first time point falls within a collationable range, the transmitting unit transmits image data of a predetermined portion of the first object. Item 3. The communication terminal according to item 1 or 2.

〔付記項4〕(S234参照)
前記送信手段は、前記物体の所定部分のデータを符号化した前記画像データを送信することを特徴とする付記項1乃至3のいずれか一項に記載の通信端末。
[Appendix 4] (see S234)
4. The communication terminal according to claim 1, wherein the transmitting unit transmits the image data obtained by encoding data of a predetermined portion of the object. 5.

2 画像取得端末(通信端末の一例)
3a、3b 実時間データ処理端末
5 近端末データ処理装置
6 分散データ処理端末(表示端末の一例)
7 集中データ処理サーバ(他の装置の一例)
31 算出部(算出手段の一例)
34 画像処理部(画像処理手段の一例)
35 物体検出部(物体検出手段の一例)
38 接続部(取得手段の一例)
51 送受信部(送信手段の一例)
61 送受信部
62 受付部
67 表示制御部
69 記憶・読出部
71 送受信部
74 特徴量生成部
75 照合部
200 イントラネット
600 インターネット
3001 撮像素子情報管理DB(撮像素子情報管理手段の一例)
3002 サイクル値管理DB
3003 画像取得プログラムDB
3004 合成処理プログラム管理DB
3005 歪み補正プログラム管理DB
3006 サービスプログラム管理DB(プログラム管理手段の一例)
3007 物体情報管理DB(物体情報管理手段の一例)
3008 物体変位管理DB(物体変位管理手段の一例)
6000 記憶部
7001 照合データ管理DB
8000 記憶部
8001 セッション管理DB
8002 認証サーバ管理DB
9000 記憶部
9001 認証管理DB
2 Image acquisition terminal (example of communication terminal)
3a, 3b Real-time data processing terminal 5 Near-terminal data processing device 6 Distributed data processing terminal (an example of a display terminal)
7. Centralized data processing server (an example of another device)
31 Calculation unit (an example of calculation means)
34 Image processing unit (an example of image processing means)
35 Object detection unit (an example of object detection means)
38 Connection part (an example of acquisition means)
51 Transmission / Reception Unit (Example of Transmission Means)
61 transmitting / receiving section 62 receiving section 67 display controlling section 69 storage / reading section 71 transmitting / receiving section 74 feature quantity generating section 75 collating section 200 intranet 600 internet 3001 image sensor information management DB (an example of an image sensor information managing means)
3002 Cycle value management DB
3003 Image acquisition program DB
3004 Synthesis processing program management DB
3005 Distortion correction program management DB
3006 Service program management DB (an example of program management means)
3007 Object information management DB (an example of object information management means)
3008 Object displacement management DB (an example of object displacement management means)
6000 storage unit 7001 collation data management DB
8000 Storage unit 8001 Session management DB
8002 Authentication server management DB
9000 Storage unit 9001 Authentication management DB

特開2017−204825号公報JP-A-2017-204825

Claims (9)

他の装置が画像の照合を行うために、物体の所定部分の画像データを送信する通信端末であって、
前記他の装置が受信するように、第1の時点における第1の物体の所定部分の画像データを送信する送信手段を有し、
前記第1の時点における第1の物体の位置を示す第1の位置と、前記第1の時点より所定時間後の第2の時点における第2の物体の位置を示す第2の位置との間の距離が、所定以下又は所定未満である場合には、前記送信手段は、前記第2の物体の所定部分の画像データを送信しないことを特徴とする通信端末。
A communication terminal that transmits image data of a predetermined portion of the object in order for another device to perform image matching,
Transmitting means for transmitting image data of a predetermined portion of the first object at a first time point so that the other device receives the image data;
Between a first position indicating the position of the first object at the first time and a second position indicating the position of the second object at a second time after a predetermined time from the first time When the distance is less than or equal to a predetermined value or less than a predetermined value, the transmitting unit does not transmit image data of a predetermined portion of the second object.
前記第2の時点における前記第2の物体の位置が、照合可能範囲外になった場合には、前記送信手段は、前記第2の物体の所定部分の画像データを送信しないことを特徴とする請求項1に記載の通信端末。   When the position of the second object at the second time point is out of the collationable range, the transmitting unit does not transmit image data of a predetermined portion of the second object. The communication terminal according to claim 1. 前記第1の時点における前記第1の物体の位置が、照合可能範囲内に入った場合に、前記送信手段は、前記第1の物体の所定部分の画像データを送信することを特徴とする請求項1又は2に記載の通信端末。   When the position of the first object at the first point in time falls within a collationable range, the transmission unit transmits image data of a predetermined portion of the first object. Item 3. The communication terminal according to item 1 or 2. 請求項1乃至3のいずれか一項に記載の通信端末であって、
前記照合可能範囲内に物体が入った回数をカウントする算出手段を有し、
前記送信手段は、物体の照合結果を表示する表示端末が受信するように、前記算出手段によるカウント数を送信することを特徴とする通信端末。
The communication terminal according to claim 1, wherein:
Computing means for counting the number of times the object has entered the collation possible range,
The communication terminal according to claim 1, wherein the transmitting unit transmits the count number of the calculating unit so that the display terminal that displays the result of the object matching receives the count number.
請求項1乃至4のいずれか一項に記載の通信端末であって、
光源に対して発光の制御を行う発光制御手段と、
前記発光制御手段による制御により前記光源404から光が出射されてから、当該光の反射光が受光されるまでの時間により、前記通信端末から前記物体までの距離を計測する距離計測手段と、
を有し、
前記第2の時点における第2の物体において所定距離以上の差が生じた場合には、前記第2の物体は複数の物体であるとして、当該複数の物体のそれぞれの第2の時点における位置と当該複数の物体のそれぞれの第1の時点における物体の位置との距離の少なくとも一方が、所定以下又は所定未満である場合には、前記送信手段は、前記少なくとも一方に係る前記第2の物体の所定部分の画像データを送信しないことを特徴とする通信端末。
The communication terminal according to claim 1, wherein:
Light emission control means for controlling light emission for the light source;
A distance measuring unit that measures a distance from the communication terminal to the object by a time from when light is emitted from the light source 404 under the control of the light emission control unit to when a reflected light of the light is received,
Has,
When a difference of a predetermined distance or more occurs in the second object at the second time, the second object is regarded as a plurality of objects, and the positions of the plurality of objects at the second time are When at least one of the distances to the position of the object at the first time point of each of the plurality of objects is equal to or less than a predetermined value or less than a predetermined value, the transmitting unit transmits the second object related to the at least one of the plurality of objects. A communication terminal not transmitting image data of a predetermined portion.
前記送信手段は、前記物体の所定部分のデータを符号化した前記画像データを送信することを特徴とする請求項1乃至5のいずれか一項に記載の通信端末。   The communication terminal according to claim 1, wherein the transmission unit transmits the image data obtained by encoding data of a predetermined portion of the object. 請求項1乃至6のいずれか一項に記載の通信端末と、
前記他の装置と、
を有する通信システム。
A communication terminal according to any one of claims 1 to 6,
The other device,
A communication system having:
他の装置が画像の照合を行うために、物体の所定部分の画像データを送信する通信端末が実行する通信方法であって、
前記通信端末は、
前記他の装置が受信するように、第1の時点における第1の物体の所定部分の画像データを送信する送信ステップを実行し、
前記第1の時点における第1の物体の位置を示す第1の位置と、前記第1の時点より所定時間後の第2の時点における第2の物体の位置を示す第2の位置との間の距離が、所定以下又は所定未満である場合には、前記送信ステップは、前記第2の物体の所定部分の画像データを送信しない処理を含むことを特徴とする通信方法。
A communication method performed by a communication terminal that transmits image data of a predetermined portion of an object in order for another device to perform image matching,
The communication terminal,
Performing a transmitting step of transmitting image data of a predetermined portion of the first object at a first time point so that the other device receives the image data;
Between a first position indicating the position of the first object at the first time and a second position indicating the position of the second object at a second time after a predetermined time from the first time If the distance is less than or equal to or less than a predetermined value, the transmitting step includes a process of not transmitting image data of a predetermined portion of the second object.
コンピュータに、請求項8に記載の方法を実行させるプログラム。   A program for causing a computer to execute the method according to claim 8.
JP2019137065A 2018-07-31 2019-07-25 Communication terminal, communication system, communication method, and program Pending JP2020025258A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/526,617 US11017544B2 (en) 2018-07-31 2019-07-30 Communication terminal, communication system, communication control method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018143865 2018-07-31
JP2018143865 2018-07-31

Publications (1)

Publication Number Publication Date
JP2020025258A true JP2020025258A (en) 2020-02-13

Family

ID=69619049

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019137065A Pending JP2020025258A (en) 2018-07-31 2019-07-25 Communication terminal, communication system, communication method, and program

Country Status (1)

Country Link
JP (1) JP2020025258A (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020857A (en) * 1998-07-06 2000-01-21 Mega Chips Corp Monitoring device
JP2003116139A (en) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd Video distribution server and video reception client system
JP2007011723A (en) * 2005-06-30 2007-01-18 Canon Marketing Japan Inc Tabulation device, tabulation method, program and recording medium
JP2016201756A (en) * 2015-04-14 2016-12-01 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
JP2017204825A (en) * 2016-05-13 2017-11-16 パナソニックIpマネジメント株式会社 Camera system and camera device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000020857A (en) * 1998-07-06 2000-01-21 Mega Chips Corp Monitoring device
JP2003116139A (en) * 2001-10-03 2003-04-18 Olympus Optical Co Ltd Video distribution server and video reception client system
JP2007011723A (en) * 2005-06-30 2007-01-18 Canon Marketing Japan Inc Tabulation device, tabulation method, program and recording medium
JP2016201756A (en) * 2015-04-14 2016-12-01 ソニー株式会社 Image processing apparatus, image processing method, and image processing system
US20170372485A1 (en) * 2015-04-14 2017-12-28 Sony Corporation Image processing apparatus, image processing method, and image processing system
JP2017204825A (en) * 2016-05-13 2017-11-16 パナソニックIpマネジメント株式会社 Camera system and camera device

Similar Documents

Publication Publication Date Title
JP2023155238A (en) Distributed processing system, communication system, image acquisition terminal, and distributed processing method
US11017544B2 (en) Communication terminal, communication system, communication control method, and recording medium
US10915777B2 (en) Communication terminal, communication system, and image processing method
KR102398856B1 (en) Systems and methods for authenticating a user based on a biometric model associated with the user
JP4910507B2 (en) Face authentication system and face authentication method
JP7310105B2 (en) Communication terminal, communication system, image processing method, and program
US10931836B2 (en) Communication system, image processing method, and recording medium
KR20140089184A (en) Head mounted display and method for controlling the same
KR101554776B1 (en) A method providing source information of a subject according to photographing the subject, and a server and a hand-held terminal therefor
CN110457571B (en) Method, device and equipment for acquiring interest point information and storage medium
JP6849256B1 (en) 3D model construction system and 3D model construction method
CN117396871A (en) System and method for managing non-replaceable tokens and corresponding digital assets
JP7192764B2 (en) Information processing device, information processing method, and program
JP2018082234A (en) Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic apparatus
US20230386256A1 (en) Techniques for detecting a three-dimensional face in facial recognition
JP2020025258A (en) Communication terminal, communication system, communication method, and program
US11808857B2 (en) Multi-sensor superresolution scanning and capture system
JP2019186914A (en) Communication terminal, communication system, communication method, and program
WO2019218878A1 (en) Photography restoration method and apparatus, storage medium and terminal device
US20220345619A1 (en) Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
JP7251247B2 (en) Communication system and communication method
JP7358868B2 (en) Communication terminal, communication system, location management method, and program
KR102161488B1 (en) Apparatus and method for displaying product in 3 dimensions
JP2021057029A (en) Setting device, communication system, setting method, and program
JP2017184025A (en) Communication terminal, image communication system, image transmission method, image display method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230728

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20231013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231226

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402