JP7310105B2 - Communication terminal, communication system, image processing method, and program - Google Patents

Communication terminal, communication system, image processing method, and program Download PDF

Info

Publication number
JP7310105B2
JP7310105B2 JP2018166748A JP2018166748A JP7310105B2 JP 7310105 B2 JP7310105 B2 JP 7310105B2 JP 2018166748 A JP2018166748 A JP 2018166748A JP 2018166748 A JP2018166748 A JP 2018166748A JP 7310105 B2 JP7310105 B2 JP 7310105B2
Authority
JP
Japan
Prior art keywords
image
program
terminal
processing
authentication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018166748A
Other languages
Japanese (ja)
Other versions
JP2019049978A (en
Inventor
喜永 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US16/127,267 priority Critical patent/US10915777B2/en
Publication of JP2019049978A publication Critical patent/JP2019049978A/en
Application granted granted Critical
Publication of JP7310105B2 publication Critical patent/JP7310105B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示内容は、通信端末、通信システム、画像処理方法、及びプログラムに関する。 The present disclosure relates to communication terminals, communication systems, image processing methods, and programs.

近年、IoT(Internet of Things)が注目されている。その中でも、特に、エッジコンピューティングの通信システムが注目されている。この通信システムでは、端末側で画像や音声のデータを取得し、インターネットを介してサーバに送信し、サーバ側で認識処理を行なう。特許文献1では、人物の顔を認識する処理を実行する目的で、端末(エッジノード)側に顔認識のためのカメラを設置し、端末はカメラから取得した画像データを中央のサーバ(顔認識のプリケーションサーバ)に送信し、サーバで顔の認証処理を実行するクラウドサービスプラットフォームが開示されている。 In recent years, IoT (Internet of Things) has attracted attention. Among them, communication systems for edge computing are particularly attracting attention. In this communication system, the terminal side acquires image and voice data, transmits the data to a server via the Internet, and performs recognition processing on the server side. In Patent Document 1, a camera for face recognition is installed on the terminal (edge node) side for the purpose of executing processing for recognizing a person's face, and the terminal transmits image data acquired from the camera to a central server (face recognition A cloud service platform is disclosed that transmits to a facial recognition application server) and performs face authentication processing on the server.

また、端末は、一連の画像処理を実現するために、自端末側のみで処理を実行するためのプログラムと、サーバ側と協同する処理を実行するためのプログラムを実行する。また、一連の画像処理では、プライバシーに配慮する必要があるプログラムやサービスが含まれている場合があり、新たなカメラやシステムへの追加の際には、認証の手続きが必要である。 Also, in order to realize a series of image processing, the terminal executes a program for executing processing only on the terminal side and a program for executing processing in cooperation with the server side. In addition, a series of image processing may include programs and services that require consideration of privacy, and authentication procedures are required when adding a new camera or system.

しかしながら、一連の画像処理の中には、認証を必要としない処理も含まれているため、新たなカメラやサービスの追加に応じて、全てのプログラムを取得するために認証の手続きをしていたのでは、一連の画像処理を開始するまでに時間が掛かるという課題が生じる。 However, the series of image processing includes processes that do not require authentication, so as new cameras and services were added, authentication procedures were required to acquire all programs. Therefore, there is a problem that it takes time to start a series of image processing.

請求項1に係る発明は、通信ネットワークを介してサービスを提供するサービス提供サーバでの処理及び自端末での処理の協同により、当該サービス提供サーバから提供されるサービスを実現する通信端末であって、前記自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、前記自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行なう画像処理手段を有し、前記自端末は、前記提供されるサービスを実現するにあたり前記自端末に第1のプログラムと第2のプログラムが存在するか検索する検索部と、前記検索した結果に基づき、前記第1および第2のプログラムの存在を判断する判断部と、第1処理部と第2処理部と、を有し、前記判断部において前記第1および第2のプログラムにおいて少なくとも1のプログラムが前記第1処理部に存在しないと判断された場合、前記第1処理部が、前記第2処理部に対して、前記存在しないプログラムの要求を示す要求情報を送信し、前記第2処理部は、受信された前記要求情報を前記サービス提供サーバが受信するように送信し、前記第2処理部は、前記サービス提供サーバが送信した、前記要求情報に基づいたプログラムを受信し、前記第1処理部に対して、前記受信したプログラムを送信し、前記第1処理部は、前記受信した当該プログラムをインストールする、ことを特徴とする通信端末である。
The invention according to claim 1 is a communication terminal that realizes a service provided by a service providing server through cooperation between processing in a service providing server that provides services via a communication network and processing in the terminal itself, , to perform the first image processing on the image data by executing a first program that does not require authentication for executing the processing in the own terminal, and to execute the processing in the own terminal; The terminal has image processing means for performing second image processing on the image data by executing a second program that requires authentication, and the terminal is configured to implement the service to be provided. a search unit for searching whether the first program and the second program exist in the computer; a determination unit for determining the existence of the first and second programs based on the search result; a first processing unit; and two processing units, and when the determination unit determines that at least one program among the first and second programs does not exist in the first processing unit, the first processing unit request information indicating a request for the nonexistent program is transmitted to the second processing unit, the second processing unit transmits the received request information so that the service providing server receives the request information, The processing unit receives a program based on the request information transmitted by the service providing server, transmits the received program to the first processing unit, and the first processing unit receives the received program. A communication terminal characterized by installing the program .

以上説明したように本発明によれば、一連の画像処理を開始するまでの時間を短縮することができるという効果を奏する。 As described above, according to the present invention, it is possible to reduce the time required to start a series of image processing.

本実施形態に係る通信システムの概略図である。1 is a schematic diagram of a communication system according to an embodiment; FIG. 実時間データ処理端末のハードウェア構成図である。3 is a hardware configuration diagram of a real-time data processing terminal; FIG. 撮像ユニットのハードウェア構成図である。3 is a hardware configuration diagram of an imaging unit; FIG. 図4(a)は撮像ユニット40bで撮影された半球画像(前側)、図4(b)は撮像ユニット40bで撮影された半球画像(後側)、図4(c)は正距円筒図法により表された画像を示した図である。FIG. 4(a) is a hemispherical image (front side) taken by the imaging unit 40b, FIG. 4(b) is a hemispherical image (back side) taken by the imaging unit 40b, and FIG. 4(c) is an equirectangular projection. FIG. 10 is a diagram showing a rendered image; 近端末データ処理装置又は分散データ処理端末のハードウェア構成図である。2 is a hardware configuration diagram of a near-terminal data processing device or a distributed data processing terminal; FIG. 集中データ処理サーバのハードウェア構成図である。3 is a hardware configuration diagram of a centralized data processing server; FIG. 画像取得端末における実時間データ処理端末及び近端末データ処理装置のソフトウェア構成図である。3 is a software configuration diagram of a real-time data processing terminal and a near-terminal data processing device in an image acquisition terminal; FIG. 通信システムの機能ブロック図である。1 is a functional block diagram of a communication system; FIG. 通信システムの機能ブロック図である。1 is a functional block diagram of a communication system; FIG. (a)は撮像素子情報管理テーブルの概念図、(b)はサイクル値管理テーブルの概念図である。(a) is a conceptual diagram of an image sensor information management table, and (b) is a conceptual diagram of a cycle value management table. (a)は画像取得プログラム管理テーブルの概念図、(b)は合成処理プログラム管理テーブルの概念図、(c)は歪み補正プログラム管理テーブルの概念図、(d)はサービスプログラム管理テーブルの概念図である。(a) is a conceptual diagram of an image acquisition program management table, (b) is a conceptual diagram of a composition processing program management table, (c) is a conceptual diagram of a distortion correction program management table, and (d) is a conceptual diagram of a service program management table. is. 照合データ管理テーブルの概念図である。4 is a conceptual diagram of a matching data management table; FIG. セッション管理テーブルの概念図である。4 is a conceptual diagram of a session management table; FIG. 端末IDの概念図である。4 is a conceptual diagram of terminal IDs; FIG. 認証サーバ管理テーブルの概念図である。4 is a conceptual diagram of an authentication server management table; FIG. 認証管理テーブルの概念図である。4 is a conceptual diagram of an authentication management table; FIG. 認証処理を示したシーケンス図である。4 is a sequence diagram showing authentication processing; FIG. 認証処理を示したシーケンス図である。4 is a sequence diagram showing authentication processing; FIG. 分散データ処理端末の画面例を示す図である。It is a figure which shows the example of a screen of a distributed data processing terminal. 分散データ処理端末の画面例を示す図である。It is a figure which shows the example of a screen of a distributed data processing terminal. 画像認識の開始要求の処理を示したシーケンス図である。FIG. 10 is a sequence diagram showing processing of an image recognition start request; 実時間データ処理端末の実時間処理の準備処理を示したシーケンス図である。FIG. 10 is a sequence diagram showing preparatory processing for real-time processing of the real-time data processing terminal; プログラムの取得処理を示したシーケンス図である。FIG. 10 is a sequence diagram showing program acquisition processing; 画像認識の処理を示したシーケンス図である。4 is a sequence diagram showing image recognition processing; FIG. 実時間処理のうちの物体検出の処理を示したフローチャートである。10 is a flowchart showing object detection processing in real-time processing. 実時間処理のうちのイベント生成の処理の第1の例を示したフローチャートである。FIG. 10 is a flowchart showing a first example of event generation processing in real-time processing; FIG. 分散データ処理端末における撮像画像の表示例を示した図である。FIG. 10 is a diagram showing a display example of a captured image in a distributed data processing terminal; 照合する処理の第1の例を示したシーケンス図である。FIG. 10 is a sequence diagram showing a first example of matching processing; (a)は分散データ処理端末における照合データのファイル選択画面の表示例、(b)は分散データ処理端末における照合データの登録画面の表示例である。(a) is a display example of a verification data file selection screen in the distributed data processing terminal, and (b) is a display example of a verification data registration screen in the distributed data processing terminal. 分散データ処理端末における照合結果メッセージの表示例である。It is a display example of a collation result message in a distributed data processing terminal. ある部屋に画像取得端末を配置した状況を示した図である。FIG. 4 is a diagram showing a situation in which an image acquisition terminal is arranged in a certain room; 実時間処理のうちのイベント生成の処理の第2の例を示したシーケンス図である。FIG. 10 is a sequence diagram showing a second example of event generation processing in real-time processing; 照合する処理の第2の例を示したシーケンス図である。FIG. 11 is a sequence diagram showing a second example of matching processing;

〔全体概略〕
以下、図面を用いて、本発明の一実施形態の全体の概略について説明する。本実施形態は、エッジコンピューティングを実現する通信システムを開示している。即ち、本実施形態は、サービス提供サーバ8での処理及び画像取得端末2での処理の協同により、画像取得端末2でサービス提供サーバ2から提供されるサービスを実現する発明を開示している。
[Overall overview]
An overall outline of an embodiment of the present invention will be described below with reference to the drawings. This embodiment discloses a communication system that implements edge computing. That is, the present embodiment discloses an invention in which the service provided by the service providing server 2 is realized by the image obtaining terminal 2 through cooperation between the processing in the service providing server 8 and the processing in the image obtaining terminal 2 .

<<実施形態の全体構成>>
図1は、本実施形態に係る通信システムの概略図である。図1に示されているように、本実施形態の通信システムは、実時間データ処理端末3、近端末データ処理装置5、分散データ処理端末6、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9a,9b,9cによって構築されている。なお、実時間データ処理端末3、近端末データ処理装置5、及び分散データ処理端末6によって、分散処理システム100が構築されている。分散処理システム100は複数存在するが、図1では、図面を簡略化するため、1つだけ記載している。
<<Overall configuration of the embodiment>>
FIG. 1 is a schematic diagram of a communication system according to this embodiment. As shown in FIG. 1, the communication system of this embodiment includes a real-time data processing terminal 3, a near-terminal data processing device 5, a distributed data processing terminal 6, a centralized data processing server 7, a service providing server 8, and It is constructed by authentication servers 9a, 9b and 9c. A distributed processing system 100 is constructed by the real-time data processing terminal 3 , the near-terminal data processing device 5 , and the distributed data processing terminal 6 . Although there are a plurality of distributed processing systems 100, only one is shown in FIG. 1 to simplify the drawing.

近端末データ処理装置5は、イントラネット200を介して分散データ処理端末6と通信可能に接続されている。分散データ処理端末6は、インターネット600を介して、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9a,9b,9cと通信可能に接続されている。なお、認証サーバ9は、認証サーバ9a,9b,9cの総称である。 The near terminal data processing device 5 is communicably connected to the distributed data processing terminal 6 via the intranet 200 . The distributed data processing terminal 6 is communicably connected to the centralized data processing server 7, the service providing server 8, and the authentication servers 9a, 9b, and 9c via the Internet 600. FIG. The authentication server 9 is a general term for the authentication servers 9a, 9b, and 9c.

これらのうち、実時間データ処理端末3は、撮像画像のデータを得るための実時間処理(リアルタイムの処理)を行なう端末である。実時間データ処理端末3には、CMOS(Complementary Metal Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサなどの被写体を撮像する画像センサを備えた撮像ユニット40が着脱自在に接続される。これにより、実時間データ処理端末3は、撮像ユニット40から入力された撮像画像のデータ(以下、「撮像画像データ」という)をデジタル化し、実時間(たとえば1/60秒ごと)で物体(ここでは、顔)の画像を検出する。実時間データ処理端末3は、撮像画像のうちの物体部分の領域である部分画像のデータ(以下、「部分画像データ」という)を近端末データ処理装置5に送信する。なお、物体の画像を検出する対象として顔を挙げているが、人の頭部や、上半身、下半身など検出する対象は多岐に渡り、物体も人に限ることなく、自動車や動物なども挙げられる。自動車の場合は、運転者、同乗者、ナンバープレート、動物であれば顔や、体の模様などが挙げられる。 Among them, the real-time data processing terminal 3 is a terminal that performs real-time processing (real-time processing) for obtaining captured image data. The real-time data processing terminal 3 is detachably connected to an imaging unit 40 having an image sensor for imaging an object, such as a CMOS (Complementary Metal Oxide Semiconductor) sensor or a CCD (Charge Coupled Device) sensor. As a result, the real-time data processing terminal 3 digitizes the captured image data (hereinafter referred to as "captured image data") input from the imaging unit 40, and processes the object (herein Now, let's detect the image of the face). The real-time data processing terminal 3 transmits data of a partial image (hereinafter referred to as “partial image data”), which is the area of the object portion in the captured image, to the near-terminal data processing device 5 . In addition, although the face is mentioned as a target for detecting the image of the object, there are a wide variety of targets such as the human head, upper body, and lower body, and the object is not limited to people, but also cars and animals. . In the case of a car, the driver, fellow passenger, license plate, and in the case of an animal, the pattern of the face and body can be used.

近端末データ処理装置5は、実時間データ処理端末3に最も近いところに配置され、例えばハードウェア的にも密接にデータバスやUSB(Universal Serial Bus)等で1対1に接続されている。近端末データ処理装置5は、実時間データ処理端末3から受信した部分画像データをJPEG(Joint Photographic Experts Group)などの汎用的なフォーマットに符号化した後、顔画像の照合が行なわれる場合の被照合データとして、イントラネット200を介して分散データ処理端末6に送信する。なお、通常、実時間データ処理端末3と近端末データ処理装置5は接続されて一体になっており、ここでは、実時間データ処理端末3と近端末データ処理装置5とで画像取得端末2を構成している。 The near-terminal data processing device 5 is arranged closest to the real-time data processing terminal 3, and is closely connected to the real-time data processing terminal 3 on a one-to-one basis, for example, through a data bus, USB (Universal Serial Bus), or the like. The near-terminal data processing device 5 encodes the partial image data received from the real-time data processing terminal 3 into a general-purpose format such as JPEG (Joint Photographic Experts Group), and then converts the data into a target image for face image matching. It is transmitted to the distributed data processing terminal 6 via the intranet 200 as collation data. Note that the real-time data processing terminal 3 and the near-terminal data processing device 5 are usually connected and integrated. Configure.

分散データ処理端末6は、近端末データ処理装置5に比較的近い位置で利用者によって利用され、利用者の各種操作を受け付けることが可能なコンピュータである。分散データ処理端末6は、予め、顔画像の照合が行なわれる場合の照合データを登録して保存している。分散データ処理端末6は、インターネット600を介して、集中データ処理サーバ7に、照合データと被照合データとの照合を要求することができる。この場合、分散データ処理端末6は、近端末データ処理装置5から受信した被照合データ、及び予め登録している照合データを集中データ処理サーバ7に送信する。更に、分散データ処理端末6は、集中データ処理サーバ7から、照合結果を示す照合結果情報を応答として受信することができる。また、分散データ処理端末6は、グラフィックインターフェースを介して照合結果を表示させることができる。 The distributed data processing terminal 6 is a computer used by a user at a position relatively close to the near-terminal data processing device 5 and capable of receiving various user operations. The distributed data processing terminal 6 registers and stores in advance verification data for verification of face images. The distributed data processing terminal 6 can request the centralized data processing server 7 via the Internet 600 to match the matching data with the data to be matched. In this case, the distributed data processing terminal 6 transmits to the centralized data processing server 7 the to-be-verified data received from the near-terminal data processing device 5 and the previously registered verification data. Furthermore, the distributed data processing terminal 6 can receive matching result information indicating the matching result from the centralized data processing server 7 as a response. Also, the distributed data processing terminal 6 can display the collation result via a graphic interface.

集中データ処理サーバ7は、近端末データ処理装置5から比較的遠い位置に設置されており、分散データ処理端末6とはインターネット600等の通信ネットワークを介して通信することができる。集中データ処理サーバ7は、照合要求を示す照合要求情報並びに照合データ及び被照合データを受信した場合、照合データ及び被照合データの照合を行い、類似度を算出する。そして、集中データ処理サーバ7は、分散データ処理端末6に対して、算出した類似度を含んだ照合結果を示す照合結果情報を送信する。この照合結果情報には、例えば、送信してきた分散データ処理端末6の装置識別ID、被照合データを送信した画像処理端末2の装置識別IDや、算出された類似度、算出した日時、照合された人の名前やナンバー等を示す情報などが含まれている。 The centralized data processing server 7 is installed at a position relatively far from the near-terminal data processing device 5, and can communicate with the distributed data processing terminals 6 via a communication network such as the Internet 600 or the like. When the centralized data processing server 7 receives matching request information indicating a matching request and matching data and data to be matched, the centralized data processing server 7 compares the matching data and the data to be matched, and calculates the degree of similarity. The centralized data processing server 7 then transmits collation result information indicating the collation result including the calculated similarity to the distributed data processing terminal 6 . The matching result information includes, for example, the device identification ID of the distributed data processing terminal 6 that sent the data, the device identification ID of the image processing terminal 2 that sent the data to be checked, the calculated similarity, the calculated date and time, and the It includes information such as the name and number of the person who received it.

サービス提供サーバ8は、画像取得端末2に対して、各種サービスを提供するサーバである。 The service providing server 8 is a server that provides various services to the image acquisition terminal 2 .

認証サーバ9aは、画像取得端末2がサービス提供システム8からサービスを受けられる正当な権限があるか否かを判断するためにIDの認証を行なう。認証サーバ9b,9cも同様である。 The authentication server 9a performs ID authentication to determine whether the image acquisition terminal 2 is authorized to receive services from the service providing system 8 or not. The same applies to the authentication servers 9b and 9c.

<<ハードウェア構成>>
次に、図2乃至図6を用いて、本実施形態の通信システムの各ハードウェア構成について説明する。
<<Hardware configuration>>
Next, each hardware configuration of the communication system of this embodiment will be described with reference to FIGS. 2 to 6. FIG.

<実時間データ処理端末のハードウェア構成>
図2は、実時間データ処理端末のハードウェア構成図である。実時間データ処理端末3は、CPU301、ROM302、RAM303、EEPROM304、CMOSセンサ305、加速度・方位センサ306、メディアI/F308、GPS受信部309を備えている。
<Hardware configuration of real-time data processing terminal>
FIG. 2 is a hardware configuration diagram of a real-time data processing terminal. The real-time data processing terminal 3 includes a CPU 301 , a ROM 302 , a RAM 303 , an EEPROM 304 , a CMOS sensor 305 , an acceleration/direction sensor 306 , a media I/F 308 and a GPS receiver 309 .

これらのうち、CPU301は、実時間データ処理端末3全体の動作を制御する。ROM302は、CPU301の駆動に用いられるプログラムを記憶する。RAM303は、CPU301のワークエリアとして使用される。EEPROM304は、CPU301の制御にしたがって、実時間データ処理端末用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ305は、CPU301の制御に従って被写体(主に撮影ユニット40の死角)を撮像して、撮影画像データを得る。加速度・方位センサ306は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F308は、フラッシュメモリ等の記録メディア307に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部309は、GPS衛星からGPS信号を受信する。 Among them, the CPU 301 controls the operation of the real-time data processing terminal 3 as a whole. The ROM 302 stores programs used to drive the CPU 301 . A RAM 303 is used as a work area for the CPU 301 . Under the control of the CPU 301, the EEPROM 304 reads or writes various data such as programs for real-time data processing terminals. The CMOS sensor 305 captures an image of a subject (mainly a blind spot of the imaging unit 40) under the control of the CPU 301 to obtain captured image data. The acceleration/azimuth sensor 306 is various sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. A media I/F 308 controls reading or writing (storage) of data to a recording medium 307 such as a flash memory. A GPS receiver 309 receives GPS signals from GPS satellites.

また、実時間データ処理端末3は、撮像ユニットI/F313、マイク314、スピーカ315、音入出力I/F316、ディスプレイ317、外部機器接続I/F318、及びタッチパネル321を備えている。 The real-time data processing terminal 3 also includes an imaging unit I/F 313 , a microphone 314 , a speaker 315 , a sound input/output I/F 316 , a display 317 , an external device connection I/F 318 and a touch panel 321 .

これらのうち、撮像ユニットI/F313は、外付けの撮像ユニット40が接続された場合に、撮像ユニット40の駆動を制御する回路である。マイク314は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F316は、CPU301の制御に従ってマイク314及びスピーカ315との間で音信号の入出力を処理する回路である。ディスプレイ317は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F318は、各種の外部機器を接続するためのインターフェースである。タッチパネル321は、利用者がディスプレイ317を押下することで、実時間データ処理端末3を操作する入力手段の一種である。 Among these, the image pickup unit I/F 313 is a circuit that controls driving of the image pickup unit 40 when the external image pickup unit 40 is connected. The microphone 314 is a type of built-in sound collecting means for inputting sound. A sound input/output I/F 316 is a circuit that processes input/output of sound signals between the microphone 314 and the speaker 315 under the control of the CPU 301 . A display 317 is a kind of display means such as a liquid crystal or an organic EL that displays an image of a subject, various icons, and the like. The external device connection I/F 318 is an interface for connecting various external devices. The touch panel 321 is a kind of input means for operating the real-time data processing terminal 3 when the user presses the display 317 .

また、実時間データ処理端末3は、バスライン310を備えている。バスライン310は、図2に示されているCPU301等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The real-time data processing terminal 3 also has a bus line 310 . A bus line 310 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 301 shown in FIG.

<撮像ユニットのハードウェア構成>
図3は、撮像ユニットのハードウェア構成図である。特に、図3(a)は、撮像ユニット40のうち、単眼の撮像ユニット40aのハードウェア構成図である。図3(b)は、撮像ユニット40のうち、複眼の撮像ユニット40bのハードウェア構成図である。なお、撮像ユニット40は、撮像素子の数又はレンズの種類が異なる複数種類の撮像ユニット(撮像ユニット40a、40b等)の総称である。
<Hardware configuration of imaging unit>
FIG. 3 is a hardware configuration diagram of the imaging unit. In particular, FIG. 3A is a hardware configuration diagram of a monocular imaging unit 40a among the imaging units 40. FIG. FIG. 3B is a hardware configuration diagram of a compound-eye imaging unit 40 b of the imaging unit 40 . Note that the imaging unit 40 is a generic term for a plurality of types of imaging units (imaging units 40a, 40b, etc.) that differ in the number of imaging elements or the type of lens.

図3(a)に示されているように、撮像ユニット40aは、CMOSやCCD等の撮像素子401a、レンズ402a、及び実時間データ処理端末3の撮像ユニットI/F313に電気的に接続するための接続I/F408aを有している。撮像ユニット40aが実時間データ処理端末3の撮像ユニットI/F313に接続された場合には、撮像素子401aは、撮像ユニットI/F313から接続I/F408aを介して送られて来た撮像制御信号により撮像を行い、接続I/F408aを介して撮像ユニットI/F313に撮像画像データを送信する。 As shown in FIG. 3A, the imaging unit 40a is electrically connected to an imaging device 401a such as a CMOS or CCD, a lens 402a, and an imaging unit I/F 313 of the real-time data processing terminal 3. connection I/F 408a. When the imaging unit 40a is connected to the imaging unit I/F 313 of the real-time data processing terminal 3, the imaging element 401a receives the imaging control signal sent from the imaging unit I/F 313 via the connection I/F 408a. , and transmits captured image data to the imaging unit I/F 313 via the connection I/F 408a.

また、図3(b)に示されているように、撮像ユニット40bは、CMOSやCCD等の撮像素子401b1,401b2、レンズ402b1,402b2、及び実時間データ処理端末3の撮像ユニットI/F313に電気的に接続するための接続I/F408bを有している。レンズ402b1,402b2は、例えば、魚眼レンズである。撮像ユニット40aが実時間データ処理端末3の撮像ユニットI/F313に接続された場合には、撮像素子401b1、401b2は、撮像ユニットI/F313から接続I/F408aを介して送られて来た撮像制御信号により撮像を行い、接続I/F408bを介して撮像ユニットI/F313に、複数の撮像素子で撮影された複数の撮像画像データを送信する。 In addition, as shown in FIG. 3B, the imaging unit 40b includes imaging elements 401b1 and 401b2 such as CMOS and CCD, lenses 402b1 and 402b2, and an imaging unit I/F 313 of the real-time data processing terminal 3. It has a connection I/F 408b for electrical connection. The lenses 402b1 and 402b2 are, for example, fisheye lenses. When the image pickup unit 40a is connected to the image pickup unit I/F 313 of the real-time data processing terminal 3, the image pickup elements 401b1 and 401b2 receive images sent from the image pickup unit I/F 313 via the connection I/F 408a. An image is captured by a control signal, and a plurality of captured image data captured by a plurality of image sensors are transmitted to the image capturing unit I/F 313 via the connection I/F 408b.

図3(a)に示されている撮像ユニット40aは、一般の平面画像を得るが、図3(b)に示されている撮像ユニット40bは、例えば、それぞれのレンズ402b1、402b2で360度空間を撮影できるように配置されていると撮像素子では全天球画像を得ることができる。ここで、図4を用いて、撮像ユニット40bで撮像された画像から正距円筒射影画像ECが作成されるまでの処理の概略を説明する。なお、図4(a)は撮像ユニット40bで撮影された半球画像(前側)、図4(b)は撮像ユニット40bで撮影された半球画像(後側)、図4(c)は正距円筒図法により表された画像(以下、「正距円筒射影画像」という)を示した図である。 The image pickup unit 40a shown in FIG. 3(a) obtains a general planar image, while the image pickup unit 40b shown in FIG. If the image pickup device is arranged so as to capture the Here, the outline of the process until the equirectangular projection image EC is created from the image captured by the imaging unit 40b will be described with reference to FIG. 4(a) is a hemispherical image (front side) taken by the imaging unit 40b, FIG. 4(b) is a hemispherical image (rear side) taken by the imaging unit 40b, and FIG. 4(c) is an equirectangular image. FIG. 2 is a diagram showing an image represented by projection (hereinafter referred to as an “equidrectangular projection image”).

図4(a)に示されているように、撮像素子401b1によって得られた画像は、レンズ402b1によって湾曲した半球画像(前側)となる。また、図4(b)に示されているように、撮像素子401b2によって得られた画像は、レンズ402b2によって湾曲した半球画像(後側)となる。そして、半球画像(前側)と、180度反転された半球画像(後側)とは合成され、図4(c)に示されているように、正距円筒射影画像ECが作成される。ここで、このような半球画像を得るためには、各レンズが対向する形で前側、後側を撮影できる構成で配置されている時に、図4(c)で得られるような画像を作成することができる。 As shown in FIG. 4A, the image obtained by the imaging element 401b1 is a hemispherical image (front side) curved by the lens 402b1. Also, as shown in FIG. 4B, the image obtained by the imaging element 401b2 is a hemispherical image (rear side) curved by the lens 402b2. Then, the hemispherical image (front side) and the 180-degree inverted hemispherical image (rear side) are synthesized to create an equirectangular projection image EC as shown in FIG. 4(c). Here, in order to obtain such a hemispherical image, an image such as that obtained in FIG. be able to.

<近端末データ処理装置、分散データ処理端末のハードウェア構成>
図5は、近端末データ処理装置又は分散データ処理端末のハードウェア構成図である。ここでは、近端末データ処理装置5と分散データ処理端末6とは、同じハードウェア構成を備えている場合を示しているため、近端末データ処理装置5について説明し、分散データ処理端末6の説明は省略する。
<Hardware Configuration of Near Terminal Data Processing Device and Distributed Data Processing Terminal>
FIG. 5 is a hardware configuration diagram of a near-terminal data processing device or a distributed data processing terminal. Here, since the near-terminal data processing device 5 and the distributed data processing terminal 6 have the same hardware configuration, the near-terminal data processing device 5 will be explained first, and then the distributed data processing terminal 6 will be explained. are omitted.

図5に示されているように、近端末データ処理装置5は、CPU501、ROM502、RAM503、EEPROM504、CMOSセンサ505、加速度・方位センサ506、メディアI/F508、GPS受信部509を備えている。 As shown in FIG. 5 , the near-terminal data processing device 5 includes a CPU 501 , ROM 502 , RAM 503 , EEPROM 504 , CMOS sensor 505 , acceleration/direction sensor 506 , media I/F 508 and GPS receiver 509 .

これらのうち、CPU501は、近端末データ処理装置5全体の動作を制御する。ROM502は、CPU501の駆動に用いられるプログラムを記憶する。RAM503は、CPU501のワークエリアとして使用される。EEPROM504は、CPU501の制御にしたがって、近端末データ処理装置用プログラム等の各種データの読み出し又は書き込みを行う。CMOSセンサ505は、CPU501の制御に従って被写体(主に近端末データ処理装置5を操作するユーザの自画像)を撮像し、撮影画像データを得る。加速度・方位センサ506は、地磁気を検知する電子磁気コンパスやジャイロコンパス、加速度センサ等の各種センサである。メディアI/F508は、フラッシュメモリ等の記録メディア507に対するデータの読み出し又は書き込み(記憶)を制御する。GPS受信部509は、GPS衛星からGPS信号を受信する。 Among these, the CPU 501 controls the operation of the near-terminal data processing device 5 as a whole. The ROM 502 stores programs used to drive the CPU 501 . A RAM 503 is used as a work area for the CPU 501 . Under the control of the CPU 501, the EEPROM 504 reads out or writes various data such as a near-terminal data processing device program. Under the control of the CPU 501, the CMOS sensor 505 captures an image of a subject (mainly a self-portrait of the user operating the near-terminal data processing device 5) to obtain captured image data. The acceleration/direction sensor 506 is various sensors such as an electronic magnetic compass, a gyro compass, and an acceleration sensor for detecting geomagnetism. A media I/F 508 controls reading or writing (storage) of data to a recording medium 507 such as a flash memory. A GPS receiver 509 receives GPS signals from GPS satellites.

また、近端末データ処理装置5は、遠距離通信回路511、遠距離通信回路511のアンテナ511a、カメラ512、撮像素子I/F513、マイク514、スピーカ515、音入出力I/F516、ディスプレイ517、外部機器接続I/F518、近距離通信回路519、近距離通信回路519のアンテナ519a、及びタッチパネル521を備えている。 In addition, the near-terminal data processing device 5 includes a long-distance communication circuit 511, an antenna 511a of the long-distance communication circuit 511, a camera 512, an image sensor I/F 513, a microphone 514, a speaker 515, a sound input/output I/F 516, a display 517, An external device connection I/F 518 , a short-range communication circuit 519 , an antenna 519 a of the short-range communication circuit 519 , and a touch panel 521 are provided.

これらのうち、遠距離通信回路511は、イントラネット200を介して、他の機器と通信する回路である。カメラ512は、CPU501の制御に従って被写体を撮像して、撮影画像データを得る内蔵型の撮像手段の一種である。撮像素子I/F513は、カメラ512の駆動を制御する回路である。マイク514は、音声を入力する内蔵型の集音手段の一種である。音入出力I/F516は、CPU501の制御に従ってマイク514及びスピーカ515との間で音信号の入出力を処理する回路である。ディスプレイ517は、被写体の画像や各種アイコン等を表示する液晶や有機ELなどの表示手段の一種である。外部機器接続I/F518は、各種の外部機器を接続するためのインターフェースである。近距離通信回路519は、NFC(Near Field radio Communication)やBluetooth(登録商標)等の通信回路である。タッチパネル521は、利用者がディスプレイ517を押下することで、近端末データ処理装置5を操作する入力手段の一種である。 Among these, the long-distance communication circuit 511 is a circuit that communicates with other devices via the intranet 200 . The camera 512 is a type of built-in imaging means that captures an image of a subject under the control of the CPU 501 and obtains captured image data. An imaging device I/F 513 is a circuit that controls driving of the camera 512 . The microphone 514 is a type of built-in sound collecting means for inputting sound. A sound input/output I/F 516 is a circuit for processing input/output of sound signals between the microphone 514 and the speaker 515 under the control of the CPU 501 . A display 517 is a kind of display means such as a liquid crystal or an organic EL that displays an image of a subject, various icons, and the like. The external device connection I/F 518 is an interface for connecting various external devices. The short-range communication circuit 519 is a communication circuit such as NFC (Near Field radio Communication) or Bluetooth (registered trademark). The touch panel 521 is a kind of input means for operating the near-terminal data processing device 5 by the user pressing the display 517 .

また、近端末データ処理装置5は、バスライン510を備えている。バスライン510は、図5に示されているCPU501等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。 The near-terminal data processing device 5 also has a bus line 510 . A bus line 510 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 501 shown in FIG.

<集中データ処理サーバ、サービス提供サーバ、認証サーバのハードウェア構成>
図6は、集中データ処理サーバ、サービス提供サーバ、又は認証サーバのハードウェア構成図である。ここでは、集中データ処理サーバ7、サービス提供サーバ8、及び認証サーバ9は、同じハードウェア構成を備えている場合を示しているため、集中データ処理サーバ7について説明し、サービス提供サーバ8及び認証サーバ9の説明は省略する。
<Hardware configuration of centralized data processing server, service providing server, and authentication server>
FIG. 6 is a hardware configuration diagram of the centralized data processing server, service providing server, or authentication server. Here, since the centralized data processing server 7, the service providing server 8, and the authentication server 9 have the same hardware configuration, the centralized data processing server 7 will be explained, and the service providing server 8 and the authentication server 9 will be described. A description of the server 9 is omitted.

図6は、集中データ処理サーバのハードウェア構成図である。集中データ処理サーバ7は、コンピュータによって構築されており、図6に示されているように、CPU701、ROM702、RAM703、HD704、HDD(Hard Disk Drive)705、記録メディア706、メディアI/F707、ディスプレイ708、ネットワークI/F709、キーボード711、マウス712、CD-RWやDVD、Blu‐ray(登録商標)のディスクに対応したドライブ714、及び、バスライン710を備えている。なお、集中データ処理サーバ7は、サーバとして機能するため、キーボード711やマウス712等の入力装置や、ディスプレイ708等の出力装置はなくてもよい。 FIG. 6 is a hardware configuration diagram of the centralized data processing server. The centralized data processing server 7 is constructed by a computer, and as shown in FIG. 708 , network I/F 709 , keyboard 711 , mouse 712 , drive 714 compatible with CD-RW, DVD, and Blu-ray (registered trademark) discs, and bus line 710 . Since the centralized data processing server 7 functions as a server, input devices such as the keyboard 711 and mouse 712 and output devices such as the display 708 may be omitted.

これらのうち、CPU701は、集中データ処理サーバ7全体の動作を制御する。ROM702は、CPU701の駆動に用いられるプログラムを記憶する。RAM703は、CPU701のワークエリアとして使用される。HD704は、プログラム等の各種データを記憶する。HDD705は、CPU701の制御にしたがってHD704に対する各種データの読み出し又は書き込みを制御する。メディアI/F707は、フラッシュメモリ等の記録メディア706に対するデータの読み出し又は書き込み(記憶)を制御する。ディスプレイ708は、カーソル、メニュー、ウィンドウ、文字、又は画像などの各種情報を表示する。ネットワークI/F709は、インターネット600を利用してデータ通信をするためのインターフェースである。キーボード711は、文字、数値、各種指示などの入力のための複数のキーを備えた入力手段の一種である。マウス712は、各種指示の選択や実行、処理対象の選択、カーソルの移動などを行う入力手段の一種である。CD-RWやDVD、Blu‐rayのディスクに対応したドライブ714は、着脱可能な記録媒体の一例としてのCD-RW(Compact Disc-ReWritable)やDVD、Blu‐rayのディスク713に対する各種データの読み出し等を制御する。 Among these, the CPU 701 controls the operation of the centralized data processing server 7 as a whole. A ROM 702 stores programs used to drive the CPU 701 . A RAM 703 is used as a work area for the CPU 701 . The HD 704 stores various data such as programs. The HDD 705 controls reading and writing of various data to and from the HD 704 under the control of the CPU 701 . A media I/F 707 controls reading or writing (storage) of data to a recording medium 706 such as a flash memory. A display 708 displays various information such as a cursor, menus, windows, characters, or images. A network I/F 709 is an interface for data communication using the Internet 600 . The keyboard 711 is a type of input means having a plurality of keys for inputting characters, numerical values, various instructions, and the like. A mouse 712 is a kind of input means for selecting and executing various instructions, selecting a processing target, moving a cursor, and the like. A drive 714 compatible with CD-RW, DVD, and Blu-ray discs reads various data from a CD-RW (Compact Disc-ReWritable), DVD, and Blu-ray disc 713 as an example of a removable recording medium. etc.

また、集中データ処理サーバ7は、バスライン710を備えている。バスライン710は、図6に示されているCPU701等の各構成要素を電気的に接続するためのアドレスバスやデータバス等である。このように、サービス提供サーバ8及び認証サーバ9も同様のハードウェア構成を備えている。 The centralized data processing server 7 also has a bus line 710 . A bus line 710 is an address bus, a data bus, or the like for electrically connecting each component such as the CPU 701 shown in FIG. Thus, the service providing server 8 and the authentication server 9 also have similar hardware configurations.

<<ソフトウェア構成>>
図7は、画像取得端末2(通信端末)における実時間データ処理端末及び近端末データ処理装置のソフトウェア構成図である。
<<Software configuration>>
FIG. 7 is a software configuration diagram of the real-time data processing terminal and near-terminal data processing device in the image acquisition terminal 2 (communication terminal).

図7に示されているように、実時間データ処理端末3は、OS300、及び画像認識アプリケーション(以下、「アプリケーション」は「アプリ」と示す)AP1を有している。画像認識アプリAP1は、実時間データ処理端末3のRAM303の作業上で動作する。このうち、OS300は、基本的な機能を提供し、実時間データ処理端末3全体を管理する基本ソフトウェアである。画像認識アプリAP1は、撮像画像から人物や動物等の顔を認識するためのアプリである。 As shown in FIG. 7, the real-time data processing terminal 3 has an OS 300 and an image recognition application (hereinafter "application" is referred to as "application") AP1. The image recognition application AP1 operates on the work of the RAM 303 of the real-time data processing terminal 3. FIG. Of these, the OS 300 is basic software that provides basic functions and manages the real-time data processing terminal 3 as a whole. The image recognition application AP1 is an application for recognizing the face of a person, an animal, or the like from a captured image.

また、近端末データ処理装置5は、OS500、及び通信アプリAP2を有している。通信アプリAP2は、近端末データ処理装置5のRAM503の作業上で動作する。このうち、OS500は、基本的な機能を提供し、近端末データ処理装置5全体を管理する基本ソフトウェアである。通信アプリAP2は、分散データ処理端末6等の他の端末(装置)と通信を行うためのアプリである。 Also, the near-terminal data processing device 5 has an OS 500 and a communication application AP2. The communication application AP2 operates on the work of the RAM 503 of the near-terminal data processing device 5 . Of these, the OS 500 is basic software that provides basic functions and manages the entire near-terminal data processing device 5 . The communication application AP2 is an application for communicating with other terminals (apparatuses) such as the distributed data processing terminal 6 .

このように、画像取得端末2では、実時間データ処理端末3が画像認識を行うのに対して、近端末データ処理装置5がイントラネット200を介して分散データ処理端末6と通信を行なうことで、分散処理を行なうことができる。 As described above, in the image acquisition terminal 2, the real-time data processing terminal 3 performs image recognition, while the near-terminal data processing device 5 communicates with the distributed data processing terminal 6 via the intranet 200. Distributed processing can be performed.

なお、実時間データ処理端末3及び近端末データ処理装置5は、OSだけでなく、ドライバ、ソフトウェア開発キット(SDK)、またはアプリケーションプログラミングインタフェース(API)を搭載しており、それぞれが異なっていてもよい。 Note that the real-time data processing terminal 3 and the near-terminal data processing device 5 have not only an OS but also a driver, a software development kit (SDK), or an application programming interface (API). good.

続いて、図面を用いて、本発明の一実施形態の機能構成及び処理について説明する。 Next, the functional configuration and processing of one embodiment of the present invention will be described with reference to the drawings.

<<実施形態の機能構成>>
まず、図8乃至図16を用いて、本実施形態に係る通信システムを構成する端末、装置、及びサーバの各機能構成について説明する。図8は、実施形態に係る通信システムの機能ブロック図である。図8は、特に画像取得端末2の機能ブロックを示している。
<<Function Configuration of Embodiment>>
First, functional configurations of terminals, devices, and servers that configure the communication system according to the present embodiment will be described with reference to FIGS. 8 to 16. FIG. FIG. 8 is a functional block diagram of the communication system according to the embodiment; FIG. 8 particularly shows functional blocks of the image acquisition terminal 2 .

<実時間データ処理端末の機能構成>
図8に示されているように、実時間データ処理端末3は、判断部33、画像処理部34、イベント生成部36、表示制御部37、接続部38、記憶・読出部39、及び通信部48を有している。これら各部は、図2に示されている各構成要素のいずれかが、EEPROM304からRAM303上に展開されたプログラムに従ったCPU301からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of real-time data processing terminal>
As shown in FIG. 8, the real-time data processing terminal 3 includes a determination unit 33, an image processing unit 34, an event generation unit 36, a display control unit 37, a connection unit 38, a storage/readout unit 39, and a communication unit. 48. Each of these units is a function or means implemented by any one of the components shown in FIG.

また、実時間データ処理端末3は、図2に示されているROM302、RAM303、及びEEPROM304によって構築される記憶部3000を有している。記憶部3000には、後述の形状モデルデータが記憶されている。更に、記憶部3000には、撮像素子情報管理DB3001、サイクル値管理DB3002、画像取得プログラム管理DB3003、合成処理プログラム管理DB3004、歪み補正プログラム管理DB3005、及びサービスプログラム管理DB3006が構築されている。 The real-time data processing terminal 3 also has a storage unit 3000 constructed by the ROM 302, RAM 303, and EEPROM 304 shown in FIG. The storage unit 3000 stores geometric model data, which will be described later. Furthermore, in the storage unit 3000, an imaging device information management DB 3001, a cycle value management DB 3002, an image acquisition program management DB 3003, a composition processing program management DB 3004, a distortion correction program management DB 3005, and a service program management DB 3006 are constructed.

撮像素子情報管理DB3001は、後述の撮像素子情報管理テーブルによって構成されている。サイクル値管理DB3002は、後述のサイクル値管理テーブルによって構成されている。画像取得プログラム管理DB3003は、後述の画像取得プログラム管理テーブルによって構成されている。合成処理プログラム管理DB3004は、後述の合成処理プログラム管理テーブルによって構成されている。歪み補正プログラム管理DB3005は、後述の歪み補正プログラム管理テーブルによって構成されている。サービスプログラム管理DB3006は、後述のサービスプログラム管理テーブルによって構成されている。 The imaging device information management DB 3001 is composed of an imaging device information management table, which will be described later. The cycle value management DB 3002 is composed of a cycle value management table which will be described later. The image acquisition program management DB 3003 is composed of an image acquisition program management table, which will be described later. The composite processing program management DB 3004 is composed of a composite processing program management table which will be described later. The distortion correction program management DB 3005 is composed of a distortion correction program management table which will be described later. The service program management DB 3006 is composed of a service program management table, which will be described later.

(撮像素子情報管理テーブル)
図10(a)は、撮像素子情報管理テーブルを示す概念図である。この撮像素子情報管理テーブルでは、撮像ユニット40の型番、及び撮像ユニット40が有する撮像素子の数、及びこの撮像素子に使われるレンズの種類が関連付けて管理されている。なお、型番は、撮像素子の数及びこの撮像素子に使われるレンズの種類の違いに応じた撮像ユニットの種類を示す種類情報の一例である。また、撮像素子数や、レンズの種類が特定できるものであれば、型番に限らず、製品番号、バーコードなどの識別情報であってもよい。
(Image sensor information management table)
FIG. 10A is a conceptual diagram showing an imaging device information management table. In this image pickup device information management table, the model number of the image pickup unit 40, the number of image pickup devices included in the image pickup unit 40, and the types of lenses used for these image pickup devices are associated and managed. Note that the model number is an example of type information indicating the type of imaging unit according to the number of imaging elements and the type of lens used for the imaging elements. Further, as long as the number of imaging elements and the type of lens can be specified, identification information such as a product number, bar code, etc. may be used instead of the model number.

(サイクル値管理テーブル)
図10(b)は、サイクル値管理テーブルを示す概念図である。このサイクル値管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び後述の物体認識の処理のサイクル値(Frames Per Second)が関連付けて管理されている。
(cycle value management table)
FIG. 10(b) is a conceptual diagram showing a cycle value management table. In this cycle value management table, the number of image pickup elements of the image pickup unit 40 and the cycle value (Frames Per Second) of object recognition processing (to be described later) are associated and managed.

図11に示されている各テーブルは、各プログラムが、実時間データ処理端末3にインストールされているか否かを管理するためのテーブルである。 Each table shown in FIG. 11 is a table for managing whether each program is installed in the real-time data processing terminal 3 or not.

(画像取得プログラム管理テーブル)
図11(a)は、画像取得プログラム管理テーブルを示す概念図である。この画像取得プログラム管理テーブルでは、撮像ユニット40が有する撮像素子の数、及び画像取得プログラム(又はこの名称)、及びインストールの有無の情報が関連付けて管理されている。例えば、撮像素子の数「1」の場合の画像取得プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgC01 (1系統の画像取得)」及びインストールの有無の情報「1」が関連付けて管理されている。撮像素子の数「2」の場合の画像取得プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgC02 (2系統の画像取得)」及びインストールの有無の情報「1」が関連付けて管理されている。なお、インストールされている場合はインストールの有無の情報は「1」、インストールされていない場合はインストールの有無の情報は「0」で表されている。
(Image Acquisition Program Management Table)
FIG. 11A is a conceptual diagram showing an image acquisition program management table. In this image acquisition program management table, the number of image pickup devices of the image pickup unit 40, the image acquisition program (or its name), and information on the presence/absence of installation are associated and managed. For example, when the image acquisition program for the case where the number of imaging devices is "1" is installed in the real-time data processing terminal 3, the program "ProgC01 (1 system image acquisition)" and the information on whether or not it is installed "1 ” is associated and managed. If the image acquisition program for the case where the number of image pickup devices is "2" is installed in the real-time data processing terminal 3, the program "ProgC02 (acquisition of two systems of images)" and the information "1" for the presence or absence of installation are displayed. managed in association. When the software is installed, the information on whether or not it is installed is indicated by "1", and when it is not installed, the information on whether or not it is installed is indicated by "0".

(合成処理プログラム管理テーブル)
図11(b)は、合成処理プログラム管理テーブルを示す概念図である。この合成処理プログラム管理テーブルでは、撮像ユニット40が有する撮像素子の数、合成処理プログラムの名称、及びインストールの有無の情報が関連付けて管理されている。例えば、撮像素子の数「1」の場合の画像合成プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgS01(画像合成)」及びインストールの有無の情報「0」が関連付けて管理されている。この場合、1つの撮像素子で複数回撮像して得られた画像が合成される。撮像素子の数「2」の場合の画像プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgS02 (画像合成)」及びインストールの有無の情報「1」が関連付けて管理されている。
(Synthesis processing program management table)
FIG. 11B is a conceptual diagram showing a composition processing program management table. In this compositing processing program management table, the number of imaging elements of the imaging unit 40, the name of the compositing processing program, and information on whether or not it is installed are associated and managed. For example, if an image synthesizing program for the case where the number of imaging devices is "1" is installed in the real-time data processing terminal 3, the program "ProgS01 (image synthesizing)" and the information "0" on whether or not it is installed are associated. managed by In this case, images obtained by capturing images a plurality of times with one image sensor are synthesized. When the image program for the case where the number of imaging devices is "2" is installed in the real-time data processing terminal 3, the program "ProgS02 (image synthesis)" and the information "1" regarding the presence or absence of installation are managed in association with each other. ing.

(歪み補正プログラム管理テーブル)
図11(c)は、歪み補正プログラム管理テーブルを示す概念図である。この歪み補正プログラム管理テーブルでは、撮像ユニット40が有するレンズの種類、歪み補正プログラム(又はこの名称)、及びインストールの有無の情報が関連付けて管理されている。例えば、レンズの種類「広角」の場合の歪み補正プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgW01(広角歪み補正)」及びインストールの有無の情報「1」が関連付けて管理されている。レンズの種類「魚眼」の場合の歪み補正プログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgW02(魚眼歪み補正)」及びインストールの有無の情報「1」が関連付けて管理されている。
(Distortion correction program management table)
FIG. 11(c) is a conceptual diagram showing a distortion correction program management table. In this distortion correction program management table, the type of lens included in the imaging unit 40, the distortion correction program (or its name), and information on whether or not it is installed are associated and managed. For example, if a distortion correction program for the lens type "wide-angle" is installed in the real-time data processing terminal 3, the program "ProgW01 (wide-angle distortion correction)" and the information "1" indicating whether or not it is installed are associated. managed by When the distortion correction program for the lens type "fisheye" is installed in the real-time data processing terminal 3, the program "ProgW02 (fisheye distortion correction)" and the installation information "1" are associated. managed by

(サービスプログラム管理テーブル)
図11(d)は、サービスプログラム管理テーブルを示す概念図である。このサービスプログラム管理テーブルでは、認証サーバを識別するための認証サーバID、画像取得端末2が提供されるサービスを実行するためのサービスプログラムの名称、及びインストールの有無の情報が関連付けて管理されている。例えば、認証サーバID「a01」の場合のサービスプログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgD01 (物体検出)」及びインストールの有無の情報「1」が関連付けて管理されている。また、認証サーバID「a02」の場合のサービスプログラムが実時間データ処理端末3にインストールされている場合には、プログラム「ProgD02 (物体計数)」及びインストールの有無の情報「1」が関連付けて管理されている。
(service program management table)
FIG. 11(d) is a conceptual diagram showing a service program management table. In this service program management table, the authentication server ID for identifying the authentication server, the name of the service program for executing the service provided by the image acquisition terminal 2, and information on the presence or absence of installation are associated and managed. . For example, when the service program for the authentication server ID "a01" is installed in the real-time data processing terminal 3, the program "ProgD01 (object detection)" and the installation information "1" are associated and managed. It is In addition, when the service program for the authentication server ID "a02" is installed in the real-time data processing terminal 3, the program "ProgD02 (object counting)" and the information "1" regarding the presence or absence of installation are managed in association with each other. It is

(実時間データ処理端末の各機能構成)
次に、図8を用いて、実時間データ処理端末3の各機能構成について更に詳細に説明する。
(Each functional configuration of the real-time data processing terminal)
Next, with reference to FIG. 8, each functional configuration of the real-time data processing terminal 3 will be explained in more detail.

実時間データ処理端末3の判断部33は、CPU301の処理によって実現され、各種判断を行なう。例えば、判断部33は、撮像ユニット40から送られて来る型番に基づき、撮像素子情報管理DB3001を参考にして、撮像素子の数を判断する。 A determination unit 33 of the real-time data processing terminal 3 is realized by processing of the CPU 301 and performs various determinations. For example, the determination unit 33 determines the number of image sensors based on the model number sent from the imaging unit 40 and with reference to the image sensor information management DB 3001 .

画像処理部34は、CPU301の処理によって実現され、図11に示されている各プログラム(画像取得プログラム、画像合成プログラム、歪み補正プログラム、及びサービスプログラム)の実行により、各種画像処理を行なう。具体的には、画像処理部34は、取得するために認証が不要な第1のプログラム(例えば、画像取得プログラム、画像合成プログラム、及び歪み補正プログラム)を実行することで、画像データに対して第1の画像処理(例えば、画像取得、画像合成、歪み補正)を行なう。また、画像処理部34は、取得するために認証が必要な第2のプログラム(例えば、サービスプログラム)を実行することで、画像データに対して第2の画像処理(例えば、物体検出処理、物体計数処理)を行なう。 The image processing unit 34 is realized by the processing of the CPU 301, and performs various image processing by executing each program (image acquisition program, image synthesis program, distortion correction program, and service program) shown in FIG. Specifically, the image processing unit 34 executes a first program (for example, an image acquisition program, an image synthesis program, and a distortion correction program) that does not require authentication to acquire the image data. First image processing (for example, image acquisition, image synthesis, distortion correction) is performed. Further, the image processing unit 34 executes a second program (for example, a service program) that requires authentication to obtain the image data, thereby performing second image processing (for example, object detection processing, object counting process).

例えば、画像処理部34は、画像処理部34で取得された撮像画像のデータにおいて、顔などの予め決められた特定の物体の候補となる特徴点を検出し、顔などの予め定められた特定の物体の形状モデルを示す形状モデルデータを参照して、撮像画像の中の物体の位置を検出する。ここで、検出方法については、既知の方法を用いることが可能である。 For example, the image processing unit 34 detects, in the captured image data acquired by the image processing unit 34, feature points that are candidates for a predetermined specific object such as a face, and determines a predetermined specific object such as a face. The position of the object in the captured image is detected by referring to the shape model data representing the shape model of the object. Here, a known method can be used for the detection method.

イベント生成部36は、CPU301の処理によって実現され、画像処理部34で物体の位置が検出された旨の検出情報(イベント情報)を生成する。 The event generation unit 36 is implemented by the processing of the CPU 301 and generates detection information (event information) indicating that the position of the object has been detected by the image processing unit 34 .

表示制御部37は、CPU301の処理によって実現され、表示手段の一例であるディスプレイ317に各種画面を表示させる。 The display control unit 37 is implemented by the processing of the CPU 301 and causes the display 317, which is an example of display means, to display various screens.

接続部38は、撮像ユニットI/F313、及びCPU301の処理によって実現され、撮像ユニット40を実時間データ処理端末3に機械的及び電気的に接続するためのインターフェースである。 The connection unit 38 is realized by the processing of the imaging unit I/F 313 and the CPU 301 , and is an interface for mechanically and electrically connecting the imaging unit 40 to the real-time data processing terminal 3 .

記憶・読出部39は、CPU301の処理によって実現され、記憶部3000に各種データ(または情報)を記憶したり、記憶部3000から各種データ(または情報)を読み出したりする。 The storage/readout unit 39 is implemented by the processing of the CPU 301 , stores various data (or information) in the storage unit 3000 and reads out various data (or information) from the storage unit 3000 .

通信部48は、外部機器接続I/F318、及びCPU301の処理によって実現され、1対1の通信を介して近端末データ処理装置5の後述の通信部58と各種データ(または情報)の送受信を行う。なお、この通信は有線だけでなく無線であってもよい。 The communication unit 48 is implemented by the external device connection I/F 318 and the processing of the CPU 301, and transmits and receives various data (or information) to and from the communication unit 58 of the near-terminal data processing device 5 via one-to-one communication. conduct. Note that this communication may be wireless as well as wired.

<近端末データ処理装置の機能構成>
図8に示されているように、近端末データ処理装置5は、送受信部51、データ検出部56、表示制御部57、通信部58、及び記憶・読出部59を有している。これら各部は、図5に示されている各構成要素のいずれかが、近端末データ処理装置5において、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of near-terminal data processing device>
As shown in FIG. 8 , the near-terminal data processing device 5 has a transmission/reception section 51 , a data detection section 56 , a display control section 57 , a communication section 58 and a storage/readout section 59 . Each of these units is realized by operating one of the components shown in FIG. function or means to be performed.

また、近端末データ処理装置5は、図5に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部5000を有している。 The near-terminal data processing device 5 also has a storage unit 5000 constructed by the ROM 502, RAM 503, and EEPROM 504 shown in FIG.

(近端末データ処理装置の各機能構成)
次に、図8を用いて、近端末データ処理装置5の各機能構成について更に詳細に説明する。
(Each functional configuration of the near-terminal data processing device)
Next, with reference to FIG. 8, each functional configuration of the near-terminal data processing device 5 will be described in more detail.

近端末データ処理装置5の送受信部51は、遠距離通信回路511、アンテナ511a、及びCPU501の処理によって実現され、通信ネットワーク(ここでは、イントラネット200)を介して、分散データ処理端末6との間で各種データ(または情報)の送受信を行う。 The transmitting/receiving unit 51 of the near-terminal data processing device 5 is realized by the processing of the long-distance communication circuit 511, the antenna 511a, and the CPU 501, and communicates with the distributed data processing terminal 6 via the communication network (here, the intranet 200). to send and receive various data (or information).

データ検出部56は、CPU501の処理によって実現され、実時間データ処理端末3からのデータを受信するべきイベントが発生しているか否か、データの受信が完了したか否かを検出する。 The data detection unit 56 is implemented by the processing of the CPU 501 and detects whether an event for receiving data from the real-time data processing terminal 3 has occurred and whether data reception has been completed.

表示制御部57は、CPU501の処理によって実現され、表示手段の一例であるディスプレイ517に各種画面を表示させる。 The display control unit 57 is implemented by the processing of the CPU 501 and causes the display 517, which is an example of display means, to display various screens.

通信部58は、外部機器接続I/F518、及びCPU501の処理によって実現され、1対1の通信を介して実時間データ処理端末3の通信部48と各種データ(または情報)の送受信を行う。なお、この通信は有線だけでなく、無線であってもよい。 The communication unit 58 is realized by the processing of the external device connection I/F 518 and the CPU 501, and transmits and receives various data (or information) to and from the communication unit 48 of the real-time data processing terminal 3 via one-to-one communication. Note that this communication may be wireless as well as wired.

記憶・読出部59は、CPU501の処理によって実現され、記憶部5000に各種データ(または情報)を記憶したり、記憶部5000から各種データ(または情報)を読み出したりする。 The storage/readout unit 59 is realized by the processing of the CPU 501 , stores various data (or information) in the storage unit 5000 and reads out various data (or information) from the storage unit 5000 .

<分散データ処理端末の機能構成>
図9に示されているように、分散データ処理端末6は、送受信部61、受付部62、判断部63、表示制御部67、及び記憶・読出部69を有している。これら各部は、図5に示されている各構成要素のいずれかが、分散データ処理端末6において、EEPROM504からRAM503上に展開されたプログラムに従ったCPU501からの命令によって、動作することで実現される機能又は手段である。
<Functional Configuration of Distributed Data Processing Terminal>
As shown in FIG. 9, the distributed data processing terminal 6 has a transmitting/receiving section 61 , a receiving section 62 , a determining section 63 , a display control section 67 and a storage/reading section 69 . Each of these units is realized by operating one of the components shown in FIG. function or means to

また、分散データ処理端末6は、図5に示されているROM502、RAM503、及びEEPROM504によって構築される記憶部6000を有している。この記憶部6000には、照合データが記憶されている。更に、記憶部6000には、照合データ管理DB6001が構築されている。照合データ管理DB6001は、後述の照合データ管理テーブルによって構成されている。なお、照合データは、分散データ処理端末6以外の他のデータ管理サーバ等で記憶してもよい。 The distributed data processing terminal 6 also has a storage unit 6000 constructed by the ROM 502, RAM 503, and EEPROM 504 shown in FIG. The storage unit 6000 stores collation data. Furthermore, a collation data management DB 6001 is constructed in the storage unit 6000 . The collation data management DB 6001 is composed of a collation data management table which will be described later. Note that the collation data may be stored in a data management server or the like other than the distributed data processing terminal 6 .

(照合データ管理テーブル)
図12は、照合データ管理テーブルを示す概念図である。この照合データ管理テーブルでは、照合データのファイル名を示す画像ファイル、及び照合画像で示される人物の名前が関連付けて管理されている。
(matching data management table)
FIG. 12 is a conceptual diagram showing a matching data management table. In this collation data management table, an image file indicating the file name of the collation data and the name of the person indicated by the collation image are associated and managed.

(分散データ処理端末の各機能構成)
分散データ処理端末6の送受信部61は、分散データ処理端末6における、遠距離通信回路511、アンテナ511a、及びCPU501の処理によって実現され、通信ネットワーク(ここでは、インターネット600)を介して、集中データ処理サーバ7と各種データ(または情報)の送受信を行う。例えば、送受信部61は、照合データと被照合データとの照合要求を集中データ処理サーバ7に対して送信したり、集中データ処理サーバ7から送られて来た照合結果に対する処理を行ったりする。また、この送受信部61は、通信ネットワーク(ここでは、イントラネット200)を介して、画像取得端末2と被照合データや各種データ(または情報)の送受信を行う。
(Each functional configuration of the distributed data processing terminal)
The transmission/reception unit 61 of the distributed data processing terminal 6 is realized by the processing of the long-distance communication circuit 511, the antenna 511a, and the CPU 501 in the distributed data processing terminal 6, and transmits centralized data via a communication network (here, the Internet 600). It transmits and receives various data (or information) to and from the processing server 7 . For example, the transmitting/receiving unit 61 transmits to the centralized data processing server 7 a request for collation of collation data and data to be collated, and processes the collation results sent from the centralized data processing server 7 . The transmission/reception unit 61 also transmits/receives data to be compared and various data (or information) to/from the image acquisition terminal 2 via a communication network (here, the intranet 200).

受付部62は、分散データ処理端末6における、タッチパネル521、及びCPU501の処理によって実現され、利用者の各種操作を受け付ける。 The reception unit 62 is realized by processing of the touch panel 521 and the CPU 501 in the distributed data processing terminal 6, and receives various operations of the user.

判断部63は、分散データ処理端末6におけるCPU501の処理によって実現され、各種判断を行なう。 The determination unit 63 is realized by the processing of the CPU 501 in the distributed data processing terminal 6, and makes various determinations.

表示制御部67は、分散データ処理端末6におけるCPU501の処理によって実現され、表示手段の一例であるディスプレイ517に各種画面を表示させる。 The display control unit 67 is realized by the processing of the CPU 501 in the distributed data processing terminal 6, and displays various screens on the display 517, which is an example of display means.

記憶・読出部69は、分散データ処理端末6におけるCPU501の処理によって実現され、記憶部6000に各種データ(または情報)を記憶したり、記憶部6000から各種データ(または情報)を読み出したりする。例えば、記憶・読出部69は、受付部62で受け付けられた登録要求により、照合データ(ここでは、顔画像データ)を記憶部6000に記憶して登録させる。 The storage/readout unit 69 is realized by the processing of the CPU 501 in the distributed data processing terminal 6, stores various data (or information) in the storage unit 6000, and reads out various data (or information) from the storage unit 6000. For example, the storage/readout unit 69 stores collation data (here, face image data) in the storage unit 6000 in response to the registration request accepted by the acceptance unit 62 and registers it.

<集中データ処理サーバの機能構成>
図9に示されているように、集中データ処理サーバ7は、送受信部71、受付部72、特徴量生成部74、照合部75、及び記憶・読出部79を有している。これら各部は、図6に示されている各構成要素のいずれかが、分散データ処理端末6において、HD704からRAM703上に展開されたプログラムに従ったCPU701からの命令によって、動作することで実現される機能又は手段である。
<Functional configuration of centralized data processing server>
As shown in FIG. 9 , the centralized data processing server 7 has a transmitter/receiver 71 , a receiver 72 , a feature amount generator 74 , a collator 75 , and a memory/reader 79 . Each of these units is realized by operating one of the components shown in FIG. function or means to

また、集中データ処理サーバ7は、図6に示されているROM702、RAM703、及びHD704によって構築される記憶部7000を有している。記憶部7000には、後述の照合側の特徴量データが記憶されている。 The centralized data processing server 7 also has a storage section 7000 constructed by the ROM 702, RAM 703, and HD 704 shown in FIG. The storage unit 7000 stores feature amount data on the collation side, which will be described later.

(集中データ処理サーバの各機能構成)
集中データ処理サーバ7の送受信部71は、ネットワークI/F709、及びCPU701の処理によって実現され、通信ネットワーク(ここでは、インターネット600)を介して、分散データ処理端末6と各種データ(または情報)の送受信を行う。送受信部71は、照合データと被照合データとの照合要求を分散データ処理端末6から受信したり、分散データ処理端末6に対して照合結果を示す照合結果情報を送信したりする。
(Each functional configuration of the centralized data processing server)
The transmission/reception unit 71 of the centralized data processing server 7 is realized by the processing of the network I/F 709 and the CPU 701, and exchanges various data (or information) with the distributed data processing terminals 6 via the communication network (here, the Internet 600). Send and receive. The transmitting/receiving unit 71 receives from the distributed data processing terminal 6 a request for matching matching data and data to be matched, and transmits matching result information indicating a matching result to the distributed data processing terminal 6 .

受付部72は、キーボード711、マウス712、及びCPU701の処理によって実現され、利用者の各種操作を受け付ける。 The reception unit 72 is implemented by the keyboard 711, the mouse 712, and the processing of the CPU 701, and receives various user operations.

特徴量生成部74は、CPU701の処理によって実現され、送受信部71によって受信された被照合データ(部分画像データ)及び照合データから特徴量のパラメータを生成する。 The feature amount generation unit 74 is realized by the processing of the CPU 701 and generates a feature amount parameter from the matching data (partial image data) and the matching data received by the transmission/reception unit 71 .

照合部75は、CPU701の処理によって実現され、特徴量生成部74で生成された特徴量を用いて照合データ側の特徴量と被照合データ側の特徴量とを照合し、類似度を示す得点(ポイント)を算出する。 The matching unit 75 is implemented by the processing of the CPU 701, uses the feature amount generated by the feature amount generating unit 74 to match the feature amount on the matching data side with the feature amount on the side of the data to be matched, and generates a score indicating the degree of similarity. (point) is calculated.

記憶・読出部79は、CPU701の処理によって実現され、記憶部7000に各種データ(または情報)を記憶したり、記憶部7000から各種データ(または情報)を読み出したりする。 The storage/readout unit 79 is implemented by the processing of the CPU 701 , stores various data (or information) in the storage unit 7000 and reads out various data (or information) from the storage unit 7000 .

<サービス提供サーバの機能構成>
次に、図9、図13乃至図15を用いて、サービス提供サーバ8の各機能構成について詳細に説明する。図9に示されているように、サービス提供サーバ8は、送受信部81、判断部82、取出部87、及び記憶・読出部89を有している。これら各部は、図6に示されている各構成要素のいずれかが、HD704からRAM703上に展開されたサービス提供サーバ8用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of service providing server>
Next, each functional configuration of the service providing server 8 will be described in detail with reference to FIGS. 9 and 13 to 15. FIG. As shown in FIG. 9, the service providing server 8 has a transmitting/receiving section 81, a determining section 82, an extracting section 87, and a storing/reading section 89. FIG. Each of these units is a function realized by any one of the components shown in FIG. It is a means.

また、サービス提供サーバ8は、図6に示されているRAM703、及びHD704によって構築される記憶部8000を有している。この記憶部8000には、分散データ処理端末6又は認証サーバ9から送られて来る各種データが記憶される。また、記憶部8000には、図11で示されている各プログラムが全て記憶されており、サービス提供サーバ8は、実時間データ処理端末3の要求に応じて、要求対象のプログラムを送信することができる。 The service providing server 8 also has a storage unit 8000 constructed by the RAM 703 and HD 704 shown in FIG. Various data sent from the distributed data processing terminal 6 or the authentication server 9 are stored in the storage unit 8000 . 11 are stored in the storage unit 8000, and the service providing server 8 can transmit the requested program in response to a request from the real-time data processing terminal 3. can be done.

更に、記憶部8000には、セッション管理DB8001、及び認証サーバ管理DB8002が構築されている。このうち、セッション管理DB8001は、後述のセッション管理テーブルによって構成されている。認証サーバ管理DB8002は、後述の認証サーバ管理テーブルによって構成されている。以下、各テーブルについて詳細に説明する。 Furthermore, a session management DB 8001 and an authentication server management DB 8002 are constructed in the storage unit 8000 . Of these, the session management DB 8001 is composed of a session management table, which will be described later. The authentication server management DB 8002 is composed of an authentication server management table which will be described later. Each table will be described in detail below.

(セッション管理テーブル)
図13は、セッション管理テーブルを示す概念図である。このセッション管理テーブルでは、分散データ処理端末6にサービスを提供するために、分散データ処理端末6と確立する通信セッションを識別するためのセッションID、分散データ処理端末6を識別するための端末ID、及び端末IDで示される利用者の分散データ処理端末6のIPアドレスが関連付けて記憶されて管理されている。
(session management table)
FIG. 13 is a conceptual diagram showing a session management table. In this session management table, in order to provide services to the distributed data processing terminal 6, a session ID for identifying a communication session to be established with the distributed data processing terminal 6, a terminal ID for identifying the distributed data processing terminal 6, and the IP address of the distributed data processing terminal 6 of the user indicated by the terminal ID are stored and managed in association with each other.

図14(a)、(b)、(c)は、端末ID(identification)の一例として、電子メールアドレスを示しており、それぞれ認証対象部分と認証対象外部分によって構成されている。認証対象部分は、認証サーバ9によって認証される際に利用される利用者IDである。認証対象外部分は、認証サーバ9によって認証される際に利用されない部分である。 FIGS. 14A, 14B, and 14C show an e-mail address as an example of a terminal ID (identification), each of which is composed of an authentication target part and an authentication non-target part. The authentication target part is a user ID used when being authenticated by the authentication server 9 . The non-authentication target portion is a portion that is not used when authenticated by the authentication server 9 .

このうち、図14(a)に示されている第1のパターンでは、認証対象部分は、アカウント名”asai”、ホスト名”myhost”、及びドメイン名の前段部分“ricoo.com”によって構成されている。一方、認証対象外部分は、ドメイン名の後段部分”theta1”によって構成されている。この場合、取出部87は、”/”によって、認証対象部分と認証対象外部分を区別する。 Among them, in the first pattern shown in FIG. 14(a), the part to be authenticated consists of the account name "asai", the host name "myhost", and the front part of the domain name "ricoo.com". ing. On the other hand, the non-authentication target part is composed of the latter part of the domain name, "theta1". In this case, the retrieving unit 87 distinguishes between the authenticated part and the non-authenticated part by "/".

また、図14(b)も第1のパターンを示しているが、認証対象外部分が図14(a)と異なる。即ち、認証サーバ9は、図14(a)に示されている端末IDと、図14(b)に示されている端末IDでは、認証対象部分が同じであるため、同じIDとして認証する。 FIG. 14(b) also shows the first pattern, but differs from FIG. 14(a) in the non-authentication target portion. That is, the authentication server 9 authenticates the terminal ID shown in FIG. 14A and the terminal ID shown in FIG.

なお、端末IDは、図14(c)に示されている第2のパターンであってもよい。この第2のパターンでは、認証対象部分は、アカウント名の前段部分”asai”によって構成されている。一方、認証対象外部分は、アカウント名の後段部分”theta2”、ホスト名”myhost”、及びドメイン名“ricoo.com”によって構成されている。この場合、取出部87は、”+”によって、認証対象部分と認証対象外部分を区別する。 The terminal ID may be the second pattern shown in FIG. 14(c). In this second pattern, the part to be authenticated consists of the front part "asai" of the account name. On the other hand, the non-authenticated part is composed of the latter half of the account name "theta2", the host name "myhost", and the domain name "ricoo.com". In this case, the retrieving unit 87 distinguishes between the authenticated part and the non-authenticated part by "+".

(認証サーバ管理テーブル)
図15は、認証サーバ管理テーブルを示す概念図である。この認証サーバ管理テーブルでは、各認証サーバ9を識別するための認証サーバID毎に、各認証サーバ9にアクセスするためのURL(Uniform Resource Locator)が関連付けて記憶されて管理されている。
(Authentication server management table)
FIG. 15 is a conceptual diagram showing an authentication server management table. In this authentication server management table, a URL (Uniform Resource Locator) for accessing each authentication server 9 is stored and managed in association with each authentication server ID for identifying each authentication server 9 .

(サービス提供サーバの各機能構成)
次に、図9を用いて、サービス提供サーバ8の各機能構成について詳細に説明する。
(Each functional configuration of the service providing server)
Next, with reference to FIG. 9, each functional configuration of the service providing server 8 will be described in detail.

サービス提供サーバ8の送受信部81は、主に、図6に示されているCPU701からの命令、及びネットワークI/F709によって実現され、通信ネットワーク9を介して分散データ処理端末6、又は認証サーバ9と各種データ(または情報)の送受信を行う。 The transmission/reception unit 81 of the service providing server 8 is mainly realized by commands from the CPU 701 shown in FIG. and send and receive various data (or information).

判断部82は、主に、図6に示されているCPU701からの命令によって実現され、例えば、分散データ処理端末6にサービスを提供するための通信セッションが既に確立されているか否かを判断する。 The determination unit 82 is mainly realized by commands from the CPU 701 shown in FIG. .

取出部87は、主に、図6に示されているCPU701からの命令によって実現され、端末IDから、図14に示されているような利用者ID(認証対象部分)を取り出す処理を行う。 Extraction unit 87 is mainly implemented by commands from CPU 701 shown in FIG. 6, and performs processing for extracting a user ID (authentication target part) as shown in FIG. 14 from a terminal ID.

記憶・読出部89は、主に、図6に示されているCPU701からの命令、及びHDD705によって実現され、記憶部8000に各種データを記憶したり、記憶部8000から各種データを読み出したりする。 The storage/readout unit 89 is mainly implemented by commands from the CPU 701 and the HDD 705 shown in FIG.

<認証サーバの機能構成>
次に、図9及び図11を用いて、認証サーバ9の機能構成について詳細に説明する。認証サーバ9は、送受信部91、認証部92、及び、記憶・読出部99を有している。これら各部は、図6に示されている各構成要素のいずれかが、HD704からRAM703上に展開された認証サーバ9用プログラムに従ったCPU701からの命令によって動作することで実現される機能又は手段である。
<Functional configuration of the authentication server>
Next, the functional configuration of the authentication server 9 will be described in detail with reference to FIGS. 9 and 11. FIG. The authentication server 9 has a transmission/reception section 91 , an authentication section 92 , and a storage/readout section 99 . Each of these units is a function or means realized by any one of the components shown in FIG. is.

また、認証サーバ9は、図6に示されているRAM703、及びHD704によって構築される記憶部9000を有している。この記憶部9000には、分散データ処理端末6又はサービス提供サーバ8から送られて来る各種データが記憶される。 The authentication server 9 also has a storage unit 9000 constructed by the RAM 703 and the HD 704 shown in FIG. Various data sent from the distributed data processing terminal 6 or the service providing server 8 are stored in the storage unit 9000 .

更に、記憶部9000には、認証管理DB9001が構築されている。認証管理DB9001は、後述の認証管理テーブルによって構成されている。以下、このテーブルについて詳細に説明する。 Furthermore, an authentication management DB 9001 is constructed in the storage unit 9000 . The authentication management DB 9001 is composed of an authentication management table which will be described later. This table will be described in detail below.

(認証管理テーブル)
図16(a)は認証サーバ9aが有する認証管理テーブルを示す概念図、図16(b)は認証サーバ9bが有する認証管理テーブルを示す概念図、図16(c)は認証サーバ9cが有する認証管理テーブルを示す概念図である。
(Authentication management table)
FIG. 16(a) is a conceptual diagram showing an authentication management table possessed by the authentication server 9a, FIG. 16(b) is a conceptual diagram showing an authentication management table possessed by the authentication server 9b, and FIG. 16(c) is an authentication authorization table possessed by the authentication server 9c. 4 is a conceptual diagram showing a management table; FIG.

各認証管理テーブルでは、端末IDのうちの利用者ID(認証対象部分)とパスワードとが関連付けて記憶されて管理されている。 In each authentication management table, a user ID (part to be authenticated) of the terminal ID and a password are stored and managed in association with each other.

(認証サーバの各機能構成)
次に、図9を用いて、認証サーバ9の各機能構成について詳細に説明する。
(Each functional configuration of the authentication server)
Next, each functional configuration of the authentication server 9 will be described in detail with reference to FIG.

認証サーバ9の送受信部91は、主に、図6に示されているCPU701からの命令、及びネットワークI/F709によって実現され、インターネット600を介して分散データ処理端末6及びサービス提供サーバ8と各種データ(または情報)の送受信を行う。 The transmission/reception unit 91 of the authentication server 9 is mainly implemented by commands from the CPU 701 and the network I/F 709 shown in FIG. Send and receive data (or information).

認証部92は、主に、図6に示されているCPU701からの命令によって実現され、認証要求を送信した画像取得端末2に、サービスを受けられる正当な権限があるか否かを判断することで、分散データ処理端末6のIDの認証を行なう。このような認証を実施するのは、分散データ処理端末6が、画像取得端末2を管理していることに由来する。 The authentication unit 92 is mainly implemented by commands from the CPU 701 shown in FIG. 6, and determines whether or not the image acquisition terminal 2 that has transmitted the authentication request has legitimate authority to receive services. , the ID of the distributed data processing terminal 6 is authenticated. Such authentication is performed because the distributed data processing terminal 6 manages the image acquisition terminal 2 .

記憶・読出部99は、主に、図6に示されているCPU701からの命令、及びHDD705によって実現され、記憶部9000に各種データ(または情報)を記憶したり、記憶部9000から各種データ(または情報)を読み出したりする。 The storage/readout unit 99 is mainly realized by instructions from the CPU 701 and the HDD 705 shown in FIG. or information).

<<本実施形態の処理又は動作>>
続いて、図17乃至図33を用いて、本実施形態の処理又は動作について説明する。
<<Processing or operation of the present embodiment>>
Next, the processing or operation of this embodiment will be described with reference to FIGS. 17 to 33. FIG.

<認証処理>
まずは、図17乃至図20を用いて、認証処理について説明する。図17及び図18は、認証処理を示したシーケンス図である。図19及び図20は、分散データ処理端末の画面例を示す図である。
<Authentication process>
First, the authentication process will be described with reference to FIGS. 17 to 20. FIG. 17 and 18 are sequence diagrams showing authentication processing. 19 and 20 are diagrams showing screen examples of the distributed data processing terminal.

図17に示されているように、分散データ処理端末6の送受信部61からサービス提供サーバ8に対して、認証先選択画面の要求を送信する(ステップS21)。この要求には、分散データ処理端末6の端末IDが含まれている。また、この際、送受信部61は、自端末のIPアドレスを送信する。これにより、サービス提供サーバ8の送受信部81は、認証先選択画面の要求、及び分散データ処理端末6のIPアドレスを受信する。 As shown in FIG. 17, the transmission/reception unit 61 of the distributed data processing terminal 6 transmits a request for an authentication destination selection screen to the service providing server 8 (step S21). This request contains the terminal ID of the distributed data processing terminal 6 . At this time, the transmission/reception unit 61 also transmits the IP address of its own terminal. As a result, the transmission/reception unit 81 of the service providing server 8 receives the request for the authentication destination selection screen and the IP address of the distributed data processing terminal 6 .

次に、サービス提供サーバ8の判断部82は、セッション管理テーブル(図13参照)に、ステップS21で受信された分散データ処理端末6の端末IDが所定のセッションIDと関連づけて管理されているか否かを判断する(ステップS22)。以降、端末IDが管理されていなかった場合について説明する。 Next, the determination unit 82 of the service providing server 8 determines whether or not the terminal ID of the distributed data processing terminal 6 received in step S21 is managed in the session management table (see FIG. 13) in association with a predetermined session ID. (step S22). Hereinafter, a case where terminal IDs are not managed will be described.

サービス提供サーバ8の送受信部81は分散データ処理端末6に対して、認証先選択画面のデータを送信する(ステップS23)。これにより、分散データ処理端末6の送受信部61は、認証先選択画面のデータを受信する。 The transmission/reception unit 81 of the service providing server 8 transmits the data of the authentication destination selection screen to the distributed data processing terminal 6 (step S23). As a result, the transmission/reception unit 61 of the distributed data processing terminal 6 receives the data of the authentication destination selection screen.

次に、分散データ処理端末6の表示制御部63はディスプレイ517に対して、図19に示されているような認証先選択画面s1を表示させる(ステップS24)。図19では、分散データ処理端末6としての画面例が示されている。この認証先選択画面s1には、端末IDの入力欄b1、パスワードの入力欄b2、及びログイン要求(認証要求)するためのログインボタンb3が表示されている。更に、認証先選択画面s1には、認証サーバ9a,9b,9cをそれぞれ選択するための認証サーバ選択ボタンa1,a2,a3が表示されている。例えば、認証サーバ選択ボタンa1は、利用者が物体検出処理のサービスを受ける場合のボタンである。認証サーバ選択ボタンa2は、利用者が物体計数処理のサービスを受ける場合のボタンである。 Next, the display control unit 63 of the distributed data processing terminal 6 causes the display 517 to display an authentication destination selection screen s1 as shown in FIG. 19 (step S24). FIG. 19 shows a screen example of the distributed data processing terminal 6 . The authentication destination selection screen s1 displays a terminal ID input field b1, a password input field b2, and a login button b3 for requesting login (authentication request). Further, authentication server selection buttons a1, a2 and a3 for selecting the authentication servers 9a, 9b and 9c are displayed on the authentication destination selection screen s1. For example, the authentication server selection button a1 is a button used when the user receives an object detection service. The authentication server selection button a2 is a button used when the user receives the object counting service.

ここで、利用者が、入力欄b1に自己(分散データ処理端末6)の端末ID、入力欄b2に自己のパスワードを入力し、認証サーバ選択ボタンa1,a2,a3のうち所望のボタンを押下し、ログインボタンb3を押下すると、受付部62が各入力及び選択を受け付ける(ステップS25)。ここでは、認証サーバ選択ボタンa1が選択されることで、画像認識処理のうち、物体検出処理プログラムProgD01により物体検出処理が実行される場合について説明する。 Here, the user inputs his/her (distributed data processing terminal 6) terminal ID in the entry field b1 and his/her own password in the entry field b2, and presses a desired button among the authentication server selection buttons a1, a2, and a3. Then, when the login button b3 is pressed, the reception unit 62 receives each input and selection (step S25). Here, a case will be described where the object detection processing is executed by the object detection processing program ProgD01 in the image recognition processing by selecting the authentication server selection button a1.

送受信部61はサービス提供サーバ8に対して、ID(ここでは、端末ID又は利用者ID)の認証要求を送信する(ステップS26)。この認証要求には、ステップS25で受け付けられた端末ID及びパスワード、並びに認証サーバ9の選択結果及び分散データ処理端末6のURLが含まれている。この選択結果は、認証サーバ9を識別するための認証サーバIDを示している。これにより、サービス提供サーバ8の送受信部81は、IDの認証要求を受信する。 The transmitter/receiver 61 transmits an ID (here, terminal ID or user ID) authentication request to the service providing server 8 (step S26). This authentication request includes the terminal ID and password accepted in step S25, the selection result of the authentication server 9, and the URL of the distributed data processing terminal 6. FIG. This selection result indicates an authentication server ID for identifying the authentication server 9 . As a result, the transmission/reception unit 81 of the service providing server 8 receives the ID authentication request.

次に、サービス提供サーバ8の記憶・読出部89は、ステップS26で受信された選択結果としての認証サーバIDを検索キーとして、認証サーバ管理テーブル(図15参照)を検索することにより、対応する認証サーバのURLを読み出す(ステップS27)。 Next, the storage/readout unit 89 of the service providing server 8 searches the authentication server management table (see FIG. 15) using the authentication server ID as the selection result received in step S26 as a search key, thereby performing a corresponding The URL of the authentication server is read (step S27).

次に、取出部87は、ステップS26で受信された端末IDのうち、利用者ID(認証対象部分)のみを取り出す(ステップS28)。そして、送受信部81は、ステップS27で読み出されたURLで示される認証サーバ9に対して、IDの認証要求を送信する(ステップS29)。このIDの認証要求には、ステップS28で取り出された利用者ID(認証対象部分)、ステップS26で受信されたパスワード、及びステップ26で受信された分散データ処理端末6のURLが含まれている。これにより、認証サーバ9の送受信部71は、利用者の認証要求を受信する。 Next, the extraction unit 87 extracts only the user ID (authentication target part) from the terminal ID received in step S26 (step S28). Then, the transmitting/receiving section 81 transmits an ID authentication request to the authentication server 9 indicated by the URL read out in step S27 (step S29). This ID authentication request includes the user ID (part to be authenticated) extracted in step S28, the password received in step S26, and the URL of the distributed data processing terminal 6 received in step S26. . Thereby, the transmission/reception unit 71 of the authentication server 9 receives the user's authentication request.

次に、認証サーバ9の記憶・読出部99は、ステップS29によって受信された利用者ID(認証対象部分)及びパスワードの組を検索キーとし、認証管理テーブル(図16参照)において同じ組の認証対象部分及びパスワードを検索した結果を用いて、認証部92が認証を行なう(ステップS30)。認証部92は、同じ組が管理されている場合には、分散データ処理端末6はサービス提供サーバ8からサービスを受けるための正当な端末であると判断し、同じ組が管理されていない場合には、分散データ処理端末6はサービス提供サーバ8からサービスを受けるための正当な端末でないと判断する。 Next, the storage/readout unit 99 of the authentication server 9 uses the set of the user ID (authentication target part) and password received in step S29 as a search key, and uses the same set of authentication information in the authentication management table (see FIG. 16). The authentication unit 92 performs authentication using the search result of the target portion and password (step S30). If the same group is managed, the authentication unit 92 determines that the distributed data processing terminal 6 is a legitimate terminal for receiving services from the service providing server 8. If the same group is not managed, the authentication unit 92 determines that the distributed data processing terminal 6 is not a valid terminal for receiving services from the service providing server 8 .

なお、ステップS28では、取出部87が端末IDから認証対象部分を取り出したが、これに限るものではない。例えば、分散データ処理端末6が、ステップS26の処理の前に端末IDから認証対象部分を取り出してもよい。この場合、ステップS26では、端末IDではなく、利用者ID(認証対象部分)が送信される。また、認証サーバ9が、ステップS29の処理の後に端末IDから認証対象部分を取り出してもよい。この場合、ステップS29では、利用者ID(認証対象部分)ではなく、端末IDが送信される。 In step S28, the extractor 87 extracts the part to be authenticated from the terminal ID, but it is not limited to this. For example, the distributed data processing terminal 6 may extract the part to be authenticated from the terminal ID before the process of step S26. In this case, in step S26, the user ID (part to be authenticated) is transmitted instead of the terminal ID. Also, the authentication server 9 may extract the part to be authenticated from the terminal ID after the process of step S29. In this case, in step S29, the terminal ID is transmitted instead of the user ID (part to be authenticated).

続いて、図18に示されているように、認証サーバ9の認証部92は、トークン(送信権)の暗号化を行なう(ステップS41)。そして、送受信部91は、ステップS29によって受信された分散データ処理端末6のURLに基づいて、この分散データ処理端末6に認証結果を送信する(ステップS42)。この認証結果は、分散データ処理端末6が正当であるか否かを示すとともに、ステップS41によって暗号化されたトークンが含まれている。これにより、分散データ処理端末6の送受信部61は、利用者の認証結果を受信する。以降、利用者が正当な権限を有する場合について説明する。 Subsequently, as shown in FIG. 18, the authentication unit 92 of the authentication server 9 encrypts the token (transmission right) (step S41). Then, the transmitting/receiving unit 91 transmits the authentication result to the distributed data processing terminal 6 based on the URL of the distributed data processing terminal 6 received in step S29 (step S42). This authentication result indicates whether the distributed data processing terminal 6 is valid and includes the token encrypted in step S41. Thereby, the transmitting/receiving unit 61 of the distributed data processing terminal 6 receives the authentication result of the user. Hereinafter, a case where the user has legitimate authority will be described.

分散データ処理端末6の送受信部61は、サービス提供サーバ8に対して、セッション確立要求を送信する(ステップS43)。このセッション確立要求には、端末ID、及びステップS42で受信された暗号化されているトークンが含まれている。これにより、サービス提供サーバ8の送受信部81は、セッション確立要求を受信する。 The transmission/reception unit 61 of the distributed data processing terminal 6 transmits a session establishment request to the service providing server 8 (step S43). This session establishment request contains the terminal ID and the encrypted token received in step S42. Thereby, the transmission/reception unit 81 of the service providing server 8 receives the session establishment request.

次に、サービス提供サーバ8は、セッション確立要求を送信した分散データ処理端末6が、ステップS30で正当であると判断されたことを確認するため、送受信部81は認証サーバ9に対してトークンの認証要求を送信する(ステップS44)。このトークンの認証要求には、ステップS43で受信された暗号化されているトークンが含まれている。これにより、認証サーバ9の送受信部91は、トークンの認証要求を受信する。 Next, in order to confirm that the distributed data processing terminal 6 that has transmitted the session establishment request is valid in step S30, the service providing server 8 sends the token to the authentication server 9. An authentication request is sent (step S44). This token authentication request includes the encrypted token received in step S43. As a result, the transmitter/receiver 91 of the authentication server 9 receives the token authentication request.

次に、認証部92は、ステップS44によって受信された、暗号化されているトークンを復号化する(ステップS45)。そして、認証部92は、ステップS41で暗号化する前のトークンと、ステップS45で復号化した後のトークンを比較することで、トークンの認証を行なう(ステップS46)。そして、認証サーバ9の送受信部91は、サービス提供サーバ8に対して、ステップS46の認証結果を送信する(ステップS47)。これにより、サービス提供サーバ8の送受信部81は、認証結果を受信する。以降、ステップS46において、トークンが正当であると判断された場合について説明する。 Next, the authentication unit 92 decrypts the encrypted token received in step S44 (step S45). The authentication unit 92 then authenticates the token by comparing the token before encryption in step S41 and the token after decryption in step S45 (step S46). Then, the transmission/reception unit 91 of the authentication server 9 transmits the authentication result of step S46 to the service providing server 8 (step S47). Thereby, the transmission/reception unit 81 of the service providing server 8 receives the authentication result. Hereinafter, the case where the token is determined to be valid in step S46 will be described.

次に、サービス提供サーバ8の記憶・読出部89は、セッション管理テーブル(図13参照)において、新たにセッションIDを割り当てるとともに、このセッションIDに対して、ステップS26で受信された端末ID及びIPアドレスを関連付けて管理する(ステップS48)。そして、送受信部81は、分散データ処理端末6に対してサービス提供画面のデータを送信する(ステップS49)。これにより、分散データ処理端末6の送受信部61は、サービス提供画面のデータを受信する。 Next, the storage/reading unit 89 of the service providing server 8 assigns a new session ID to the session management table (see FIG. 13), and assigns the terminal ID and IP received in step S26 to this session ID. Addresses are associated and managed (step S48). Then, the transmitting/receiving unit 81 transmits the data of the service providing screen to the distributed data processing terminal 6 (step S49). Thereby, the transmitting/receiving unit 61 of the distributed data processing terminal 6 receives the data of the service providing screen.

次に、分散データ処理端末6の表示制御部63は、ディスプレイ517上に、図20に示されているようなサービス提供画面s2を表示させる(ステップS50)。図20では、分散データ処理端末6の画面例が示されている。ここでは、サービス提供例として、分散データ処理端末6から画像取得端末2に対する遠隔操作を実現させるための遠隔操作サービスについて説明する。図20に示されているサービス提供画面s2には、遠隔操作対象を特定するためのIPアドレスの入力欄c1、及び「遠隔操作開始」ボタンc2が表示されている。ここで、遠隔操作対象を識別するための端末IDは、画像取得端末2を識別するための端末IDである。分散データ処理端末6は、遠隔操作対象の画像取得端末2をIPアドレスをユーザ入力により指定したり、予めに分散データ処理端末6に記憶されている、画像取得端末2の接続アドレスを用いるなどをして、設定することができる。 Next, the display control unit 63 of the distributed data processing terminal 6 causes the display 517 to display a service providing screen s2 as shown in FIG. 20 (step S50). FIG. 20 shows a screen example of the distributed data processing terminal 6. As shown in FIG. Here, as an example of service provision, a remote operation service for realizing remote operation of the image acquisition terminal 2 from the distributed data processing terminal 6 will be described. On the service providing screen s2 shown in FIG. 20, an IP address input field c1 for specifying a remote operation target and a "remote operation start" button c2 are displayed. Here, the terminal ID for identifying the remote control target is the terminal ID for identifying the image acquisition terminal 2 . The distributed data processing terminal 6 designates the IP address of the image acquisition terminal 2 to be remotely operated by user input, or uses the connection address of the image acquisition terminal 2 stored in the distributed data processing terminal 6 in advance. can be set by

<画像認識の準備処理>
続いて、図21乃至図23を用いて、画像認識の準備処理について説明する。図21は、画像認識の開始要求の処理を示したシーケンス図である。
<Preparation processing for image recognition>
Next, preparation processing for image recognition will be described with reference to FIGS. 21 to 23. FIG. FIG. 21 is a sequence diagram showing processing of an image recognition start request.

図21に示されているように、分散データ処理端末6では、受付部62が利用者から画像認識の開始要求を受け付ける(ステップS61)。この場合、分散データ処理端末6のGUI(Graphical User Interface)が利用される。これにより、分散データ処理端末6の送受信部61は、設定された画像取得端末2の近端末データ処理装置5に対して、画像認識の開始要求を示す画像認識の開始要求情報を送信する(ステップS62)。この開始要求情報には、上述の認証処理(図17及び図18参照)で認証を行なった認証サーバ9を識別するための認証サーバIDと、図18で設定されたセッションIDが含まれている。これにより、近端末データ処理装置5の送受信部51は、画像認識の開始要求情報を受信する。そして、通信部58は、実時間データ処理端末3に対して、画像認識の開始要求情報を送信する(ステップS63)。これにより、実時間データ処理端末3の通信部48は、画像認識の開始要求情報を受信する。このように、ユーザーインタフェースを実時間データ処理端末3から分離することで、分散データ処理端末6から遠隔(リモート)操作が可能となる。 As shown in FIG. 21, in the distributed data processing terminal 6, the reception unit 62 receives a request to start image recognition from the user (step S61). In this case, the GUI (Graphical User Interface) of the distributed data processing terminal 6 is used. As a result, the transmitting/receiving unit 61 of the distributed data processing terminal 6 transmits image recognition start request information indicating a request to start image recognition to the near terminal data processing device 5 of the set image acquisition terminal 2 (step S62). This start request information includes an authentication server ID for identifying the authentication server 9 that authenticated in the authentication process described above (see FIGS. 17 and 18) and the session ID set in FIG. . As a result, the transmitting/receiving unit 51 of the near-terminal data processing device 5 receives the image recognition start request information. Then, the communication unit 58 transmits image recognition start request information to the real-time data processing terminal 3 (step S63). As a result, the communication unit 48 of the real-time data processing terminal 3 receives the image recognition start request information. By separating the user interface from the real-time data processing terminal 3 in this manner, remote operation from the distributed data processing terminal 6 becomes possible.

図22は、実時間データ処理端末の実時間処理の準備処理を示したシーケンス図である。例えば、図21で示される開始要求情報を受信した画像取得端末2における実時間データ処理端末は、図22のシーケンスを実行することになる。
図22に示されているように、実時間データ処理端末3の接続部38は、撮像ユニット40から、この撮像ユニット40の型番を取得する(ステップS71)。この場合、接続部38から撮像ユニット40に型番を要求し、撮像ユニット40がこの要求に応じて自ユニットの型番を送信する。
FIG. 22 is a sequence diagram showing preparatory processing for real-time processing of the real-time data processing terminal. For example, the real-time data processing terminal in the image acquisition terminal 2 that received the start request information shown in FIG. 21 executes the sequence shown in FIG.
As shown in FIG. 22, the connecting section 38 of the real-time data processing terminal 3 acquires the model number of the imaging unit 40 from the imaging unit 40 (step S71). In this case, the connecting section 38 requests the imaging unit 40 for the model number, and the imaging unit 40 transmits its own model number in response to this request.

次に、記憶・読出部39は、ステップS71によって取得された型番を検索キーとして、撮像素子情報管理DB3001(図10(a)参照)を検索することにより、対応する撮像素子の数、及びレンズの種類を読み出す(ステップS72)。更に、記憶・読出部39は、ステップS72によって読み出された撮像素子の数を検索キーとして、サイクル値管理DB3002(図10(b)参照)を検索することにより、対応するサイクル値を読み出す(ステップS73)。 Next, the storage/reading unit 39 searches the image pickup device information management DB 3001 (see FIG. 10A) using the model number acquired in step S71 as a search key, thereby obtaining the number of corresponding image pickup devices and the number of lenses. type is read out (step S72). Furthermore, the storage/readout unit 39 reads out the corresponding cycle value by searching the cycle value management DB 3002 (see FIG. 10B) using the number of image sensors read out in step S72 as a search key ( step S73).

次に、記憶・読出部39は、ステップS72によって読み出された撮像素子の数を検索キーとして、画像取得プログラム管理DB3003(図11(a)参照)で管理されている画像取得プログラムを検索する(ステップS74)。次に、記憶・読出部39は、ステップS72によって読み出された撮像素子の数を検索キーとして、合成処理プログラム管理DB3004(図11(b)参照)で管理されている合成処理プログラムを検索する(ステップS75)。次に、記憶・読出部39は、ステップS72によって読み出されたレンズの種類を検索キーとして、歪み補正プログラム管理DB3005(図11(c)参照)で管理されている歪み補正プログラムを検索する(ステップS76)。次に、記憶・読出部39は、ステップS72によって読み出されたレンズの種類を検索キーとして、サービスプログラム管理DB3006(図11(d)参照)で管理されているサービスプログラムを検索する(ステップS77)。 Next, the storage/readout unit 39 searches for an image acquisition program managed in the image acquisition program management DB 3003 (see FIG. 11A) using the number of image sensors read out in step S72 as a search key. (Step S74). Next, the storage/readout unit 39 searches for a composition processing program managed in the composition processing program management DB 3004 (see FIG. 11B) using the number of image sensors read out in step S72 as a search key. (Step S75). Next, the storage/readout unit 39 searches for a distortion correction program managed in the distortion correction program management DB 3005 (see FIG. 11C) using the lens type read out in step S72 as a search key ( step S76). Next, the storage/readout unit 39 searches for service programs managed in the service program management DB 3006 (see FIG. 11D) using the lens type read out in step S72 as a search key (step S77). ).

次に、判断部33は、上記ステップS74~S77の検索結果に基づき、実行するプログラムが管理されているか否かにより、実行するプログラムが全てインストール済みか否かを判断する(ステップS78)。例えば、ステップS74で、記憶・読出部39が画像処理プログラムを検索した結果、画像処理プログラムが管理されている場合には、判断部33は、インストール済みと判断し、管理されていない場合には、判断部33は、インストール済みではないと判断する。 Next, the determination unit 33 determines whether or not all the programs to be executed have been installed based on whether or not the programs to be executed are managed based on the search results of steps S74 to S77 (step S78). For example, in step S74, as a result of searching for an image processing program by the storage/reading unit 39, if the image processing program is managed, the determination unit 33 determines that the image processing program has been installed. , the determination unit 33 determines that the software has not been installed.

そして、判断部33によって、4つ全てのプログラムが管理されていると判断された場合には(ステップS78;YES)、図22に示されている処理は終了する。一方、判断部33によって、4つのプログラムのうち、少なくとも1つのプログラムがインストールされていないと判断された場合には(ステップS78;NO)、後述のステップS91へ進む。 Then, when the judgment unit 33 judges that all four programs are managed (step S78; YES), the processing shown in FIG. 22 ends. On the other hand, if the determination unit 33 determines that at least one of the four programs is not installed (step S78; NO), the process proceeds to step S91, which will be described later.

図23は、プログラムの取得処理を示したシーケンス図である。ここでは、実時間データ処理端末3が、図22に示されている処理によってインストールされていないと判明したプログラムを、サービス提供システム8から取得する処理を示している。 FIG. 23 is a sequence diagram showing program acquisition processing. Here, there is shown a process for the real-time data processing terminal 3 to acquire from the service providing system 8 a program that has been found not to be installed by the process shown in FIG.

まず、図23に示されているように、実時間データ処理端末3の通信部48が、近端末データ処理装置5の通信部58に対して、インストールされていないプログラムの要求を示す要求情報を送信する(ステップS91)。この要求情報には、要求するプログラム名、認証サーバIDや、セッションIDが含まれている。 First, as shown in FIG. 23, the communication unit 48 of the real-time data processing terminal 3 sends request information indicating a request for a program that has not been installed to the communication unit 58 of the near-terminal data processing device 5. Send (step S91). This request information includes the requesting program name, authentication server ID, and session ID.

次に、近端末データ処理装置5の送受信部51は、通信部58によって受信された要求情報を、分散データ処理端末6の送受信部61に送信する(ステップS92)。そして、分散データ処理端末6の送受信部61は、サービス提供サーバ8の送受信部81に要求情報を送信する(ステップS93)。 Next, the transmitting/receiving unit 51 of the near terminal data processing device 5 transmits the request information received by the communication unit 58 to the transmitting/receiving unit 61 of the distributed data processing terminal 6 (step S92). Then, the transmitting/receiving section 61 of the distributed data processing terminal 6 transmits the request information to the transmitting/receiving section 81 of the service providing server 8 (step S93).

次に、サービス提供サーバ8では、記憶・読出部89が、認証サーバIDや、セッションIDに基づいて、要求の正当性を確認し、要求情報に含まれているプログラム名で示されるプログラムを読み出す(ステップS94)。そして、送受信部81が、読み出されたプログラムを分散データ処理端末6の送受信部61に送信する(ステップS95)。この際、プログラム名と、認証サーバIDやセッションIDも送信される。 Next, in the service providing server 8, the storage/readout unit 89 confirms the validity of the request based on the authentication server ID and the session ID, and reads out the program indicated by the program name included in the request information. (Step S94). Then, the transmitting/receiving section 81 transmits the read program to the transmitting/receiving section 61 of the distributed data processing terminal 6 (step S95). At this time, the program name, authentication server ID, and session ID are also transmitted.

次に、分散データ処理端末6の送受信部61は、認証サーバIDやセッションIDに基づいて、特定された画像取得端末2の近端末データ処理装置5の送受信部51に、プログラム名を含めたプログラムを送信する(ステップS96)。そして、近端末データ処理装置5の通信部58は、実時間データ処理端末3の通信部48に対して、プログラム名を含めたプログラムを送信する(ステップS97)。 Next, based on the authentication server ID and the session ID, the transmitting/receiving unit 61 of the distributed data processing terminal 6 transfers the program including the program name to the transmitting/receiving unit 51 of the near terminal data processing device 5 of the specified image acquisition terminal 2. is transmitted (step S96). Then, the communication unit 58 of the near-terminal data processing device 5 transmits the program including the program name to the communication unit 48 of the real-time data processing terminal 3 (step S97).

次に、実時間データ処理端末3の記憶・読出部39は、通信部48によって取得されたプログラムをインストールするとともに、図11に示されている各テーブルのうち、インストールするプログラム名と、認証サーバIDと共に管理する(ステップS98)。 Next, the storage/reading unit 39 of the real-time data processing terminal 3 installs the program acquired by the communication unit 48, and also, among the tables shown in FIG. It is managed together with the ID (step S98).

次に、記憶・読出部39は、画像認識処理に必要な全てのプログラムを起動させる(ステップS99)。これにより、実時間データ処理端末3が、起動されたプログラムを実行することで、以下に示されている実時間処理を開始する。 Next, the storage/readout unit 39 activates all programs necessary for image recognition processing (step S99). As a result, the real-time data processing terminal 3 starts the real-time processing shown below by executing the activated program.

<画像認識処理>
(物体検出処理)
ここでは、図19に示される「物体検出処理サービスへのログイン」ボタンb1が押下されて、サービス提供サーバ8が、画像認識処理のサービスのうち、物体検出処理のサービスを実行の許可を出す場合について説明する。つまり、先に示した図17乃至図20までが実施されており、分散データ処理端末6から画像取得端末2に向けて、図20の「遠隔操作開始」ボタンc2が押された後の状況を示す。そのため、分散データ処理端末6は、画像取得端末2に前述の開始要求情報が送信されている。図24は、画像認識処理を示したシーケンス図である。まず、実時間データ処理端末3は、実時間処理を行なう(ステップS111)。
ここで、図25及び図26を用いて、実時間処理について説明する。図25は、実時間処理のうちの物体検出の処理を示したフローチャートである。
<Image recognition processing>
(Object detection processing)
Here, when the "login to object detection processing service" button b1 shown in FIG. 19 is pressed, the service providing server 8 gives permission to execute the object detection processing service among the image recognition processing services. will be explained. 17 to 20 shown above are executed, and the situation after the "remote operation start" button c2 in FIG. show. Therefore, the distributed data processing terminal 6 has transmitted the aforementioned start request information to the image acquisition terminal 2 . FIG. 24 is a sequence diagram showing image recognition processing. First, the real-time data processing terminal 3 performs real-time processing (step S111).
Real-time processing will now be described with reference to FIGS. 25 and 26. FIG. FIG. 25 is a flowchart showing object detection processing in real-time processing.

まず、判断部33は、接続されている撮像ユニット40における撮像素子の数が1つであるか否かを判断する(ステップS201)。この場合、判断部33は、上述のステップS72の処理によって読み出された撮像素子の数に基づいて判断する。そして、撮像素子の数が1つの場合には(ステップS201;YES)、画像処理部34が、処理を繰り返すサイクル値を1/60秒に設定する(ステップS202)。この場合、画像処理部34は、上述のステップS73の処理によって読み出されたサイクル値に設定する。 First, the determination unit 33 determines whether or not the number of imaging elements in the connected imaging unit 40 is one (step S201). In this case, the determination unit 33 makes a determination based on the number of image sensors read out by the process of step S72 described above. Then, if the number of imaging elements is one (step S201; YES), the image processing unit 34 sets the cycle value for repeating the process to 1/60 second (step S202). In this case, the image processing unit 34 sets the cycle value read by the process of step S73 described above.

次に、接続部38は、撮像ユニット40から1系統である撮像画像データを取得する(ステップS203)。この撮像画像データは、デジタル画像データであり、たとえば4K画像(幅3840画像×高さ2160画素)のデータである。この場合、接続部38は、図11(a)に示されている画像取得プログラム(ProgC01 (1系統))により処理を実行する。この処理の実行にあたって、実時間データ処理端末3は開始要求情報に含まれる認証サーバIDを用いて、図11(d)を参照して画像取得プログラムの実行の可否を判断する必要は無い。 Next, the connection unit 38 acquires one system of captured image data from the imaging unit 40 (step S203). This captured image data is digital image data, for example, data of a 4K image (width 3840 pixels×height 2160 pixels). In this case, the connection unit 38 executes processing by the image acquisition program (ProgC01 (1 system)) shown in FIG. 11(a). In executing this process, the real-time data processing terminal 3 does not need to use the authentication server ID included in the start request information and refer to FIG. 11(d) to determine whether the image acquisition program can be executed.

次に、画像処理部34が、撮像画像データにおいて、物体の候補となる特徴点を検出することで、物体を検出する(ステップS204)。この場合、画像処理部34は、開始要求情報に含まれる認証サーバIDを用いて、適切な認証サーバIDを持っているか否かを図11(d)より判断し、当該DBに示されているサービスプログラム(ProgD01 (物体検出処理))の実行の可否を判断してから、処理を実行する。画像処理部34は、予め記憶部3000に記憶されている物体の形状モデルデータと比較しながら撮像画像の端から矩形を探索し、もっともらしい物体の特徴点の位置を選択する。なお、ステップS204の処理については、例えば、「顔認識技術とその応用:パブリックセーフティを支える要素技術・ソリューション特集 ; バイオメトリクス認証, NEC技報, Vol.63, no.3, pp.26-30, 2010-09」で開示されているような、既知技術を用いることができる。 Next, the image processing unit 34 detects the object by detecting feature points that are candidates for the object in the captured image data (step S204). In this case, the image processing unit 34 uses the authentication server ID included in the start request information to determine from FIG. After determining whether the service program (ProgD01 (object detection processing)) can be executed, the processing is executed. The image processing unit 34 searches for a rectangle from the end of the captured image while comparing it with the shape model data of the object stored in advance in the storage unit 3000, and selects the position of the plausible feature point of the object. Regarding the processing of step S204, for example, "Face Recognition Technology and Its Applications: Special Feature on Elemental Technologies and Solutions Supporting Public Safety; Biometrics Authentication, NEC Technical Report, Vol.63, no.3, pp.26-30 , 2010-09” can be used.

次に、画像処理部34が、検出された物体の画像の歪みを補正する(ステップS205)。
この場合、画像処理部34は、図11(c)に示されている画像処理プログラム(ProgW01(広角歪み補正))により処理を実行する。この処理の実行にあたって、実時間データ処理端末3は開始要求情報に含まれる認証サーバIDを用いて、図11(d)を参照して広角歪み補正プログラムの実行の可否を判断する必要は無い。
Next, the image processing unit 34 corrects the distortion of the image of the detected object (step S205).
In this case, the image processing unit 34 executes processing according to the image processing program (ProgW01 (wide-angle distortion correction)) shown in FIG. 11(c). In executing this process, the real-time data processing terminal 3 does not need to use the authentication server ID included in the start request information and refer to FIG. 11(d) to determine whether the wide-angle distortion correction program can be executed.

一方、上記ステップS201において、撮像素子の数が1つではない場合には(ステップS201;NO)、画像処理部34は、実時間処理を繰り返すサイクル値を1/30秒に設定する(ステップS206)。この場合、画像処理部34は、上述のステップS73の処理によって読み出されたサイクル値に設定する。サイクル値を1/30秒とすることで、1入力と比較して、サイクル値を大きく取ることにより、後述の画像合成処理が間に合わなくなることを防ぐことが出来る。 On the other hand, in step S201, if the number of image sensors is not one (step S201; NO), the image processing unit 34 sets the cycle value for repeating real-time processing to 1/30 seconds (step S206). ). In this case, the image processing unit 34 sets the cycle value read by the process of step S73 described above. By setting the cycle value to 1/30 second, it is possible to prevent the later-described image synthesizing process from being delayed by setting the cycle value to be large compared to one input.

次に、接続部38は、撮像ユニット40から2系統である2つの撮像画像データを取得する(ステップS207)。2つの撮像画像データは、それぞれ図4(a)、(b)に示されているような半球画像のデータである。この場合、接続部38は、図11(a)に示されている画像取得プログラム(ProgC02 (2系統))により処理を実行する。この処理の実行にあたって、先に示したように、実行の可否を判断する必要は無い。 Next, the connection unit 38 acquires two captured image data of two systems from the imaging unit 40 (step S207). The two captured image data are hemispherical image data as shown in FIGS. 4(a) and 4(b). In this case, the connection unit 38 executes processing by the image acquisition program (ProgC02 (2 systems)) shown in FIG. 11(a). In executing this process, it is not necessary to determine whether or not the process can be executed, as described above.

そして、画像処理部34は、2つの撮像画像データを合成して、図4(c)に示されているような正距円筒射影画像ECを作成する(ステップS208)。この場合、画像処理部34は、図11(b)に示されている合成処理プログラム(ProgS02 (合成処理))により処理を実行する。この処理の実行にあたって、実時間データ処理端末3は開始要求情報に含まれる認証サーバIDを用いて、図11(d)を参照しサービスプログラムである合成処理プログラムの実行の可否を判断する必要は無い。そして、ステップS204に進み、画像処理部34は、正距円筒射影画像ECのデータにおいて、物体の候補となる特徴点を検出することで、物体を検出する。この場合、先に示したように、画像処理部34は、開始要求情報に含まれる認証サーバIDを用いて、図11(d)に示されているサービスプログラム(ProgD01 (物体検出処理))の実行の可否を判断してから、処理を実行する。 Then, the image processing unit 34 synthesizes the two captured image data to create an equirectangular projection image EC as shown in FIG. 4(c) (step S208). In this case, the image processing unit 34 executes processing according to the synthesis processing program (ProgS02 (synthesis processing)) shown in FIG. 11(b). In executing this process, the real-time data processing terminal 3 does not need to use the authentication server ID included in the start request information to refer to FIG. None. Then, the process proceeds to step S204, and the image processing unit 34 detects the object by detecting feature points that are object candidates in the data of the equirectangular projection image EC. In this case, as described above, the image processing unit 34 uses the authentication server ID included in the start request information to execute the service program (ProgD01 (object detection processing)) shown in FIG. Execute the process after judging whether it can be executed or not.

次に、ステップS205によって、画像処理部34が、検出された物体の画像の歪みを補正する。この場合、画像処理部34は、図11(c)に示されている画像処理プログラム(ProgW02(魚眼歪み補正))により処理を実行する。この処理の実行にあたって、実時間データ処理端末3は開始要求情報に含まれる認証サーバIDを用いて、図11(d)を参照して魚眼歪み補正プログラムの実行の可否を判断する必要は無い。 Next, in step S205, the image processing unit 34 corrects the distortion of the image of the detected object. In this case, the image processing unit 34 executes processing according to the image processing program (ProgW02 (fisheye distortion correction)) shown in FIG. 11(c). In executing this process, the real-time data processing terminal 3 does not need to use the authentication server ID included in the start request information and refer to FIG. .

以上により、図24に示されているように、実時間データ処理端末3の通信部48は、近端末データ処理装置5の通信部58へ撮像画像データを送信する(ステップS112)。そして、近端末データ処理装置5の送受信部51は、ステップS112で受信された撮像画像データを、分散データ処理端末6の送受信部61へ送信する(ステップS113)。これにより、分散データ処理端末6の表示制御部67は、ディスプレイ517に、図27(a)に示されているような撮像画像をリアルタイムで表示させる。図27は、分散データ処理端末における撮像画像の表示例を示した図である。この撮像画像には、物体検出(ここでは、顔検出)された矩形を示す枠が表示されている。ステップS112~S114は、ストリーミングの処理である。 As described above, as shown in FIG. 24, the communication unit 48 of the real-time data processing terminal 3 transmits the captured image data to the communication unit 58 of the near-terminal data processing device 5 (step S112). Then, the transmitting/receiving unit 51 of the near terminal data processing device 5 transmits the captured image data received in step S112 to the transmitting/receiving unit 61 of the distributed data processing terminal 6 (step S113). As a result, the display control unit 67 of the distributed data processing terminal 6 causes the display 517 to display the captured image as shown in FIG. 27(a) in real time. FIG. 27 is a diagram showing a display example of a captured image on the distributed data processing terminal. In this captured image, a frame indicating a rectangle for which object detection (here, face detection) has been performed is displayed. Steps S112 to S114 are streaming processes.

続いて、図26を用いて、実時間処理のうちのイベント生成の処理を説明する。図26は、実時間処理のうちのイベント生成の処理を示したフローチャートである。 Next, event generation processing in real-time processing will be described with reference to FIG. FIG. 26 is a flowchart showing event generation processing in real-time processing.

上述のステップS204の処理によって、画像処理部34が物体(ここでは、顔)を検出しなかった場合には(ステップS211;NO)、所定時間(設定されているサイクル値)経過したか否かを判断する(ステップS212)。そして、所定時間経過するまでは待機状態となり(ステップS212;NO)、所定時間経過した場合には(ステップS212;YES)、再びステップS211の処理に戻る。これに対し、上述のステップS204の処理によって、画像処理部34が物体(ここでは、顔)を検出した場合には(ステップS211;YES)、ステップS213の処理へ進む。そして、上述のステップS204の処理によって、画像処理部34が、物体(ここでは、顔)を複数検出した場合には(ステップS213;NO)、表示制御部37は、図27(b)に示すように、メッセージm1を重畳した撮像画像を表示する(ステップS214)。このメッセージm1は、一つの顔が撮影対象となるように利用者の行動を促す内容を示している。ステップS214の処理後は、ステップS212の処理に進む。 If the image processing unit 34 does not detect an object (here, a face) by the processing of step S204 (step S211; NO), whether or not a predetermined time (set cycle value) has elapsed is determined (step S212). A standby state is maintained until a predetermined period of time has elapsed (step S212; NO), and when the predetermined period of time has elapsed (step S212; YES), the process returns to step S211. On the other hand, if the image processing unit 34 detects an object (here, a face) through the process of step S204 (step S211; YES), the process proceeds to step S213. Then, when the image processing unit 34 detects a plurality of objects (faces in this case) through the processing of step S204 described above (step S213; NO), the display control unit 37 performs the processing shown in FIG. 27(b). , the captured image superimposed with the message m1 is displayed (step S214). This message m1 indicates the contents of prompting the user's action so that one face can be photographed. After the process of step S214, the process proceeds to step S212.

一方、上述のステップS205の処理によって、画像処理部34が、物体(ここでは、顔)を1つだけ検出した場合には(ステップS213;YES)、表示制御部37は、図27(b)に示されているメッセージm1を表示しない(ステップS215)。この場合、表示制御部37は、既にメッセージm1を表示している場合には、メッセージm1を表示しないようにする。 On the other hand, when the image processing unit 34 detects only one object (here, face) through the processing of step S205 described above (step S213; YES), the display control unit 37 performs the processing shown in FIG. is not displayed (step S215). In this case, the display control unit 37 does not display the message m1 when the message m1 is already displayed.

次に、画像処理部34は、検出された位置での顔を含んだ部分画像データをJPEGなどの汎用形式で符号化する(ステップS216)。そして、イベント生成部36は、近端末データ処理装置5に対して部分画像データを送信することを通知するイベントメッセージを生成する(ステップS217)。具体的には、イベント生成部36は、”Send”といったイベントメッセージm2を生成する。 Next, the image processing unit 34 encodes the partial image data including the face at the detected position in a general-purpose format such as JPEG (step S216). Then, the event generator 36 generates an event message to notify the near-terminal data processing device 5 that the partial image data will be transmitted (step S217). Specifically, the event generator 36 generates an event message m2 such as "Send".

以上により、図24に示されているステップS111の処理が終了する。これにより、通信部48は、近端末データ処理装置5の通信部58に対して、ステップS217で生成されたイベントメッセージm2、及びステップS205で検出された部分画像データを送信する(ステップS115)。なお、ステップS205の処理において、複数の物体(ここでは、顔)が検出された場合には、1つのイベントメッセージm2と共に、複数の部分画像データが送信される。また、通信システムが、店舗等で利用される場合、実時間データ処理端末3は、イベントメッセージm2及び部分画像データを保存しておき、店舗が閉店した後(例えば、夜)に、まとめて近端末データ処理装置5に送信してもよい。 Thus, the process of step S111 shown in FIG. 24 is completed. Accordingly, the communication unit 48 transmits the event message m2 generated in step S217 and the partial image data detected in step S205 to the communication unit 58 of the near-terminal data processing device 5 (step S115). Note that when a plurality of objects (here, faces) are detected in the process of step S205, a plurality of partial image data are transmitted together with one event message m2. Also, when the communication system is used in a store or the like, the real-time data processing terminal 3 stores the event message m2 and the partial image data, and after the store closes (for example, at night), the real-time data processing terminal 3 stores the event message m2 and the partial image data. It may be transmitted to the terminal data processing device 5 .

次に、近端末データ処理装置5では、データ検出部56が、通信部58によって”Send”のイベントメッセージm2の受信の有無を検出する(ステップS116)。そして、イベントメッセージm2の受信が検出された場合には(ステップS116;YES)、通信部58は、イベントメッセージm2と共に送信された部分画像データを受信する(ステップS117)。そして、記憶・読出部59が、記憶部5000に部分画像データを一時的に記憶する(ステップS118)。 Next, in the near-terminal data processing device 5, the data detection unit 56 detects whether or not the communication unit 58 has received the event message m2 of "Send" (step S116). Then, when the reception of the event message m2 is detected (step S116; YES), the communication section 58 receives the partial image data transmitted together with the event message m2 (step S117). Then, storage/readout unit 59 temporarily stores the partial image data in storage unit 5000 (step S118).

次に、データ検出部56は、部分画像データの受信が完了したか否かを監視する(ステップS119)。このステップS119の処理は、1つのイベントメッセージm2につき、全ての部分画像データが受信されるまで繰り返される(ステップS119;NO)。そして、部分画像データの受信が完了した場合には(ステップS119;YES)、記憶・読出部59は、記憶部5000から1つのイベントメッセージm2と共に送られ、記憶部5000に一時的に記憶されている全ての部分画像データを読み出す(ステップS120)。その後、送受信部51は、イントラネット200を介して、分散データ処理端末6の送受信部61に対して、ステップS120で読み出された全ての部分画像データを送信する(ステップS121)。これにより、分散データ処理端末6の送受信部61は、全ての部分画像データを受信する。部分画像データは、後ほど被照合データとして利用される。 Next, the data detection unit 56 monitors whether or not the reception of the partial image data is completed (step S119). The process of step S119 is repeated until all partial image data are received for one event message m2 (step S119; NO). Then, when the reception of the partial image data is completed (step S119; YES), the storage/readout unit 59 is sent from the storage unit 5000 together with one event message m2, and is temporarily stored in the storage unit 5000. All partial image data are read out (step S120). After that, the transmitting/receiving section 51 transmits all the partial image data read in step S120 to the transmitting/receiving section 61 of the distributed data processing terminal 6 via the intranet 200 (step S121). As a result, the transmission/reception unit 61 of the distributed data processing terminal 6 receives all the partial image data. The partial image data will be used later as collated data.

続いて、図28乃至図30を用いて、部分画像データである被照合データと、登録されている照合データとの照合処理について説明する。図28は、照合する処理を示したシーケンス図である。図29(a)は、分散データ処理端末における照合データのファイル選択画面の表示例、図29(b)は、分散データ処理端末における照合データの登録画面の表示例である。図30は、分散データ処理端末における照合結果メッセージm3の表示例である。 Next, referring to FIGS. 28 to 30, the matching process between the data to be matched, which is partial image data, and the registered matching data will be described. FIG. 28 is a sequence diagram showing the matching process. FIG. 29(a) is a display example of a verification data file selection screen in the distributed data processing terminal, and FIG. 29(b) is a display example of a verification data registration screen in the distributed data processing terminal. FIG. 30 is a display example of the collation result message m3 on the distributed data processing terminal.

まず、利用者は、照合データを登録するために、分散データ処理端末6を操作することで、表示制御部67は、図29(a)に示すように、照合データのファイル選択画面を表示させる。これにより、利用者は、「ファイル選択」ボタンb11を押下後、登録する画像(ここでは、顔の画像)を選択すると、受付部62は、登録される画像のファイルの選択を受け付ける(ステップS311)。これにより、表示制御部67は、図29(b)に示されているように、照合データの登録画面を表示させる。この登録画像には、選択された画像及びファイルa21、名前入力欄a22、「登録」ボタンb21、及び「キャンセル」ボタンb22が表示されている。そこで、利用者は、選択された画像及びファイルa21が所望の画像であるかを確認後、所望の画像であれば、名前入力欄a22に、照合データとして登録する画像の名前を入力後、「登録」ボタンb21を押下すると、受付部62は、照合データとして画像を登録する(ステップS312)。具体的には、記憶・読出部69は、照合データ管理DB6001に対して、ファイル名a21及び名前入力欄a22に入力された名前を関連付けて記憶する。なお、利用者が、選択された画像及びファイルa21が所望の画像でない場合には、「キャンセル」ボタンb22を押下すると、図29(a)に示されているファイル選択画面に戻る。このように、近端末データ処理装置5側で照合データを登録せずに、分散データ処理端末6側で照合データを登録することによって、近端末データ処理装置5と分散データ処理端末6との間の通信ネットワーク通信の負荷を抑制することができるという効果を奏する。 First, the user operates the distributed data processing terminal 6 to register the verification data, and the display control unit 67 displays a file selection screen for verification data as shown in FIG. 29(a). . Accordingly, when the user selects an image to be registered (here, an image of a face) after pressing the "select file" button b11, the reception unit 62 receives selection of a file of the image to be registered (step S311 ). As a result, the display control unit 67 displays a registration screen for matching data as shown in FIG. 29(b). The selected image and file a21, a name input field a22, a "Register" button b21, and a "Cancel" button b22 are displayed in this registered image. Therefore, after confirming whether the selected image and file a21 are the desired image, the user enters the name of the image to be registered as verification data in the name input field a22 if it is the desired image, and then selects " When the "registration" button b21 is pressed, the reception unit 62 registers the image as collation data (step S312). Specifically, the storage/readout unit 69 associates and stores the file name a21 and the name input in the name input field a22 in the collation data management DB 6001 . If the user presses the "cancel" button b22 when the selected image and file a21 are not the desired image, the screen returns to the file selection screen shown in FIG. 29(a). In this way, by registering the verification data on the distributed data processing terminal 6 side without registering the verification data on the near terminal data processing device 5 side, the communication between the near terminal data processing device 5 and the distributed data processing terminal 6 It is possible to suppress the load of communication network communication.

次に、上述のステップS121の処理により、分散データ処理端末6の送受信部61が、部分画像データを受信すると、記憶・読出部69は、照合データ管理DB6001を検索することで、登録されている照合データが残っているか否かを判断する(ステップS313)。そして、残っていると判断された場合には、送受信部61は、インターネット600を介し、集中データ処理サーバ7に対して、照合要求を示す照合要求情報を送信する(ステップS314)。この照合要求情報には、照合データ及び被照合データが含まれている。これにより、集中データ処理サーバ7の送受信部71は、照合要求情報を受信する。なお、この際、図12に示されている照合データ管理テーブルにおける先頭行に係る照合データから順次送信される。即ち、まず最初に、読み出された照合データとステップS121によって受信された被照合データが送信される。そして、次の照合要求情報が送信される際に、次に読み出された照合データとステップS121によって受信された被照合データが送信される。 Next, when the transmitting/receiving unit 61 of the distributed data processing terminal 6 receives the partial image data through the process of step S121 described above, the storage/reading unit 69 retrieves the registered data by searching the collation data management DB 6001. It is determined whether or not collation data remains (step S313). Then, when it is determined that there are remaining, the transmitting/receiving section 61 transmits collation request information indicating a collation request to the centralized data processing server 7 via the Internet 600 (step S314). This matching request information includes matching data and data to be matched. As a result, the transmission/reception unit 71 of the centralized data processing server 7 receives the collation request information. At this time, the collation data are sequentially transmitted from the first row in the collation data management table shown in FIG. That is, first, the read collation data and the to-be-collated data received in step S121 are transmitted. Then, when the next collation request information is transmitted, the collation data read out next and the to-be-collated data received in step S121 are transmitted.

次に、集中データ処理サーバ7では、特徴量生成部74が、両データ(照合データ及び被照合データ)をビットマップデータに復号化する変換を行ない、両データに係る顔画像の目鼻の凹凸や傾き等の個人を識別するための特徴量のパラメータを生成する(ステップS315)。そして、照合部75は、両データに係る特徴量のパラメータを比較して類似度を算出する(ステップS316)。この類似度の算出方法には、例えば、「ディープラーニングと画像認識 : 基礎と最近の動向(<特集>ニューロサイエンスと数理モデリング) オペレーションズ・リサーチ : 経営の科学 60(4), 198-204, 2015-04-01」に開示されているような、深層神経回路網(DNN: Deep Neural Network)が利用される。なお、照合データの特徴量のパラメータは、第1の特徴量のパラメータの一例であり、被照合データの特徴量のパラメータは、第2の特徴量のパラメータの一例である。 Next, in the centralized data processing server 7, the feature amount generating unit 74 decodes both data (matching data and data to be matched) into bitmap data, and converts the unevenness of the nose and eyes of the face image related to both data. A feature amount parameter for identifying an individual, such as an inclination, is generated (step S315). Then, the matching unit 75 compares the parameters of the feature amounts of both data to calculate the degree of similarity (step S316). For example, "Deep Learning and Image Recognition: Fundamentals and Recent Trends (<Special Issue> Neuroscience and Mathematical Modeling) Operations Research: Management Science 60(4), 198-204, 2015 -04-01”, a deep neural network (DNN) is used. The parameter of the feature amount of the matching data is an example of the parameter of the first feature amount, and the parameter of the feature amount of the to-be-matched data is an example of the parameter of the second feature amount.

次に、集中データ処理サーバ7の送受信部71は、インターネット600を介して、分散データ処理端末6の送受信部61に対し、ステップS314の照合要求に対応する応答を示す応答情報を送信する(ステップS317)。この応答情報には、ステップS316の計算結果である類似度が含まれている。これにより、分散データ処理端末6の送受信部61は、応答情報を受信する。 Next, the transmission/reception unit 71 of the centralized data processing server 7 transmits response information indicating a response corresponding to the collation request in step S314 to the transmission/reception unit 61 of the distributed data processing terminal 6 via the Internet 600 (step S317). This response information includes the degree of similarity calculated in step S316. As a result, the transmission/reception unit 61 of the distributed data processing terminal 6 receives the response information.

次に、分散データ処理端末6では、記憶・読出部69が、ステップS314で送信された照合要求情報に含まれていた照合データに付けられている「名前」と、ステップS317で受信された「類似度」とを組にして一時的に記憶部6000に記憶する(ステップS318)。その後、図12に示されている照合データ管理テーブルにおいて、照合データを次の行へ変更して、ステップS313の処理が再度行なわれる。 Next, in the distributed data processing terminal 6, the storage/readout unit 69 stores the "name" attached to the collation data included in the collation request information transmitted in step S314 and the "name" received in step S317. similarity" is temporarily stored in the storage unit 6000 (step S318). After that, in the collation data management table shown in FIG. 12, the collation data is changed to the next row, and the process of step S313 is performed again.

一方、ステップS313において、照合データが残っていない(全くない場合も含む)と判断された場合には、ステップS319の処理に進む。そして、記憶・読出部69は、記憶部6000に一時的に記憶していた各類似度の中から最大の類似度の照合データに付けられた「名前」を読み出す(ステップS319)。そして、表示制御部67は、分散データ処理端末6のディスプレイ517上に、図27(a)に示されているリアルタイムの撮像画像上において、図30に示されているような照合結果メッセージを表示させる(ステップS320)。この照合結果メッセージm3には、照合結果、及び最大類似度の照合データに付けられた「名前」が表示されている。 On the other hand, if it is determined in step S313 that no collation data remains (including the case where there is none at all), the process proceeds to step S319. Then, the storage/readout unit 69 reads out the "name" attached to the collation data with the highest similarity among the degrees of similarity temporarily stored in the storage unit 6000 (step S319). Then, the display control unit 67 displays a matching result message as shown in FIG. 30 on the display 517 of the distributed data processing terminal 6 on the real-time captured image shown in FIG. 27(a). (step S320). The collation result message m3 displays the collation result and the "name" given to the collation data with the maximum degree of similarity.

(物体件数処理)
以上が、画像認識処理のうち、物体検出処理プログラムProgD01により実行される物体検出処理である。次に、上記ステップS25によって、図19に示される認証サーバ選択ボタンa2が選択されることで、画像認識処理のうち、物体計数処理プログラムProgD02により物体件数処理が実行される許可が出される場合について説明する。つまり、先に示した物体検出処理プログラムProgD01と同様に、図17乃至図20までが実施されており、分散データ処理端末6から画像取得端末2に向けて、図20の「遠隔操作開始」ボタンc2が押されたことにより実施されることを示す。なお、物体件数処理については、図31乃至図33を用いて説明する。
(object number processing)
The above is the object detection processing executed by the object detection processing program ProgD01 in the image recognition processing. Next, when the authentication server selection button a2 shown in FIG. 19 is selected in step S25, the execution of the object number processing by the object counting processing program ProgD02 in the image recognition processing is permitted. explain. 17 to 20 are executed in the same manner as the object detection processing program ProgD01 shown earlier, and the distributed data processing terminal 6 directs the image acquisition terminal 2 to the "remote operation start" button in FIG. Indicates that it is executed by pressing c2. The object number processing will be described with reference to FIGS. 31 to 33. FIG.

図31は、ある部屋に画像取得端末を配置した状況を示した図である。本実施形態は、画像取得端末2の撮像範囲R1において、物体の検出範囲が、撮像画像の全体ではなく、撮像画像を2分割して左側半分に限定した場合を示している。例えば、画像取得端末2を監視カメラとして利用する場合、右側は社員専用の出入口D2であり、社員はICカード等を用いて出入りするため、不審者が出入りすることは困難である。一方で、左側は、一般人用の出入口D1であるため、不審者は容易に出入りすることができる。そこで、本実施形態では、物体の検出範囲を撮像画像の左側半分に限定している。なお、物体の検出範囲は、右側半分、上側半分、下側半分にしてもよい。また、対象についても2分割に限るものではなく、4分割等、用途に応じて適宜分割する数を変更してもよい。 FIG. 31 is a diagram showing a situation in which image acquisition terminals are arranged in a certain room. This embodiment shows a case where the object detection range in the imaging range R1 of the image acquisition terminal 2 is limited to the left half of the captured image, rather than the entire captured image. For example, when the image acquisition terminal 2 is used as a surveillance camera, the right side is the entrance D2 exclusively for employees, and since the employees use IC cards or the like to enter and exit, it is difficult for suspicious persons to enter and exit. On the other hand, since the left side is the doorway D1 for ordinary people, a suspicious person can enter and exit easily. Therefore, in this embodiment, the object detection range is limited to the left half of the captured image. Note that the object detection range may be the right half, the upper half, and the lower half. Also, the target is not limited to two divisions, and the number of divisions may be changed as appropriate, such as four divisions, depending on the application.

図32は、図26に示されている実時間処理のうちのイベント生成の処理の変形例を示したシーケンス図である。図33は、図28に示されている照合する処理の他の例を示したシーケンス図である。 FIG. 32 is a sequence diagram showing a modified example of event generation processing of the real-time processing shown in FIG. 33 is a sequence diagram showing another example of the matching process shown in FIG. 28. FIG.

まず、図32に示されているように、図26に示されているステップS211と同様の処理が行なわれる(ステップS221)。しかしながら、この場合、画像処理部34は、開始要求情報に含まれる認証サーバIDを用いて、適切な認証サーバIDを持っているか否かを図11(d)より判断し、当該DBに示されているサービスプログラム(物体計数処理プログラムProgD02)の実行の可否を判断してから、処理を実行する。そして、上述のステップS204の処理によって、画像処理部34が物体(ここでは、顔)を検出しなかった場合には(ステップS221;NO)、所定時間(設定されているサイクル値)経過したか否かを判断する(ステップS222)。そして、所定時間経過するまでは待機状態となり(ステップS222;NO)、所定時間経過した場合には(ステップS222;YES)、再びステップS221の処理に戻る。これに対し、上述のステップS204の処理によって、画像処理部34が物体(ここでは、顔)を検出した場合には(ステップS221;YES)、ステップS223の処理へ進む。そして、画像処理部34によって検出された物体の位置(x,y)が撮像画像の対象内(ここでは、左半分の内)にない場合には(ステップS223;NO)、ステップS222の処理へ進む。これに対して、画像処理部34によって検出された物体の位置(x,y)が、撮像画像の対象内(ここでは、左半分の内)にある場合には(ステップS223;YES)、ステップS224の処理に進む。ここで、物体の位置(x,y)は、それぞれ撮像画像の左上を原点とする幅方向及び高さ方向の座標である。具体的には、撮像画像の全画像の幅がWであるとすると、x<(W/2)の場合(ステップS223;YES)と、x≧(W/2)の場合(ステップS223;NO)とに分けられる。これ以降は、上述のステップS216,S217と同様の処理が行なわれる(ステップS224,S225)。 First, as shown in FIG. 32, processing similar to that of step S211 shown in FIG. 26 is performed (step S221). However, in this case, the image processing unit 34 uses the authentication server ID included in the start request information to determine from FIG. After judging whether or not the service program (object counting processing program ProgD02) can be executed, the processing is executed. Then, when the image processing unit 34 does not detect an object (here, a face) by the processing of step S204 (step S221; NO), it is determined whether a predetermined time (set cycle value) has elapsed. It is determined whether or not (step S222). Then, it is in a standby state until a predetermined time elapses (step S222; NO), and when the predetermined time elapses (step S222; YES), the process returns to step S221 again. On the other hand, if the image processing unit 34 detects an object (here, a face) through the process of step S204 (step S221; YES), the process proceeds to step S223. If the position (x, y) of the object detected by the image processing unit 34 is not within the object of the captured image (here, within the left half) (step S223; NO), the process proceeds to step S222. move on. On the other hand, if the position (x, y) of the object detected by the image processing unit 34 is within the object of the captured image (here, within the left half) (step S223; YES), step The process proceeds to S224. Here, the position (x, y) of the object is coordinates in the width direction and the height direction with the upper left corner of the captured image as the origin. Specifically, if the width of the entire captured image is W, x<(W/2) (step S223; YES) and x≧(W/2) (step S223; NO ) and Thereafter, the same processing as in steps S216 and S217 described above is performed (steps S224 and S225).

次に、図33を用いて、通信システムを監視カメラのシステムに応用した場合の処理について説明する。なお、図28に示されているステップS311~S319の処理と同様の処理が行なわれるため、その説明を省略する。 Next, with reference to FIG. 33, the processing when the communication system is applied to the surveillance camera system will be described. Since the same processing as that of steps S311 to S319 shown in FIG. 28 is performed, the description thereof will be omitted.

ステップS319の処理後、分散データ処理端末6の判断部63は、ステップS319によって読み出された最大類似度が閾値(例えば、「1」が完全一致の場合の「0.5」)以上か否かを判断する(ステップS331)。この場合、最大類似度が閾値未満の場合には、分散データ処理端末6は、物体(顔)が不明であるとして取り扱う。そして、表示制御部67は、分散データ処理端末6のディスプレイ517上に、図30に示されている照合結果メッセージm3の照合結果欄に「不明」である旨のメッセージを表示させる(ステップS332)。この場合、照合結果メッセージm3の名前は表示されない。 After the process of step S319, the determination unit 63 of the distributed data processing terminal 6 determines whether the maximum similarity read out in step S319 is equal to or greater than a threshold value (for example, "0.5" when "1" is a perfect match). (step S331). In this case, if the maximum similarity is less than the threshold, the distributed data processing terminal 6 treats the object (face) as unknown. Then, the display control unit 67 causes the display 517 of the distributed data processing terminal 6 to display a message indicating "unknown" in the collation result column of the collation result message m3 shown in FIG. 30 (step S332). . In this case, the name of the collation result message m3 is not displayed.

次に、分散データ処理端末6が物体を不明者として取り扱う場合には(ステップS333;YES)、記憶・読出部69は、記憶部6000で管理している不明者の数を1カウント増加させる(ステップS334)。そして、送受信部61は、集中データ処理サーバ7の送受信部71に対して、記憶部6000で管理されている不明者の1カウント分、及び、この不明者が実時間データ処理端末3で撮像された日時を示す撮影日時情報を送信する(ステップS335)。これにより、集中データ処理サーバ7の送受信部71は、不明者の1カウント分及び撮影日時情報を受信する。 Next, when the distributed data processing terminal 6 treats the object as an unknown person (step S333; YES), the storage/readout unit 69 increments the number of unknown persons managed by the storage unit 6000 by one ( step S334). Then, the transmitting/receiving unit 61 sends to the transmitting/receiving unit 71 of the centralized data processing server 7 one count of the unknown person managed by the storage unit 6000 and the image of the unknown person captured by the real-time data processing terminal 3. Photographing date and time information indicating the date and time of shooting is transmitted (step S335). As a result, the transmitting/receiving unit 71 of the centralized data processing server 7 receives one count of the unknown person and the shooting date/time information.

次に、集中データ処理サーバ7では、記憶・読出部79が、記憶部7000に対して、不明者の数を1カウント増加させるとともに、撮影日時情報を記憶する(ステップS336)。 Next, in the centralized data processing server 7, the storage/readout unit 79 increments the number of unknown persons by 1 in the storage unit 7000, and stores the photographing date and time information (step S336).

一方、分散データ処理端末6では、表示制御部67がディスプレイ517上に、一人分の入室者が不明者か否かの判断が終了した旨を示すメッセージを表示させる(ステップS337)。 On the other hand, in the distributed data processing terminal 6, the display control unit 67 causes the display 517 to display a message indicating that the judgment as to whether or not one person who has entered the room is an unknown person has been completed (step S337).

なお、撮影日時情報は、図24に示されているステップS112,S113によって、実時間データ処理端末3から分散データ処理端末6へ撮像画像データが送信される際に併せて送信される。また、撮影された日時ではなく、図24において、近端末データ処理装置5がステップS112によって撮像画像データを受信した日時、若しくは近端末データ処理装置5がステップS113によって撮像画像データを送信した日時であってもよい。または、撮影された日時ではなく、図24において、分散データ処理端末6がステップS113によって撮像画像データを受信した日時であってもよい。 The shooting date/time information is also transmitted when the captured image data is transmitted from the real-time data processing terminal 3 to the distributed data processing terminal 6 in steps S112 and S113 shown in FIG. Also, in FIG. 24, the date and time the near-terminal data processing device 5 received the captured image data in step S112, or the date and time the near-terminal data processing device 5 transmitted the captured image data in step S113, instead of the date and time when the photograph was taken. There may be. Alternatively, in FIG. 24, the date and time when the distributed data processing terminal 6 received the captured image data in step S113 may be used instead of the date and time when the image was taken.

更に、実時間データ処理端末3は、ステップS112の処理の前に、近端末データ処理装置5を介して分散データ処理端末6に、実時間データ処理端末3の位置を示す位置情報を送信しておいてもよい。これにより、分散データ処理端末6は、上述のステップS335の処理において、位置情報も送信することができるため、集中データ処理サーバ7では、不明者の1カウント分、撮影日時、及び位置情報を関連付けて管理することができる。なお、集中データ処理サーバ7側で、記憶部7000に実時間データ処理端末3(または画像取得端末2)を識別するための端末ID(Identification)及び実時間データ処理端末3(または画像取得端末2)の位置を示す位置情報を関連付けて管理しておき、分散データ処理端末6は、ステップS335の処理において、位置情報の替わりに、端末IDを送信してもよい。これにより、集中データ処理サーバ7は、分散データ処理端末6の設置位置も管理することができる。 Further, the real-time data processing terminal 3 transmits position information indicating the position of the real-time data processing terminal 3 to the distributed data processing terminal 6 via the near-terminal data processing device 5 before the process of step S112. You can leave it. As a result, the distributed data processing terminal 6 can also transmit the location information in the process of step S335 described above. can be managed On the centralized data processing server 7 side, a terminal ID (Identification) for identifying the realtime data processing terminal 3 (or the image acquisition terminal 2) and a terminal ID (Identification) for identifying the realtime data processing terminal 3 (or the image acquisition terminal 2) are stored in the storage unit 7000. ) may be associated and managed, and the distributed data processing terminal 6 may transmit the terminal ID instead of the position information in the process of step S335. Thereby, the centralized data processing server 7 can also manage the installation positions of the distributed data processing terminals 6 .

<<実施形態の主な効果>>
以上説明したように本実施形態によれば、エッジコンピューティングの通信システムを構成する画像取得端末2が、一連の画像処理を実現するために、自端末(画像取得端末2)側のみで処理を実行するためのプログラムと、サービス提供サーバ8側と協同する処理を実行するためのプログラムを実行する場合がある。この場合であっても、画像取得端末2は、自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行なうことで、一連の画像処理を開始するまでの時間を短縮することができるという効果を奏する。
<<main effects of the embodiment>>
As described above, according to the present embodiment, the image acquisition terminal 2 constituting the edge computing communication system performs processing only on its own terminal (image acquisition terminal 2) side in order to realize a series of image processing. A program for execution and a program for executing processing in cooperation with the service providing server 8 side may be executed. Even in this case, the image acquisition terminal 2 performs the first image processing on the image data by executing the first program that does not require authentication in order to execute the processing on its own terminal. By executing the second program that requires authentication to execute the processing on the own terminal and performing the second image processing on the image data, the time until the start of a series of image processing is reduced. The effect is that it can be shortened.

また、図7に示されているように、実時間データ処理端末3は画像認識アプリAP1によって撮像画像データから部分画像データを抽出し、近端末データ処理装置5は通信アプリAP2によって部分画像データを分散データ処理端末6に送信することで、負荷分散を行なうことができる。これにより、実時間データ処理端末3は、実時間処理を繰り返す1/60秒のサイクル値を維持することができるという効果を奏する。特に、イントラネット200内に複数の実時間データ処理端末を設置する場合であっても、近端末データ処理装置5が分散データ処理端末6との通信を行なうため、各実時間データ処理端末は、実時間処理を繰り返す1/60秒のサイクル値を維持することができるという効果を奏する。更に、実時間データ処理端末3と近端末データ処理装置5とを、分散データ処理端末6及び集中データ処理サーバ7と比較して物理的に近い位置で1対1接続することにより、データの受け渡しを高速にできるため、最終的に照合結果を得るまでの処理時間を短縮することができるという効果を奏する。また、図3に示されているように撮像素子の数が変わっても、画像取得端末2が撮像素子の数の影響を受けることを抑制することができる。 Further, as shown in FIG. 7, the real-time data processing terminal 3 extracts partial image data from the captured image data using the image recognition application AP1, and the near-terminal data processing apparatus 5 extracts partial image data using the communication application AP2. By transmitting to the distributed data processing terminal 6, load distribution can be performed. As a result, the real-time data processing terminal 3 can maintain a cycle value of 1/60 second for repeating real-time processing. In particular, even when a plurality of real-time data processing terminals are installed in the intranet 200, since the near-terminal data processing device 5 communicates with the distributed data processing terminal 6, each real-time data processing terminal This has the effect of maintaining a cycle value of 1/60 second for repeating time processing. In addition, by connecting the real-time data processing terminal 3 and the near-terminal data processing device 5 one-to-one at a position physically closer to the distributed data processing terminal 6 and the centralized data processing server 7, data can be exchanged. can be performed at high speed, the effect is that the processing time until finally obtaining the collation result can be shortened. In addition, even if the number of image sensors changes as shown in FIG. 3, the image acquisition terminal 2 can be prevented from being affected by the number of image sensors.

また、実時間データ処理端末3は、撮像画像データではなく部分画像データを出力するため、画像取得端末2から分散データ処理端末6に送信されるデータは、データ量が大きい撮像画像データではなく、比較的データ量が少ない部分画像データで済むことができる。これにより、イントラネット200及びインターネット600に流れるデータ量を抑えることができる。更に、実時間データ処理端末3は、部分画像データを符号化することによりデータ量を圧縮することで、近端末データ処理装置5がイントラネット200を介して分散データ処理端末6に送信するデータのデータ量を小さくすることができる。 In addition, since the real-time data processing terminal 3 outputs partial image data instead of captured image data, the data transmitted from the image acquisition terminal 2 to the distributed data processing terminal 6 is not captured image data with a large amount of data. Only partial image data with a relatively small amount of data can be used. As a result, the amount of data flowing through the intranet 200 and the Internet 600 can be suppressed. Furthermore, the real-time data processing terminal 3 compresses the data volume by encoding the partial image data, thereby reducing the data size of the data transmitted from the near-terminal data processing device 5 to the distributed data processing terminal 6 via the intranet 200. can be reduced in quantity.

また、複数人の顔が検出された場合には、図27(b)に示されているように、一人で撮影することを要求するメッセージが表示されるため、実時間データ処理端末3には確実に一人の顔だけを認識させるようにすることができるため、顔認識の精度が向上することで、セキュリティを高めることができる。 Also, when multiple faces are detected, as shown in FIG. Since it is possible to ensure that only one person's face is recognized, security can be enhanced by improving the accuracy of face recognition.

また、(物体件数処理)の場合には、集中データ処理サーバ7は、物体の検出範囲が半分で済むため、近端末データ処理装置5から分散データ処理端末6を介して集中データ処理サーバ7に部分画像データを送信する頻度を減少させることができる。これにより、イントラネット200及びインターネット600上を送信するデータ量を抑制することができる。 In the case of (processing the number of objects), the centralized data processing server 7 needs only half the object detection range. The frequency of transmitting partial image data can be reduced. As a result, the amount of data transmitted over the intranet 200 and the Internet 600 can be suppressed.

また、不明者の数が集中データ処理サーバ7に記憶されるため、分散データ処理端末6等から集中データ処理サーバ7にアクセスして、不明者の数を確認することができる。 Further, since the number of unknown persons is stored in the centralized data processing server 7, the centralized data processing server 7 can be accessed from the distributed data processing terminal 6 or the like to confirm the number of unknown persons.

〔補足〕
上記各実施形態では、撮像画像データについて説明したが、これに限らず、撮影されずに利用者によって作成された作成画像データであってもよい。この場合、撮影画像データ及び作成画像データは、「画像データ」の一例である。また。画像取得端末2は、通信端末の一例であり、画像データを外部から取得せず、自端末で作成してもよい。更に、通信端末は、集音により音データを取得してもよいし、温度センサにより温度データを取得してもよいし、湿度センサにより湿度データを取得してもよい。
〔supplement〕
In each of the above embodiments, captured image data has been described, but the present invention is not limited to this, and may be created image data created by a user without being captured. In this case, the captured image data and the created image data are examples of "image data". again. The image acquisition terminal 2 is an example of a communication terminal, and image data may be created by itself without acquiring image data from the outside. Furthermore, the communication terminal may acquire sound data by sound collection, temperature data by a temperature sensor, and humidity data by a humidity sensor.

また、各CPU301,501,701等の各構成要素は、単一であってもよく複数であってもよい。また、画像取得端末2、分散データ処理端末6、及び集中データ処理サーバ7は、それぞれ複数あってもよい。更に、分散データ処理端末6はサーバであってもよい。 Further, each component such as each CPU 301, 501, 701 may be singular or plural. Further, there may be a plurality of image acquisition terminals 2, distributed data processing terminals 6, and centralized data processing servers 7, respectively. Further, distributed data processing terminal 6 may be a server.

また、上述の実施形態における各機能は、一又は複数の処理回路によって実現することが可能である。ここで、本実施形態における「処理回路」は、電子回路により実装されるプロセッサのようにソフトウェアによって各機能を実行するようプログラミングされたプロセッサや、上述した各機能を実行するよう設計されたASIC(Application Specific Integrated
Circuit)、DSP(digital signal processor)、FPGA(field programmable gate array)、SOC(System on a chip)、GPU、及び従来の回路モジュール等のデバイスを含む。
Also, each function in the above-described embodiments can be realized by one or more processing circuits. Here, the "processing circuit" in this embodiment means a processor programmed to execute each function by software, such as a processor implemented by an electronic circuit, or an ASIC designed to execute each function described above. Application Specific Integrated
Circuit), DSP (digital signal processor), FPGA (field programmable gate array), SOC (System on a chip), GPU, and devices such as conventional circuit modules.

2 画像取得端末(通信端末の一例)
3 実時間データ処理端末
5 近端末データ処理装置
6 分散データ処理端末
7 集中データ処理サーバ
34 画像処理部(画像処理手段の一例)
35 物体検出部
38 接続部(取得手段の一例)
51 送受信部
61 送受信部
62 受付部
67 表示制御部
69 記憶・読出部
71 送受信部
74 特徴量生成部
75 照合部
200 イントラネット
600 インターネット
3001 撮像素子情報管理DB(撮像素子情報管理手段の一例)
3002 サイクル値管理DB
3003 画像取得プログラムDB
3004 合成処理プログラム管理DB
3005 歪み補正プログラム管理DB
3006 サービスプログラム管理DB(プログラム管理手段の一例)
6000 記憶部
6001 照合データ管理DB
8000 記憶部
8001 セッション管理DB
8002 認証サーバ管理DB
9000 記憶部
9001 認証管理DB
2 Image acquisition terminal (an example of a communication terminal)
3 Real-time data processing terminal 5 Near-terminal data processing device 6 Distributed data processing terminal 7 Centralized data processing server 34 Image processing unit (an example of image processing means)
35 Object detection unit 38 Connection unit (an example of acquisition means)
51 transmission/reception unit 61 transmission/reception unit 62 reception unit 67 display control unit 69 storage/readout unit 71 transmission/reception unit 74 feature amount generation unit 75 collation unit 200 intranet 600 Internet 3001 imaging device information management DB (an example of imaging device information management means)
3002 Cycle value management DB
3003 Image Acquisition Program DB
3004 Synthesis processing program management DB
3005 Distortion correction program management DB
3006 Service program management DB (an example of program management means)
6000 Storage unit 6001 Matching data management DB
8000 Storage unit 8001 Session management DB
8002 Authentication server management DB
9000 Storage unit 9001 Authentication management DB

特表2016-519812号公報Japanese translation of PCT publication No. 2016-519812

Claims (13)

通信ネットワークを介してサービスを提供するサービス提供サーバでの処理及び自端末での処理の協同により、当該サービス提供サーバから提供されるサービスを実現する通信端末であって、
前記自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、前記自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行なう画像処理手段を有し、
前記自端末は、前記提供されるサービスを実現するにあたり前記自端末に第1のプログラムと第2のプログラムが存在するか検索する検索部と、
前記検索した結果に基づき、前記第1および第2のプログラムの存在を判断する判断部と、
第1処理部と第2処理部と、を有し、
前記判断部において前記第1および第2のプログラムにおいて少なくとも1のプログラムが前記第1処理部に存在しないと判断された場合、前記第1処理部が、前記第2処理部に対して、前記存在しないプログラムの要求を示す要求情報を送信し、
前記第2処理部は、受信された前記要求情報を前記サービス提供サーバが受信するように送信し、
前記第2処理部は、前記サービス提供サーバが送信した、前記要求情報に基づいたプログラムを受信し、前記第1処理部に対して、前記受信したプログラムを送信し、
前記第1処理部は、前記受信した当該プログラムをインストールする、
ことを特徴とする通信端末。
A communication terminal that realizes a service provided by a service providing server through cooperation between processing by a service providing server that provides services via a communication network and processing by the terminal itself,
performing first image processing on image data by executing a first program that does not require authentication for executing processing in the own terminal, and performing authentication in order to execute processing in the own terminal; an image processing means for performing second image processing on the image data by executing a second program that requires
a search unit for searching whether a first program and a second program exist in the terminal for realizing the provided service;
a determination unit that determines existence of the first and second programs based on the searched result;
having a first processing unit and a second processing unit,
If the determining unit determines that at least one of the first and second programs does not exist in the first processing unit, the first processing unit determines the presence of the program to the second processing unit. Send request information indicating a request for a program that does not
The second processing unit transmits the received request information so that the service providing server receives it,
The second processing unit receives a program based on the request information transmitted by the service providing server, transmits the received program to the first processing unit,
the first processing unit installs the received program;
A communication terminal characterized by:
前記第1のプログラムは、所定の画像データを取得するための画像取得プログラム、複数の画像データを合成するための画像合成プログラム、及び画像の歪みを補正するための歪み補正プログラムのうち少なくとも1つであり、前記第2のプログラムは、サービスを提供するサービス提供サーバから所定のサービスの提供を受けるにあたって、前記画像データに係る画像から所定の物体を検出する物体検出プログラム又は前記画像に含まれる所定の物体の数を計数する物体計数プログラムであることを特徴とする請求項1に記載の通信端末。 The first program is at least one of an image acquisition program for acquiring predetermined image data, an image synthesizing program for synthesizing a plurality of image data, and a distortion correction program for correcting image distortion. and the second program is an object detection program for detecting a predetermined object from an image related to the image data or a predetermined object included in the image when receiving a predetermined service from a service providing server that provides the service. 2. The communication terminal according to claim 1, wherein the communication terminal is an object counting program for counting the number of objects. 前記画像取得プログラムは、単一の撮像素子によって撮像されることで得られた画像データを取得するための第1の画像取得プログラム、又は複数の撮像素子によってそれぞれ撮像されることで得られた複数の画像データを取得するための第2の画像取得プログラムであることを特徴とする請求項2に記載の通信端末。 The image acquisition program is a first image acquisition program for acquiring image data obtained by imaging with a single imaging device, or a plurality of image acquisition programs obtained by imaging with a plurality of imaging devices. 3. The communication terminal according to claim 2, wherein the second image acquisition program is for acquiring the image data of the. 前記歪み補正プログラムは、広角レンズを使用した撮像素子によって得られた画像データに係る画像の歪みを補正するための広角歪み補正プログラム、又は魚眼レンズを使用した撮像素子によって得られた画像データに係る画像の歪みを補正するための魚眼歪み補正プログラムであることを特徴とする請求項2に記載の通信端末。 The distortion correction program is a wide-angle distortion correction program for correcting image distortion associated with image data obtained by an image pickup device using a wide-angle lens, or an image associated with image data obtained by an image pickup device using a fisheye lens. 3. The communication terminal according to claim 2, wherein the program is a fish-eye distortion correcting program for correcting distortion of . 被写体を撮像して画像データを得る所定の撮像ユニットを識別するための所定の識別情報、当該撮像ユニットが有する撮像素子の数、及びレンズの種類を関連付けて管理する撮像素子情報管理手段と、
前記撮像素子の数又は当該レンズの種類、及び前記第1のプログラムを関連付けて管理するとともに、前記レンズの種類、及び前記第2のプログラムを関連付けて管理するプログラム管理手段と、
被写体を撮像して画像データを得る特定の撮像ユニットから、当該特定の撮像ユニットを識別するための特定の識別情報を取得する取得手段と、
を有し、
前記画像処理手段は、前記撮像素子情報管理手段において前記特定の識別情報に対応する撮像素子の数及び当該レンズの種類が、前記プログラム管理手段において対応している第1のプログラム及び第2のプログラムを実行することで、前記第1の画像処理及び前記第2の画像処理を行なうことを特徴とする請求項1に記載の通信端末。
image pickup device information management means for managing predetermined identification information for identifying a predetermined image pickup unit that captures an image of a subject and obtains image data, the number of image pickup devices included in the image pickup unit, and the type of lens in association with each other;
program management means for managing the number of image sensors or the type of the lens and the first program in association with each other, and managing the type of the lens and the second program in association with each other;
Acquisition means for acquiring specific identification information for identifying a specific imaging unit from a specific imaging unit that captures an image of a subject and obtains image data;
has
The image processing means includes a first program and a second program in which the number of image sensors and the type of lens corresponding to the specific identification information in the image sensor information management means correspond in the program management means. 2. The communication terminal according to claim 1, wherein the first image processing and the second image processing are performed by executing
請求項1に記載の通信端末と、
前記認証を行なう認証サーバと、
前記通信端末にサービスを提供する際に、前記認証サーバに前記通信端末の認証を行なわせるサービス提供システムと、
を有する通信システムであって
前記サービス提供システムは、
前記通信端末から、利用者の認証に用いられる認証対象部分及び利用者の認証に用いられない認証対象外部分を含み、前記通信端末を識別するための端末識別情報を受信する受信手段と、
前記受信された端末識別情報のうち前記認証対象部分のみを、前記認証サーバに送信する送信手段と、
を有することを特徴とする通信システム。
a communication terminal according to claim 1;
an authentication server that performs the authentication;
a service providing system that causes the authentication server to authenticate the communication terminal when providing the service to the communication terminal;
A communication system comprising:
receiving means for receiving, from the communication terminal, terminal identification information for identifying the communication terminal, including an authentication target portion used for user authentication and an authentication non-target portion not used for user authentication;
a transmission means for transmitting only the authentication target portion of the received terminal identification information to the authentication server;
A communication system characterized by comprising:
通信ネットワークを介してサービスを提供するサービス提供サーバでの処理及び自端末での処理の協同により、当該サービス提供サーバから提供されるサービスを実現する通信端末であって、
前記自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、前記自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行なう画像処理手段を有し、
前記第1のプログラムは、所定の画像データを取得するための画像取得プログラム、複数の画像データを合成するための画像合成プログラム、及び画像の歪みを補正するための歪み補正プログラムのうち少なくとも1つであり、
前記第2のプログラムは、サービスを提供するサービス提供サーバから所定のサービスの提供を受けるにあたって、前記画像データに係る画像から所定の物体を検出する物体検出プログラム又は前記画像に含まれる所定の物体の数を計数する物体計数プログラムであることを特徴とする通信端末。
A communication terminal that realizes a service provided by a service providing server through cooperation between processing by a service providing server that provides services via a communication network and processing by the terminal itself,
performing first image processing on image data by executing a first program that does not require authentication for executing processing in the own terminal, and performing authentication in order to execute processing in the own terminal; an image processing means for performing second image processing on the image data by executing a second program that requires
The first program is at least one of an image acquisition program for acquiring predetermined image data, an image synthesizing program for synthesizing a plurality of image data, and a distortion correction program for correcting image distortion. and
The second program is an object detection program for detecting a predetermined object from an image related to the image data or detecting a predetermined object included in the image when receiving a predetermined service from a service providing server that provides the service. A communication terminal characterized by an object counting program for counting numbers.
通信ネットワークを介してサービスを提供するサービス提供サーバでの処理及び自端末での処理の協同により、当該サービス提供サーバから提供されるサービスを実現する通信端末であって、
前記自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、前記自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行なう画像処理手段と、被写体を撮像して画像データを得る所定の撮像ユニットを識別するための所定の識別情報、当該撮像ユニットが有する撮像素子の数、及びレンズの種類を関連付けて管理する撮像素子情報管理手段と、
前記撮像素子の数又は当該レンズの種類、及び前記第1のプログラムを関連付けて管理するとともに、前記レンズの種類、及び前記第2のプログラムを関連付けて管理するプログラム管理手段と、
被写体を撮像して画像データを得る特定の撮像ユニットから、当該特定の撮像ユニットを識別するための特定の識別情報を取得する取得手段と、
を有し、
前記画像処理手段は、前記撮像素子情報管理手段において前記特定の識別情報に対応する撮像素子の数及び当該レンズの種類が、前記プログラム管理手段において対応している第1のプログラム及び第2のプログラムを実行することで、前記第1の画像処理及び前記第2の画像処理を行なうことを特徴とする通信端末。
A communication terminal that realizes a service provided by a service providing server through cooperation between processing by a service providing server that provides services via a communication network and processing by the terminal itself,
performing first image processing on image data by executing a first program that does not require authentication for executing processing in the own terminal, and performing authentication in order to execute processing in the own terminal; A predetermined image processing means for performing the second image processing on the image data by executing a second program that requires a predetermined image capturing unit for capturing an image of a subject and obtaining image data. image pickup device information management means for managing identification information, the number of image pickup devices included in the image pickup unit, and the type of lens in association with each other;
program management means for managing the number of image sensors or the type of the lens and the first program in association with each other, and managing the type of the lens and the second program in association with each other;
Acquisition means for acquiring specific identification information for identifying a specific imaging unit from a specific imaging unit that captures an image of a subject and obtains image data;
has
The image processing means includes a first program and a second program in which the number of image sensors and the type of lens corresponding to the specific identification information in the image sensor information management means correspond in the program management means. and performing the first image processing and the second image processing.
通信ネットワークを介してサービスを提供するサービス提供サーバでの処理及び自端末での処理の協同により、当該サービス提供サーバから提供されるサービスを実現する通信端末と、
認証を行なう認証サーバと、
前記通信端末にサービスを提供する際に、前記認証サーバに前記通信端末の認証を行なわせるサービス提供システムと、
を有する通信システムであって
前記通信端末は、前記自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、前記自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行なう画像処理手段を有し、
前記サービス提供システムは、前記通信端末から、利用者の認証に用いられる認証対象部分及び利用者の認証に用いられない認証対象外部分を含み、前記通信端末を識別するための端末識別情報を受信する受信手段と、
前記受信された端末識別情報のうち前記認証対象部分のみを、前記認証サーバに送信する送信手段と、
を有することを特徴とする通信システム。
a communication terminal that realizes the service provided by the service providing server through cooperation between the processing of the service providing server that provides the service via a communication network and the processing of the terminal itself;
an authentication server that performs authentication;
a service providing system that causes the authentication server to authenticate the communication terminal when providing the service to the communication terminal;
wherein the communication terminal performs first image processing on image data by executing a first program that does not require authentication in order to execute processing on the own terminal, having image processing means for performing second image processing on the image data by executing a second program that requires authentication in order to execute processing in the own terminal;
The service providing system receives, from the communication terminal, terminal identification information for identifying the communication terminal, including an authentication target portion used for user authentication and an authentication non-target portion not used for user authentication. receiving means for
a transmission means for transmitting only the authentication target portion of the received terminal identification information to the authentication server;
A communication system characterized by comprising:
画像データを得る通信端末が実行する画像処理方法であって、
前記通信端末は、
実行するために認証が不要な第1のプログラムを実行することで前記画像データに対して第1の画像処理を行なうとともに、実行するために認証が必要な第2のプログラムを実行することで、前記画像データに対して第2の画像処理を行い、
前記第1のプログラムは、所定の画像データを取得するための画像取得プログラム、複数の画像データを合成するための画像合成プログラム、及び画像の歪みを補正するための歪み補正プログラムのうち少なくとも1つであり、
前記第2のプログラムは、サービスを提供するサービス提供サーバから所定のサービスの提供を受けるにあたって、前記画像データに係る画像から所定の物体を検出する物体検出プログラム又は前記画像に含まれる所定の物体の数を計数する物体計数プログラムであることを特徴とする画像処理方法。
An image processing method executed by a communication terminal that obtains image data,
The communication terminal is
performing first image processing on the image data by executing a first program that does not require authentication for execution, and executing a second program that requires authentication for execution, performing second image processing on the image data;
The first program is at least one of an image acquisition program for acquiring predetermined image data, an image synthesizing program for synthesizing a plurality of image data, and a distortion correction program for correcting image distortion. and
The second program is an object detection program for detecting a predetermined object from an image related to the image data or detecting a predetermined object included in the image when receiving a predetermined service from a service providing server that provides the service. An image processing method characterized by being an object counting program for counting numbers.
画像データを得る通信端末が実行する画像処理方法であって、
前記通信端末は、
実行するために認証が不要な第1のプログラムを実行することで前記画像データに対して第1の画像処理を行なうとともに、実行するために認証が必要な第2のプログラムを実行することで、前記画像データに対して第2の画像処理を行い、
被写体を撮像して画像データを得る所定の撮像ユニットを識別するための所定の識別情報、当該撮像ユニットが有する撮像素子の数、及びレンズの種類を関連付けて管理し、前記撮像素子の数又は当該レンズの種類、及び前記第1のプログラムを関連付けて管理するとともに、前記レンズの種類、及び前記第2のプログラムを関連付けて管理し、
被写体を撮像して画像データを得る特定の撮像ユニットから、当該特定の撮像ユニットを識別するための特定の識別情報を取得し、
前記特定の識別情報に対応する撮像素子の数及び当該レンズの種類が、前記プログラム管理手段において対応している第1のプログラム及び第2のプログラムを実行することで、前記第1の画像処理及び前記第2の画像処理を行なう
ことを特徴とする画像処理方法。
An image processing method executed by a communication terminal that obtains image data,
The communication terminal is
performing first image processing on the image data by executing a first program that does not require authentication for execution, and executing a second program that requires authentication for execution, performing second image processing on the image data;
Predetermined identification information for identifying a predetermined imaging unit that captures an image of a subject and obtains image data, the number of imaging elements possessed by the imaging unit, and the type of lens are associated and managed, and Associating and managing the lens type and the first program, associating and managing the lens type and the second program,
Acquiring specific identification information for identifying a specific imaging unit from a specific imaging unit that captures an image of a subject to obtain image data;
The first image processing and the An image processing method characterized by performing the second image processing.
通信ネットワークを介してサービスを提供するサービス提供サーバでの処理及び自端末での処理の協同により、当該サービス提供サーバから提供されるサービスを実現する通信端末と、
認証を行なう認証サーバと、
前記通信端末にサービスを提供する際に、前記認証サーバに前記通信端末の認証を行なわせるサービス提供システムと、
を有する通信システムによる通信方法であって、
前記通信端末は、前記自端末での処理を実行するために認証が不要な第1のプログラムを実行することで画像データに対して第1の画像処理を行なうとともに、前記自端末での処理を実行するために認証が必要な第2のプログラムを実行することで前記画像データに対して第2の画像処理を行い、
前記サービス提供システムは、
前記通信端末から、利用者の認証に用いられる認証対象部分及び利用者の認証に用いられない認証対象外部分を含み、前記通信端末を識別するための端末識別情報を受信し、前記受信された端末識別情報のうち前記認証対象部分のみを、前記認証サーバに送信することを特徴とする通信方法。
a communication terminal that realizes the service provided by the service providing server through cooperation between the processing of the service providing server that provides the service via a communication network and the processing of the terminal itself;
an authentication server that performs authentication;
a service providing system that causes the authentication server to authenticate the communication terminal when providing the service to the communication terminal;
A communication method by a communication system having
The communication terminal performs first image processing on image data by executing a first program that does not require authentication in order to execute processing in the own terminal, and performs processing in the own terminal. performing second image processing on the image data by executing a second program that requires authentication for execution;
The service providing system is
receiving, from the communication terminal, terminal identification information for identifying the communication terminal, including an authentication target portion used for user authentication and an authentication non-target portion not used for user authentication; A communication method, wherein only the part to be authenticated of the terminal identification information is transmitted to the authentication server.
コンピュータに、請求項10-12に記載の方法を実行させるプログラム。 A program that causes a computer to perform the method according to claims 10-12.
JP2018166748A 2017-09-11 2018-09-06 Communication terminal, communication system, image processing method, and program Active JP7310105B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/127,267 US10915777B2 (en) 2017-09-11 2018-09-11 Communication terminal, communication system, and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017174252 2017-09-11
JP2017174252 2017-09-11

Publications (2)

Publication Number Publication Date
JP2019049978A JP2019049978A (en) 2019-03-28
JP7310105B2 true JP7310105B2 (en) 2023-07-19

Family

ID=65905669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018166748A Active JP7310105B2 (en) 2017-09-11 2018-09-06 Communication terminal, communication system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7310105B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021002305A (en) * 2019-06-25 2021-01-07 株式会社スター精機 Recording method for machine operation history and remote check method for machine operation history
JP7358868B2 (en) * 2019-09-13 2023-10-11 株式会社リコー Communication terminal, communication system, location management method, and program
US20220345619A1 (en) 2019-09-27 2022-10-27 Ricoh Company, Ltd. Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
CN115398473A (en) * 2020-05-21 2022-11-25 富士通株式会社 Authentication method, authentication program, and authentication device
CN115065708B (en) * 2022-08-17 2022-11-18 成都秦川物联网科技股份有限公司 Industrial Internet of things system based on machine vision detection and control method thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242407A (en) 2004-02-24 2005-09-08 Ricoh Co Ltd Information processor, program provision device, and program for use in this device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005242407A (en) 2004-02-24 2005-09-08 Ricoh Co Ltd Information processor, program provision device, and program for use in this device

Also Published As

Publication number Publication date
JP2019049978A (en) 2019-03-28

Similar Documents

Publication Publication Date Title
US10915777B2 (en) Communication terminal, communication system, and image processing method
JP7310105B2 (en) Communication terminal, communication system, image processing method, and program
US10931836B2 (en) Communication system, image processing method, and recording medium
US9652663B2 (en) Using facial data for device authentication or subject identification
US11245707B2 (en) Communication terminal, communication system, communication control method, and recording medium
JP7167526B2 (en) Communication system and communication method
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
WO2016172923A1 (en) Video detection method, video detection system, and computer program product
US11017544B2 (en) Communication terminal, communication system, communication control method, and recording medium
WO2021033463A1 (en) Computer program, object-specifying method, object-specifying device, and object-specifying system
EP4088205B1 (en) System and method for disentangling features specific to users, actions and devices recorded in motion sensor data
US9965612B2 (en) Method and system for visual authentication
US20170053175A1 (en) System and method for validating three-dimensional objects
JP2020194295A (en) Information processor, and information processing program
JP7251247B2 (en) Communication system and communication method
JP2019186914A (en) Communication terminal, communication system, communication method, and program
US20220345619A1 (en) Apparatus, image processing system, communication system, method for setting, image processing method, and recording medium
JPWO2020115910A1 (en) Information processing systems, information processing devices, information processing methods, and programs
JP7358868B2 (en) Communication terminal, communication system, location management method, and program
JP7484103B2 (en) COMMUNICATION TERMINAL, COMMUNICATION SYSTEM, COMMUNICATION METHOD, AND PROGRAM
KR101718244B1 (en) Apparatus and method of processing wide angle image for recognizing face
JP2021057029A (en) Setting device, communication system, setting method, and program
CN115862063A (en) Object identification method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210616

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R151 Written notification of patent or utility model registration

Ref document number: 7310105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151