JP6757009B1 - Computer program, object identification method, object identification device and object identification system - Google Patents

Computer program, object identification method, object identification device and object identification system Download PDF

Info

Publication number
JP6757009B1
JP6757009B1 JP2019150005A JP2019150005A JP6757009B1 JP 6757009 B1 JP6757009 B1 JP 6757009B1 JP 2019150005 A JP2019150005 A JP 2019150005A JP 2019150005 A JP2019150005 A JP 2019150005A JP 6757009 B1 JP6757009 B1 JP 6757009B1
Authority
JP
Japan
Prior art keywords
image data
sensor
camera
acquired
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019150005A
Other languages
Japanese (ja)
Other versions
JP2021033430A (en
Inventor
伸行 松下
伸行 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Exa Wizards Inc
Original Assignee
Exa Wizards Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Exa Wizards Inc filed Critical Exa Wizards Inc
Priority to JP2019150005A priority Critical patent/JP6757009B1/en
Priority to PCT/JP2020/027437 priority patent/WO2021033463A1/en
Application granted granted Critical
Publication of JP6757009B1 publication Critical patent/JP6757009B1/en
Publication of JP2021033430A publication Critical patent/JP2021033430A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物をカメラで撮影した画像データと、対象物が有するセンサとの対応関係を特定することができるコンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システムを提供する。【解決手段】本実施の形態に係る対象物特定システムは、カメラと、対象物に備えられるセンサと、前記カメラで撮影した画像データを取得する画像データ取得部、前記センサからセンサデータを取得するセンサデータ取得部、並びに、前記画像データ取得部が取得した前記画像データ及び前記センサデータ取得部が取得した前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する特定部を有する対象物特定装置とを備える。【選択図】図1PROBLEM TO BE SOLVED: To provide a computer program, an object identification method, an object identification device and an object identification system capable of specifying a correspondence relationship between an image data of an object captured by a camera and a sensor of the object. An object identification system according to the present embodiment acquires sensor data from a camera, a sensor provided on the object, an image data acquisition unit that acquires image data captured by the camera, and the sensor. Based on the sensor data acquisition unit, the image data acquired by the image data acquisition unit, and the sensor data acquired by the sensor data acquisition unit, the correspondence between the image data obtained by photographing the object and the sensor is specified. It is provided with an object identification device having a specific unit. [Selection diagram] Fig. 1

Description

本発明は、対象物をカメラで撮影した画像データを特定するコンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システムに関する。 The present invention relates to a computer program for specifying image data obtained by photographing an object with a camera, an object identification method, an object identification device, and an object identification system.

カメラで撮影した画像データを基に人物の認証を行う技術が広く利用され始めている。例えば顔認証のシステムでは、予め記憶した顔画像又はその特徴量と、カメラで撮影した人物の顔又はその特徴量とを比較することによって、人物の認証が行われる。 Technology that authenticates a person based on image data taken by a camera is beginning to be widely used. For example, in a face recognition system, a person is authenticated by comparing a face image or a feature amount thereof stored in advance with a face of a person taken by a camera or a feature amount thereof.

特許文献1においては、人物の顔を撮影すると共にこの人物の静脈を撮影し、顔認証及び静脈認証を併用して認証を行う認証システムが記載されている。この認証システムは、顔認証で認証に成功した人物に対応する静脈認証登録データを用いて静脈認証を行うことによって、静脈認証の処理時間を減少させている。 Patent Document 1 describes an authentication system in which a person's face is photographed and the vein of the person is photographed, and authentication is performed by using face authentication and vein authentication in combination. This authentication system reduces the processing time of vein authentication by performing vein authentication using the vein authentication registration data corresponding to the person who succeeded in the authentication by face authentication.

特開2019−128880号公報JP-A-2019-128880

しかしながら、従来の顔認証の技術では、認証対象となる人物の顔画像又はその特徴量が予めデータベース等に登録されていなければ、この人物の認証を行うことができない。これは特許文献1に記載の認証システムも同様である。 However, in the conventional face recognition technique, this person cannot be authenticated unless the face image of the person to be authenticated or the feature amount thereof is registered in a database or the like in advance. This also applies to the authentication system described in Patent Document 1.

本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、対象物をカメラで撮影した画像データと、対象物が有するセンサとの対応関係を特定するコンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is a computer program for specifying a correspondence relationship between image data obtained by photographing an object with a camera and a sensor possessed by the object. The purpose of the present invention is to provide an object identification method, an object identification device, and an object identification system.

一実施形態に係るコンピュータプログラムは、コンピュータに、カメラで撮影した画像データを取得し、対象物が有するセンサからセンサデータを取得し、前記対象物に対する前記センサの取付位置を推定し、推定した取付位置と、取得した前記画像データ及び前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する処理を実行させる。 The computer program according to the embodiment acquires image data taken by a camera on a computer, acquires sensor data from a sensor possessed by the object , estimates the mounting position of the sensor with respect to the target, and estimates the mounting. Based on the position and the acquired image data and the sensor data , a process of specifying the correspondence between the image data obtained by photographing the object and the sensor is executed.

一実施形態による場合は、対象物をカメラで撮影した画像データと、対象物が有するセンサとの対応関係を特定することができる。 In the case of one embodiment, it is possible to specify the correspondence between the image data obtained by capturing the object with the camera and the sensor of the object.

本実施の形態に係る対象物特定システムの概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the object identification system which concerns on this Embodiment. 本実施の形態に係る対象物特定システムのデータ送受信の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of data transmission | transmission of the object identification system which concerns on this Embodiment. 本実施の形態に係るサーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus which concerns on this embodiment. 特定情報DBの一構成例を示す模式図である。It is a schematic diagram which shows one configuration example of a specific information DB. 本実施の形態に係るユーザ端末装置の構成を示すブロック図である。It is a block diagram which shows the structure of the user terminal apparatus which concerns on this embodiment. サーバ装置が行う画像データからの特徴量の算出処理を説明するための模式図である。It is a schematic diagram for demonstrating the calculation process of the feature amount from the image data performed by a server apparatus. サーバ装置が取得するセンサデータの一例を示す模式図である。It is a schematic diagram which shows an example of the sensor data acquired by a server device. サーバ装置による特定方法を説明するための模式図である。It is a schematic diagram for demonstrating the identification method by a server apparatus. 本実施の形態に係るサーバ装置が行う特定処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the specific processing performed by the server apparatus which concerns on this Embodiment. 本実施の形態に係るサーバ装置が行う特定処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the specific processing performed by the server apparatus which concerns on this Embodiment. 本実施の形態に係るサーバ装置が行う認証処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the authentication processing performed by the server apparatus which concerns on this embodiment. 本実施の形態に係るサーバ装置が行う顔認証を併用した特定処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the specific processing which combined with the face authentication performed by the server apparatus which concerns on this embodiment. 実施の形態2に係るサーバ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the server apparatus which concerns on Embodiment 2. 実施の形態2に係るサーバ装置が備える学習モデルの一構成例を示す模式図である。It is a schematic diagram which shows one structural example of the learning model provided in the server apparatus which concerns on Embodiment 2. FIG. 実施の形態2に係るサーバ装置が行う特定処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the specific processing performed by the server apparatus which concerns on Embodiment 2. 実施の形態2に係るサーバ装置が行う特定処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the specific processing performed by the server apparatus which concerns on Embodiment 2. 実施の形態2の変形例に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the identification process performed by the object identification system which concerns on the modification of Embodiment 2. 実施の形態2の変形例に係るサーバ装置が行う特定処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the specific processing performed by the server apparatus which concerns on the modification of Embodiment 2. 実施の形態3に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the identification process performed by the object identification system which concerns on Embodiment 3. FIG. 実施の形態3に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of the identification process performed by the object identification system which concerns on Embodiment 3. FIG. 実施の形態3の変形例1に係る対象物特定システムのデータ送受信の概要を説明するための模式図である。It is a schematic diagram for demonstrating the outline of data transmission | transmission of the object identification system which concerns on modification 1 of Embodiment 3.

本発明の実施形態に係る対象物特定システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the object identification system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

<システム概要>
図1は、本実施の形態に係る対象物特定システムの概要を説明するための模式図である。本実施の形態に係る対象物特定システムは、カメラ2から得られる画像データから人物(ユーザ)を撮影した画像データと、各人物が所持しているユーザ端末装置1との対応関係を特定する処理を行うシステムである。カメラ2は、例えば建物内の部屋又は廊下等に設置されてもよく、また例えば建物外の道路又は庭等に設置されてもよい。対象物特定システムには、複数のカメラ2が含まれ得る。なお本実施の形態においては、複数のカメラ2を区別する必要がある場合には、カメラ2A,2Bのように、異なる符号を付して説明する。
<System overview>
FIG. 1 is a schematic diagram for explaining the outline of the object identification system according to the present embodiment. The object identification system according to the present embodiment is a process for identifying the correspondence between the image data obtained by photographing a person (user) from the image data obtained from the camera 2 and the user terminal device 1 possessed by each person. It is a system that performs. The camera 2 may be installed, for example, in a room or corridor inside the building, or may be installed, for example, on a road or garden outside the building. The object identification system may include a plurality of cameras 2. In the present embodiment, when it is necessary to distinguish between a plurality of cameras 2, they will be described with different reference numerals such as cameras 2A and 2B.

また本実施の形態においては、各ユーザが少なくとも1つのユーザ端末装置1を所持している。図1においては、ユーザ端末装置1をスマートフォンとして図示しているが、ユーザ端末装置1はスマートフォンに限らない。ユーザ端末装置1は、例えばウェアラブルデバイスであってよく、また例えばウェアラブルデバイス及びスマートフォンのセットであってもよい。またユーザ端末装置1は、例えばキーホルダ型又はカード型等の装置であってよく、また例えば埋め込み型のタグ等の装置であってもよく、これら以外の装置であってもよい。本実施の形態においてユーザ端末装置1は、少なくともユーザの移動又は活動等を検知するセンサを備えている。ユーザ端末装置1が備えるセンサは、例えば加速度、角速度又は地磁気を検知するセンサが採用され得る。また本実施の形態においてセンサには、GPS(Global Positioning System)の信号を受信して位置を特定する機能部を含み得る。 Further, in the present embodiment, each user possesses at least one user terminal device 1. Although the user terminal device 1 is shown as a smartphone in FIG. 1, the user terminal device 1 is not limited to a smartphone. The user terminal device 1 may be, for example, a wearable device, or may be, for example, a set of a wearable device and a smartphone. Further, the user terminal device 1 may be a device such as a key holder type or a card type device, or may be a device such as an embedded tag or the like, or may be a device other than these. In the present embodiment, the user terminal device 1 includes at least a sensor that detects the movement or activity of the user. As the sensor included in the user terminal device 1, for example, a sensor that detects acceleration, angular velocity, or geomagnetism can be adopted. Further, in the present embodiment, the sensor may include a functional unit that receives a GPS (Global Positioning System) signal and identifies a position.

またユーザ端末装置1は、センサの検知結果であるセンサデータを、特定処理を行う遠隔のサーバ装置等へ送信する無線通信機能を有していることが好ましい。ただし、カメラ2に撮影された人物の画像データとユーザ端末装置1との対応の特定をリアルタイムで行う必要がない場合、ユーザ端末装置1はセンサデータを記憶する機能を備え、事後的に有線接続又は記録媒体等を介してセンサデータの授受を行う構成であってよい。 Further, it is preferable that the user terminal device 1 has a wireless communication function of transmitting sensor data, which is a detection result of the sensor, to a remote server device or the like that performs specific processing. However, when it is not necessary to identify the correspondence between the image data of the person captured by the camera 2 and the user terminal device 1 in real time, the user terminal device 1 has a function of storing the sensor data and is connected by wire after the fact. Alternatively, the sensor data may be exchanged via a recording medium or the like.

なお本実施の形態においては、ユーザ端末装置1を区別する必要がある場合には、例えばユーザAのユーザ端末装置1A、ユーザBのユーザ端末装置1B、ユーザCのユーザ端末装置1C及びユーザDのユーザ端末装置1Dのように、異なる符号を付して説明する。図1に示す例では、カメラ2Aにて撮像された人物が、ユーザ端末装置1装置Aを所持するユーザAであることが特定されている。またカメラ2Bにて撮像された3人の人物が、ユーザ端末装置1Bを所持するユーザB、ユーザ端末装置1Cを所持するユーザC及びユーザ端末装置1Dを所持するユーザDであることが特定されている。 In the present embodiment, when it is necessary to distinguish the user terminal device 1, for example, the user terminal device 1A of the user A, the user terminal device 1B of the user B, the user terminal device 1C of the user C, and the user D. It will be described with different reference numerals as in the user terminal device 1D. In the example shown in FIG. 1, it is specified that the person imaged by the camera 2A is the user A who possesses the user terminal device 1 device A. Further, it is specified that the three persons photographed by the camera 2B are the user B who possesses the user terminal device 1B, the user C who possesses the user terminal device 1C, and the user D who possesses the user terminal device 1D. There is.

図2は、本実施の形態に係る対象物特定システムのデータ送受信の概要を説明するための模式図である。本実施の形態に係る対象物特定システムでは、サーバ装置3が特定処理を行う。各カメラ2が撮影した画像データと、ユーザが所持するユーザ端末装置1のセンサが検知したセンサデータとは、有線又は無線のネットワークを介して、サーバ装置3へ送信される。カメラ2は、例えば1秒間に数回〜数十回の周期で撮影を行い、撮影した画像データをサーバ装置3へ送信する。カメラ2から送信される画像データには、カメラ2を識別するカメラIDが付される。同様に、ユーザ端末装置1は、例えば1秒間に数回〜数十回の周期でセンサによるユーザの移動又は活動等を検知し、検知結果であるセンサデータをサーバ装置3へ送信する。ユーザ端末装置1から送信されるセンサデータには、ユーザを識別するユーザID又はユーザ端末装置1を識別する端末ID等が付される。 FIG. 2 is a schematic diagram for explaining an outline of data transmission / reception of the object identification system according to the present embodiment. In the object identification system according to the present embodiment, the server device 3 performs the identification process. The image data taken by each camera 2 and the sensor data detected by the sensor of the user terminal device 1 owned by the user are transmitted to the server device 3 via a wired or wireless network. The camera 2 takes pictures at a cycle of several to several tens of times per second, and transmits the taken image data to the server device 3. A camera ID that identifies the camera 2 is attached to the image data transmitted from the camera 2. Similarly, the user terminal device 1 detects the movement or activity of the user by the sensor at a cycle of several to several tens of times per second, and transmits the sensor data as the detection result to the server device 3. The sensor data transmitted from the user terminal device 1 is given a user ID that identifies the user, a terminal ID that identifies the user terminal device 1, and the like.

本実施の形態に係るサーバ装置3は、カメラ2が送信する時系列的な複数の画像データに基づき、ユーザの移動又は活動等に伴う時系列的な変位を算出する。またサーバ装置3は、ユーザが所持するユーザ端末装置1が送信する時系列的な複数のセンサデータを受信する。ユーザの移動又は活動に伴う変位と、このユーザが所持するユーザ端末装置1のセンサデータの変化とには関係がある。そこで本実施の形態に係るサーバ装置3は、カメラ2の画像データに基づくユーザの変位と、ユーザ端末装置1のセンサデータの変化との関係に基づいて、ユーザとユーザ端末装置1との対応を特定する。 The server device 3 according to the present embodiment calculates a time-series displacement due to the movement or activity of the user based on a plurality of time-series image data transmitted by the camera 2. Further, the server device 3 receives a plurality of time-series sensor data transmitted by the user terminal device 1 owned by the user. There is a relationship between the displacement caused by the movement or activity of the user and the change in the sensor data of the user terminal device 1 possessed by the user. Therefore, the server device 3 according to the present embodiment corresponds between the user and the user terminal device 1 based on the relationship between the displacement of the user based on the image data of the camera 2 and the change in the sensor data of the user terminal device 1. Identify.

これにより例えば、建物等の入口に設置されたカメラ2が撮影した画像データに基づき、建物へ入ろうとしている人物が、所定のユーザ端末装置1を所持しているか否かをサーバ装置3が判断することができる。所定のユーザ端末装置1は、例えばユーザID又は端末ID等がサーバ装置3に予め登録されたユーザ端末装置1、センサデータの取得及びサーバ装置3への送信を行うためのアプリケーションプログラムがインストールされたユーザ端末装置1である。サーバ装置3は、カメラ2に撮影された人物が、ユーザ端末装置1を所持していない人物である場合に、この人物が不正な侵入者である可能性があると判断することができる。本実施の形態に係る対象物特定システムでは、カメラ2に撮影された人物が所定のユーザ端末装置1を所持しているか否かを判断することができ、これを人物の認証等に利用することができる。サーバ装置3は、所定のユーザ端末装置1を所持している人物を正規のユーザと認証し、ユーザ端末装置1を所持していない人物を不審者と判断することができる。 As a result, for example, the server device 3 determines whether or not the person who is going to enter the building possesses the predetermined user terminal device 1 based on the image data taken by the camera 2 installed at the entrance of the building or the like. be able to. In the predetermined user terminal device 1, for example, a user terminal device 1 in which a user ID or a terminal ID or the like is registered in advance in the server device 3, an application program for acquiring sensor data and transmitting the sensor data to the server device 3 is installed. User terminal device 1. When the person photographed by the camera 2 is a person who does not possess the user terminal device 1, the server device 3 can determine that this person may be an unauthorized intruder. In the object identification system according to the present embodiment, it is possible to determine whether or not the person photographed by the camera 2 possesses the predetermined user terminal device 1, and this is used for person authentication or the like. Can be done. The server device 3 can authenticate a person who possesses a predetermined user terminal device 1 as a legitimate user, and can determine a person who does not possess the user terminal device 1 as a suspicious person.

なお本実施の形態においては、特定の対象物を人間(ユーザ、人物)とするが、対象物はこれに限らない。対象物は、例えば犬又は猫等の動物であってよい。この場合、動物には例えば首輪等にセンサを搭載したキーホルダ型の端末装置が取り付けられ、サーバ装置3はカメラ2にて撮影された動物と端末装置との対応を特定する。また対象物が人間である場合、人間が自転車、車いす又はバイク等の乗り物に乗っていてもよい。また対象物は、人間又は犬等の動物(生物)に限らず、自動車又はバイク等の移動体であってもよい。この場合、移動体に搭載されたナビゲーション装置等の装置が、ユーザ端末装置1の役割を果たし得る。 In the present embodiment, a specific object is a human being (user, person), but the object is not limited to this. The object may be an animal such as a dog or a cat. In this case, for example, a key holder type terminal device having a sensor mounted on a collar or the like is attached to the animal, and the server device 3 specifies the correspondence between the animal and the terminal device photographed by the camera 2. When the object is a human, the human may be riding a vehicle such as a bicycle, a wheelchair, or a motorcycle. The object is not limited to animals (living organisms) such as humans and dogs, but may be moving objects such as automobiles or motorcycles. In this case, a device such as a navigation device mounted on the moving body can play the role of the user terminal device 1.

<装置構成>
図3は、本実施の形態に係るサーバ装置3の構成を示すブロック図である。本実施の形態に係るサーバ装置3は、処理部31、記憶部(ストレージ)32及び通信部(トランシーバ)33等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置3にて処理が行われるものとして説明を行うが、複数のサーバ装置3が分散して処理を行ってもよい。
<Device configuration>
FIG. 3 is a block diagram showing a configuration of the server device 3 according to the present embodiment. The server device 3 according to the present embodiment includes a processing unit 31, a storage unit (storage) 32, a communication unit (transceiver) 33, and the like. In the present embodiment, it is assumed that the processing is performed by one server device 3, but a plurality of server devices 3 may be distributed to perform the processing.

処理部31は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を用いて構成されている。処理部31は、記憶部32に記憶されたサーバプログラム32aを読み出して実行することにより、カメラ2が撮像したユーザの画像データとユーザ端末装置1との対応の特定に関する種々の処理を行う。 The processing unit 31 uses an arithmetic processing unit such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit) or a GPU (Graphics Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. It is composed of. The processing unit 31 reads and executes the server program 32a stored in the storage unit 32 to perform various processes related to specifying the correspondence between the user image data captured by the camera 2 and the user terminal device 1.

記憶部32は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するサーバプログラム32aを記憶している。また記憶部32には、カメラ2に撮影されたユーザとユーザ端末装置1との対応の特定結果である特定情報を記憶する特定情報DB(データベース)32b、及び、カメラ2にて撮影された画像を記憶する画像記憶部32cが設けられている。 The storage unit 32 is configured by using a large-capacity storage device such as a hard disk. The storage unit 32 stores various programs executed by the processing unit 31 and various data required for processing by the processing unit 31. In the present embodiment, the storage unit 32 stores the server program 32a executed by the processing unit 31. Further, the storage unit 32 has a specific information DB (database) 32b that stores specific information that is a specific result of the correspondence between the user and the user terminal device 1 captured by the camera 2, and an image captured by the camera 2. An image storage unit 32c for storing the above is provided.

本実施の形態においてサーバプログラム32aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置3は記録媒体99からサーバプログラム32aを読み出して記憶部32に記憶する。ただし、サーバプログラム32aは、例えばサーバ装置3の製造段階において記憶部32に書き込まれてもよい。また例えばサーバプログラム32aは、遠隔の他のサーバ装置等が配信するものをサーバ装置3が通信にて取得してもよい。例えばサーバプログラム32aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置3の記憶部32に書き込んでもよい。サーバプログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。 In the present embodiment, the server program 32a is provided in a mode of being recorded on a recording medium 99 such as a memory card or an optical disk, and the server device 3 reads the server program 32a from the recording medium 99 and stores it in the storage unit 32. However, the server program 32a may be written to the storage unit 32, for example, at the manufacturing stage of the server device 3. Further, for example, in the server program 32a, the server device 3 may acquire what is distributed by another remote server device or the like by communication. For example, in the server program 32a, the writing device may read what was recorded on the recording medium 99 and write it in the storage unit 32 of the server device 3. The server program 32a may be provided in the form of distribution via the network, or may be provided in the form recorded on the recording medium 99.

特定情報DB32bは、カメラ2にて撮像されたユーザの画像データとユーザ端末装置1との対応の特定結果の情報である。特定情報DB32bには、カメラ2にて撮像された画像データ、特定されたユーザのユーザID又は端末ID等の識別情報、及び、画像データ中のユーザの位置等の情報が対応付けて記憶される。特定情報DB32bの構成については後述する。 The specific information DB 32b is information on a specific result of the correspondence between the user's image data captured by the camera 2 and the user terminal device 1. In the specific information DB 32b, image data captured by the camera 2, identification information such as the user ID or terminal ID of the specified user, and information such as the position of the user in the image data are stored in association with each other. .. The configuration of the specific information DB 32b will be described later.

画像記憶部32cは、カメラ2にて撮影された画像データを記憶する。上述のように、ユーザを撮影した画像データ及びユーザ端末の対応の特定結果に関する情報は、特定情報DB32bに記憶される。ただし、カメラ2が撮影した画像データの実体は画像記憶部32cに記憶され、この画像データのファイル名又は記憶場所のアドレス等の情報が特定情報DB32bに記憶される。本実施の形態においては、画像記憶部32cをサーバ装置3が備えるものとするが、これに限るものではなく、サーバ装置3とは異なる記憶装置が画像を記憶する構成であってもよい。 The image storage unit 32c stores image data taken by the camera 2. As described above, the image data of the user and the information regarding the specific result of the correspondence of the user terminal are stored in the specific information DB 32b. However, the actual image data taken by the camera 2 is stored in the image storage unit 32c, and information such as the file name of the image data or the address of the storage location is stored in the specific information DB 32b. In the present embodiment, the server device 3 is provided with the image storage unit 32c, but the present invention is not limited to this, and a storage device different from the server device 3 may be configured to store images.

通信部33は、インターネット、無線LAN(Local Area Network)及び携帯電話通信網等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、カメラ2及びユーザ端末装置1との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。 The communication unit 33 communicates with various devices via a network N including the Internet, a wireless LAN (Local Area Network), a mobile phone communication network, and the like. In the present embodiment, the communication unit 33 communicates with the camera 2 and the user terminal device 1 via the network N. The communication unit 33 transmits the data given by the processing unit 31 to another device, and gives the data received from the other device to the processing unit 31.

なお記憶部32は、サーバ装置3に接続された外部記憶装置であってよい。またサーバ装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置3は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。 The storage unit 32 may be an external storage device connected to the server device 3. Further, the server device 3 may be a multi-computer including a plurality of computers, or may be a virtual machine virtually constructed by software. Further, the server device 3 is not limited to the above configuration, and may include, for example, a reading unit that reads information stored in a portable storage medium, an input unit that accepts operation input, a display unit that displays an image, and the like. ..

また本実施の形態に係るサーバ装置3の処理部31には、記憶部32に記憶されたサーバプログラム32aを処理部31が読み出して実行することにより、画像データ取得部31a、センサデータ取得部31b及び特定部31c等がソフトウェア的な機能部として実現される。なおこれらの機能部は、カメラ2に撮影されたユーザとユーザ端末装置1との対応を特定する処理に関する機能部であり、これ以外の機能部については図示及び説明を省略する。 Further, in the processing unit 31 of the server device 3 according to the present embodiment, the processing unit 31 reads out and executes the server program 32a stored in the storage unit 32, so that the image data acquisition unit 31a and the sensor data acquisition unit 31b And the specific unit 31c and the like are realized as software-like functional units. It should be noted that these functional units are functional units related to processing for specifying the correspondence between the user and the user terminal device 1 photographed by the camera 2, and illustration and description of other functional units will be omitted.

画像データ取得部31aは、通信部33にてカメラ2との間で通信を行うことにより、カメラ2が撮影した画像データを取得する処理を行う。画像データ取得部31aは、カメラ2が送信する画像データを通信部33にて受信することにより取得し、取得した画像データを記憶部32の画像記憶部32cに記憶して蓄積する。 The image data acquisition unit 31a performs a process of acquiring image data captured by the camera 2 by communicating with the camera 2 in the communication unit 33. The image data acquisition unit 31a acquires the image data transmitted by the camera 2 by receiving it in the communication unit 33, and stores and stores the acquired image data in the image storage unit 32c of the storage unit 32.

センサデータ取得部31bは、通信部33にてユーザ端末装置1との間で通信を行うことにより、ユーザ端末装置1のセンサの検知結果であるセンサデータを取得する処理を行う。センサデータ取得部31bは、ユーザ端末装置1が送信するセンサデータを通信部33にて受信することにより取得し、取得したセンサデータを記憶部32に記憶する。なお記憶部32に記憶されたセンサデータは、ユーザ及びユーザ端末装置1の対応の特定処理に用いられた後は、記憶部32から消去されてよい。 The sensor data acquisition unit 31b performs a process of acquiring sensor data, which is a detection result of the sensor of the user terminal device 1, by communicating with the user terminal device 1 in the communication unit 33. The sensor data acquisition unit 31b acquires the sensor data transmitted by the user terminal device 1 by receiving it in the communication unit 33, and stores the acquired sensor data in the storage unit 32. The sensor data stored in the storage unit 32 may be deleted from the storage unit 32 after being used for the corresponding identification process of the user and the user terminal device 1.

特定部31cは、画像データ取得部31aが取得したカメラ2の画像データと、センサデータ取得部31bが取得したユーザ端末装置1のセンサデータとに基づいて、ユーザを撮影した画像データとユーザ端末装置1との対応を特定する処理を行う。詳細は後述するが、特定部31cは、カメラ2に撮影されたユーザの移動又は活動等に伴う変位と、このユーザが所持するユーザ端末装置1のセンサデータの変化との関係に基づいて、ユーザを撮影した画像データ及びユーザ端末装置1の対応を特定する。特定部31cは、特定した対応に関する情報を、記憶部32の特定情報DB32bに記憶して蓄積する。 The specific unit 31c is based on the image data of the camera 2 acquired by the image data acquisition unit 31a and the sensor data of the user terminal device 1 acquired by the sensor data acquisition unit 31b, and the image data captured by the user and the user terminal device. Perform the process of specifying the correspondence with 1. Although the details will be described later, the specific unit 31c is based on the relationship between the displacement caused by the movement or activity of the user captured by the camera 2 and the change in the sensor data of the user terminal device 1 possessed by the user. The correspondence between the photographed image data and the user terminal device 1 is specified. The specific unit 31c stores and stores the information regarding the specified correspondence in the specific information DB 32b of the storage unit 32.

図4は、特定情報DB32bの一構成例を示す模式図である。特定情報DB32bは、例えば「画像データ」と、一又は複数の「特定情報」とが対応付けられたデータベースである。「特定情報」には、「端末ID」及び「座標情報」等の情報が含まれる。図4に示す例では、「画像データ」に対して2つの「特定情報」が対応付けられているが、「特定情報」は「画像データ」から特定されたユーザの数だけ存在し得る。 FIG. 4 is a schematic diagram showing a configuration example of the specific information DB 32b. The specific information DB 32b is, for example, a database in which "image data" and one or more "specific information" are associated with each other. The "specific information" includes information such as "terminal ID" and "coordinate information". In the example shown in FIG. 4, two "specific information" are associated with the "image data", but the "specific information" may exist as many as the number of users specified from the "image data".

「画像データ」は、カメラ2にて撮影された画像のデジタルデータである。本実施の形態において、画像データの実体は記憶部32の画像記憶部32cに記憶され、特定情報DB32bの「画像データ」には実体である画像データのファイル名又はファイルの格納場所(アドレス)等の情報が記憶される。ただし、特定情報DB32bに画像データの実体が格納されてもよい。画像データは、例えばカメラ2から取得したデータを動画像として保存する場合、MPEG(Moving Picture Experts Group)、AVI(Audio Video Interleave)又はFLV(Flash Video)等のファイル形式が採用され得る。また画像データは、静止画像として保存する場合、PNG(Portable Network Graphics)、GIF(Graphics Interchange Format)又はJPEG(Joint Photographic Experts Group)等のファイル形式が採用され得る。ただしこれらのファイル形式は一例であって、画像データはどのような形式で保存されてもよい。 The "image data" is digital data of an image taken by the camera 2. In the present embodiment, the substance of the image data is stored in the image storage unit 32c of the storage unit 32, and the "image data" of the specific information DB 32b includes the file name or the storage location (address) of the image data which is the substance. Information is stored. However, the substance of the image data may be stored in the specific information DB 32b. As the image data, for example, when the data acquired from the camera 2 is saved as a moving image, a file format such as MPEG (Moving Picture Experts Group), AVI (Audio Video Interleave) or FLV (Flash Video) can be adopted. When the image data is saved as a still image, a file format such as PNG (Portable Network Graphics), GIF (Graphics Interchange Format) or JPEG (Joint Photographic Experts Group) can be adopted. However, these file formats are examples, and the image data may be saved in any format.

「特定情報」は、カメラ2の画像データに対して特定されたユーザ端末装置1に関する情報である。特定情報DB32bには、特定された1つのユーザ端末装置1に対して1つの「特定情報」が記憶される。 The "specific information" is information about the user terminal device 1 specified with respect to the image data of the camera 2. In the specific information DB 32b, one "specific information" is stored for one specified user terminal device 1.

「特定情報」に含まれる「端末ID」は、特定されたユーザ端末装置1に対して付されたIDである。本実施の形態においては、ユーザ端末装置1が送信するセンサデータには端末IDが付されており、特定に用いられたセンサデータに付された端末IDが特定情報DB32bに記憶される。なおサーバ装置3は、ユーザ端末装置1の端末IDとこれを所持するユーザのユーザIDとが予め紐付けられている場合、端末IDに基づいてユーザIDを特定することができ、ユーザ端末装置1を所有するユーザを特定することができる。特定情報DB32bの「特定情報」には、「端末ID」に代えて又は「端末ID」と共に、ユーザに対して付された「ユーザID」が記憶されてもよい。 The "terminal ID" included in the "specific information" is an ID assigned to the specified user terminal device 1. In the present embodiment, a terminal ID is attached to the sensor data transmitted by the user terminal device 1, and the terminal ID attached to the sensor data used for identification is stored in the specific information DB 32b. When the terminal ID of the user terminal device 1 and the user ID of the user who owns the terminal ID are linked in advance, the server device 3 can specify the user ID based on the terminal ID, and the user terminal device 1 can specify the user ID. Can be identified as the user who owns the. In the "specific information" of the specific information DB 32b, a "user ID" assigned to the user may be stored in place of the "terminal ID" or together with the "terminal ID".

「特定情報」に含まれる「座標情報」は、画像データにおいてユーザが撮影された範囲を示す座標である。本例では、画像データ中のユーザの撮影範囲が矩形であるものとし、この矩形の体格位置に存在する2つの頂点の座標が、例えば(座標X1,座標Y1)−(座標X2,座標Y2)のように示されている。 The "coordinate information" included in the "specific information" is coordinates indicating a range taken by the user in the image data. In this example, it is assumed that the shooting range of the user in the image data is rectangular, and the coordinates of the two vertices existing at the physique position of this rectangle are, for example, (coordinates X1, coordinates Y1)-(coordinates X2, coordinates Y2). It is shown as.

図5は、本実施の形態に係るユーザ端末装置1の構成を示すブロック図である。本実施の形態に係るユーザ端末装置1は、処理部11、記憶部(ストレージ)12、センサ13、通信部(トランシーバ)14、表示部(ディスプレイ)15、操作部16及びGPS受信部17等を備えて構成されている。 FIG. 5 is a block diagram showing the configuration of the user terminal device 1 according to the present embodiment. The user terminal device 1 according to the present embodiment includes a processing unit 11, a storage unit (storage) 12, a sensor 13, a communication unit (transceiver) 14, a display unit (display) 15, an operation unit 16, a GPS receiving unit 17, and the like. It is configured to prepare.

処理部11は、CPU又はMPU等の演算処理装置、ROM、及び、RAM等を用いて構成されている。処理部11は、記憶部12に記憶されたプログラム12aを読み出して実行することにより、センサ13の検知結果の取得及び送信等に係る種々の処理を行う。 The processing unit 11 is configured by using an arithmetic processing unit such as a CPU or MPU, a ROM, a RAM, and the like. The processing unit 11 reads and executes the program 12a stored in the storage unit 12 to perform various processes related to acquisition and transmission of the detection result of the sensor 13.

記憶部12は、例えばフラッシュメモリなどの不揮発性のメモリ素子を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するプログラム12aと、ユーザ端末装置1に対して付された端末ID12bとを記憶している。 The storage unit 12 is configured by using a non-volatile memory element such as a flash memory. The storage unit 12 stores various programs executed by the processing unit 11 and various data required for processing by the processing unit 11. In the present embodiment, the storage unit 12 stores the program 12a executed by the processing unit 11 and the terminal ID 12b attached to the user terminal device 1.

本実施の形態においてプログラム12aは遠隔のサーバ装置等により配信され、これをユーザ端末装置1が通信にて取得し、記憶部12に記憶する。ただしプログラム12aは、例えばユーザ端末装置1の製造段階において記憶部12に書き込まれてもよい。例えばプログラム12aは、メモリカード又は光ディスク等の記録媒体に記録されたプログラム12aをユーザ端末装置1が読み出して記憶部12に記憶してもよい。例えばプログラム12aは、記録媒体に記録されたものを書込装置が読み出してユーザ端末装置1の記憶部12に書き込んでもよい。プログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体に記録された態様で提供されてもよい。 In the present embodiment, the program 12a is distributed by a remote server device or the like, which is acquired by the user terminal device 1 by communication and stored in the storage unit 12. However, the program 12a may be written in the storage unit 12 at the manufacturing stage of the user terminal device 1, for example. For example, in the program 12a, the user terminal device 1 may read the program 12a recorded on a recording medium such as a memory card or an optical disk and store it in the storage unit 12. For example, in the program 12a, the writing device may read what has been recorded on the recording medium and write it in the storage unit 12 of the user terminal device 1. The program 12a may be provided in a mode of distribution via a network, or may be provided in a mode recorded on a recording medium.

端末ID12bは、ユーザ端末装置1を一意に識別する識別子であり、例えばユーザ端末装置1の製造段階等において決定され、記憶部12に記憶される。端末ID12bは、例えばユーザ端末装置1の製造番号等の情報であってよく、また例えば本実施の形態に係る対象物特定システムについて専用のIDであってもよい。 The terminal ID 12b is an identifier that uniquely identifies the user terminal device 1, is determined, for example, at the manufacturing stage of the user terminal device 1, and is stored in the storage unit 12. The terminal ID 12b may be, for example, information such as the serial number of the user terminal device 1, or may be, for example, a dedicated ID for the object identification system according to the present embodiment.

センサ13は、例えば加速度センサ、角速度センサ(ジャイロセンサ)又は地磁気センサ等のセンサである。本実施の形態においては、これらのセンサのうちの1つを特定処理に用いるものとするが、ユーザ端末装置1には複数のセンサが搭載されていてよく、特定処理に複数種類のセンサが用いられてもよい。センサ13は、検知した加速度又は角速度等の物理量に応じた電気信号、又は、この電気信号をデジタルデータ化したものを処理部11へ出力する。本実施の形態において、センサ13が出力する電気信号又はデジタルデータをセンサデータという。 The sensor 13 is, for example, a sensor such as an acceleration sensor, an angular velocity sensor (gyro sensor), or a geomagnetic sensor. In the present embodiment, one of these sensors is used for the specific process, but the user terminal device 1 may be equipped with a plurality of sensors, and a plurality of types of sensors are used for the specific process. May be done. The sensor 13 outputs an electric signal according to a physical quantity such as the detected acceleration or angular velocity, or a digital data of the electric signal to the processing unit 11. In the present embodiment, the electric signal or digital data output by the sensor 13 is referred to as sensor data.

通信部14は、公衆の携帯電話通信網及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部14は、ネットワークNを介してサーバ装置3との通信を行う。通信部14は、処理部11から与えられたデータをサーバ装置3へ送信すると共に、サーバ装置3から受信したデータを処理部11へ与える。 The communication unit 14 communicates with various devices via a public mobile phone communication network and a network N including the Internet and the like. In the present embodiment, the communication unit 14 communicates with the server device 3 via the network N. The communication unit 14 transmits the data given by the processing unit 11 to the server device 3, and also gives the data received from the server device 3 to the processing unit 11.

表示部15は、液晶ディスプレイ等を用いて構成されており、処理部11の処理に基づいて種々の画像及び文字等を表示する。 The display unit 15 is configured by using a liquid crystal display or the like, and displays various images, characters, and the like based on the processing of the processing unit 11.

操作部16は、例えば機械式のボタン又は表示部15の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付け、受け付けた操作を処理部11へ通知する。 The operation unit 16 accepts a user's operation by an input device such as a mechanical button or a touch panel provided on the surface of the display unit 15, and notifies the processing unit 11 of the accepted operation.

GPS受信部17は、GPSの人工衛星から送信される電波を受信し、受信した電波に含まれる情報を処理部11へ与える。処理部11は、GPS受信部17から与えられた情報に基づいて、ユーザ端末装置1の位置(例えば緯度及び経度)を特定する処理を行うことができる。 The GPS receiving unit 17 receives radio waves transmitted from a GPS artificial satellite and gives information included in the received radio waves to the processing unit 11. The processing unit 11 can perform processing for specifying the position (for example, latitude and longitude) of the user terminal device 1 based on the information given from the GPS receiving unit 17.

また本実施の形態に係るユーザ端末装置1は、記憶部12に記憶されたプログラム12aを処理部11が読み出して実行することにより、センサデータ送信部11a等がソフトウェア的な機能部として処理部11に実現される。センサデータ送信部11aは、センサ13が出力するセンサデータを取得し、取得したセンサデータをサーバ装置3へ送信する処理を行う。このときにセンサデータ送信部11aは、記憶部12に記憶された端末ID12bと、センサデータを取得した日時等の情報とを付して、センサデータをサーバ装置3へ送信する。センサ13は、常に又は所定周期で繰り返してセンサデータを出力している。例えばセンサデータ送信部11aは、センサ13からセンサデータを取得する都度、取得したセンサデータをサーバ装置3へ送信してもよい。また例えばセンサデータ送信部11aは、センサ13から取得したセンサデータを記憶部12に記憶し、記憶した一又は複数のセンサデータを所定の周期でサーバ装置3へ送信してもよい。 Further, in the user terminal device 1 according to the present embodiment, the processing unit 11 reads and executes the program 12a stored in the storage unit 12, so that the sensor data transmitting unit 11a and the like act as software-like functional units in the processing unit 11. Will be realized. The sensor data transmission unit 11a acquires the sensor data output by the sensor 13 and transmits the acquired sensor data to the server device 3. At this time, the sensor data transmission unit 11a transmits the sensor data to the server device 3 with the terminal ID 12b stored in the storage unit 12 and information such as the date and time when the sensor data was acquired. The sensor 13 outputs sensor data at all times or repeatedly at a predetermined cycle. For example, the sensor data transmission unit 11a may transmit the acquired sensor data to the server device 3 each time the sensor data is acquired from the sensor 13. Further, for example, the sensor data transmission unit 11a may store the sensor data acquired from the sensor 13 in the storage unit 12 and transmit the stored one or more sensor data to the server device 3 at a predetermined cycle.

なお、本実施の形態に係る対象物特定システムが備えるカメラ2の構成を示すブロック図の図示は省略する。カメラ2は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子の出力信号に対して所定の画像処理を施して画像データを生成する画像処理IC(Integrated Circuit)と、有線又は無線の通信を行う通信部とを備えて構成される。カメラ2は、1秒間に数回〜数十回の周期で撮影を行い、撮影により得られた画像データをサーバ装置3へ送信する。このときにカメラ2は、自身に付されたカメラID及び撮影日時等の情報を画像データに付してサーバ装置3へ送信する。 The block diagram showing the configuration of the camera 2 included in the object identification system according to the present embodiment is omitted. The camera 2 is an image processing IC (Integrated) that generates image data by performing predetermined image processing on an image sensor such as a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) and an output signal of the image sensor. Circuit) and a communication unit that performs wired or wireless communication are provided. The camera 2 shoots at a cycle of several to several tens of times per second, and transmits the image data obtained by the shooting to the server device 3. At this time, the camera 2 attaches information such as the camera ID and the shooting date and time attached to itself to the image data and transmits the information to the server device 3.

<ユーザ及びユーザ端末装置の対応の特定処理>
本実施の形態に係るサーバ装置3は、カメラ2から取得した画像データ中に撮影されたユーザと、ユーザが所持するユーザ端末装置1との対応を特定する処理を行う。この特定処理においてサーバ装置3は、カメラ2からの画像データを受信し、受信した画像データからユーザが撮影された領域を抽出し、この画像領域からユーザの特徴量を算出する。サーバ装置3は、カメラ2から送信される画像データを順次受信し、画像データから特徴量を順次算出することによって、画像データ中のユーザの特徴量の時系列的な変化を算出する。これによりサーバ装置3は、画像データ中のユーザの移動又は活動等に伴う変位を算出することができる。サーバ装置3が算出する特徴量は、例えばユーザの骨格の角度、頭頂から足先までの高さ(長さ)、又は、足の接地タイミング等が採用され得るが、これに限るものではない。
<Specific processing of correspondence between users and user terminal devices>
The server device 3 according to the present embodiment performs a process of specifying the correspondence between the user captured in the image data acquired from the camera 2 and the user terminal device 1 possessed by the user. In this specific process, the server device 3 receives the image data from the camera 2, extracts the area captured by the user from the received image data, and calculates the feature amount of the user from this image area. The server device 3 sequentially receives the image data transmitted from the camera 2 and sequentially calculates the feature amount from the image data to calculate the time-series change in the feature amount of the user in the image data. As a result, the server device 3 can calculate the displacement due to the movement or activity of the user in the image data. The feature amount calculated by the server device 3 may include, for example, the angle of the user's skeleton, the height (length) from the top of the head to the tip of the foot, the ground contact timing of the foot, and the like, but is not limited thereto.

図6は、サーバ装置3が行う画像データからの特徴量の算出処理を説明するための模式図である。図6の左側に示す例では、サーバ装置3がカメラ2から取得した画像データ101に3人の人物が撮影されている。サーバ装置3は、取得した画像データから人物が撮影された領域を抽出する処理を行う。なお、画像データから人物の撮影領域を抽出する処理は、既存の技術であるため、詳細な説明を省略する。図6には、サーバ装置3により抽出された3つの領域102〜104が矩形枠として示されている。 FIG. 6 is a schematic diagram for explaining the process of calculating the feature amount from the image data performed by the server device 3. In the example shown on the left side of FIG. 6, three people are photographed in the image data 101 acquired by the server device 3 from the camera 2. The server device 3 performs a process of extracting an area in which a person is photographed from the acquired image data. Since the process of extracting the shooting area of a person from the image data is an existing technique, detailed description thereof will be omitted. In FIG. 6, three areas 102 to 104 extracted by the server device 3 are shown as rectangular frames.

サーバ装置3は、抽出した各領域について、この領域に撮影された人物の特徴を示す特徴量の算出を行う。ここでは、例えば撮影された人物の頭頂から足先までの高さをサーバ装置3が特徴量として算出する。サーバ装置3は、カメラ2によって時系列的に撮影された複数の画像データについて同様の領域抽出及び特徴量算出を繰り返し行い、画像データ中の人物の特徴量の変化を取得する。図6の右側には、3人の人物についてそれぞれ算出された特徴量の変化がグラフとして示されている。 The server device 3 calculates a feature amount indicating the characteristics of a person photographed in this area for each extracted area. Here, for example, the server device 3 calculates the height from the top of the photographed person to the toes as a feature amount. The server device 3 repeatedly performs the same area extraction and feature amount calculation for a plurality of image data photographed by the camera 2 in time series, and acquires a change in the feature amount of the person in the image data. On the right side of FIG. 6, the changes in the feature amounts calculated for each of the three persons are shown as a graph.

また、サーバ装置3は、ユーザ端末装置1から送信されるセンサデータを受信する。図7は、サーバ装置3が取得するセンサデータの一例を示す模式図である。なお図7には、図6に示した画像データに撮影されていた3人の人物が所持するユーザ端末装置1からサーバ装置3がそれぞれ取得した3つのセンサデータを、3つのグラフとして上下に並べて示してある。各グラフは、横軸を時刻tとし、縦軸をセンサの出力値としている。図7に示された3つのセンサデータは、上から順に、ユーザ端末装置1aから取得したセンサデータ、ユーザ端末装置1bから取得したセンサデータ、ユーザ端末装置1cから取得したセンサデータとする。 Further, the server device 3 receives the sensor data transmitted from the user terminal device 1. FIG. 7 is a schematic diagram showing an example of sensor data acquired by the server device 3. Note that in FIG. 7, three sensor data acquired by the server device 3 from the user terminal device 1 possessed by the three persons captured in the image data shown in FIG. 6 are arranged vertically as three graphs. It is shown. In each graph, the horizontal axis is the time t and the vertical axis is the output value of the sensor. The three sensor data shown in FIG. 7 are, in order from the top, sensor data acquired from the user terminal device 1a, sensor data acquired from the user terminal device 1b, and sensor data acquired from the user terminal device 1c.

図8は、サーバ装置3による特定方法を説明するための模式図である。図8は、図7に示したユーザ端末装置1aから取得したセンサデータのグラフと、図6に示した領域102から抽出した特徴量のグラフとを上下に並べて示したものである。サーバ装置3は、ユーザ端末装置1aから取得したセンサデータの変化と、カメラ2の画像データから抽出した特徴量の変化との相関関係に基づいて、画像データ中の人物とユーザ端末装置1との対応を特定する。サーバ装置3は、例えばセンサデータ及び特徴量の変化においてピークが発生するタイミングを比較する。図8に示す例では、両タイミングが破線で示すタイミングで一致している。サーバ装置3は、両タイミングが一致又は近似する場合に、この特徴量の算出元となった領域102内に撮影された人物が、このセンサデータの送信元のユーザ端末装置1aを所持するユーザであると特定することができる。 FIG. 8 is a schematic diagram for explaining a specific method by the server device 3. FIG. 8 shows a graph of the sensor data acquired from the user terminal device 1a shown in FIG. 7 and a graph of the feature amount extracted from the area 102 shown in FIG. 6 side by side. The server device 3 has a person in the image data and the user terminal device 1 based on the correlation between the change in the sensor data acquired from the user terminal device 1a and the change in the feature amount extracted from the image data of the camera 2. Identify the response. The server device 3 compares, for example, the timing at which a peak occurs in a change in sensor data and a feature amount. In the example shown in FIG. 8, both timings coincide with each other at the timings shown by the broken lines. In the server device 3, when both timings match or are close to each other, a person photographed in the area 102 from which the feature amount is calculated is a user who possesses the user terminal device 1a that is the source of the sensor data. Can be identified as being.

なお本例においては、センサデータの変化と特徴量の変化とについて、ピークが発生するタイミングを比較することでユーザ端末装置1の対応を特定しているが、特定の方法はピークの発生タイミングを比較する方法に限らない。例えば、センサデータ及び特徴量の変化率、変化の周期又は周波数等を比較してもよく、これら以外の変化の特性を比較してもよい。 In this example, the correspondence of the user terminal device 1 is specified by comparing the timing at which the peak occurs with respect to the change in the sensor data and the change in the feature amount, but the specific method determines the peak occurrence timing. It is not limited to the method of comparison. For example, the rate of change of the sensor data and the feature amount, the period of change, the frequency, and the like may be compared, and the characteristics of changes other than these may be compared.

また本例においては、センサデータの変化と特徴量の変化との相関関係に基づいてユーザ端末装置1を特定する処理を行っているが、特定の方法は相関関係に基づく方法に限らない。ユーザ端末装置1に搭載されるセンサの種別等によっては、画像データから抽出した特徴量の変化とセンサデータの変化とに相関関係がない場合もあり得る。このような場合には、センサの特徴又はこのセンサが出力するセンサデータの特徴等に適した特定方法が採用され得る。 Further, in this example, the processing for specifying the user terminal device 1 is performed based on the correlation between the change in the sensor data and the change in the feature amount, but the specific method is not limited to the method based on the correlation. Depending on the type of sensor mounted on the user terminal device 1, there may be no correlation between the change in the feature amount extracted from the image data and the change in the sensor data. In such a case, a specific method suitable for the characteristics of the sensor or the characteristics of the sensor data output by the sensor can be adopted.

図9及び図10は、本実施の形態に係るサーバ装置3が行う特定処理の手順の一例を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31の画像データ取得部31aは、カメラ2から送信される画像データを通信部33にて受信することで、画像データの取得を行う(ステップS1)。画像データ取得部31aは、カメラ2から取得した画像データを記憶部32の画像記憶部32cに記憶する(ステップS2)。 9 and 10 are flowcharts showing an example of the procedure of the specific processing performed by the server device 3 according to the present embodiment. The image data acquisition unit 31a of the processing unit 31 of the server device 3 according to the present embodiment acquires the image data by receiving the image data transmitted from the camera 2 by the communication unit 33 (step S1). .. The image data acquisition unit 31a stores the image data acquired from the camera 2 in the image storage unit 32c of the storage unit 32 (step S2).

次いで、処理部31の特定部31cは、画像データ取得部31aが取得した画像データから、人物が撮影された領域を抽出する処理を行う(ステップS3)。特定部31cは、抽出した画像領域から、この領域に撮影された人物の特徴を示す特徴量を算出する(ステップS4)。特定部31cは、算出した特徴量を記憶部32又はRAM等に記憶する(ステップS5)。 Next, the specific unit 31c of the processing unit 31 performs a process of extracting an area in which a person is photographed from the image data acquired by the image data acquisition unit 31a (step S3). The specific unit 31c calculates a feature amount indicating the characteristics of a person photographed in this region from the extracted image region (step S4). The specific unit 31c stores the calculated feature amount in the storage unit 32, RAM, or the like (step S5).

また処理部31のセンサデータ取得部31bは、ユーザ端末装置1から送信されるセンサデータを通信部33にて受信することで、センサデータの取得を行う(ステップS6)。センサデータ取得部31bは、ユーザ端末装置1から取得したセンサデータを記憶部32又はRAM等に記憶する(ステップS7)。 Further, the sensor data acquisition unit 31b of the processing unit 31 acquires the sensor data by receiving the sensor data transmitted from the user terminal device 1 by the communication unit 33 (step S6). The sensor data acquisition unit 31b stores the sensor data acquired from the user terminal device 1 in the storage unit 32, RAM, or the like (step S7).

処理部31は、ステップS1〜S7の処理により、ユーザ及びユーザ端末装置1の対応を特定するのに十分な量の情報が蓄積されたか否かを判定する(ステップS8)。十分な情報が蓄積されていない場合(S8:NO)、処理部31は、ステップS1へ処理を戻し、画像データ及びセンサデータの取得を繰り返して行う。 The processing unit 31 determines whether or not a sufficient amount of information has been accumulated to identify the correspondence between the user and the user terminal device 1 by the processing of steps S1 to S7 (step S8). When sufficient information is not accumulated (S8: NO), the processing unit 31 returns the processing to step S1 and repeatedly acquires the image data and the sensor data.

十分な情報が蓄積された場合(S8:YES)、処理部31の特定部31cは、カメラ2の画像データに撮影された1人の人物を対象人物とし、この対象人物について蓄積された時系列的な複数の特徴量を記憶部32又はRAMから取得する(ステップS9)。特定部31cは、取得した特徴量に基づいて、時系列的な特徴量の変化のピークが発生するタイミングを取得する(ステップS10)。 When sufficient information is accumulated (S8: YES), the specific unit 31c of the processing unit 31 targets one person captured in the image data of the camera 2, and the time series accumulated for this target person. A plurality of characteristic quantities are acquired from the storage unit 32 or the RAM (step S9). The specific unit 31c acquires the timing at which the peak of the change in the feature amount over time occurs based on the acquired feature amount (step S10).

同様に、特定部31cは、1つのユーザ端末装置1を対象端末とし、この対象端末について蓄積された時系列的な複数のセンサデータを記憶部32又はRAMから取得する(ステップS11)。特定部31cは、取得したセンサデータに基づいて、時系列的なセンサデータのピークが発生するタイミングを取得する(ステップS12)。 Similarly, the specific unit 31c uses one user terminal device 1 as a target terminal, and acquires a plurality of time-series sensor data accumulated for the target terminal from the storage unit 32 or the RAM (step S11). The specific unit 31c acquires the timing at which the peak of the sensor data in time series occurs based on the acquired sensor data (step S12).

特定部31cは、ステップS10にて取得した特徴量のピークのタイミングと、ステップS12にて取得したセンサデータのピークのタイミングとを比較し、両タイミングが一致するか否かを判定する(ステップS13)。なおステップS13にて判定するタイミングの一致には、所定の誤差等が許容され得る。両タイミングが一致する場合(S13:YES)、特定部31cは、対象とした人物と対象としたユーザ端末装置1とが対応するものであることを特定し(ステップS14)、この特定結果を記憶部32の特定情報DB32bに記憶して(ステップS15)、ステップS18へ処理を進める。 The specific unit 31c compares the timing of the peak of the feature amount acquired in step S10 with the timing of the peak of the sensor data acquired in step S12, and determines whether or not both timings match (step S13). ). It should be noted that a predetermined error or the like can be tolerated in matching the timings determined in step S13. When both timings match (S13: YES), the specific unit 31c identifies that the target person and the target user terminal device 1 correspond to each other (step S14), and stores the specific result. It is stored in the specific information DB 32b of the unit 32 (step S15), and the process proceeds to step S18.

両タイミングが一致しない場合(S13:NO)、特定部31cは、センサデータが蓄積された全てのユーザ端末装置1について、ピークのタイミングの比較を終了したか否かを判定する(ステップS16)。全てのユーザ端末装置1について比較を終了していない場合(S16:NO)、特定部31cは、ステップS11へ処理を戻し、別のユーザ端末装置1を対象端末としてピークのタイミングの比較を繰り返し行う。 When both timings do not match (S13: NO), the specific unit 31c determines whether or not the comparison of peak timings has been completed for all the user terminal devices 1 in which the sensor data has been accumulated (step S16). When the comparison has not been completed for all the user terminal devices 1 (S16: NO), the specific unit 31c returns the process to step S11 and repeatedly compares the peak timings with another user terminal device 1 as the target terminal. ..

全てのユーザ端末装置1について比較を終了した場合(S16:YES)、特定部31cは、対象とした人物について、対応するユーザ端末装置1が存在しないと判定する(ステップS17)。 When the comparison is completed for all the user terminal devices 1 (S16: YES), the specific unit 31c determines that the corresponding user terminal device 1 does not exist for the target person (step S17).

特定部31cは、カメラ2の画像データに撮影された全ての人物について、ユーザ端末装置1との対応の特定処理を終了したか否かを判定する(ステップS18)。全ての人物について処理を終了していない場合(S18:NO)、特定部31cは、ステップS9へ処理を戻し、画像データに撮影された別の人物について同様の処理を行う。全ての人物について処理を終了した場合(S18:YES)、特定部31cは、ユーザ及びユーザ端末装置1の対応を特定する処理を終了する。 The identification unit 31c determines whether or not the identification process corresponding to the user terminal device 1 has been completed for all the persons photographed by the image data of the camera 2 (step S18). When the processing has not been completed for all the persons (S18: NO), the specific unit 31c returns the processing to step S9 and performs the same processing for another person photographed in the image data. When the processing is completed for all the persons (S18: YES), the specifying unit 31c ends the processing for specifying the correspondence between the user and the user terminal device 1.

<その他の処理>
(1)顔認証処理の併用1
本実施の形態に係る対象物特定システムが行う特定処理と、既存の顔認証処理とを併用してもよい。例えばサーバ装置3は、カメラ2の画像データとユーザ端末装置1との対応を特定したユーザについて、更に顔認証処理を行ってもよい。サーバ装置3は、認証対象となるユーザの顔画像又はその特徴量等を集めた顔認証のための情報をデータベースに記憶している。サーバ装置3は、上述の特定処理により特定されたユーザ端末装置1を所有するユーザに対応する顔認証のための情報をデータベースから取得し、カメラ2により撮影されたユーザの顔画像から抽出した特徴量との比較を行う。これによりサーバ装置3は、カメラ2に撮影されたユーザが、予め顔認証の情報が登録されているユーザであるか否かを判定することができる。なお、顔認証の処理は既存の技術であるため、詳細な説明は省略する。また対象物特定システムは、顔認証以外の生体認証を併用してもよい。
<Other processing>
(1) Combined use of face recognition processing 1
The identification process performed by the object identification system according to the present embodiment may be used in combination with the existing face recognition process. For example, the server device 3 may further perform face recognition processing on the user who has specified the correspondence between the image data of the camera 2 and the user terminal device 1. The server device 3 stores in a database information for face authentication that collects a face image of a user to be authenticated or a feature amount thereof and the like. The server device 3 acquires information for face authentication corresponding to the user who owns the user terminal device 1 specified by the above-mentioned specific process from the database, and extracts from the user's face image taken by the camera 2. Make a comparison with the quantity. As a result, the server device 3 can determine whether or not the user photographed by the camera 2 is a user whose face authentication information is registered in advance. Since the face recognition process is an existing technique, detailed description thereof will be omitted. In addition, the object identification system may be used in combination with biometric authentication other than face authentication.

カメラ2の画像データ及びユーザ端末装置1のセンサデータに基づいて画像データ及びユーザ端末装置1の対応を予め特定しておくことによって、サーバ装置3は、データベースに予め登録された多数の顔認証用の情報の中から、特定されたユーザ端末装置1を所有するユーザに関する情報のみを取得して顔認証を行えばよい。このため、サーバ装置3による顔認証処理の処理負荷及び処理時間等を低減することができる。また、他人のユーザ端末装置1を利用した成りすましを検知することができる。 By specifying in advance the correspondence between the image data and the user terminal device 1 based on the image data of the camera 2 and the sensor data of the user terminal device 1, the server device 3 can be used for a large number of face recognitions registered in advance in the database. It is sufficient to acquire only the information about the user who owns the specified user terminal device 1 from the information in the above and perform face recognition. Therefore, the processing load and processing time of the face authentication processing by the server device 3 can be reduced. In addition, spoofing using another person's user terminal device 1 can be detected.

図11は、本実施の形態に係るサーバ装置3が行う認証処理の手順の一例を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31は、カメラ2から取得した画像データと、ユーザ端末装置1から取得したセンサデータとに基づいて、画像データに撮影された人物とユーザ端末装置1との対応を特定する特定処理を行う(ステップS31)。なおステップS31にて行う処理の詳細は、図9及び図10のフローチャートにて図示したものであるため、本図では処理の詳細の図示を省略する。 FIG. 11 is a flowchart showing an example of the procedure of the authentication process performed by the server device 3 according to the present embodiment. The processing unit 31 of the server device 3 according to the present embodiment is based on the image data acquired from the camera 2 and the sensor data acquired from the user terminal device 1, the person photographed in the image data and the user terminal device 1. A specific process for specifying the correspondence with is performed (step S31). Since the details of the process performed in step S31 are shown in the flowcharts of FIGS. 9 and 10, the details of the process are not shown in this figure.

処理部31は、ステップS31の特定処理の結果に基づいて、画像データに撮影された人物とユーザ端末装置1との対応が特定できたか否かを判定する(ステップS32)。対応が特定できない場合(S32:NO)、処理部31は、画像データに撮影された人物が不審者であると判断し(ステップS38)、処理を終了する。 Based on the result of the identification process in step S31, the processing unit 31 determines whether or not the correspondence between the person captured in the image data and the user terminal device 1 can be specified (step S32). If the correspondence cannot be specified (S32: NO), the processing unit 31 determines that the person photographed in the image data is a suspicious person (step S38), and ends the process.

対応が特定できた場合(S32:YES)、処理部31は、特定したユーザについて登録された顔認証用情報をデータベースから取得する(ステップS33)。なおサーバ装置3は、顔認証の対象となるユーザについて、ユーザID又は端末ID等の識別情報と、顔画像又は顔の特徴量等の顔認証用情報とをデータベースに対応付けて記憶している。処理部31は、カメラ2の撮影した画像データからこのユーザの顔に相当する領域を顔画像として抽出する(ステップS34)。 When the correspondence can be specified (S32: YES), the processing unit 31 acquires the face authentication information registered for the specified user from the database (step S33). The server device 3 stores identification information such as a user ID or terminal ID and face recognition information such as a face image or a facial feature amount in a database for a user to be face-authenticated. .. The processing unit 31 extracts an area corresponding to the user's face as a face image from the image data captured by the camera 2 (step S34).

処理部31は、ステップS33にて取得した顔認証用情報とステップS34にて抽出したユーザの顔画像とを用いて、顔認証処理を行う(ステップS35)。処理部31は、顔認証処理の結果が認証成功であるか否かを判定する(ステップS36)。なお認証成功は、画像データから抽出されたユーザの顔が、予め登録された顔認証用情報にて示されるユーザの顔と一致する場合である。 The processing unit 31 performs face authentication processing using the face authentication information acquired in step S33 and the user's face image extracted in step S34 (step S35). The processing unit 31 determines whether or not the result of the face recognition processing is the authentication success (step S36). The authentication success is when the user's face extracted from the image data matches the user's face indicated by the face authentication information registered in advance.

認証処理の結果が認証成功である場合(S36:YES)、処理部31は、特定された人物を正規のユーザと判断し(ステップS37)、処理を終了する。認証失敗である場合(S36:NO)、画像データに撮影された人物が不審者であると判断し(ステップS38)、処理を終了する。 If the result of the authentication process is successful authentication (S36: YES), the processing unit 31 determines that the specified person is a legitimate user (step S37), and ends the process. If the authentication fails (S36: NO), it is determined that the person photographed in the image data is a suspicious person (step S38), and the process ends.

(2)顔認証処理の併用2
カメラ2の画像データ及びユーザ端末装置1のセンサデータに基づくユーザを撮影した画像データ及びユーザ端末装置1の対応は、例えばユーザが静止状態である場合に特定が困難である。そこでサーバ装置3は、カメラ2の画像データに含まれる人物が静止状態又は変位が少ない状態であり、センサデータを用いた特定処理が困難であると判断した場合、この人物に対して顔認証処理を行うことによって、カメラ2に撮影された人物を特定してもよい。
(2) Combined use of face recognition processing 2
It is difficult to specify the correspondence between the image data of the camera 2 and the image data of the user based on the sensor data of the user terminal device 1 and the user terminal device 1, for example, when the user is in a stationary state. Therefore, when the server device 3 determines that the person included in the image data of the camera 2 is in a stationary state or has a small displacement and it is difficult to perform specific processing using the sensor data, the server device 3 performs face recognition processing on this person. You may identify the person photographed by the camera 2 by performing.

図12は、本実施の形態に係るサーバ装置3が行う顔認証を併用した特定処理の手順の一例を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31は、カメラ2から取得した画像データ及びユーザ端末装置1から取得したセンサデータに基づいて、画像データに撮影された人物とユーザ端末装置1との対応を特定することが困難であるか否かを判定する(ステップS51)。処理部31は、例えば取得した画像データの特徴量の変化又はセンサデータの変化が少ない場合等に、特定が困難であると判定することができる。 FIG. 12 is a flowchart showing an example of a procedure of specific processing using face recognition performed by the server device 3 according to the present embodiment. The processing unit 31 of the server device 3 according to the present embodiment combines the person photographed in the image data and the user terminal device 1 based on the image data acquired from the camera 2 and the sensor data acquired from the user terminal device 1. It is determined whether or not it is difficult to specify the correspondence (step S51). The processing unit 31 can determine that it is difficult to specify, for example, when the change in the feature amount of the acquired image data or the change in the sensor data is small.

特定が困難ではない場合(S51:NO)、処理部31は、図9及び図10に示した通常の特定処理を行って(ステップS52)、処理を終了する。 When the identification is not difficult (S51: NO), the processing unit 31 performs the normal identification processing shown in FIGS. 9 and 10 (step S52), and ends the processing.

特定が困難である場合(S51:YES)、処理部31は、カメラ2から取得した画像データから人物の顔画像を抽出する(ステップS53)。また処理部31は、データベースに予め登録された1つの顔認証用情報を取得する(ステップS54)。取得した顔認証用情報を用いて、処理部31は、カメラ2から取得した画像データに撮影された人物について、顔認証処理を行う(ステップS55)。 When it is difficult to identify (S51: YES), the processing unit 31 extracts a person's face image from the image data acquired from the camera 2 (step S53). Further, the processing unit 31 acquires one face authentication information registered in advance in the database (step S54). Using the acquired face recognition information, the processing unit 31 performs face recognition processing on the person photographed by the image data acquired from the camera 2 (step S55).

処理部31は、顔認証処理の結果が認証成功であるか否かを判定する(ステップS56)。認証成功である場合(S56:YES)、処理部31は、画像データに撮影された人物を、認証成功した顔認証用情報に対応付けられたユーザと特定し(ステップS57)、処理を終了する。 The processing unit 31 determines whether or not the result of the face recognition processing is the authentication success (step S56). If the authentication is successful (S56: YES), the processing unit 31 identifies the person photographed in the image data as the user associated with the face recognition information for which the authentication was successful (step S57), and ends the process. ..

認証失敗である場合(S56:NO)、処理部31は、データベースに予め登録された全ての顔認証用情報について顔認証処理を終了したか否かを判定する(ステップS58)。全ての顔認証情報について顔認証処理を終了していない場合(S58:NO)、処理部31は、ステップS54へ処理を戻し、別の顔認証用情報を用いて顔認証処理を行う。 If the authentication fails (S56: NO), the processing unit 31 determines whether or not the face recognition processing has been completed for all the face recognition information registered in advance in the database (step S58). When the face recognition processing has not been completed for all the face recognition information (S58: NO), the processing unit 31 returns the processing to step S54 and performs the face recognition processing using another face recognition information.

全ての顔認証情報について顔認証処理を終了した場合(S58:YES)、処理部31は、画像データに撮影された人物を不審者であると判断し(ステップS59)、処理を終了する。 When the face recognition process is completed for all the face recognition information (S58: YES), the processing unit 31 determines that the person photographed in the image data is a suspicious person (step S59), and ends the process.

(3)複数のカメラによる人物の追跡
例えば屋外の道路に沿って又は建物の廊下に沿って、複数のカメラ2を所定間隔で設置してもよい。サーバ装置3は、これら複数のカメラ2から得られた画像データに対してそれぞれ個別に上述の特定処理を行い、各カメラにて撮影されたユーザを特定する。これら個別の特定結果に基づいて、サーバ装置3は、例えば特定のユーザによる第1のカメラ2aの撮影範囲から第2のカメラ2bの撮影範囲への移動を追跡することができる。サーバ装置3は、例えば特定のユーザについて、特定がなされたカメラ2のカメラID及び特定時刻等の情報をデータベースに記憶して蓄積する。
(3) Tracking a person by a plurality of cameras For example, a plurality of cameras 2 may be installed at predetermined intervals along an outdoor road or along a corridor of a building. The server device 3 individually performs the above-mentioned specific processing on the image data obtained from the plurality of cameras 2 to identify the user photographed by each camera. Based on these individual specific results, the server device 3 can track, for example, the movement of a specific user from the shooting range of the first camera 2a to the shooting range of the second camera 2b. For example, the server device 3 stores and stores information such as the camera ID and the specific time of the specified camera 2 in a database for a specific user.

またサーバ装置3は、複数のカメラ2の画像データからユーザの移動を追跡することによって、移動していたユーザが静止状態となってセンサデータに基づく特定が困難化した場合であっても、これまでのユーザの移動履歴に基づいてカメラ2に撮影されているユーザを推定することができる。 Further, the server device 3 tracks the movement of the user from the image data of the plurality of cameras 2, so that even if the moving user becomes stationary and it becomes difficult to identify the user based on the sensor data. It is possible to estimate the user photographed by the camera 2 based on the movement history of the user up to.

<まとめ>
本実施の形態に係るサーバ装置3は、特定の対象物となるユーザをカメラ2で撮影した画像データを取得すると共に、ユーザが所持するユーザ端末装置1のセンサの検知結果であるセンサデータを取得する。サーバ装置3は、時系列的に取得した複数の画像データに基づいて、画像データに撮影されたユーザの移動又は活動等に伴う変位を示す特徴量の変化を取得する。サーバ装置3は、この特徴量の時系列的な変化と、センサデータの時系列的な変化とに基づいて、カメラ2に撮影されたユーザとユーザ端末装置1との対応を特定する。
<Summary>
The server device 3 according to the present embodiment acquires image data of a user who is a specific object taken by the camera 2, and also acquires sensor data which is a detection result of a sensor of the user terminal device 1 possessed by the user. To do. Based on the plurality of image data acquired in time series, the server device 3 acquires a change in the feature amount indicating displacement due to the movement or activity of the user captured in the image data. The server device 3 identifies the correspondence between the user photographed by the camera 2 and the user terminal device 1 based on the time-series change of the feature amount and the time-series change of the sensor data.

これにより本実施の形態に係る対象物特定システムでは、特定対象となる人物に関する顔画像又は特徴量等をサーバ装置3が予め記憶しておくことなく、カメラ2にて撮影されたユーザと、このユーザが所持するユーザ端末装置1との対応を特定することができる。 As a result, in the object identification system according to the present embodiment, the user photographed by the camera 2 and the user, without the server device 3 storing the face image or the feature amount of the person to be specified in advance, and the user. It is possible to specify the correspondence with the user terminal device 1 possessed by the user.

<実施の形態2>
実施の形態2に係る対象物特定システムは、人工知能を用いてユーザとユーザ端末装置1との対応を特定する処理を行う。図13は、実施の形態2に係るサーバ装置3の構成を示すブロック図である。実施の形態2に係るサーバ装置3は、カメラ2の画像データとユーザ端末装置1のセンサデータに基づいて、画像データに撮影されたユーザとユーザ端末装置1との対応を特定するよう予め学習された学習モデル200を記憶部32に記憶している。
<Embodiment 2>
The object identification system according to the second embodiment performs a process of specifying the correspondence between the user and the user terminal device 1 by using artificial intelligence. FIG. 13 is a block diagram showing a configuration of the server device 3 according to the second embodiment. The server device 3 according to the second embodiment is learned in advance to specify the correspondence between the user captured in the image data and the user terminal device 1 based on the image data of the camera 2 and the sensor data of the user terminal device 1. The learning model 200 is stored in the storage unit 32.

図14は、実施の形態2に係るサーバ装置3が備える学習モデルの一構成例を示す模式図である。サーバ装置3が備える学習モデル200は、サーバ装置3の人工知能の機能を実現するためのものであり、予め機械学習、深層学習又は強化学習等の学習処理がなされた学習モデルである。学習モデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部32にはこの演算を規定する関数の係数及び閾値等のデータが学習モデル200として記憶される。 FIG. 14 is a schematic diagram showing a configuration example of a learning model included in the server device 3 according to the second embodiment. The learning model 200 included in the server device 3 is for realizing the function of the artificial intelligence of the server device 3, and is a learning model in which learning processing such as machine learning, deep learning, or reinforcement learning is performed in advance. The learning model performs a predetermined operation on the input value and outputs the operation result, and the storage unit 32 stores data such as the coefficient and the threshold of the function that defines this operation as the learning model 200. ..

実施の形態2に係る学習モデル200は、複数のニューロンが相互に結合したニューラルネットワークの構造を有する。既存の技術であるため詳しい説明は省略するが、ニューロンは複数の入力に対して演算を行い、演算結果として1つの値を出力する素子である。ニューロンは、演算に用いられる重み付けの係数及び閾値等の情報を有している。ニューラルネットワークの学習モデル200は、一又は複数のデータの入力を受け付ける入力層と、入力層にて受け付けられたデータに対して演算処理を行う中間層と、中間層の演算結果を集約して一又は複数の値を出力する出力層とを備えている。深層学習及び強化学習等の学習処理は、予め与えられた多数の学習用データを用いて、ニューラルネットワークを構成する各ニューロンの係数及び閾値等に適切な値を設定する処理である。実施の形態2に係る学習モデル200は、ニューラルネットワークの学習モデルに対して教師データを用いた深層学習がなされた学習済のモデルであり、例えば勾配降下法、確率的勾配降下法又は誤差逆伝播法等の手法により学習がなされる。 The learning model 200 according to the second embodiment has the structure of a neural network in which a plurality of neurons are interconnected. Since it is an existing technique, detailed description thereof will be omitted, but a neuron is an element that performs an operation on a plurality of inputs and outputs one value as an operation result. Neurons have information such as weighting coefficients and thresholds used in calculations. The neural network learning model 200 aggregates the input layer that accepts the input of one or more data, the intermediate layer that performs arithmetic processing on the data received by the input layer, and the arithmetic results of the intermediate layer. Alternatively, it is provided with an output layer that outputs a plurality of values. Learning processes such as deep learning and reinforcement learning are processes in which appropriate values are set for the coefficients and thresholds of each neuron constituting the neural network by using a large number of learning data given in advance. The learning model 200 according to the second embodiment is a trained model in which deep learning using teacher data is performed on the training model of the neural network, and is, for example, a gradient descent method, a stochastic gradient descent method, or an error backpropagation. Learning is done by methods such as law.

実施の形態2に係る学習モデル200には、カメラ2の撮像した画像データと、ユーザ端末装置1のセンサの検知結果であるセンサデータとの時系列的な情報が入力層に入力される。ただし画像データは、人物が撮影された領域を抽出したものであり、1人分の画像領域のデータである。また画像データは、複数の静止画像を時系列的に並べたものであってよく、動画像のデータであってよい。センサデータは、1つのユーザ端末装置1についてのセンサデータである。画像データ及びセンサデータは、例えば数秒〜数十秒程度の時間分のものが時系列的に入力される。学習モデル200は、入力された画像データに撮影された人物が所持するユーザ端末装置1が、入力されたセンサデータを検知したユーザ端末装置1である可能性を示す確率情報を特定結果として出力する。なお、時系列的な情報が入力される学習モデル200には、例えばRNN(Recurrent Neural Network)のモデルを採用することができる。また学習モデル200は、入力された画像データから特徴量を抽出するための畳み込み層及びプーリング層等を備えたCNN(Convolution Neural Network)のモデルを採用することができる。 In the learning model 200 according to the second embodiment, time-series information of the image data captured by the camera 2 and the sensor data which is the detection result of the sensor of the user terminal device 1 is input to the input layer. However, the image data is obtained by extracting the area in which the person was photographed, and is the data of the image area for one person. Further, the image data may be a plurality of still images arranged in chronological order, or may be moving image data. The sensor data is sensor data for one user terminal device 1. As the image data and the sensor data, for example, those for a time of several seconds to several tens of seconds are input in chronological order. The learning model 200 outputs probabilistic information indicating that the user terminal device 1 possessed by the person captured in the input image data may be the user terminal device 1 that has detected the input sensor data as a specific result. .. For the learning model 200 in which time-series information is input, for example, an RNN (Recurrent Neural Network) model can be adopted. Further, as the learning model 200, a CNN (Convolution Neural Network) model including a convolutional layer, a pooling layer, and the like for extracting features from the input image data can be adopted.

ただし、学習モデル200の入力情報及び出力情報は上記のものに限らない。例えば学習モデル200は、人物の撮影された領域を抽出した画像データではなく、カメラ2が撮影した画像データを入力情報として受け付けてもよく、この場合に学習モデル200は入力された画像データから人物の領域を抽出する処理を自身で行う。また学習モデル200に画像データを入力するのではなく、画像データから算出された特徴量を入力してもよい。また学習モデル200は、複数のユーザ端末装置1のセンサデータを入力情報として受け付けてもよい。この場合に学習モデル200は、各ユーザ端末装置1について確率情報を出力してもよく、最も確率が高いユーザ端末装置1がいずれであるかを特定結果として出力してもよい。 However, the input information and the output information of the learning model 200 are not limited to the above. For example, the learning model 200 may accept the image data taken by the camera 2 as input information instead of the image data extracted from the area where the person is photographed. In this case, the learning model 200 may accept the person from the input image data. Performs the process of extracting the area of. Further, instead of inputting the image data into the learning model 200, the feature amount calculated from the image data may be input. Further, the learning model 200 may accept sensor data of a plurality of user terminal devices 1 as input information. In this case, the learning model 200 may output probability information for each user terminal device 1, or may output which user terminal device 1 has the highest probability as a specific result.

実施の形態2に係るサーバ装置3は、カメラ2から取得した画像データから人物の撮影領域を抽出した画像データと、ユーザ端末装置1から取得したセンサデータとを、記憶部32に記憶した学習モデル200へ入力する。学習モデル200は、時系列的な画像データ及びセンサデータの入力に応じて、入力された画像データに撮影された人物が、入力されたセンサデータに係るユーザ端末装置1を所持している確率の情報を特定結果として出力する。サーバ装置3は、学習モデル200が出力する特定結果を取得する。 The server device 3 according to the second embodiment is a learning model in which the image data obtained by extracting the shooting area of a person from the image data acquired from the camera 2 and the sensor data acquired from the user terminal device 1 are stored in the storage unit 32. Enter in 200. The learning model 200 has a probability that a person photographed by the input image data possesses the user terminal device 1 related to the input sensor data in response to the input of the time-series image data and the sensor data. Output the information as a specific result. The server device 3 acquires a specific result output by the learning model 200.

サーバ装置3は、複数のユーザ端末装置1からセンサデータを取得している場合、各ユーザ端末装置1について学習モデル200を用いた特定処理を行い、学習モデル200が出力する確率が最も高いユーザ端末装置1を、画像データの人物が所持するユーザ端末装置1と特定する。またカメラ2から取得した画像データに複数の人物が撮影されている場合、サーバ装置3は、各人物について同様の処理を行い、各人物とユーザ端末装置1との対応を特定する。サーバ装置3は、特定結果を記憶部32の特定情報DB32bに記憶して蓄積する。 When the server device 3 acquires sensor data from a plurality of user terminal devices 1, the server device 3 performs specific processing using the learning model 200 for each user terminal device 1, and the user terminal having the highest probability of being output by the learning model 200. The device 1 is specified as a user terminal device 1 possessed by a person with image data. Further, when a plurality of persons are photographed in the image data acquired from the camera 2, the server device 3 performs the same processing for each person and identifies the correspondence between each person and the user terminal device 1. The server device 3 stores and stores the specific result in the specific information DB 32b of the storage unit 32.

また、実施の形態2に係る学習モデル200は、サーバ装置3又は他の装置により予め深層学習がなされた学習済のモデルである。例えばサーバ装置3は、人物が撮影された画像データと、ユーザ端末装置1のセンサが出力するセンサデータと、この両データが対応関係にあるか否かを示す特定結果とが対応付けられた教師データを用いて深層学習を行う。学習処理に用いられる教師データは、本システムの設計者等が行ってもよく、サーバ装置3等の装置が行ってもよい。またサーバ装置3は、予め作成された教師データを使用してもよく、サーバ装置3が蓄積した情報に基づいて自ら作成した教師データを使用してもよい。少なくとも最初の学習処理においては予め作成された教師データが用いられる。例えば教師データは、従来の監視カメラ等を利用したセキュリティシステムにより収集された情報、又は、本システムもしくは類似のシステムにおいてなされた実証実験等により得られた情報等に基づいて作成され得る。 Further, the learning model 200 according to the second embodiment is a trained model in which deep learning has been performed in advance by the server device 3 or another device. For example, the server device 3 is a teacher in which image data taken by a person, sensor data output by a sensor of the user terminal device 1, and a specific result indicating whether or not both data are in a corresponding relationship are associated with each other. Deep learning is performed using the data. The teacher data used in the learning process may be performed by the designer of this system or the like, or may be performed by a device such as the server device 3. Further, the server device 3 may use the teacher data created in advance, or may use the teacher data created by itself based on the information accumulated by the server device 3. At least in the first learning process, the teacher data created in advance is used. For example, teacher data can be created based on information collected by a security system using a conventional surveillance camera or the like, or information obtained by a demonstration experiment or the like conducted in this system or a similar system.

2回目以降の学習処理(再学習処理)においては、サーバ装置3が収集して蓄積した情報に基づいて教師データが生成されてもよい。実施の形態2に係るサーバ装置3は、記憶部32の特定情報DB32bに特定結果に関する情報を記憶して蓄積している。サーバ装置3は、特定情報DB32bに蓄積された情報を基に、学習用の教師データを生成してもよい。ただしこの場合、特定情報DB32bには、図4に示した情報に加えて、特定に用いたセンサデータが記憶されていることが好ましい。サーバ装置3は、所定期間(1日、1週間又は1ヶ月等)が経過する毎に、蓄積した情報に基づいて生成した教師データを用いて学習モデル200の再学習を行うことができる。 In the second and subsequent learning processes (re-learning processes), teacher data may be generated based on the information collected and accumulated by the server device 3. The server device 3 according to the second embodiment stores and stores information related to the specific result in the specific information DB 32b of the storage unit 32. The server device 3 may generate teacher data for learning based on the information stored in the specific information DB 32b. However, in this case, it is preferable that the specific information DB 32b stores the sensor data used for the specific data in addition to the information shown in FIG. The server device 3 can relearn the learning model 200 using the teacher data generated based on the accumulated information every time a predetermined period (1 day, 1 week, 1 month, etc.) elapses.

図15及び図16は、実施の形態2に係るサーバ装置3が行う特定処理の手順の一例を示すフローチャートである。実施の形態2に係るサーバ装置3の処理部31の画像データ取得部31aは、カメラ2から送信される画像データを通信部33にて受信することで、画像データの取得を行う(ステップS71)。画像データ取得部31aは、カメラ2から取得した画像データを記憶部32の画像記憶部32cに記憶する(ステップS72)。 15 and 16 are flowcharts showing an example of the procedure of the specific processing performed by the server device 3 according to the second embodiment. The image data acquisition unit 31a of the processing unit 31 of the server device 3 according to the second embodiment acquires the image data by receiving the image data transmitted from the camera 2 by the communication unit 33 (step S71). .. The image data acquisition unit 31a stores the image data acquired from the camera 2 in the image storage unit 32c of the storage unit 32 (step S72).

次いで、処理部31の特定部31cは、画像データ取得部31aが取得した画像データから、人物が撮影された領域を抽出する処理を行う(ステップS73)。特定部31cは、抽出した領域の画像データを記憶部32又はRAM等に記憶する(ステップS74)。 Next, the specific unit 31c of the processing unit 31 performs a process of extracting an area in which a person is photographed from the image data acquired by the image data acquisition unit 31a (step S73). The specific unit 31c stores the image data of the extracted area in the storage unit 32, RAM, or the like (step S74).

また処理部31のセンサデータ取得部31bは、ユーザ端末装置1から送信されるセンサデータを通信部33にて受信することで、センサデータの取得を行う(ステップS75)。センサデータ取得部31bは、ユーザ端末装置1から取得したセンサデータを記憶部32又はRAM等に記憶する(ステップS76)。 Further, the sensor data acquisition unit 31b of the processing unit 31 acquires the sensor data by receiving the sensor data transmitted from the user terminal device 1 by the communication unit 33 (step S75). The sensor data acquisition unit 31b stores the sensor data acquired from the user terminal device 1 in the storage unit 32, RAM, or the like (step S76).

処理部31は、ステップS71〜S76の処理により、ユーザ及びユーザ端末装置1の対応を特定するのに十分な量の情報が蓄積されたか否かを判定する(ステップS77)。十分な情報が蓄積されていない場合(S77:NO)、処理部31は、ステップS71へ処理を戻し、画像データ及びセンサデータの取得を繰り返して行う。 The processing unit 31 determines whether or not a sufficient amount of information has been accumulated to identify the correspondence between the user and the user terminal device 1 by the processing of steps S71 to S76 (step S77). When sufficient information is not accumulated (S77: NO), the processing unit 31 returns the processing to step S71 and repeatedly acquires the image data and the sensor data.

十分な情報が蓄積された場合(S77:YES)、処理部31の特定部31cは、カメラ2の画像データに撮影された1人の人物を対象人物とし、この対象人物について蓄積された時系列的な領域の画像データを記憶部32又はRAMから取得する(ステップS78)。同様に、特定部31cは、1つのユーザ端末装置1を対象端末とし、この対象端末について蓄積された時系列的な複数のセンサデータを記憶部32又はRAMから取得する(ステップS79)。なお画像データ及びセンサデータには、取得された日時等の情報が付されており、特定部31cは、日時が一致する画像データ及びセンサデータの組をステップS78及びS79にて取得する。 When sufficient information is accumulated (S77: YES), the specific unit 31c of the processing unit 31 targets one person photographed in the image data of the camera 2, and the time series accumulated for this target person. Image data of a specific area is acquired from the storage unit 32 or RAM (step S78). Similarly, the specific unit 31c uses one user terminal device 1 as a target terminal, and acquires a plurality of time-series sensor data accumulated for the target terminal from the storage unit 32 or the RAM (step S79). Information such as the acquired date and time is attached to the image data and the sensor data, and the specific unit 31c acquires a set of the image data and the sensor data having the same date and time in steps S78 and S79.

特定部31cは、ステップS78にて取得した対象人物の領域の画像データと、ステップS79にて取得したセンサデータとを含む入力情報を、記憶部32に記憶された学習モデル200へ入力する(ステップS80)。特定部31cは、この入力に対する学習モデル200の出力情報を取得する(ステップS81)。 The specific unit 31c inputs the input information including the image data of the area of the target person acquired in step S78 and the sensor data acquired in step S79 into the learning model 200 stored in the storage unit 32 (step). S80). The specific unit 31c acquires the output information of the learning model 200 for this input (step S81).

特定部31cは、センサデータが蓄積された全てのユーザ端末装置1について、学習モデル200による特定が行われたか否かを判定する(ステップS82)。全てのユーザ端末装置1について学習モデル200による特定を終了していない場合(S82:NO)、特定部31cは、ステップS79へ処理を戻し、別のユーザ端末装置1を対象端末として同様の処理を繰り返し行う。 The identification unit 31c determines whether or not the learning model 200 has specified all the user terminal devices 1 in which the sensor data has been accumulated (step S82). When the identification of all the user terminal devices 1 by the learning model 200 has not been completed (S82: NO), the identification unit 31c returns the process to step S79 and performs the same process with another user terminal device 1 as the target terminal. Repeat.

全てのユーザ端末装置1について学習モデル200を用いた特定を終了した場合(S82:YES)、特定部31cは、各ユーザ端末装置1についての特定結果を比較し、学習モデル200が出力した確率が最も高いユーザ端末装置1を、この対象人物が所持するユーザ端末装置1であると特定する(ステップS83)。特定部31cは、この特定結果を記憶部32の特定情報DB32bに記憶する(ステップS84)。 When the identification using the learning model 200 is completed for all the user terminal devices 1 (S82: YES), the identification unit 31c compares the specific results for each user terminal device 1, and the probability output by the learning model 200 is high. The highest user terminal device 1 is identified as the user terminal device 1 possessed by the target person (step S83). The specific unit 31c stores the specific result in the specific information DB 32b of the storage unit 32 (step S84).

特定部31cは、カメラ2の画像データに撮影された全ての人物について、ユーザ端末装置1との対応の特定処理を終了したか否かを判定する(ステップS85)。全ての人物について処理を終了していない場合(S85:NO)、特定部31cは、ステップS78へ処理を戻し、画像データに撮影された別の人物について同様の処理を行う。全ての人物について処理を終了した場合(S85:YES)、特定部31cは、ユーザ及びユーザ端末装置1の対応を特定する処理を終了する。 The identification unit 31c determines whether or not the identification process corresponding to the user terminal device 1 has been completed for all the persons photographed by the image data of the camera 2 (step S85). When the processing has not been completed for all the persons (S85: NO), the specific unit 31c returns the processing to step S78 and performs the same processing for another person photographed in the image data. When the processing is completed for all the persons (S85: YES), the specifying unit 31c ends the processing for specifying the correspondence between the user and the user terminal device 1.

以上の構成の実施の形態2に係る対象物特定システムでは、予め学習された学習モデル200をサーバ装置3が備える。サーバ装置3は、カメラ2から取得した画像データ及びユーザ端末装置1から取得したセンサデータに基づく入力情報を学習モデル200へ入力し、学習モデル200の出力情報を取得することで、カメラ2にて撮影されたユーザと、このユーザが所持するユーザ端末装置1との対応を特定することができる。 In the object identification system according to the second embodiment of the above configuration, the server device 3 includes a learning model 200 learned in advance. The server device 3 inputs the input information based on the image data acquired from the camera 2 and the sensor data acquired from the user terminal device 1 into the learning model 200, and acquires the output information of the learning model 200 in the camera 2. It is possible to specify the correspondence between the photographed user and the user terminal device 1 possessed by this user.

(変形例)
図17は、実施の形態2の変形例に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。変形例に係る対象物特定システムのサーバ装置3は、ユーザ端末装置1から取得したセンサデータを基に、このユーザ端末装置1がユーザの身体のいずれの場所に所持、把持、取付又は装着等されているかを推定する位置推定部201と、画像データ及びセンサデータからユーザ及びユーザ端末装置1の対応を特定するための複数の学習モデル200a,200b,200c…とを備える。
(Modification example)
FIG. 17 is a schematic diagram for explaining an outline of the identification process performed by the object identification system according to the modified example of the second embodiment. Based on the sensor data acquired from the user terminal device 1, the server device 3 of the object identification system according to the modified example is possessed, gripped, attached, or attached to any place on the user's body. It is provided with a position estimation unit 201 for estimating whether or not the system is used, and a plurality of learning models 200a, 200b, 200c ... For identifying the correspondence between the user and the user terminal device 1 from image data and sensor data.

位置推定部201は、センサを搭載したユーザ端末装置1が例えば人体の腕、胸、脚等のいずれの位置に取り付けられているかを推定する処理を行う。位置推定部201は、時系列的なセンサデータを入力とし、推定した取付位置に関する情報を出力する。位置推定部201による取付位置の推定は、どのような方法で行われてもよい。 The position estimation unit 201 performs a process of estimating at which position the user terminal device 1 equipped with the sensor is attached, for example, the arm, chest, or leg of the human body. The position estimation unit 201 takes time-series sensor data as input and outputs information regarding the estimated mounting position. The mounting position may be estimated by the position estimation unit 201 by any method.

例えば、位置推定部201は、予め深層学習等がなされた学習モデルを用いて実現され得る。位置推定の学習モデルは、センサデータを入力情報とし、取付位置を出力情報とする教師データを用いて予め学習がなされる。サーバ装置3は、位置推定の学習モデルを記憶部32に記憶しておき、ユーザ端末装置1から取得したセンサデータを位置推定の学習モデルへ入力し、学習モデルの出力を取得することで、ユーザ端末装置1の取付位置を推定することができる。 For example, the position estimation unit 201 can be realized by using a learning model in which deep learning or the like has been performed in advance. The learning model for position estimation is learned in advance using teacher data using sensor data as input information and mounting position as output information. The server device 3 stores the learning model for position estimation in the storage unit 32, inputs the sensor data acquired from the user terminal device 1 to the learning model for position estimation, and acquires the output of the learning model. The mounting position of the terminal device 1 can be estimated.

また例えば、位置推定部201は、ユーザ端末装置1から取得したセンサデータと、予め定められた判定基準との比較により、取付位置の推定を行ってもよい。位置推定部201は、センサデータの最大値、最小値又は変化の周期等と、判定基準として定められた閾値との比較により、位置推定を行うことができる。また位置推定部201は、時系列的なセンサデータをフーリエ変換等により周波数領域のデータに変換し、変換により得られた周波数特性に基づいて位置を推定してもよい。 Further, for example, the position estimation unit 201 may estimate the mounting position by comparing the sensor data acquired from the user terminal device 1 with a predetermined determination standard. The position estimation unit 201 can perform position estimation by comparing the maximum value, the minimum value, the cycle of change, etc. of the sensor data with the threshold value set as the determination standard. Further, the position estimation unit 201 may convert the time-series sensor data into data in the frequency domain by Fourier transform or the like, and estimate the position based on the frequency characteristics obtained by the conversion.

サーバ装置3は、ユーザ端末装置1の取付位置に応じた複数の学習モデル200a,200b,200c…を備えている。本例では、取付位置に応じて腕用の学習モデル200a、胸用の学習モデル200b、脚用の学習モデル200c、…をサーバ装置3が備えている。サーバ装置3は、位置推定部201の推定結果に基づいて、複数の学習モデル200a,200b,200c…からいずれか1つを選択し、選択した1つ学習モデル200a,200b,200c…に画像データ及びセンサデータを入力して、ユーザ及びユーザ端末装置1の対応を特定する。 The server device 3 includes a plurality of learning models 200a, 200b, 200c ... According to the mounting position of the user terminal device 1. In this example, the server device 3 includes a learning model 200a for the arm, a learning model 200b for the chest, a learning model 200c for the legs, and so on, depending on the mounting position. The server device 3 selects any one of the plurality of learning models 200a, 200b, 200c ... Based on the estimation result of the position estimation unit 201, and image data is applied to the selected one learning model 200a, 200b, 200c ... And the sensor data is input to identify the correspondence between the user and the user terminal device 1.

各学習モデル200a,200b,200c…は、各取付位置に取り付けられたユーザ端末装置1のセンサにて検知されたセンサデータを用いて予め深層学習等がなされる。これにより、各学習モデル200a,200b,200c…は、ユーザ端末装置1の取付位置に特化して、より精度のよい特定を行うことが可能となる。 The learning models 200a, 200b, 200c ... Are subjected to deep learning or the like in advance using the sensor data detected by the sensors of the user terminal device 1 mounted at each mounting position. As a result, each of the learning models 200a, 200b, 200c ... can be specified with higher accuracy by specializing in the mounting position of the user terminal device 1.

図18は、実施の形態2の変形例に係るサーバ装置3が行う特定処理の手順の一例を示すフローチャートである。実施の形態2の変形例に係るサーバ装置3の位置推定部201は、特定処理に用いるセンサデータを取得する(ステップS91)。位置推定部201は、取得したセンサデータを例えば位置推定の学習モデルへ入力してその出力を取得することにより、センサデータの送信元となるユーザ端末装置1の取付位置を推定する処理を行う(ステップS92)。 FIG. 18 is a flowchart showing an example of a procedure of specific processing performed by the server device 3 according to the modified example of the second embodiment. The position estimation unit 201 of the server device 3 according to the modified example of the second embodiment acquires the sensor data used for the specific process (step S91). The position estimation unit 201 inputs the acquired sensor data to, for example, a learning model for position estimation and acquires the output thereof to perform a process of estimating the mounting position of the user terminal device 1 that is the source of the sensor data ( Step S92).

サーバ装置3の処理部31の特定部31cは、記憶部32に記憶した複数の学習モデル200a,200b,200c…の中から、位置推定部201の推定した取付位置に応じた1つの学習モデル200を読み出す(ステップS93)。特定部31cは、ステップS93にて読み出した1つの学習モデル200を用いて、図15及び図16に示した特定処理を行い(ステップS94)、処理を終了する。 The specific unit 31c of the processing unit 31 of the server device 3 is one learning model 200 corresponding to the estimated mounting position of the position estimation unit 201 from among the plurality of learning models 200a, 200b, 200c ... Stored in the storage unit 32. Is read (step S93). The identification unit 31c performs the identification process shown in FIGS. 15 and 16 using one learning model 200 read out in step S93 (step S94), and ends the process.

実施の形態2に係る対象物特定システムのその他の構成は、実施の形態1に係る対象物特定システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Since the other configurations of the object identification system according to the second embodiment are the same as those of the object identification system according to the first embodiment, the same reference numerals are given to the same parts, and detailed description thereof will be omitted.

<実施の形態3>
図19及び図20は、実施の形態3に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。実施の形態3に係る対象物特定システムでは、カメラ2の近傍にビーコン装置5が設置される。実施の形態3に係る対象物特定システムは、ビーコン装置5が送信する情報に基づいて、カメラ2の撮影範囲内に存在するユーザ端末装置1を推定する。なお本実施の形態においては、複数のビーコン装置5を区別する必要がある場合には、ビーコン装置5A,5Bのように、異なる符号を付して説明する。
<Embodiment 3>
19 and 20 are schematic views for explaining the outline of the specific processing performed by the object identification system according to the third embodiment. In the object identification system according to the third embodiment, the beacon device 5 is installed in the vicinity of the camera 2. The object identification system according to the third embodiment estimates the user terminal device 1 existing within the shooting range of the camera 2 based on the information transmitted by the beacon device 5. In the present embodiment, when it is necessary to distinguish between the plurality of beacon devices 5, they will be described with different reference numerals as in the beacon devices 5A and 5B.

ビーコン装置5は、例えばBluetooth(登録商標)の通信規格に基づいて、一定の周期で無線信号(ビーコン信号)を送信する。ただしビーコン装置5は、Bluetooth以外の通信規格に基づいて無線信号の送信を行ってもよい。なお、ビーコン装置5を別に設けるのではなく、カメラ2がビーコン信号を送信する機能を有していてもよい。 The beacon device 5 transmits a wireless signal (beacon signal) at regular intervals, for example, based on a Bluetooth (registered trademark) communication standard. However, the beacon device 5 may transmit a wireless signal based on a communication standard other than Bluetooth. It should be noted that the camera 2 may have a function of transmitting a beacon signal instead of providing the beacon device 5 separately.

ビーコン装置5が送信するビーコン信号の到達範囲は、例えば数メートル〜数十メートル程度である。実施の形態3においては、ビーコン装置5が送信するビーコン信号の到達範囲は、カメラ2の撮影範囲と同じ程度の広さか、又は、カメラ2の撮影範囲より広い範囲とされることが好ましい。ビーコン装置5が送信したビーコン信号は、このビーコン信号の到達範囲内に存在するユーザ端末装置1にて受信される。 The reachable range of the beacon signal transmitted by the beacon device 5 is, for example, about several meters to several tens of meters. In the third embodiment, it is preferable that the reach range of the beacon signal transmitted by the beacon device 5 is as wide as the shooting range of the camera 2 or wider than the shooting range of the camera 2. The beacon signal transmitted by the beacon device 5 is received by the user terminal device 1 existing within the reach of the beacon signal.

図19に示す例では、ユーザ端末装置1B,1C,1Dはビーコン装置5が送信するビーコン信号を受信するが、ユーザ端末装置1Aはビーコン信号を受信しない。また図20に示す例では、ユーザ端末装置1Aはビーコン装置5Aが送信するビーコン信号を受信し、ユーザ端末装置1B,1Cはビーコン装置5Bが送信するビーコン信号を受信する。 In the example shown in FIG. 19, the user terminal devices 1B, 1C, and 1D receive the beacon signal transmitted by the beacon device 5, but the user terminal device 1A does not receive the beacon signal. Further, in the example shown in FIG. 20, the user terminal device 1A receives the beacon signal transmitted by the beacon device 5A, and the user terminal devices 1B and 1C receive the beacon signal transmitted by the beacon device 5B.

またビーコン装置5が送信するビーコン信号には、ビーコン装置5に対して一意的に割り当てられたビーコンIDが含まれている。ビーコン信号を受信したユーザ端末装置1は、ビーコン信号に含まれるビーコンIDを取得する。ユーザ端末装置1は、センサデータをサーバ装置3へ送信する際に、ビーコン信号をセンサデータに付して送信する。 Further, the beacon signal transmitted by the beacon device 5 includes a beacon ID uniquely assigned to the beacon device 5. The user terminal device 1 that has received the beacon signal acquires the beacon ID included in the beacon signal. When the user terminal device 1 transmits the sensor data to the server device 3, the user terminal device 1 attaches a beacon signal to the sensor data and transmits the signal data.

実施の形態3に係るサーバ装置3は、ユーザ端末装置1から送信されるセンサデータを受信し、受信したセンサデータに付されたビーコンIDを取得する。サーバ装置3は、例えばカメラ2に対して一意的に付されるカメラIDと、このカメラ2の近傍に設置されたビーコン装置5のビーコンIDとが対応付けられたテーブルを記憶部32に記憶している。サーバ装置3は、カメラ2から取得した画像データとユーザ端末装置1から取得したセンサデータとに基づいて、ユーザ及びユーザ端末装置1の対応を特定する処理を行う際に、テーブルにて対応付けられたカメラID及びビーコンIDに関する画像データ及びセンサデータに処理対象のデータとして特定処理を行う。これによりサーバ装置3は、カメラ2の撮影範囲内に存在するユーザ端末装置1がいずれであるかをビーコンIDに基づいて推定することができ、特定処理の対象とするユーザ端末装置1を限定することができる。 The server device 3 according to the third embodiment receives the sensor data transmitted from the user terminal device 1 and acquires the beacon ID attached to the received sensor data. The server device 3 stores, for example, a table in which a camera ID uniquely assigned to the camera 2 and a beacon ID of the beacon device 5 installed in the vicinity of the camera 2 are associated with each other in the storage unit 32. ing. The server device 3 is associated with a table when performing a process of identifying the correspondence between the user and the user terminal device 1 based on the image data acquired from the camera 2 and the sensor data acquired from the user terminal device 1. Specific processing is performed on the image data and sensor data related to the camera ID and the beacon ID as the data to be processed. As a result, the server device 3 can estimate which user terminal device 1 exists in the shooting range of the camera 2 based on the beacon ID, and limits the user terminal device 1 to be the target of the specific processing. be able to.

これにより実施の形態3に係る対象物特定システムでは、複数のカメラ2から取得した複数の画像データと、複数のユーザ端末装置1から取得した複数のセンサデータとに基づいてサーバ装置3が特定処理を行う場合であっても、扱うデータを限定することができるため、サーバ装置3の処理負荷を低減することができる。 As a result, in the object identification system according to the third embodiment, the server device 3 performs identification processing based on the plurality of image data acquired from the plurality of cameras 2 and the plurality of sensor data acquired from the plurality of user terminal devices 1. Since the data to be handled can be limited even in the case of performing the above, the processing load of the server device 3 can be reduced.

実施の形態3に係る対象物特定システムでは、ビーコン装置5が送信するビーコン信号をユーザ端末装置1が受信する。ただし対象物特定システムは、以下の変形例に示すように、ユーザ端末装置1が送信するビーコン信号をビーコン装置5が受信する構成であってもよい。 In the object identification system according to the third embodiment, the user terminal device 1 receives the beacon signal transmitted by the beacon device 5. However, the object identification system may be configured such that the beacon device 5 receives the beacon signal transmitted by the user terminal device 1 as shown in the following modification.

(変形例1)
図21は、実施の形態3の変形例1に係る対象物特定システムのデータ送受信の概要を説明するための模式図である。実施の形態3の変形例1に係る対象物特定システムでは、カメラ2が撮影した画像データは、有線又は無線のネットワークを介して、サーバ装置3へ送信される。
(Modification example 1)
FIG. 21 is a schematic diagram for explaining an outline of data transmission / reception of the object identification system according to the first modification of the third embodiment. In the object identification system according to the first modification of the third embodiment, the image data captured by the camera 2 is transmitted to the server device 3 via a wired or wireless network.

実施の形態3の変形例1に係るユーザ端末装置1は、サーバ装置3へのセンサデータの送信を行わない。変形例1に係るユーザ端末装置1は、例えばBluetoothの通信規格に基づいて、一定の周期で無線信号(ビーコン信号)を送信する。ユーザ端末装置1が送信するビーコン信号には、ユーザID又は端末ID等の識別情報と、センサ13の検知結果であるセンサデータとが含まれる。ユーザ端末装置1が送信するビーコン信号の到達範囲は、例えば数メートル〜数十メートル程度である。このビーコン信号は、到達範囲内に存在するビーコン装置5にて受信される。 The user terminal device 1 according to the first modification of the third embodiment does not transmit the sensor data to the server device 3. The user terminal device 1 according to the first modification transmits a wireless signal (beacon signal) at a fixed cycle, for example, based on a Bluetooth communication standard. The beacon signal transmitted by the user terminal device 1 includes identification information such as a user ID or a terminal ID, and sensor data which is a detection result of the sensor 13. The reach of the beacon signal transmitted by the user terminal device 1 is, for example, about several meters to several tens of meters. This beacon signal is received by the beacon device 5 existing within the reachable range.

実施の形態3の変形例1に係るビーコン装置5は、ビーコン信号の送信を行うのではなく、ビーコン信号の受信を行う装置である。変形例1に係るビーコン装置5は、有線又は無線の通信によりサーバ装置3との通信を行うことができる。ビーコン装置5は、所定のカメラ2に対応付けて設置される。ビーコン装置5がビーコン信号を受信する範囲は、対応するカメラ2の撮影範囲と同じ程度の広さか、又は、カメラ2の撮影範囲より広い範囲とされることが好ましい。 The beacon device 5 according to the first modification of the third embodiment is a device that receives a beacon signal instead of transmitting the beacon signal. The beacon device 5 according to the first modification can communicate with the server device 3 by wired or wireless communication. The beacon device 5 is installed in association with a predetermined camera 2. It is preferable that the range in which the beacon device 5 receives the beacon signal is as wide as the shooting range of the corresponding camera 2 or wider than the shooting range of the camera 2.

変形例1に係るビーコン装置5は、ユーザ端末装置1が送信するビーコン信号を受信した場合、ビーコン信号に含まれるユーザID又は端末ID等の識別情報とセンサデータとを取得する。ビーコン装置5は、取得した識別情報及びセンサデータ等に対して、自身のビーコンIDを付したものをサーバ装置3へ送信する。 When the beacon device 5 according to the first modification receives the beacon signal transmitted by the user terminal device 1, it acquires identification information such as a user ID or terminal ID included in the beacon signal and sensor data. The beacon device 5 transmits the acquired identification information, sensor data, and the like with its own beacon ID to the server device 3.

実施の形態3の変形例1に係るサーバ装置3は、カメラ2から取得した画像データと、ビーコン装置5から取得したビーコンID及びセンサデータ等とを用いて、カメラ2の画像データに撮影された人物とユーザ端末装置1との対応を特定する処理を行う。 The server device 3 according to the first modification of the third embodiment is captured by the image data of the camera 2 by using the image data acquired from the camera 2 and the beacon ID and the sensor data acquired from the beacon device 5. A process for identifying the correspondence between the person and the user terminal device 1 is performed.

(変形例2)
カメラ2の撮影範囲内に存在するユーザ端末装置1を推定する方法は、ビーコン信号を利用する方法に限らない。実施の形態3の変形例2に係る対象物特定システムでは、ユーザ端末装置1が、GPS受信部17にて受信したGPS信号に基づく自身の位置情報を、センサデータと共にサーバ装置3へ送信する。
(Modification 2)
The method of estimating the user terminal device 1 existing in the shooting range of the camera 2 is not limited to the method of using the beacon signal. In the object identification system according to the second modification of the third embodiment, the user terminal device 1 transmits its own position information based on the GPS signal received by the GPS receiving unit 17 to the server device 3 together with the sensor data.

例えばサーバ装置3は、カメラ2が設置されている場所の位置情報を記憶したデータベースを備えている。サーバ装置3は、カメラ2の設置場所の位置情報と、ユーザ端末装置1から取得した位置情報とを比較することによって、カメラ2の撮影範囲内に存在するユーザ端末装置1を推定することができる。 For example, the server device 3 includes a database that stores location information of a place where the camera 2 is installed. The server device 3 can estimate the user terminal device 1 existing within the shooting range of the camera 2 by comparing the position information of the installation location of the camera 2 with the position information acquired from the user terminal device 1. ..

(変形例3)
実施の形態3の変形例2に係る対象物特定システムでは、例えばイベントの会場又は特定の建物等への入退場を管理する入退場管理システムとの連携により、この会場又は建物等に設置された一又は複数のカメラ2の撮影範囲内に存在するユーザ端末装置1を推定する。
(Modification 3)
In the object identification system according to the second modification of the third embodiment, for example, the object identification system is installed at the venue or the building in cooperation with the entrance / exit management system that manages the entrance / exit to the venue or the specific building. The user terminal device 1 existing in the shooting range of one or more cameras 2 is estimated.

入退場管理システムは、例えば会場又は建物等の出入口にて、この会場又は建物等へ入退場するユーザのユーザ端末装置1の端末IDを取得し、入退場の履歴を記憶する。例えば出入口に設置された入退場管理システムの無線通信装置がユーザ端末装置1との間で無線通信を行い、入退場するユーザ端末装置1の端末IDを取得する。ただし入退場管理システムは、入退場するユーザのユーザIDを取得し、データベース等を参照してユーザIDに紐付けられた端末IDを取得してもよい。 The entrance / exit management system acquires the terminal ID of the user terminal device 1 of the user who enters / exits the venue or building at the entrance / exit of the venue or building, and stores the entry / exit history. For example, the wireless communication device of the entrance / exit management system installed at the entrance / exit performs wireless communication with the user terminal device 1 and acquires the terminal ID of the user terminal device 1 to enter / exit. However, the entrance / exit management system may acquire the user ID of the user entering / exiting, and may acquire the terminal ID associated with the user ID by referring to a database or the like.

実施の形態3の変形例2に係る対象物特定システムでは、会場又は建物等の内部に存在するユーザ端末装置1の端末IDをサーバ装置3が入退場管理システムから取得する。サーバ装置3は、この会場又は建物等に設置されたカメラ2の撮影範囲内に存在するユーザ端末装置1が、入退場管理システムから取得した端末IDが付されたユーザ端末装置1であると推定することができる。 In the object identification system according to the second modification of the third embodiment, the server device 3 acquires the terminal ID of the user terminal device 1 existing inside the venue, the building, or the like from the entrance / exit management system. The server device 3 is presumed that the user terminal device 1 existing within the shooting range of the camera 2 installed in the venue or building is the user terminal device 1 to which the terminal ID acquired from the entrance / exit management system is attached. can do.

なお実施の形態3及びその変形例1〜3に係る対象物特定システムでは、カメラ2及びユーザ端末装置1が一対一の関係となるように推定がなされる必要はない。例えばサーバ装置3は、数台のカメラ2の撮像範囲内のいずれかに存在するユーザ端末装置1を推定してもよい。 In the object identification system according to the third embodiment and the modified examples 1 to 3 thereof, it is not necessary to estimate so that the camera 2 and the user terminal device 1 have a one-to-one relationship. For example, the server device 3 may estimate the user terminal device 1 existing in any of the imaging ranges of several cameras 2.

実施の形態3に係る対象物特定システムのその他の構成は、実施の形態1に係る対象物特定システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Since the other configurations of the object identification system according to the third embodiment are the same as those of the object identification system according to the first embodiment, the same reference numerals are given to the same parts, and detailed description thereof will be omitted.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1、1A〜1D ユーザ端末装置
2、2A,2B カメラ
3 サーバ装置
5、5A,5B ビーコン装置
11 処理部
11a センサデータ送信部
12 記憶部
12a プログラム
12b 端末ID
13 センサ
14 通信部
15 表示部
16 操作部
17 GPS受信部
31 処理部
31a 画像データ取得部
31b センサデータ取得部
31c 特定部
32 記憶部
32a サーバプログラム
32b 特定情報DB
33 通信部
99 記録媒体
200 学習モデル
201 位置推定部
1, 1A to 1D User terminal device 2, 2A, 2B Camera 3 Server device 5, 5A, 5B Beacon device 11 Processing unit 11a Sensor data transmission unit 12 Storage unit 12a Program 12b Terminal ID
13 Sensor 14 Communication unit 15 Display unit 16 Operation unit 17 GPS receiver 31 Processing unit 31a Image data acquisition unit 31b Sensor data acquisition unit 31c Specific unit 32 Storage unit 32a Server program 32b Specific information DB
33 Communication unit 99 Recording medium 200 Learning model 201 Position estimation unit

Claims (14)

コンピュータに、
カメラで撮影した画像データを取得し、
対象物が有するセンサからセンサデータを取得し、
前記対象物に対する前記センサの取付位置を推定し、
推定した取付位置と、取得した前記画像データ及び前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する
処理を実行させる、コンピュータプログラム。
On the computer
Acquire the image data taken by the camera and
Obtain sensor data from the sensor of the object and
Estimate the mounting position of the sensor with respect to the object,
A computer program that executes a process of identifying the correspondence between the image data obtained by photographing the object and the sensor based on the estimated mounting position and the acquired image data and the sensor data.
複数の対象物をカメラで撮影した画像データを取得し、
複数の対象物が有する複数のセンサから複数のセンサデータを取得し、
取得した前記画像データ及び複数の前記センサデータに基づいて、複数の前記対象物を撮影した画像データと複数の前記センサとの対応を特定する、
請求項1に記載のコンピュータプログラム。
Acquire image data of multiple objects taken with a camera and
Acquire multiple sensor data from multiple sensors of multiple objects,
Based on the acquired image data and the plurality of sensor data, the correspondence between the image data obtained by photographing the plurality of objects and the plurality of sensors is specified.
The computer program according to claim 1.
前記カメラが時系列的に撮影した前記画像データを取得し、
前記センサから時系列的な前記センサデータを取得し、
取得した時系列的な前記画像データ及び前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する、
請求項1又は請求項2に記載のコンピュータプログラム。
The image data taken by the camera in time series is acquired, and the image data is acquired.
The sensor data in time series is acquired from the sensor, and the sensor data is acquired.
Based on the acquired time-series image data and the sensor data, the correspondence between the image data obtained by photographing the object and the sensor is specified.
The computer program according to claim 1 or 2.
前記画像データに含まれる前記対象物の特徴量を算出し、
前記特徴量の変化のピークが発生するタイミングを取得し、
前記センサデータの変化のピークが発生するタイミングを取得し、
前記特徴量に係るタイミングと、前記センサデータに係るタイミングとに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する、
請求項3に記載のコンピュータプログラム。
The feature amount of the object included in the image data is calculated.
Obtain the timing at which the peak of the change in the feature amount occurs, and
Acquire the timing at which the peak of change in the sensor data occurs, and
Based on the timing related to the feature amount and the timing related to the sensor data, the correspondence between the image data obtained by photographing the object and the sensor is specified.
The computer program according to claim 3.
前記画像データ及び前記センサデータを入力として受け付け、前記対象物を撮影した画像データ及び前記センサの対応の特定結果を出力するよう学習がなされた学習済モデルを用いて、
取得した前記画像データ及び前記センサデータを前記学習済モデルへ入力し、
前記学習済モデルが出力する特定結果を取得する、
請求項1から請求項3までのいずれか1つに記載のコンピュータプログラム。
Using a trained model that has been trained to accept the image data and the sensor data as inputs and output the image data obtained by photographing the object and the specific result of the correspondence of the sensor.
The acquired image data and the sensor data are input to the trained model.
Acquire the specific result output by the trained model,
The computer program according to any one of claims 1 to 3.
取得した前記画像データと、当該画像データに含まれる対象物及び前記センサの対応とをデータベースに対応付けて記憶する、
請求項1から請求項までのいずれか1つに記載のコンピュータプログラム。
The acquired image data and the correspondence between the object included in the image data and the sensor are stored in a database in association with each other.
The computer program according to any one of claims 1 to 5 .
前記カメラの撮影範囲内に存在する前記センサを推定し、
推定した前記センサと、前記カメラの撮影範囲内の前記対象物を撮影した画像データとの対応を特定する、
請求項1から請求項までのいずれか1つに記載のコンピュータプログラム。
The sensor existing within the shooting range of the camera is estimated, and the sensor is estimated.
Identify the correspondence between the estimated sensor and the image data obtained by capturing the object within the imaging range of the camera.
The computer program according to any one of claims 1 to 6 .
撮影範囲が異なる複数のカメラから前記画像データを取得し、
取得した複数の画像データに基づいて、前記センサとの対応を特定した画像データに撮影された前記対象物の移動を判定する、
請求項1から請求項までのいずれか1つに記載のコンピュータプログラム。
The image data is acquired from a plurality of cameras having different shooting ranges, and the image data is acquired.
Based on the acquired plurality of image data, the movement of the object captured by the image data that specifies the correspondence with the sensor is determined.
The computer program according to any one of claims 1 to 7 .
前記センサデータに基づいて前記対象物を撮影した画像データ及び前記センサの対応を特定できない場合に、前記画像データと、前記対象物について予め登録された情報とに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する、
請求項1から請求項までのいずれか1つに記載のコンピュータプログラム。
When the correspondence between the image data obtained by photographing the object and the sensor cannot be specified based on the sensor data, the object was photographed based on the image data and the information registered in advance for the object. Identify the correspondence between the image data and the sensor,
The computer program according to any one of claims 1 to 8 .
カメラで撮影した画像データを取得し、
対象物が有するセンサからセンサデータを取得し、
前記対象物に対する前記センサの取付位置を推定し、
推定した取付位置と、取得した前記画像データ及び前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する
対象物特定方法。
Acquire the image data taken by the camera and
Obtain sensor data from the sensor of the object and
Estimate the mounting position of the sensor with respect to the object,
An object identification method for specifying the correspondence between the image data obtained by photographing the object and the sensor based on the estimated mounting position and the acquired image data and the sensor data.
前記対象物を撮影した画像データ及び前記センサの対応の特定結果に応じて、所定の前記センサを前記対象物が有しているか否かを判定し、
判定結果に基づいて、前記対象物の認証を行う、
請求項10に記載の対象物特定方法。
It is determined whether or not the object has a predetermined sensor according to the image data obtained by photographing the object and the specific result of the correspondence of the sensor.
Authentication of the object is performed based on the determination result.
The object identification method according to claim 10 .
前記対象物は生物であり、
前記対象物を撮影した画像データ及び前記センサの対応の特定結果に基づいて、前記対象物の生体認証を行う、
請求項10又は請求項11に記載の対象物特定方法。
The object is a living thing
Biometric authentication of the object is performed based on the image data obtained by photographing the object and the specific result of the correspondence of the sensor.
The object identification method according to claim 10 or 11 .
カメラで撮影した画像データを取得する画像データ取得部と、
対象物が有するセンサからセンサデータを取得するセンサデータ取得部と、
前記対象物に対する前記センサの取付位置を推定する推定部と、
前記推定部が推定した取付位置、前記画像データ取得部が取得した前記画像データ及び前記センサデータ取得部が取得した前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する特定部と
を備える、対象物特定装置。
An image data acquisition unit that acquires image data taken with a camera,
A sensor data acquisition unit that acquires sensor data from the sensor of the object,
An estimation unit that estimates the mounting position of the sensor with respect to the object,
Based on the mounting position estimated by the estimation unit, the image data acquired by the image data acquisition unit, and the sensor data acquired by the sensor data acquisition unit, the correspondence between the image data obtained by photographing the object and the sensor is determined. An object identification device including a specific part to be specified.
カメラと、
対象物に備えられるセンサと、
前記カメラで撮影した画像データを取得する画像データ取得部、前記センサからセンサデータを取得するセンサデータ取得部、前記対象物に対する前記センサの取付位置を推定する推定部、並びに、前記推定部が推定した取付位置、前記画像データ取得部が取得した前記画像データ及び前記センサデータ取得部が取得した前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する特定部を有する対象物特定装置と
を備える、対象物特定システム。
With the camera
Sensors provided on the object and
Image data acquisition unit, sensor data acquisition unit that acquires sensor data from the sensor, estimator for estimating the mounting position of the sensor relative to the object, and the estimation unit estimates that acquires image data captured by the camera Based on the mounting position, the image data acquired by the image data acquisition unit, and the sensor data acquired by the sensor data acquisition unit, the image data obtained by photographing the object and the specific unit that specifies the correspondence of the sensor are determined. An object identification system including an object identification device to have.
JP2019150005A 2019-08-19 2019-08-19 Computer program, object identification method, object identification device and object identification system Active JP6757009B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019150005A JP6757009B1 (en) 2019-08-19 2019-08-19 Computer program, object identification method, object identification device and object identification system
PCT/JP2020/027437 WO2021033463A1 (en) 2019-08-19 2020-07-15 Computer program, object-specifying method, object-specifying device, and object-specifying system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019150005A JP6757009B1 (en) 2019-08-19 2019-08-19 Computer program, object identification method, object identification device and object identification system

Publications (2)

Publication Number Publication Date
JP6757009B1 true JP6757009B1 (en) 2020-09-16
JP2021033430A JP2021033430A (en) 2021-03-01

Family

ID=72432433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019150005A Active JP6757009B1 (en) 2019-08-19 2019-08-19 Computer program, object identification method, object identification device and object identification system

Country Status (2)

Country Link
JP (1) JP6757009B1 (en)
WO (1) WO2021033463A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021189589A (en) * 2020-05-27 2021-12-13 株式会社東芝 Camera device, sensor data acquisition method, sensor data acquisition program, and storage system

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7490600B2 (en) 2021-03-09 2024-05-27 株式会社東芝 Information processing device, method and program
WO2022249269A1 (en) * 2021-05-25 2022-12-01 日本電気株式会社 Data processing device, data processing method, and non-transitory computer-readable medium
WO2023145026A1 (en) * 2022-01-28 2023-08-03 日本電気株式会社 Monitoring device, monitoring method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5994397B2 (en) * 2012-06-01 2016-09-21 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6665591B2 (en) * 2016-03-03 2020-03-13 沖電気工業株式会社 Information processing apparatus, information processing method, program, and information processing system
JP6577424B2 (en) * 2016-07-19 2019-09-18 日本電信電話株式会社 Action recognition device and action recognition method
JP6588413B2 (en) * 2016-10-04 2019-10-09 日本電信電話株式会社 Monitoring device and monitoring method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021189589A (en) * 2020-05-27 2021-12-13 株式会社東芝 Camera device, sensor data acquisition method, sensor data acquisition program, and storage system
JP7150781B2 (en) 2020-05-27 2022-10-11 東芝情報システム株式会社 Camera device, sensor data acquisition method, sensor data acquisition program, and storage system

Also Published As

Publication number Publication date
WO2021033463A1 (en) 2021-02-25
JP2021033430A (en) 2021-03-01

Similar Documents

Publication Publication Date Title
JP6757009B1 (en) Computer program, object identification method, object identification device and object identification system
US11735018B2 (en) Security system with face recognition
CN109190508B (en) Multi-camera data fusion method based on space coordinate system
JP4497236B2 (en) Detection information registration device, electronic device, detection information registration device control method, electronic device control method, detection information registration device control program, electronic device control program
KR100902199B1 (en) Authentication apparatus and method for controlling the authentication apparatus, electronic device provided with authentication apparatus, program for controlling authentication apparatus, and recording media storing the program
JP4984728B2 (en) Subject collation device and subject collation method
JP5459674B2 (en) Moving object tracking system and moving object tracking method
JP2018120644A (en) Identification apparatus, identification method, and program
JP2007219948A (en) User abnormality detection equipment and user abnormality detection method
KR102106898B1 (en) Tracking method and system using a database of a person&#39;s faces
JP6339445B2 (en) Person identification device
JP7310105B2 (en) Communication terminal, communication system, image processing method, and program
CN109815813A (en) Image processing method and Related product
WO2021240889A1 (en) Information processing device, information processing method, and program
KR102305038B1 (en) Server for Tracking Missing Child Tracking and Method for Tracking Moving Path of Missing Child based on Face Recognition based on Deep-Learning Therein
US20230419670A1 (en) Information processing apparatus, information processing method, and program
Elhamshary et al. Justwalk: A crowdsourcing approach for the automatic construction of indoor floorplans
WO2018088035A1 (en) Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic device
WO2022003766A1 (en) Information processing device, face authentication promotion system, information processing method, and non-transitory computer-readable medium in which program is stored
JP7488674B2 (en) OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND OBJECT RECOGNITION PROGRAM
JP2022095332A (en) Learning model generation method, computer program and information processing device
JP6939998B2 (en) Movement status analysis device, movement status analysis method and program
JP7020567B2 (en) Information processing systems, information processing equipment, information processing methods, and programs
TWI812053B (en) Positioning method, electronic equipment and computer-readable storage medium
AU2022100065A4 (en) Data integrity management in a computer network

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200106

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200106

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200605

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200623

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200820

R150 Certificate of patent or registration of utility model

Ref document number: 6757009

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250