JP6757009B1 - Computer program, object identification method, object identification device and object identification system - Google Patents
Computer program, object identification method, object identification device and object identification system Download PDFInfo
- Publication number
- JP6757009B1 JP6757009B1 JP2019150005A JP2019150005A JP6757009B1 JP 6757009 B1 JP6757009 B1 JP 6757009B1 JP 2019150005 A JP2019150005 A JP 2019150005A JP 2019150005 A JP2019150005 A JP 2019150005A JP 6757009 B1 JP6757009 B1 JP 6757009B1
- Authority
- JP
- Japan
- Prior art keywords
- image data
- sensor
- camera
- acquired
- user terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】対象物をカメラで撮影した画像データと、対象物が有するセンサとの対応関係を特定することができるコンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システムを提供する。【解決手段】本実施の形態に係る対象物特定システムは、カメラと、対象物に備えられるセンサと、前記カメラで撮影した画像データを取得する画像データ取得部、前記センサからセンサデータを取得するセンサデータ取得部、並びに、前記画像データ取得部が取得した前記画像データ及び前記センサデータ取得部が取得した前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する特定部を有する対象物特定装置とを備える。【選択図】図1PROBLEM TO BE SOLVED: To provide a computer program, an object identification method, an object identification device and an object identification system capable of specifying a correspondence relationship between an image data of an object captured by a camera and a sensor of the object. An object identification system according to the present embodiment acquires sensor data from a camera, a sensor provided on the object, an image data acquisition unit that acquires image data captured by the camera, and the sensor. Based on the sensor data acquisition unit, the image data acquired by the image data acquisition unit, and the sensor data acquired by the sensor data acquisition unit, the correspondence between the image data obtained by photographing the object and the sensor is specified. It is provided with an object identification device having a specific unit. [Selection diagram] Fig. 1
Description
本発明は、対象物をカメラで撮影した画像データを特定するコンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システムに関する。 The present invention relates to a computer program for specifying image data obtained by photographing an object with a camera, an object identification method, an object identification device, and an object identification system.
カメラで撮影した画像データを基に人物の認証を行う技術が広く利用され始めている。例えば顔認証のシステムでは、予め記憶した顔画像又はその特徴量と、カメラで撮影した人物の顔又はその特徴量とを比較することによって、人物の認証が行われる。 Technology that authenticates a person based on image data taken by a camera is beginning to be widely used. For example, in a face recognition system, a person is authenticated by comparing a face image or a feature amount thereof stored in advance with a face of a person taken by a camera or a feature amount thereof.
特許文献1においては、人物の顔を撮影すると共にこの人物の静脈を撮影し、顔認証及び静脈認証を併用して認証を行う認証システムが記載されている。この認証システムは、顔認証で認証に成功した人物に対応する静脈認証登録データを用いて静脈認証を行うことによって、静脈認証の処理時間を減少させている。
しかしながら、従来の顔認証の技術では、認証対象となる人物の顔画像又はその特徴量が予めデータベース等に登録されていなければ、この人物の認証を行うことができない。これは特許文献1に記載の認証システムも同様である。
However, in the conventional face recognition technique, this person cannot be authenticated unless the face image of the person to be authenticated or the feature amount thereof is registered in a database or the like in advance. This also applies to the authentication system described in
本発明は、斯かる事情に鑑みてなされたものであって、その目的とするところは、対象物をカメラで撮影した画像データと、対象物が有するセンサとの対応関係を特定するコンピュータプログラム、対象物特定方法、対象物特定装置及び対象物特定システムを提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is a computer program for specifying a correspondence relationship between image data obtained by photographing an object with a camera and a sensor possessed by the object. The purpose of the present invention is to provide an object identification method, an object identification device, and an object identification system.
一実施形態に係るコンピュータプログラムは、コンピュータに、カメラで撮影した画像データを取得し、対象物が有するセンサからセンサデータを取得し、前記対象物に対する前記センサの取付位置を推定し、推定した取付位置と、取得した前記画像データ及び前記センサデータとに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する処理を実行させる。 The computer program according to the embodiment acquires image data taken by a camera on a computer, acquires sensor data from a sensor possessed by the object , estimates the mounting position of the sensor with respect to the target, and estimates the mounting. Based on the position and the acquired image data and the sensor data , a process of specifying the correspondence between the image data obtained by photographing the object and the sensor is executed.
一実施形態による場合は、対象物をカメラで撮影した画像データと、対象物が有するセンサとの対応関係を特定することができる。 In the case of one embodiment, it is possible to specify the correspondence between the image data obtained by capturing the object with the camera and the sensor of the object.
本発明の実施形態に係る対象物特定システムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 A specific example of the object identification system according to the embodiment of the present invention will be described below with reference to the drawings. It should be noted that the present invention is not limited to these examples, and is indicated by the scope of claims, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
<システム概要>
図1は、本実施の形態に係る対象物特定システムの概要を説明するための模式図である。本実施の形態に係る対象物特定システムは、カメラ2から得られる画像データから人物(ユーザ)を撮影した画像データと、各人物が所持しているユーザ端末装置1との対応関係を特定する処理を行うシステムである。カメラ2は、例えば建物内の部屋又は廊下等に設置されてもよく、また例えば建物外の道路又は庭等に設置されてもよい。対象物特定システムには、複数のカメラ2が含まれ得る。なお本実施の形態においては、複数のカメラ2を区別する必要がある場合には、カメラ2A,2Bのように、異なる符号を付して説明する。
<System overview>
FIG. 1 is a schematic diagram for explaining the outline of the object identification system according to the present embodiment. The object identification system according to the present embodiment is a process for identifying the correspondence between the image data obtained by photographing a person (user) from the image data obtained from the
また本実施の形態においては、各ユーザが少なくとも1つのユーザ端末装置1を所持している。図1においては、ユーザ端末装置1をスマートフォンとして図示しているが、ユーザ端末装置1はスマートフォンに限らない。ユーザ端末装置1は、例えばウェアラブルデバイスであってよく、また例えばウェアラブルデバイス及びスマートフォンのセットであってもよい。またユーザ端末装置1は、例えばキーホルダ型又はカード型等の装置であってよく、また例えば埋め込み型のタグ等の装置であってもよく、これら以外の装置であってもよい。本実施の形態においてユーザ端末装置1は、少なくともユーザの移動又は活動等を検知するセンサを備えている。ユーザ端末装置1が備えるセンサは、例えば加速度、角速度又は地磁気を検知するセンサが採用され得る。また本実施の形態においてセンサには、GPS(Global Positioning System)の信号を受信して位置を特定する機能部を含み得る。
Further, in the present embodiment, each user possesses at least one
またユーザ端末装置1は、センサの検知結果であるセンサデータを、特定処理を行う遠隔のサーバ装置等へ送信する無線通信機能を有していることが好ましい。ただし、カメラ2に撮影された人物の画像データとユーザ端末装置1との対応の特定をリアルタイムで行う必要がない場合、ユーザ端末装置1はセンサデータを記憶する機能を備え、事後的に有線接続又は記録媒体等を介してセンサデータの授受を行う構成であってよい。
Further, it is preferable that the
なお本実施の形態においては、ユーザ端末装置1を区別する必要がある場合には、例えばユーザAのユーザ端末装置1A、ユーザBのユーザ端末装置1B、ユーザCのユーザ端末装置1C及びユーザDのユーザ端末装置1Dのように、異なる符号を付して説明する。図1に示す例では、カメラ2Aにて撮像された人物が、ユーザ端末装置1装置Aを所持するユーザAであることが特定されている。またカメラ2Bにて撮像された3人の人物が、ユーザ端末装置1Bを所持するユーザB、ユーザ端末装置1Cを所持するユーザC及びユーザ端末装置1Dを所持するユーザDであることが特定されている。
In the present embodiment, when it is necessary to distinguish the
図2は、本実施の形態に係る対象物特定システムのデータ送受信の概要を説明するための模式図である。本実施の形態に係る対象物特定システムでは、サーバ装置3が特定処理を行う。各カメラ2が撮影した画像データと、ユーザが所持するユーザ端末装置1のセンサが検知したセンサデータとは、有線又は無線のネットワークを介して、サーバ装置3へ送信される。カメラ2は、例えば1秒間に数回〜数十回の周期で撮影を行い、撮影した画像データをサーバ装置3へ送信する。カメラ2から送信される画像データには、カメラ2を識別するカメラIDが付される。同様に、ユーザ端末装置1は、例えば1秒間に数回〜数十回の周期でセンサによるユーザの移動又は活動等を検知し、検知結果であるセンサデータをサーバ装置3へ送信する。ユーザ端末装置1から送信されるセンサデータには、ユーザを識別するユーザID又はユーザ端末装置1を識別する端末ID等が付される。
FIG. 2 is a schematic diagram for explaining an outline of data transmission / reception of the object identification system according to the present embodiment. In the object identification system according to the present embodiment, the
本実施の形態に係るサーバ装置3は、カメラ2が送信する時系列的な複数の画像データに基づき、ユーザの移動又は活動等に伴う時系列的な変位を算出する。またサーバ装置3は、ユーザが所持するユーザ端末装置1が送信する時系列的な複数のセンサデータを受信する。ユーザの移動又は活動に伴う変位と、このユーザが所持するユーザ端末装置1のセンサデータの変化とには関係がある。そこで本実施の形態に係るサーバ装置3は、カメラ2の画像データに基づくユーザの変位と、ユーザ端末装置1のセンサデータの変化との関係に基づいて、ユーザとユーザ端末装置1との対応を特定する。
The
これにより例えば、建物等の入口に設置されたカメラ2が撮影した画像データに基づき、建物へ入ろうとしている人物が、所定のユーザ端末装置1を所持しているか否かをサーバ装置3が判断することができる。所定のユーザ端末装置1は、例えばユーザID又は端末ID等がサーバ装置3に予め登録されたユーザ端末装置1、センサデータの取得及びサーバ装置3への送信を行うためのアプリケーションプログラムがインストールされたユーザ端末装置1である。サーバ装置3は、カメラ2に撮影された人物が、ユーザ端末装置1を所持していない人物である場合に、この人物が不正な侵入者である可能性があると判断することができる。本実施の形態に係る対象物特定システムでは、カメラ2に撮影された人物が所定のユーザ端末装置1を所持しているか否かを判断することができ、これを人物の認証等に利用することができる。サーバ装置3は、所定のユーザ端末装置1を所持している人物を正規のユーザと認証し、ユーザ端末装置1を所持していない人物を不審者と判断することができる。
As a result, for example, the
なお本実施の形態においては、特定の対象物を人間(ユーザ、人物)とするが、対象物はこれに限らない。対象物は、例えば犬又は猫等の動物であってよい。この場合、動物には例えば首輪等にセンサを搭載したキーホルダ型の端末装置が取り付けられ、サーバ装置3はカメラ2にて撮影された動物と端末装置との対応を特定する。また対象物が人間である場合、人間が自転車、車いす又はバイク等の乗り物に乗っていてもよい。また対象物は、人間又は犬等の動物(生物)に限らず、自動車又はバイク等の移動体であってもよい。この場合、移動体に搭載されたナビゲーション装置等の装置が、ユーザ端末装置1の役割を果たし得る。
In the present embodiment, a specific object is a human being (user, person), but the object is not limited to this. The object may be an animal such as a dog or a cat. In this case, for example, a key holder type terminal device having a sensor mounted on a collar or the like is attached to the animal, and the
<装置構成>
図3は、本実施の形態に係るサーバ装置3の構成を示すブロック図である。本実施の形態に係るサーバ装置3は、処理部31、記憶部(ストレージ)32及び通信部(トランシーバ)33等を備えて構成されている。なお本実施の形態においては、1つのサーバ装置3にて処理が行われるものとして説明を行うが、複数のサーバ装置3が分散して処理を行ってもよい。
<Device configuration>
FIG. 3 is a block diagram showing a configuration of the
処理部31は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の演算処理装置、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等を用いて構成されている。処理部31は、記憶部32に記憶されたサーバプログラム32aを読み出して実行することにより、カメラ2が撮像したユーザの画像データとユーザ端末装置1との対応の特定に関する種々の処理を行う。
The
記憶部32は、例えばハードディスク等の大容量の記憶装置を用いて構成されている。記憶部32は、処理部31が実行する各種のプログラム、及び、処理部31の処理に必要な各種のデータを記憶する。本実施の形態において記憶部32は、処理部31が実行するサーバプログラム32aを記憶している。また記憶部32には、カメラ2に撮影されたユーザとユーザ端末装置1との対応の特定結果である特定情報を記憶する特定情報DB(データベース)32b、及び、カメラ2にて撮影された画像を記憶する画像記憶部32cが設けられている。
The
本実施の形態においてサーバプログラム32aは、メモリカード又は光ディスク等の記録媒体99に記録された態様で提供され、サーバ装置3は記録媒体99からサーバプログラム32aを読み出して記憶部32に記憶する。ただし、サーバプログラム32aは、例えばサーバ装置3の製造段階において記憶部32に書き込まれてもよい。また例えばサーバプログラム32aは、遠隔の他のサーバ装置等が配信するものをサーバ装置3が通信にて取得してもよい。例えばサーバプログラム32aは、記録媒体99に記録されたものを書込装置が読み出してサーバ装置3の記憶部32に書き込んでもよい。サーバプログラム32aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体99に記録された態様で提供されてもよい。
In the present embodiment, the
特定情報DB32bは、カメラ2にて撮像されたユーザの画像データとユーザ端末装置1との対応の特定結果の情報である。特定情報DB32bには、カメラ2にて撮像された画像データ、特定されたユーザのユーザID又は端末ID等の識別情報、及び、画像データ中のユーザの位置等の情報が対応付けて記憶される。特定情報DB32bの構成については後述する。
The
画像記憶部32cは、カメラ2にて撮影された画像データを記憶する。上述のように、ユーザを撮影した画像データ及びユーザ端末の対応の特定結果に関する情報は、特定情報DB32bに記憶される。ただし、カメラ2が撮影した画像データの実体は画像記憶部32cに記憶され、この画像データのファイル名又は記憶場所のアドレス等の情報が特定情報DB32bに記憶される。本実施の形態においては、画像記憶部32cをサーバ装置3が備えるものとするが、これに限るものではなく、サーバ装置3とは異なる記憶装置が画像を記憶する構成であってもよい。
The
通信部33は、インターネット、無線LAN(Local Area Network)及び携帯電話通信網等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部33は、ネットワークNを介して、カメラ2及びユーザ端末装置1との間で通信を行う。通信部33は、処理部31から与えられたデータを他の装置へ送信すると共に、他の装置から受信したデータを処理部31へ与える。
The
なお記憶部32は、サーバ装置3に接続された外部記憶装置であってよい。またサーバ装置3は、複数のコンピュータを含んで構成されるマルチコンピュータであってよく、ソフトウェアによって仮想的に構築された仮想マシンであってもよい。またサーバ装置3は、上記の構成に限定されず、例えば可搬型の記憶媒体に記憶された情報を読み取る読取部、操作入力を受け付ける入力部、又は、画像を表示する表示部等を含んでもよい。
The
また本実施の形態に係るサーバ装置3の処理部31には、記憶部32に記憶されたサーバプログラム32aを処理部31が読み出して実行することにより、画像データ取得部31a、センサデータ取得部31b及び特定部31c等がソフトウェア的な機能部として実現される。なおこれらの機能部は、カメラ2に撮影されたユーザとユーザ端末装置1との対応を特定する処理に関する機能部であり、これ以外の機能部については図示及び説明を省略する。
Further, in the
画像データ取得部31aは、通信部33にてカメラ2との間で通信を行うことにより、カメラ2が撮影した画像データを取得する処理を行う。画像データ取得部31aは、カメラ2が送信する画像データを通信部33にて受信することにより取得し、取得した画像データを記憶部32の画像記憶部32cに記憶して蓄積する。
The image
センサデータ取得部31bは、通信部33にてユーザ端末装置1との間で通信を行うことにより、ユーザ端末装置1のセンサの検知結果であるセンサデータを取得する処理を行う。センサデータ取得部31bは、ユーザ端末装置1が送信するセンサデータを通信部33にて受信することにより取得し、取得したセンサデータを記憶部32に記憶する。なお記憶部32に記憶されたセンサデータは、ユーザ及びユーザ端末装置1の対応の特定処理に用いられた後は、記憶部32から消去されてよい。
The sensor
特定部31cは、画像データ取得部31aが取得したカメラ2の画像データと、センサデータ取得部31bが取得したユーザ端末装置1のセンサデータとに基づいて、ユーザを撮影した画像データとユーザ端末装置1との対応を特定する処理を行う。詳細は後述するが、特定部31cは、カメラ2に撮影されたユーザの移動又は活動等に伴う変位と、このユーザが所持するユーザ端末装置1のセンサデータの変化との関係に基づいて、ユーザを撮影した画像データ及びユーザ端末装置1の対応を特定する。特定部31cは、特定した対応に関する情報を、記憶部32の特定情報DB32bに記憶して蓄積する。
The
図4は、特定情報DB32bの一構成例を示す模式図である。特定情報DB32bは、例えば「画像データ」と、一又は複数の「特定情報」とが対応付けられたデータベースである。「特定情報」には、「端末ID」及び「座標情報」等の情報が含まれる。図4に示す例では、「画像データ」に対して2つの「特定情報」が対応付けられているが、「特定情報」は「画像データ」から特定されたユーザの数だけ存在し得る。
FIG. 4 is a schematic diagram showing a configuration example of the
「画像データ」は、カメラ2にて撮影された画像のデジタルデータである。本実施の形態において、画像データの実体は記憶部32の画像記憶部32cに記憶され、特定情報DB32bの「画像データ」には実体である画像データのファイル名又はファイルの格納場所(アドレス)等の情報が記憶される。ただし、特定情報DB32bに画像データの実体が格納されてもよい。画像データは、例えばカメラ2から取得したデータを動画像として保存する場合、MPEG(Moving Picture Experts Group)、AVI(Audio Video Interleave)又はFLV(Flash Video)等のファイル形式が採用され得る。また画像データは、静止画像として保存する場合、PNG(Portable Network Graphics)、GIF(Graphics Interchange Format)又はJPEG(Joint Photographic Experts Group)等のファイル形式が採用され得る。ただしこれらのファイル形式は一例であって、画像データはどのような形式で保存されてもよい。
The "image data" is digital data of an image taken by the
「特定情報」は、カメラ2の画像データに対して特定されたユーザ端末装置1に関する情報である。特定情報DB32bには、特定された1つのユーザ端末装置1に対して1つの「特定情報」が記憶される。
The "specific information" is information about the
「特定情報」に含まれる「端末ID」は、特定されたユーザ端末装置1に対して付されたIDである。本実施の形態においては、ユーザ端末装置1が送信するセンサデータには端末IDが付されており、特定に用いられたセンサデータに付された端末IDが特定情報DB32bに記憶される。なおサーバ装置3は、ユーザ端末装置1の端末IDとこれを所持するユーザのユーザIDとが予め紐付けられている場合、端末IDに基づいてユーザIDを特定することができ、ユーザ端末装置1を所有するユーザを特定することができる。特定情報DB32bの「特定情報」には、「端末ID」に代えて又は「端末ID」と共に、ユーザに対して付された「ユーザID」が記憶されてもよい。
The "terminal ID" included in the "specific information" is an ID assigned to the specified
「特定情報」に含まれる「座標情報」は、画像データにおいてユーザが撮影された範囲を示す座標である。本例では、画像データ中のユーザの撮影範囲が矩形であるものとし、この矩形の体格位置に存在する2つの頂点の座標が、例えば(座標X1,座標Y1)−(座標X2,座標Y2)のように示されている。 The "coordinate information" included in the "specific information" is coordinates indicating a range taken by the user in the image data. In this example, it is assumed that the shooting range of the user in the image data is rectangular, and the coordinates of the two vertices existing at the physique position of this rectangle are, for example, (coordinates X1, coordinates Y1)-(coordinates X2, coordinates Y2). It is shown as.
図5は、本実施の形態に係るユーザ端末装置1の構成を示すブロック図である。本実施の形態に係るユーザ端末装置1は、処理部11、記憶部(ストレージ)12、センサ13、通信部(トランシーバ)14、表示部(ディスプレイ)15、操作部16及びGPS受信部17等を備えて構成されている。
FIG. 5 is a block diagram showing the configuration of the
処理部11は、CPU又はMPU等の演算処理装置、ROM、及び、RAM等を用いて構成されている。処理部11は、記憶部12に記憶されたプログラム12aを読み出して実行することにより、センサ13の検知結果の取得及び送信等に係る種々の処理を行う。
The
記憶部12は、例えばフラッシュメモリなどの不揮発性のメモリ素子を用いて構成されている。記憶部12は、処理部11が実行する各種のプログラム、及び、処理部11の処理に必要な各種のデータを記憶する。本実施の形態において記憶部12は、処理部11が実行するプログラム12aと、ユーザ端末装置1に対して付された端末ID12bとを記憶している。
The
本実施の形態においてプログラム12aは遠隔のサーバ装置等により配信され、これをユーザ端末装置1が通信にて取得し、記憶部12に記憶する。ただしプログラム12aは、例えばユーザ端末装置1の製造段階において記憶部12に書き込まれてもよい。例えばプログラム12aは、メモリカード又は光ディスク等の記録媒体に記録されたプログラム12aをユーザ端末装置1が読み出して記憶部12に記憶してもよい。例えばプログラム12aは、記録媒体に記録されたものを書込装置が読み出してユーザ端末装置1の記憶部12に書き込んでもよい。プログラム12aは、ネットワークを介した配信の態様で提供されてもよく、記録媒体に記録された態様で提供されてもよい。
In the present embodiment, the
端末ID12bは、ユーザ端末装置1を一意に識別する識別子であり、例えばユーザ端末装置1の製造段階等において決定され、記憶部12に記憶される。端末ID12bは、例えばユーザ端末装置1の製造番号等の情報であってよく、また例えば本実施の形態に係る対象物特定システムについて専用のIDであってもよい。
The
センサ13は、例えば加速度センサ、角速度センサ(ジャイロセンサ)又は地磁気センサ等のセンサである。本実施の形態においては、これらのセンサのうちの1つを特定処理に用いるものとするが、ユーザ端末装置1には複数のセンサが搭載されていてよく、特定処理に複数種類のセンサが用いられてもよい。センサ13は、検知した加速度又は角速度等の物理量に応じた電気信号、又は、この電気信号をデジタルデータ化したものを処理部11へ出力する。本実施の形態において、センサ13が出力する電気信号又はデジタルデータをセンサデータという。
The
通信部14は、公衆の携帯電話通信網及びインターネット等を含むネットワークNを介して、種々の装置との間で通信を行う。本実施の形態において通信部14は、ネットワークNを介してサーバ装置3との通信を行う。通信部14は、処理部11から与えられたデータをサーバ装置3へ送信すると共に、サーバ装置3から受信したデータを処理部11へ与える。
The
表示部15は、液晶ディスプレイ等を用いて構成されており、処理部11の処理に基づいて種々の画像及び文字等を表示する。
The
操作部16は、例えば機械式のボタン又は表示部15の表面に設けられたタッチパネル等の入力デバイスによりユーザの操作を受け付け、受け付けた操作を処理部11へ通知する。
The
GPS受信部17は、GPSの人工衛星から送信される電波を受信し、受信した電波に含まれる情報を処理部11へ与える。処理部11は、GPS受信部17から与えられた情報に基づいて、ユーザ端末装置1の位置(例えば緯度及び経度)を特定する処理を行うことができる。
The
また本実施の形態に係るユーザ端末装置1は、記憶部12に記憶されたプログラム12aを処理部11が読み出して実行することにより、センサデータ送信部11a等がソフトウェア的な機能部として処理部11に実現される。センサデータ送信部11aは、センサ13が出力するセンサデータを取得し、取得したセンサデータをサーバ装置3へ送信する処理を行う。このときにセンサデータ送信部11aは、記憶部12に記憶された端末ID12bと、センサデータを取得した日時等の情報とを付して、センサデータをサーバ装置3へ送信する。センサ13は、常に又は所定周期で繰り返してセンサデータを出力している。例えばセンサデータ送信部11aは、センサ13からセンサデータを取得する都度、取得したセンサデータをサーバ装置3へ送信してもよい。また例えばセンサデータ送信部11aは、センサ13から取得したセンサデータを記憶部12に記憶し、記憶した一又は複数のセンサデータを所定の周期でサーバ装置3へ送信してもよい。
Further, in the
なお、本実施の形態に係る対象物特定システムが備えるカメラ2の構成を示すブロック図の図示は省略する。カメラ2は、例えばCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子の出力信号に対して所定の画像処理を施して画像データを生成する画像処理IC(Integrated Circuit)と、有線又は無線の通信を行う通信部とを備えて構成される。カメラ2は、1秒間に数回〜数十回の周期で撮影を行い、撮影により得られた画像データをサーバ装置3へ送信する。このときにカメラ2は、自身に付されたカメラID及び撮影日時等の情報を画像データに付してサーバ装置3へ送信する。
The block diagram showing the configuration of the
<ユーザ及びユーザ端末装置の対応の特定処理>
本実施の形態に係るサーバ装置3は、カメラ2から取得した画像データ中に撮影されたユーザと、ユーザが所持するユーザ端末装置1との対応を特定する処理を行う。この特定処理においてサーバ装置3は、カメラ2からの画像データを受信し、受信した画像データからユーザが撮影された領域を抽出し、この画像領域からユーザの特徴量を算出する。サーバ装置3は、カメラ2から送信される画像データを順次受信し、画像データから特徴量を順次算出することによって、画像データ中のユーザの特徴量の時系列的な変化を算出する。これによりサーバ装置3は、画像データ中のユーザの移動又は活動等に伴う変位を算出することができる。サーバ装置3が算出する特徴量は、例えばユーザの骨格の角度、頭頂から足先までの高さ(長さ)、又は、足の接地タイミング等が採用され得るが、これに限るものではない。
<Specific processing of correspondence between users and user terminal devices>
The
図6は、サーバ装置3が行う画像データからの特徴量の算出処理を説明するための模式図である。図6の左側に示す例では、サーバ装置3がカメラ2から取得した画像データ101に3人の人物が撮影されている。サーバ装置3は、取得した画像データから人物が撮影された領域を抽出する処理を行う。なお、画像データから人物の撮影領域を抽出する処理は、既存の技術であるため、詳細な説明を省略する。図6には、サーバ装置3により抽出された3つの領域102〜104が矩形枠として示されている。
FIG. 6 is a schematic diagram for explaining the process of calculating the feature amount from the image data performed by the
サーバ装置3は、抽出した各領域について、この領域に撮影された人物の特徴を示す特徴量の算出を行う。ここでは、例えば撮影された人物の頭頂から足先までの高さをサーバ装置3が特徴量として算出する。サーバ装置3は、カメラ2によって時系列的に撮影された複数の画像データについて同様の領域抽出及び特徴量算出を繰り返し行い、画像データ中の人物の特徴量の変化を取得する。図6の右側には、3人の人物についてそれぞれ算出された特徴量の変化がグラフとして示されている。
The
また、サーバ装置3は、ユーザ端末装置1から送信されるセンサデータを受信する。図7は、サーバ装置3が取得するセンサデータの一例を示す模式図である。なお図7には、図6に示した画像データに撮影されていた3人の人物が所持するユーザ端末装置1からサーバ装置3がそれぞれ取得した3つのセンサデータを、3つのグラフとして上下に並べて示してある。各グラフは、横軸を時刻tとし、縦軸をセンサの出力値としている。図7に示された3つのセンサデータは、上から順に、ユーザ端末装置1aから取得したセンサデータ、ユーザ端末装置1bから取得したセンサデータ、ユーザ端末装置1cから取得したセンサデータとする。
Further, the
図8は、サーバ装置3による特定方法を説明するための模式図である。図8は、図7に示したユーザ端末装置1aから取得したセンサデータのグラフと、図6に示した領域102から抽出した特徴量のグラフとを上下に並べて示したものである。サーバ装置3は、ユーザ端末装置1aから取得したセンサデータの変化と、カメラ2の画像データから抽出した特徴量の変化との相関関係に基づいて、画像データ中の人物とユーザ端末装置1との対応を特定する。サーバ装置3は、例えばセンサデータ及び特徴量の変化においてピークが発生するタイミングを比較する。図8に示す例では、両タイミングが破線で示すタイミングで一致している。サーバ装置3は、両タイミングが一致又は近似する場合に、この特徴量の算出元となった領域102内に撮影された人物が、このセンサデータの送信元のユーザ端末装置1aを所持するユーザであると特定することができる。
FIG. 8 is a schematic diagram for explaining a specific method by the
なお本例においては、センサデータの変化と特徴量の変化とについて、ピークが発生するタイミングを比較することでユーザ端末装置1の対応を特定しているが、特定の方法はピークの発生タイミングを比較する方法に限らない。例えば、センサデータ及び特徴量の変化率、変化の周期又は周波数等を比較してもよく、これら以外の変化の特性を比較してもよい。
In this example, the correspondence of the
また本例においては、センサデータの変化と特徴量の変化との相関関係に基づいてユーザ端末装置1を特定する処理を行っているが、特定の方法は相関関係に基づく方法に限らない。ユーザ端末装置1に搭載されるセンサの種別等によっては、画像データから抽出した特徴量の変化とセンサデータの変化とに相関関係がない場合もあり得る。このような場合には、センサの特徴又はこのセンサが出力するセンサデータの特徴等に適した特定方法が採用され得る。
Further, in this example, the processing for specifying the
図9及び図10は、本実施の形態に係るサーバ装置3が行う特定処理の手順の一例を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31の画像データ取得部31aは、カメラ2から送信される画像データを通信部33にて受信することで、画像データの取得を行う(ステップS1)。画像データ取得部31aは、カメラ2から取得した画像データを記憶部32の画像記憶部32cに記憶する(ステップS2)。
9 and 10 are flowcharts showing an example of the procedure of the specific processing performed by the
次いで、処理部31の特定部31cは、画像データ取得部31aが取得した画像データから、人物が撮影された領域を抽出する処理を行う(ステップS3)。特定部31cは、抽出した画像領域から、この領域に撮影された人物の特徴を示す特徴量を算出する(ステップS4)。特定部31cは、算出した特徴量を記憶部32又はRAM等に記憶する(ステップS5)。
Next, the
また処理部31のセンサデータ取得部31bは、ユーザ端末装置1から送信されるセンサデータを通信部33にて受信することで、センサデータの取得を行う(ステップS6)。センサデータ取得部31bは、ユーザ端末装置1から取得したセンサデータを記憶部32又はRAM等に記憶する(ステップS7)。
Further, the sensor
処理部31は、ステップS1〜S7の処理により、ユーザ及びユーザ端末装置1の対応を特定するのに十分な量の情報が蓄積されたか否かを判定する(ステップS8)。十分な情報が蓄積されていない場合(S8:NO)、処理部31は、ステップS1へ処理を戻し、画像データ及びセンサデータの取得を繰り返して行う。
The
十分な情報が蓄積された場合(S8:YES)、処理部31の特定部31cは、カメラ2の画像データに撮影された1人の人物を対象人物とし、この対象人物について蓄積された時系列的な複数の特徴量を記憶部32又はRAMから取得する(ステップS9)。特定部31cは、取得した特徴量に基づいて、時系列的な特徴量の変化のピークが発生するタイミングを取得する(ステップS10)。
When sufficient information is accumulated (S8: YES), the
同様に、特定部31cは、1つのユーザ端末装置1を対象端末とし、この対象端末について蓄積された時系列的な複数のセンサデータを記憶部32又はRAMから取得する(ステップS11)。特定部31cは、取得したセンサデータに基づいて、時系列的なセンサデータのピークが発生するタイミングを取得する(ステップS12)。
Similarly, the
特定部31cは、ステップS10にて取得した特徴量のピークのタイミングと、ステップS12にて取得したセンサデータのピークのタイミングとを比較し、両タイミングが一致するか否かを判定する(ステップS13)。なおステップS13にて判定するタイミングの一致には、所定の誤差等が許容され得る。両タイミングが一致する場合(S13:YES)、特定部31cは、対象とした人物と対象としたユーザ端末装置1とが対応するものであることを特定し(ステップS14)、この特定結果を記憶部32の特定情報DB32bに記憶して(ステップS15)、ステップS18へ処理を進める。
The
両タイミングが一致しない場合(S13:NO)、特定部31cは、センサデータが蓄積された全てのユーザ端末装置1について、ピークのタイミングの比較を終了したか否かを判定する(ステップS16)。全てのユーザ端末装置1について比較を終了していない場合(S16:NO)、特定部31cは、ステップS11へ処理を戻し、別のユーザ端末装置1を対象端末としてピークのタイミングの比較を繰り返し行う。
When both timings do not match (S13: NO), the
全てのユーザ端末装置1について比較を終了した場合(S16:YES)、特定部31cは、対象とした人物について、対応するユーザ端末装置1が存在しないと判定する(ステップS17)。
When the comparison is completed for all the user terminal devices 1 (S16: YES), the
特定部31cは、カメラ2の画像データに撮影された全ての人物について、ユーザ端末装置1との対応の特定処理を終了したか否かを判定する(ステップS18)。全ての人物について処理を終了していない場合(S18:NO)、特定部31cは、ステップS9へ処理を戻し、画像データに撮影された別の人物について同様の処理を行う。全ての人物について処理を終了した場合(S18:YES)、特定部31cは、ユーザ及びユーザ端末装置1の対応を特定する処理を終了する。
The
<その他の処理>
(1)顔認証処理の併用1
本実施の形態に係る対象物特定システムが行う特定処理と、既存の顔認証処理とを併用してもよい。例えばサーバ装置3は、カメラ2の画像データとユーザ端末装置1との対応を特定したユーザについて、更に顔認証処理を行ってもよい。サーバ装置3は、認証対象となるユーザの顔画像又はその特徴量等を集めた顔認証のための情報をデータベースに記憶している。サーバ装置3は、上述の特定処理により特定されたユーザ端末装置1を所有するユーザに対応する顔認証のための情報をデータベースから取得し、カメラ2により撮影されたユーザの顔画像から抽出した特徴量との比較を行う。これによりサーバ装置3は、カメラ2に撮影されたユーザが、予め顔認証の情報が登録されているユーザであるか否かを判定することができる。なお、顔認証の処理は既存の技術であるため、詳細な説明は省略する。また対象物特定システムは、顔認証以外の生体認証を併用してもよい。
<Other processing>
(1) Combined use of
The identification process performed by the object identification system according to the present embodiment may be used in combination with the existing face recognition process. For example, the
カメラ2の画像データ及びユーザ端末装置1のセンサデータに基づいて画像データ及びユーザ端末装置1の対応を予め特定しておくことによって、サーバ装置3は、データベースに予め登録された多数の顔認証用の情報の中から、特定されたユーザ端末装置1を所有するユーザに関する情報のみを取得して顔認証を行えばよい。このため、サーバ装置3による顔認証処理の処理負荷及び処理時間等を低減することができる。また、他人のユーザ端末装置1を利用した成りすましを検知することができる。
By specifying in advance the correspondence between the image data and the
図11は、本実施の形態に係るサーバ装置3が行う認証処理の手順の一例を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31は、カメラ2から取得した画像データと、ユーザ端末装置1から取得したセンサデータとに基づいて、画像データに撮影された人物とユーザ端末装置1との対応を特定する特定処理を行う(ステップS31)。なおステップS31にて行う処理の詳細は、図9及び図10のフローチャートにて図示したものであるため、本図では処理の詳細の図示を省略する。
FIG. 11 is a flowchart showing an example of the procedure of the authentication process performed by the
処理部31は、ステップS31の特定処理の結果に基づいて、画像データに撮影された人物とユーザ端末装置1との対応が特定できたか否かを判定する(ステップS32)。対応が特定できない場合(S32:NO)、処理部31は、画像データに撮影された人物が不審者であると判断し(ステップS38)、処理を終了する。
Based on the result of the identification process in step S31, the
対応が特定できた場合(S32:YES)、処理部31は、特定したユーザについて登録された顔認証用情報をデータベースから取得する(ステップS33)。なおサーバ装置3は、顔認証の対象となるユーザについて、ユーザID又は端末ID等の識別情報と、顔画像又は顔の特徴量等の顔認証用情報とをデータベースに対応付けて記憶している。処理部31は、カメラ2の撮影した画像データからこのユーザの顔に相当する領域を顔画像として抽出する(ステップS34)。
When the correspondence can be specified (S32: YES), the
処理部31は、ステップS33にて取得した顔認証用情報とステップS34にて抽出したユーザの顔画像とを用いて、顔認証処理を行う(ステップS35)。処理部31は、顔認証処理の結果が認証成功であるか否かを判定する(ステップS36)。なお認証成功は、画像データから抽出されたユーザの顔が、予め登録された顔認証用情報にて示されるユーザの顔と一致する場合である。
The
認証処理の結果が認証成功である場合(S36:YES)、処理部31は、特定された人物を正規のユーザと判断し(ステップS37)、処理を終了する。認証失敗である場合(S36:NO)、画像データに撮影された人物が不審者であると判断し(ステップS38)、処理を終了する。
If the result of the authentication process is successful authentication (S36: YES), the
(2)顔認証処理の併用2
カメラ2の画像データ及びユーザ端末装置1のセンサデータに基づくユーザを撮影した画像データ及びユーザ端末装置1の対応は、例えばユーザが静止状態である場合に特定が困難である。そこでサーバ装置3は、カメラ2の画像データに含まれる人物が静止状態又は変位が少ない状態であり、センサデータを用いた特定処理が困難であると判断した場合、この人物に対して顔認証処理を行うことによって、カメラ2に撮影された人物を特定してもよい。
(2) Combined use of
It is difficult to specify the correspondence between the image data of the
図12は、本実施の形態に係るサーバ装置3が行う顔認証を併用した特定処理の手順の一例を示すフローチャートである。本実施の形態に係るサーバ装置3の処理部31は、カメラ2から取得した画像データ及びユーザ端末装置1から取得したセンサデータに基づいて、画像データに撮影された人物とユーザ端末装置1との対応を特定することが困難であるか否かを判定する(ステップS51)。処理部31は、例えば取得した画像データの特徴量の変化又はセンサデータの変化が少ない場合等に、特定が困難であると判定することができる。
FIG. 12 is a flowchart showing an example of a procedure of specific processing using face recognition performed by the
特定が困難ではない場合(S51:NO)、処理部31は、図9及び図10に示した通常の特定処理を行って(ステップS52)、処理を終了する。
When the identification is not difficult (S51: NO), the
特定が困難である場合(S51:YES)、処理部31は、カメラ2から取得した画像データから人物の顔画像を抽出する(ステップS53)。また処理部31は、データベースに予め登録された1つの顔認証用情報を取得する(ステップS54)。取得した顔認証用情報を用いて、処理部31は、カメラ2から取得した画像データに撮影された人物について、顔認証処理を行う(ステップS55)。
When it is difficult to identify (S51: YES), the
処理部31は、顔認証処理の結果が認証成功であるか否かを判定する(ステップS56)。認証成功である場合(S56:YES)、処理部31は、画像データに撮影された人物を、認証成功した顔認証用情報に対応付けられたユーザと特定し(ステップS57)、処理を終了する。
The
認証失敗である場合(S56:NO)、処理部31は、データベースに予め登録された全ての顔認証用情報について顔認証処理を終了したか否かを判定する(ステップS58)。全ての顔認証情報について顔認証処理を終了していない場合(S58:NO)、処理部31は、ステップS54へ処理を戻し、別の顔認証用情報を用いて顔認証処理を行う。
If the authentication fails (S56: NO), the
全ての顔認証情報について顔認証処理を終了した場合(S58:YES)、処理部31は、画像データに撮影された人物を不審者であると判断し(ステップS59)、処理を終了する。
When the face recognition process is completed for all the face recognition information (S58: YES), the
(3)複数のカメラによる人物の追跡
例えば屋外の道路に沿って又は建物の廊下に沿って、複数のカメラ2を所定間隔で設置してもよい。サーバ装置3は、これら複数のカメラ2から得られた画像データに対してそれぞれ個別に上述の特定処理を行い、各カメラにて撮影されたユーザを特定する。これら個別の特定結果に基づいて、サーバ装置3は、例えば特定のユーザによる第1のカメラ2aの撮影範囲から第2のカメラ2bの撮影範囲への移動を追跡することができる。サーバ装置3は、例えば特定のユーザについて、特定がなされたカメラ2のカメラID及び特定時刻等の情報をデータベースに記憶して蓄積する。
(3) Tracking a person by a plurality of cameras For example, a plurality of
またサーバ装置3は、複数のカメラ2の画像データからユーザの移動を追跡することによって、移動していたユーザが静止状態となってセンサデータに基づく特定が困難化した場合であっても、これまでのユーザの移動履歴に基づいてカメラ2に撮影されているユーザを推定することができる。
Further, the
<まとめ>
本実施の形態に係るサーバ装置3は、特定の対象物となるユーザをカメラ2で撮影した画像データを取得すると共に、ユーザが所持するユーザ端末装置1のセンサの検知結果であるセンサデータを取得する。サーバ装置3は、時系列的に取得した複数の画像データに基づいて、画像データに撮影されたユーザの移動又は活動等に伴う変位を示す特徴量の変化を取得する。サーバ装置3は、この特徴量の時系列的な変化と、センサデータの時系列的な変化とに基づいて、カメラ2に撮影されたユーザとユーザ端末装置1との対応を特定する。
<Summary>
The
これにより本実施の形態に係る対象物特定システムでは、特定対象となる人物に関する顔画像又は特徴量等をサーバ装置3が予め記憶しておくことなく、カメラ2にて撮影されたユーザと、このユーザが所持するユーザ端末装置1との対応を特定することができる。
As a result, in the object identification system according to the present embodiment, the user photographed by the
<実施の形態2>
実施の形態2に係る対象物特定システムは、人工知能を用いてユーザとユーザ端末装置1との対応を特定する処理を行う。図13は、実施の形態2に係るサーバ装置3の構成を示すブロック図である。実施の形態2に係るサーバ装置3は、カメラ2の画像データとユーザ端末装置1のセンサデータに基づいて、画像データに撮影されたユーザとユーザ端末装置1との対応を特定するよう予め学習された学習モデル200を記憶部32に記憶している。
<
The object identification system according to the second embodiment performs a process of specifying the correspondence between the user and the
図14は、実施の形態2に係るサーバ装置3が備える学習モデルの一構成例を示す模式図である。サーバ装置3が備える学習モデル200は、サーバ装置3の人工知能の機能を実現するためのものであり、予め機械学習、深層学習又は強化学習等の学習処理がなされた学習モデルである。学習モデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、記憶部32にはこの演算を規定する関数の係数及び閾値等のデータが学習モデル200として記憶される。
FIG. 14 is a schematic diagram showing a configuration example of a learning model included in the
実施の形態2に係る学習モデル200は、複数のニューロンが相互に結合したニューラルネットワークの構造を有する。既存の技術であるため詳しい説明は省略するが、ニューロンは複数の入力に対して演算を行い、演算結果として1つの値を出力する素子である。ニューロンは、演算に用いられる重み付けの係数及び閾値等の情報を有している。ニューラルネットワークの学習モデル200は、一又は複数のデータの入力を受け付ける入力層と、入力層にて受け付けられたデータに対して演算処理を行う中間層と、中間層の演算結果を集約して一又は複数の値を出力する出力層とを備えている。深層学習及び強化学習等の学習処理は、予め与えられた多数の学習用データを用いて、ニューラルネットワークを構成する各ニューロンの係数及び閾値等に適切な値を設定する処理である。実施の形態2に係る学習モデル200は、ニューラルネットワークの学習モデルに対して教師データを用いた深層学習がなされた学習済のモデルであり、例えば勾配降下法、確率的勾配降下法又は誤差逆伝播法等の手法により学習がなされる。
The
実施の形態2に係る学習モデル200には、カメラ2の撮像した画像データと、ユーザ端末装置1のセンサの検知結果であるセンサデータとの時系列的な情報が入力層に入力される。ただし画像データは、人物が撮影された領域を抽出したものであり、1人分の画像領域のデータである。また画像データは、複数の静止画像を時系列的に並べたものであってよく、動画像のデータであってよい。センサデータは、1つのユーザ端末装置1についてのセンサデータである。画像データ及びセンサデータは、例えば数秒〜数十秒程度の時間分のものが時系列的に入力される。学習モデル200は、入力された画像データに撮影された人物が所持するユーザ端末装置1が、入力されたセンサデータを検知したユーザ端末装置1である可能性を示す確率情報を特定結果として出力する。なお、時系列的な情報が入力される学習モデル200には、例えばRNN(Recurrent Neural Network)のモデルを採用することができる。また学習モデル200は、入力された画像データから特徴量を抽出するための畳み込み層及びプーリング層等を備えたCNN(Convolution Neural Network)のモデルを採用することができる。
In the
ただし、学習モデル200の入力情報及び出力情報は上記のものに限らない。例えば学習モデル200は、人物の撮影された領域を抽出した画像データではなく、カメラ2が撮影した画像データを入力情報として受け付けてもよく、この場合に学習モデル200は入力された画像データから人物の領域を抽出する処理を自身で行う。また学習モデル200に画像データを入力するのではなく、画像データから算出された特徴量を入力してもよい。また学習モデル200は、複数のユーザ端末装置1のセンサデータを入力情報として受け付けてもよい。この場合に学習モデル200は、各ユーザ端末装置1について確率情報を出力してもよく、最も確率が高いユーザ端末装置1がいずれであるかを特定結果として出力してもよい。
However, the input information and the output information of the
実施の形態2に係るサーバ装置3は、カメラ2から取得した画像データから人物の撮影領域を抽出した画像データと、ユーザ端末装置1から取得したセンサデータとを、記憶部32に記憶した学習モデル200へ入力する。学習モデル200は、時系列的な画像データ及びセンサデータの入力に応じて、入力された画像データに撮影された人物が、入力されたセンサデータに係るユーザ端末装置1を所持している確率の情報を特定結果として出力する。サーバ装置3は、学習モデル200が出力する特定結果を取得する。
The
サーバ装置3は、複数のユーザ端末装置1からセンサデータを取得している場合、各ユーザ端末装置1について学習モデル200を用いた特定処理を行い、学習モデル200が出力する確率が最も高いユーザ端末装置1を、画像データの人物が所持するユーザ端末装置1と特定する。またカメラ2から取得した画像データに複数の人物が撮影されている場合、サーバ装置3は、各人物について同様の処理を行い、各人物とユーザ端末装置1との対応を特定する。サーバ装置3は、特定結果を記憶部32の特定情報DB32bに記憶して蓄積する。
When the
また、実施の形態2に係る学習モデル200は、サーバ装置3又は他の装置により予め深層学習がなされた学習済のモデルである。例えばサーバ装置3は、人物が撮影された画像データと、ユーザ端末装置1のセンサが出力するセンサデータと、この両データが対応関係にあるか否かを示す特定結果とが対応付けられた教師データを用いて深層学習を行う。学習処理に用いられる教師データは、本システムの設計者等が行ってもよく、サーバ装置3等の装置が行ってもよい。またサーバ装置3は、予め作成された教師データを使用してもよく、サーバ装置3が蓄積した情報に基づいて自ら作成した教師データを使用してもよい。少なくとも最初の学習処理においては予め作成された教師データが用いられる。例えば教師データは、従来の監視カメラ等を利用したセキュリティシステムにより収集された情報、又は、本システムもしくは類似のシステムにおいてなされた実証実験等により得られた情報等に基づいて作成され得る。
Further, the
2回目以降の学習処理(再学習処理)においては、サーバ装置3が収集して蓄積した情報に基づいて教師データが生成されてもよい。実施の形態2に係るサーバ装置3は、記憶部32の特定情報DB32bに特定結果に関する情報を記憶して蓄積している。サーバ装置3は、特定情報DB32bに蓄積された情報を基に、学習用の教師データを生成してもよい。ただしこの場合、特定情報DB32bには、図4に示した情報に加えて、特定に用いたセンサデータが記憶されていることが好ましい。サーバ装置3は、所定期間(1日、1週間又は1ヶ月等)が経過する毎に、蓄積した情報に基づいて生成した教師データを用いて学習モデル200の再学習を行うことができる。
In the second and subsequent learning processes (re-learning processes), teacher data may be generated based on the information collected and accumulated by the
図15及び図16は、実施の形態2に係るサーバ装置3が行う特定処理の手順の一例を示すフローチャートである。実施の形態2に係るサーバ装置3の処理部31の画像データ取得部31aは、カメラ2から送信される画像データを通信部33にて受信することで、画像データの取得を行う(ステップS71)。画像データ取得部31aは、カメラ2から取得した画像データを記憶部32の画像記憶部32cに記憶する(ステップS72)。
15 and 16 are flowcharts showing an example of the procedure of the specific processing performed by the
次いで、処理部31の特定部31cは、画像データ取得部31aが取得した画像データから、人物が撮影された領域を抽出する処理を行う(ステップS73)。特定部31cは、抽出した領域の画像データを記憶部32又はRAM等に記憶する(ステップS74)。
Next, the
また処理部31のセンサデータ取得部31bは、ユーザ端末装置1から送信されるセンサデータを通信部33にて受信することで、センサデータの取得を行う(ステップS75)。センサデータ取得部31bは、ユーザ端末装置1から取得したセンサデータを記憶部32又はRAM等に記憶する(ステップS76)。
Further, the sensor
処理部31は、ステップS71〜S76の処理により、ユーザ及びユーザ端末装置1の対応を特定するのに十分な量の情報が蓄積されたか否かを判定する(ステップS77)。十分な情報が蓄積されていない場合(S77:NO)、処理部31は、ステップS71へ処理を戻し、画像データ及びセンサデータの取得を繰り返して行う。
The
十分な情報が蓄積された場合(S77:YES)、処理部31の特定部31cは、カメラ2の画像データに撮影された1人の人物を対象人物とし、この対象人物について蓄積された時系列的な領域の画像データを記憶部32又はRAMから取得する(ステップS78)。同様に、特定部31cは、1つのユーザ端末装置1を対象端末とし、この対象端末について蓄積された時系列的な複数のセンサデータを記憶部32又はRAMから取得する(ステップS79)。なお画像データ及びセンサデータには、取得された日時等の情報が付されており、特定部31cは、日時が一致する画像データ及びセンサデータの組をステップS78及びS79にて取得する。
When sufficient information is accumulated (S77: YES), the
特定部31cは、ステップS78にて取得した対象人物の領域の画像データと、ステップS79にて取得したセンサデータとを含む入力情報を、記憶部32に記憶された学習モデル200へ入力する(ステップS80)。特定部31cは、この入力に対する学習モデル200の出力情報を取得する(ステップS81)。
The
特定部31cは、センサデータが蓄積された全てのユーザ端末装置1について、学習モデル200による特定が行われたか否かを判定する(ステップS82)。全てのユーザ端末装置1について学習モデル200による特定を終了していない場合(S82:NO)、特定部31cは、ステップS79へ処理を戻し、別のユーザ端末装置1を対象端末として同様の処理を繰り返し行う。
The
全てのユーザ端末装置1について学習モデル200を用いた特定を終了した場合(S82:YES)、特定部31cは、各ユーザ端末装置1についての特定結果を比較し、学習モデル200が出力した確率が最も高いユーザ端末装置1を、この対象人物が所持するユーザ端末装置1であると特定する(ステップS83)。特定部31cは、この特定結果を記憶部32の特定情報DB32bに記憶する(ステップS84)。
When the identification using the
特定部31cは、カメラ2の画像データに撮影された全ての人物について、ユーザ端末装置1との対応の特定処理を終了したか否かを判定する(ステップS85)。全ての人物について処理を終了していない場合(S85:NO)、特定部31cは、ステップS78へ処理を戻し、画像データに撮影された別の人物について同様の処理を行う。全ての人物について処理を終了した場合(S85:YES)、特定部31cは、ユーザ及びユーザ端末装置1の対応を特定する処理を終了する。
The
以上の構成の実施の形態2に係る対象物特定システムでは、予め学習された学習モデル200をサーバ装置3が備える。サーバ装置3は、カメラ2から取得した画像データ及びユーザ端末装置1から取得したセンサデータに基づく入力情報を学習モデル200へ入力し、学習モデル200の出力情報を取得することで、カメラ2にて撮影されたユーザと、このユーザが所持するユーザ端末装置1との対応を特定することができる。
In the object identification system according to the second embodiment of the above configuration, the
(変形例)
図17は、実施の形態2の変形例に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。変形例に係る対象物特定システムのサーバ装置3は、ユーザ端末装置1から取得したセンサデータを基に、このユーザ端末装置1がユーザの身体のいずれの場所に所持、把持、取付又は装着等されているかを推定する位置推定部201と、画像データ及びセンサデータからユーザ及びユーザ端末装置1の対応を特定するための複数の学習モデル200a,200b,200c…とを備える。
(Modification example)
FIG. 17 is a schematic diagram for explaining an outline of the identification process performed by the object identification system according to the modified example of the second embodiment. Based on the sensor data acquired from the
位置推定部201は、センサを搭載したユーザ端末装置1が例えば人体の腕、胸、脚等のいずれの位置に取り付けられているかを推定する処理を行う。位置推定部201は、時系列的なセンサデータを入力とし、推定した取付位置に関する情報を出力する。位置推定部201による取付位置の推定は、どのような方法で行われてもよい。
The
例えば、位置推定部201は、予め深層学習等がなされた学習モデルを用いて実現され得る。位置推定の学習モデルは、センサデータを入力情報とし、取付位置を出力情報とする教師データを用いて予め学習がなされる。サーバ装置3は、位置推定の学習モデルを記憶部32に記憶しておき、ユーザ端末装置1から取得したセンサデータを位置推定の学習モデルへ入力し、学習モデルの出力を取得することで、ユーザ端末装置1の取付位置を推定することができる。
For example, the
また例えば、位置推定部201は、ユーザ端末装置1から取得したセンサデータと、予め定められた判定基準との比較により、取付位置の推定を行ってもよい。位置推定部201は、センサデータの最大値、最小値又は変化の周期等と、判定基準として定められた閾値との比較により、位置推定を行うことができる。また位置推定部201は、時系列的なセンサデータをフーリエ変換等により周波数領域のデータに変換し、変換により得られた周波数特性に基づいて位置を推定してもよい。
Further, for example, the
サーバ装置3は、ユーザ端末装置1の取付位置に応じた複数の学習モデル200a,200b,200c…を備えている。本例では、取付位置に応じて腕用の学習モデル200a、胸用の学習モデル200b、脚用の学習モデル200c、…をサーバ装置3が備えている。サーバ装置3は、位置推定部201の推定結果に基づいて、複数の学習モデル200a,200b,200c…からいずれか1つを選択し、選択した1つ学習モデル200a,200b,200c…に画像データ及びセンサデータを入力して、ユーザ及びユーザ端末装置1の対応を特定する。
The
各学習モデル200a,200b,200c…は、各取付位置に取り付けられたユーザ端末装置1のセンサにて検知されたセンサデータを用いて予め深層学習等がなされる。これにより、各学習モデル200a,200b,200c…は、ユーザ端末装置1の取付位置に特化して、より精度のよい特定を行うことが可能となる。
The
図18は、実施の形態2の変形例に係るサーバ装置3が行う特定処理の手順の一例を示すフローチャートである。実施の形態2の変形例に係るサーバ装置3の位置推定部201は、特定処理に用いるセンサデータを取得する(ステップS91)。位置推定部201は、取得したセンサデータを例えば位置推定の学習モデルへ入力してその出力を取得することにより、センサデータの送信元となるユーザ端末装置1の取付位置を推定する処理を行う(ステップS92)。
FIG. 18 is a flowchart showing an example of a procedure of specific processing performed by the
サーバ装置3の処理部31の特定部31cは、記憶部32に記憶した複数の学習モデル200a,200b,200c…の中から、位置推定部201の推定した取付位置に応じた1つの学習モデル200を読み出す(ステップS93)。特定部31cは、ステップS93にて読み出した1つの学習モデル200を用いて、図15及び図16に示した特定処理を行い(ステップS94)、処理を終了する。
The
実施の形態2に係る対象物特定システムのその他の構成は、実施の形態1に係る対象物特定システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Since the other configurations of the object identification system according to the second embodiment are the same as those of the object identification system according to the first embodiment, the same reference numerals are given to the same parts, and detailed description thereof will be omitted.
<実施の形態3>
図19及び図20は、実施の形態3に係る対象物特定システムが行う特定処理の概要を説明するための模式図である。実施の形態3に係る対象物特定システムでは、カメラ2の近傍にビーコン装置5が設置される。実施の形態3に係る対象物特定システムは、ビーコン装置5が送信する情報に基づいて、カメラ2の撮影範囲内に存在するユーザ端末装置1を推定する。なお本実施の形態においては、複数のビーコン装置5を区別する必要がある場合には、ビーコン装置5A,5Bのように、異なる符号を付して説明する。
<
19 and 20 are schematic views for explaining the outline of the specific processing performed by the object identification system according to the third embodiment. In the object identification system according to the third embodiment, the
ビーコン装置5は、例えばBluetooth(登録商標)の通信規格に基づいて、一定の周期で無線信号(ビーコン信号)を送信する。ただしビーコン装置5は、Bluetooth以外の通信規格に基づいて無線信号の送信を行ってもよい。なお、ビーコン装置5を別に設けるのではなく、カメラ2がビーコン信号を送信する機能を有していてもよい。
The
ビーコン装置5が送信するビーコン信号の到達範囲は、例えば数メートル〜数十メートル程度である。実施の形態3においては、ビーコン装置5が送信するビーコン信号の到達範囲は、カメラ2の撮影範囲と同じ程度の広さか、又は、カメラ2の撮影範囲より広い範囲とされることが好ましい。ビーコン装置5が送信したビーコン信号は、このビーコン信号の到達範囲内に存在するユーザ端末装置1にて受信される。
The reachable range of the beacon signal transmitted by the
図19に示す例では、ユーザ端末装置1B,1C,1Dはビーコン装置5が送信するビーコン信号を受信するが、ユーザ端末装置1Aはビーコン信号を受信しない。また図20に示す例では、ユーザ端末装置1Aはビーコン装置5Aが送信するビーコン信号を受信し、ユーザ端末装置1B,1Cはビーコン装置5Bが送信するビーコン信号を受信する。
In the example shown in FIG. 19, the
またビーコン装置5が送信するビーコン信号には、ビーコン装置5に対して一意的に割り当てられたビーコンIDが含まれている。ビーコン信号を受信したユーザ端末装置1は、ビーコン信号に含まれるビーコンIDを取得する。ユーザ端末装置1は、センサデータをサーバ装置3へ送信する際に、ビーコン信号をセンサデータに付して送信する。
Further, the beacon signal transmitted by the
実施の形態3に係るサーバ装置3は、ユーザ端末装置1から送信されるセンサデータを受信し、受信したセンサデータに付されたビーコンIDを取得する。サーバ装置3は、例えばカメラ2に対して一意的に付されるカメラIDと、このカメラ2の近傍に設置されたビーコン装置5のビーコンIDとが対応付けられたテーブルを記憶部32に記憶している。サーバ装置3は、カメラ2から取得した画像データとユーザ端末装置1から取得したセンサデータとに基づいて、ユーザ及びユーザ端末装置1の対応を特定する処理を行う際に、テーブルにて対応付けられたカメラID及びビーコンIDに関する画像データ及びセンサデータに処理対象のデータとして特定処理を行う。これによりサーバ装置3は、カメラ2の撮影範囲内に存在するユーザ端末装置1がいずれであるかをビーコンIDに基づいて推定することができ、特定処理の対象とするユーザ端末装置1を限定することができる。
The
これにより実施の形態3に係る対象物特定システムでは、複数のカメラ2から取得した複数の画像データと、複数のユーザ端末装置1から取得した複数のセンサデータとに基づいてサーバ装置3が特定処理を行う場合であっても、扱うデータを限定することができるため、サーバ装置3の処理負荷を低減することができる。
As a result, in the object identification system according to the third embodiment, the
実施の形態3に係る対象物特定システムでは、ビーコン装置5が送信するビーコン信号をユーザ端末装置1が受信する。ただし対象物特定システムは、以下の変形例に示すように、ユーザ端末装置1が送信するビーコン信号をビーコン装置5が受信する構成であってもよい。
In the object identification system according to the third embodiment, the
(変形例1)
図21は、実施の形態3の変形例1に係る対象物特定システムのデータ送受信の概要を説明するための模式図である。実施の形態3の変形例1に係る対象物特定システムでは、カメラ2が撮影した画像データは、有線又は無線のネットワークを介して、サーバ装置3へ送信される。
(Modification example 1)
FIG. 21 is a schematic diagram for explaining an outline of data transmission / reception of the object identification system according to the first modification of the third embodiment. In the object identification system according to the first modification of the third embodiment, the image data captured by the
実施の形態3の変形例1に係るユーザ端末装置1は、サーバ装置3へのセンサデータの送信を行わない。変形例1に係るユーザ端末装置1は、例えばBluetoothの通信規格に基づいて、一定の周期で無線信号(ビーコン信号)を送信する。ユーザ端末装置1が送信するビーコン信号には、ユーザID又は端末ID等の識別情報と、センサ13の検知結果であるセンサデータとが含まれる。ユーザ端末装置1が送信するビーコン信号の到達範囲は、例えば数メートル〜数十メートル程度である。このビーコン信号は、到達範囲内に存在するビーコン装置5にて受信される。
The
実施の形態3の変形例1に係るビーコン装置5は、ビーコン信号の送信を行うのではなく、ビーコン信号の受信を行う装置である。変形例1に係るビーコン装置5は、有線又は無線の通信によりサーバ装置3との通信を行うことができる。ビーコン装置5は、所定のカメラ2に対応付けて設置される。ビーコン装置5がビーコン信号を受信する範囲は、対応するカメラ2の撮影範囲と同じ程度の広さか、又は、カメラ2の撮影範囲より広い範囲とされることが好ましい。
The
変形例1に係るビーコン装置5は、ユーザ端末装置1が送信するビーコン信号を受信した場合、ビーコン信号に含まれるユーザID又は端末ID等の識別情報とセンサデータとを取得する。ビーコン装置5は、取得した識別情報及びセンサデータ等に対して、自身のビーコンIDを付したものをサーバ装置3へ送信する。
When the
実施の形態3の変形例1に係るサーバ装置3は、カメラ2から取得した画像データと、ビーコン装置5から取得したビーコンID及びセンサデータ等とを用いて、カメラ2の画像データに撮影された人物とユーザ端末装置1との対応を特定する処理を行う。
The
(変形例2)
カメラ2の撮影範囲内に存在するユーザ端末装置1を推定する方法は、ビーコン信号を利用する方法に限らない。実施の形態3の変形例2に係る対象物特定システムでは、ユーザ端末装置1が、GPS受信部17にて受信したGPS信号に基づく自身の位置情報を、センサデータと共にサーバ装置3へ送信する。
(Modification 2)
The method of estimating the
例えばサーバ装置3は、カメラ2が設置されている場所の位置情報を記憶したデータベースを備えている。サーバ装置3は、カメラ2の設置場所の位置情報と、ユーザ端末装置1から取得した位置情報とを比較することによって、カメラ2の撮影範囲内に存在するユーザ端末装置1を推定することができる。
For example, the
(変形例3)
実施の形態3の変形例2に係る対象物特定システムでは、例えばイベントの会場又は特定の建物等への入退場を管理する入退場管理システムとの連携により、この会場又は建物等に設置された一又は複数のカメラ2の撮影範囲内に存在するユーザ端末装置1を推定する。
(Modification 3)
In the object identification system according to the second modification of the third embodiment, for example, the object identification system is installed at the venue or the building in cooperation with the entrance / exit management system that manages the entrance / exit to the venue or the specific building. The
入退場管理システムは、例えば会場又は建物等の出入口にて、この会場又は建物等へ入退場するユーザのユーザ端末装置1の端末IDを取得し、入退場の履歴を記憶する。例えば出入口に設置された入退場管理システムの無線通信装置がユーザ端末装置1との間で無線通信を行い、入退場するユーザ端末装置1の端末IDを取得する。ただし入退場管理システムは、入退場するユーザのユーザIDを取得し、データベース等を参照してユーザIDに紐付けられた端末IDを取得してもよい。
The entrance / exit management system acquires the terminal ID of the
実施の形態3の変形例2に係る対象物特定システムでは、会場又は建物等の内部に存在するユーザ端末装置1の端末IDをサーバ装置3が入退場管理システムから取得する。サーバ装置3は、この会場又は建物等に設置されたカメラ2の撮影範囲内に存在するユーザ端末装置1が、入退場管理システムから取得した端末IDが付されたユーザ端末装置1であると推定することができる。
In the object identification system according to the second modification of the third embodiment, the
なお実施の形態3及びその変形例1〜3に係る対象物特定システムでは、カメラ2及びユーザ端末装置1が一対一の関係となるように推定がなされる必要はない。例えばサーバ装置3は、数台のカメラ2の撮像範囲内のいずれかに存在するユーザ端末装置1を推定してもよい。
In the object identification system according to the third embodiment and the modified examples 1 to 3 thereof, it is not necessary to estimate so that the
実施の形態3に係る対象物特定システムのその他の構成は、実施の形態1に係る対象物特定システムと同様であるため、同様の箇所には同じ符号を付し、詳細な説明を省略する。 Since the other configurations of the object identification system according to the third embodiment are the same as those of the object identification system according to the first embodiment, the same reference numerals are given to the same parts, and detailed description thereof will be omitted.
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered as exemplary in all respects and not restrictive. The scope of the present invention is indicated by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.
1、1A〜1D ユーザ端末装置
2、2A,2B カメラ
3 サーバ装置
5、5A,5B ビーコン装置
11 処理部
11a センサデータ送信部
12 記憶部
12a プログラム
12b 端末ID
13 センサ
14 通信部
15 表示部
16 操作部
17 GPS受信部
31 処理部
31a 画像データ取得部
31b センサデータ取得部
31c 特定部
32 記憶部
32a サーバプログラム
32b 特定情報DB
33 通信部
99 記録媒体
200 学習モデル
201 位置推定部
1, 1A to 1D
13
33
Claims (14)
カメラで撮影した画像データを取得し、
対象物が有するセンサからセンサデータを取得し、
前記対象物に対する前記センサの取付位置を推定し、
推定した取付位置と、取得した前記画像データ及び前記センサデータとに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する
処理を実行させる、コンピュータプログラム。 On the computer
Acquire the image data taken by the camera and
Obtain sensor data from the sensor of the object and
Estimate the mounting position of the sensor with respect to the object,
A computer program that executes a process of identifying the correspondence between the image data obtained by photographing the object and the sensor based on the estimated mounting position and the acquired image data and the sensor data.
複数の対象物が有する複数のセンサから複数のセンサデータを取得し、
取得した前記画像データ及び複数の前記センサデータに基づいて、複数の前記対象物を撮影した画像データと複数の前記センサとの対応を特定する、
請求項1に記載のコンピュータプログラム。 Acquire image data of multiple objects taken with a camera and
Acquire multiple sensor data from multiple sensors of multiple objects,
Based on the acquired image data and the plurality of sensor data, the correspondence between the image data obtained by photographing the plurality of objects and the plurality of sensors is specified.
The computer program according to claim 1.
前記センサから時系列的な前記センサデータを取得し、
取得した時系列的な前記画像データ及び前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する、
請求項1又は請求項2に記載のコンピュータプログラム。 The image data taken by the camera in time series is acquired, and the image data is acquired.
The sensor data in time series is acquired from the sensor, and the sensor data is acquired.
Based on the acquired time-series image data and the sensor data, the correspondence between the image data obtained by photographing the object and the sensor is specified.
The computer program according to claim 1 or 2.
前記特徴量の変化のピークが発生するタイミングを取得し、
前記センサデータの変化のピークが発生するタイミングを取得し、
前記特徴量に係るタイミングと、前記センサデータに係るタイミングとに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する、
請求項3に記載のコンピュータプログラム。 The feature amount of the object included in the image data is calculated.
Obtain the timing at which the peak of the change in the feature amount occurs, and
Acquire the timing at which the peak of change in the sensor data occurs, and
Based on the timing related to the feature amount and the timing related to the sensor data, the correspondence between the image data obtained by photographing the object and the sensor is specified.
The computer program according to claim 3.
取得した前記画像データ及び前記センサデータを前記学習済モデルへ入力し、
前記学習済モデルが出力する特定結果を取得する、
請求項1から請求項3までのいずれか1つに記載のコンピュータプログラム。 Using a trained model that has been trained to accept the image data and the sensor data as inputs and output the image data obtained by photographing the object and the specific result of the correspondence of the sensor.
The acquired image data and the sensor data are input to the trained model.
Acquire the specific result output by the trained model,
The computer program according to any one of claims 1 to 3.
請求項1から請求項5までのいずれか1つに記載のコンピュータプログラム。 The acquired image data and the correspondence between the object included in the image data and the sensor are stored in a database in association with each other.
The computer program according to any one of claims 1 to 5 .
推定した前記センサと、前記カメラの撮影範囲内の前記対象物を撮影した画像データとの対応を特定する、
請求項1から請求項6までのいずれか1つに記載のコンピュータプログラム。 The sensor existing within the shooting range of the camera is estimated, and the sensor is estimated.
Identify the correspondence between the estimated sensor and the image data obtained by capturing the object within the imaging range of the camera.
The computer program according to any one of claims 1 to 6 .
取得した複数の画像データに基づいて、前記センサとの対応を特定した画像データに撮影された前記対象物の移動を判定する、
請求項1から請求項7までのいずれか1つに記載のコンピュータプログラム。 The image data is acquired from a plurality of cameras having different shooting ranges, and the image data is acquired.
Based on the acquired plurality of image data, the movement of the object captured by the image data that specifies the correspondence with the sensor is determined.
The computer program according to any one of claims 1 to 7 .
請求項1から請求項8までのいずれか1つに記載のコンピュータプログラム。 When the correspondence between the image data obtained by photographing the object and the sensor cannot be specified based on the sensor data, the object was photographed based on the image data and the information registered in advance for the object. Identify the correspondence between the image data and the sensor,
The computer program according to any one of claims 1 to 8 .
対象物が有するセンサからセンサデータを取得し、
前記対象物に対する前記センサの取付位置を推定し、
推定した取付位置と、取得した前記画像データ及び前記センサデータとに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する
対象物特定方法。 Acquire the image data taken by the camera and
Obtain sensor data from the sensor of the object and
Estimate the mounting position of the sensor with respect to the object,
An object identification method for specifying the correspondence between the image data obtained by photographing the object and the sensor based on the estimated mounting position and the acquired image data and the sensor data.
判定結果に基づいて、前記対象物の認証を行う、
請求項10に記載の対象物特定方法。 It is determined whether or not the object has a predetermined sensor according to the image data obtained by photographing the object and the specific result of the correspondence of the sensor.
Authentication of the object is performed based on the determination result.
The object identification method according to claim 10 .
前記対象物を撮影した画像データ及び前記センサの対応の特定結果に基づいて、前記対象物の生体認証を行う、
請求項10又は請求項11に記載の対象物特定方法。 The object is a living thing
Biometric authentication of the object is performed based on the image data obtained by photographing the object and the specific result of the correspondence of the sensor.
The object identification method according to claim 10 or 11 .
対象物が有するセンサからセンサデータを取得するセンサデータ取得部と、
前記対象物に対する前記センサの取付位置を推定する推定部と、
前記推定部が推定した取付位置、前記画像データ取得部が取得した前記画像データ及び前記センサデータ取得部が取得した前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する特定部と
を備える、対象物特定装置。 An image data acquisition unit that acquires image data taken with a camera,
A sensor data acquisition unit that acquires sensor data from the sensor of the object,
An estimation unit that estimates the mounting position of the sensor with respect to the object,
Based on the mounting position estimated by the estimation unit, the image data acquired by the image data acquisition unit, and the sensor data acquired by the sensor data acquisition unit, the correspondence between the image data obtained by photographing the object and the sensor is determined. An object identification device including a specific part to be specified.
対象物に備えられるセンサと、
前記カメラで撮影した画像データを取得する画像データ取得部、前記センサからセンサデータを取得するセンサデータ取得部、前記対象物に対する前記センサの取付位置を推定する推定部、並びに、前記推定部が推定した取付位置、前記画像データ取得部が取得した前記画像データ及び前記センサデータ取得部が取得した前記センサデータに基づいて、前記対象物を撮影した画像データ及び前記センサの対応を特定する特定部を有する対象物特定装置と
を備える、対象物特定システム。 With the camera
Sensors provided on the object and
Image data acquisition unit, sensor data acquisition unit that acquires sensor data from the sensor, estimator for estimating the mounting position of the sensor relative to the object, and the estimation unit estimates that acquires image data captured by the camera Based on the mounting position, the image data acquired by the image data acquisition unit, and the sensor data acquired by the sensor data acquisition unit, the image data obtained by photographing the object and the specific unit that specifies the correspondence of the sensor are determined. An object identification system including an object identification device to have.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019150005A JP6757009B1 (en) | 2019-08-19 | 2019-08-19 | Computer program, object identification method, object identification device and object identification system |
PCT/JP2020/027437 WO2021033463A1 (en) | 2019-08-19 | 2020-07-15 | Computer program, object-specifying method, object-specifying device, and object-specifying system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019150005A JP6757009B1 (en) | 2019-08-19 | 2019-08-19 | Computer program, object identification method, object identification device and object identification system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6757009B1 true JP6757009B1 (en) | 2020-09-16 |
JP2021033430A JP2021033430A (en) | 2021-03-01 |
Family
ID=72432433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019150005A Active JP6757009B1 (en) | 2019-08-19 | 2019-08-19 | Computer program, object identification method, object identification device and object identification system |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6757009B1 (en) |
WO (1) | WO2021033463A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021189589A (en) * | 2020-05-27 | 2021-12-13 | 株式会社東芝 | Camera device, sensor data acquisition method, sensor data acquisition program, and storage system |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7490600B2 (en) | 2021-03-09 | 2024-05-27 | 株式会社東芝 | Information processing device, method and program |
WO2022249269A1 (en) * | 2021-05-25 | 2022-12-01 | 日本電気株式会社 | Data processing device, data processing method, and non-transitory computer-readable medium |
WO2023145026A1 (en) * | 2022-01-28 | 2023-08-03 | 日本電気株式会社 | Monitoring device, monitoring method, and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5994397B2 (en) * | 2012-06-01 | 2016-09-21 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP6665591B2 (en) * | 2016-03-03 | 2020-03-13 | 沖電気工業株式会社 | Information processing apparatus, information processing method, program, and information processing system |
JP6577424B2 (en) * | 2016-07-19 | 2019-09-18 | 日本電信電話株式会社 | Action recognition device and action recognition method |
JP6588413B2 (en) * | 2016-10-04 | 2019-10-09 | 日本電信電話株式会社 | Monitoring device and monitoring method |
-
2019
- 2019-08-19 JP JP2019150005A patent/JP6757009B1/en active Active
-
2020
- 2020-07-15 WO PCT/JP2020/027437 patent/WO2021033463A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021189589A (en) * | 2020-05-27 | 2021-12-13 | 株式会社東芝 | Camera device, sensor data acquisition method, sensor data acquisition program, and storage system |
JP7150781B2 (en) | 2020-05-27 | 2022-10-11 | 東芝情報システム株式会社 | Camera device, sensor data acquisition method, sensor data acquisition program, and storage system |
Also Published As
Publication number | Publication date |
---|---|
WO2021033463A1 (en) | 2021-02-25 |
JP2021033430A (en) | 2021-03-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6757009B1 (en) | Computer program, object identification method, object identification device and object identification system | |
US11735018B2 (en) | Security system with face recognition | |
CN109190508B (en) | Multi-camera data fusion method based on space coordinate system | |
JP4497236B2 (en) | Detection information registration device, electronic device, detection information registration device control method, electronic device control method, detection information registration device control program, electronic device control program | |
KR100902199B1 (en) | Authentication apparatus and method for controlling the authentication apparatus, electronic device provided with authentication apparatus, program for controlling authentication apparatus, and recording media storing the program | |
JP4984728B2 (en) | Subject collation device and subject collation method | |
JP5459674B2 (en) | Moving object tracking system and moving object tracking method | |
JP2018120644A (en) | Identification apparatus, identification method, and program | |
JP2007219948A (en) | User abnormality detection equipment and user abnormality detection method | |
KR102106898B1 (en) | Tracking method and system using a database of a person's faces | |
JP6339445B2 (en) | Person identification device | |
JP7310105B2 (en) | Communication terminal, communication system, image processing method, and program | |
CN109815813A (en) | Image processing method and Related product | |
WO2021240889A1 (en) | Information processing device, information processing method, and program | |
KR102305038B1 (en) | Server for Tracking Missing Child Tracking and Method for Tracking Moving Path of Missing Child based on Face Recognition based on Deep-Learning Therein | |
US20230419670A1 (en) | Information processing apparatus, information processing method, and program | |
Elhamshary et al. | Justwalk: A crowdsourcing approach for the automatic construction of indoor floorplans | |
WO2018088035A1 (en) | Image recognition processing method, image recognition processing program, data providing method, data providing system, data providing program, recording medium, processor, and electronic device | |
WO2022003766A1 (en) | Information processing device, face authentication promotion system, information processing method, and non-transitory computer-readable medium in which program is stored | |
JP7488674B2 (en) | OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND OBJECT RECOGNITION PROGRAM | |
JP2022095332A (en) | Learning model generation method, computer program and information processing device | |
JP6939998B2 (en) | Movement status analysis device, movement status analysis method and program | |
JP7020567B2 (en) | Information processing systems, information processing equipment, information processing methods, and programs | |
TWI812053B (en) | Positioning method, electronic equipment and computer-readable storage medium | |
AU2022100065A4 (en) | Data integrity management in a computer network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200106 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200106 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200605 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200623 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6757009 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |