JP2017173962A - Communication system, search device, communication terminal, search method, and program - Google Patents

Communication system, search device, communication terminal, search method, and program Download PDF

Info

Publication number
JP2017173962A
JP2017173962A JP2016056760A JP2016056760A JP2017173962A JP 2017173962 A JP2017173962 A JP 2017173962A JP 2016056760 A JP2016056760 A JP 2016056760A JP 2016056760 A JP2016056760 A JP 2016056760A JP 2017173962 A JP2017173962 A JP 2017173962A
Authority
JP
Japan
Prior art keywords
feature amount
unit
communication terminal
collation result
transmitted
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016056760A
Other languages
Japanese (ja)
Other versions
JP6690338B2 (en
Inventor
丹羽 祐史
Yuji Niwa
祐史 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2016056760A priority Critical patent/JP6690338B2/en
Publication of JP2017173962A publication Critical patent/JP2017173962A/en
Application granted granted Critical
Publication of JP6690338B2 publication Critical patent/JP6690338B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To easily find a search object without causing personal information to leak out.SOLUTION: A communication system includes: a communication terminal 100 that identifies a search object, extracts a feature quantity of the identified search object, and transmits the extracted feature quantity to a search device 200; and the search device 200 that extracts a feature quantity of an object included in a photographic image, compares the feature quantity transmitted by the communication terminal 100 with the extracted feature quantity, and transmits the comparison result to the communication terminal 100 by using short-range wireless communication. The communication terminal 100 outputs the comparison result transmitted by the search device 200.SELECTED DRAWING: Figure 1

Description

本発明は、通信システム、検索装置、通信端末、検索方法およびプログラムに関する。   The present invention relates to a communication system, a search device, a communication terminal, a search method, and a program.

近年、監視カメラで撮影した映像から、データベースにあらかじめ登録されている人物を検出する技術が考えられている(例えば、特許文献1参照。)。
また、人が多く集まる場所で待ち合わせを行った場合、待ち合わせ相手を探すことは容易ではない。このような場合、特許文献1に記載されているような技術を用いれば、待ち合わせ相手を探すことが容易になる。
In recent years, a technique for detecting a person registered in advance in a database from video captured by a surveillance camera has been considered (for example, see Patent Document 1).
In addition, when meeting at a place where many people gather, it is not easy to find a meeting partner. In such a case, if a technique such as that described in Patent Document 1 is used, it is easy to find a meeting partner.

特開2014−78150号公報JP 2014-78150 A

しかしながら、特許文献1に記載された技術においては、検索対象となる人物の顔等の情報をあらかじめ登録しておかなくてはならない。また、顔等の情報を登録することで、個人情報の漏えいが生じてしまうおそれがある。   However, in the technique described in Patent Document 1, information such as the face of a person to be searched must be registered in advance. In addition, registration of information such as a face may cause leakage of personal information.

本発明の目的は、上述した課題を解決する通信システム、検索装置、通信端末、検索方法およびプログラムを提供することである。   An object of the present invention is to provide a communication system, a search device, a communication terminal, a search method, and a program that solve the above-described problems.

本発明の通信システムは、
外部からの操作に基づいて、表示している画像から検索対象を特定する対象特定部と、
前記特定された検索対象の特徴量を抽出する第1の特徴量抽出部と、
近距離無線通信を用いて前記特徴量を送信する特徴量送信部とを有する通信端末と、
撮像部と、
前記撮像部が撮像した画像に含まれる対象物の特徴量を抽出する第2の特徴量抽出部と、
前記通信端末から送信されてきた特徴量と、前記第2の特徴量抽出部が抽出した特徴量とを照合する照合部と、
前記照合部における照合結果を、前記近距離無線通信を用いて前記通信端末へ送信する照合結果送信部とを有する検索装置とを有し、
前記通信端末は、前記検索装置から送信されてきた照合結果を出力する出力部を有する。
また、本発明の検索装置は、
撮像部と、
前記撮像部が撮像した画像に含まれる対象物の特徴量を抽出する特徴量抽出部と、
通信端末から送信されてきた特徴量と、前記特徴量抽出部が抽出した特徴量とを照合する照合部と、
前記照合部における照合結果を、近距離無線通信を用いて前記通信端末へ送信する照合結果送信部とを有する。
また、本発明の通信端末は、
外部からの操作に基づいて、表示している画像から検索対象を特定する対象特定部と、
前記特定された検索対象の特徴量を抽出する特徴量抽出部と、
近距離無線通信を用いて前記特徴量を検索装置へ送信する特徴量送信部と、
前記検索装置から送信されてきた照合結果を出力する出力部とを有する。
また、本発明の検索方法は、
撮像する処理と、
前記撮像した画像に含まれる対象物の特徴量を抽出する処理と、
通信端末から送信されてきた特徴量と、前記抽出した特徴量とを照合する処理と、
前記照合した結果を、近距離無線通信を用いて前記通信端末へ送信する処理とを行う。
また、本発明のプログラムは、
コンピュータに実行させるためのプログラムであって、
撮像する手順と、
前記撮像した画像に含まれる対象物の特徴量を抽出する手順と、
通信端末から送信されてきた特徴量と、前記抽出した特徴量とを照合する手順と、
前記照合した結果を、近距離無線通信を用いて前記通信端末へ送信する手順とを実行させる。
The communication system of the present invention includes:
A target identifying unit that identifies a search target from a displayed image based on an external operation;
A first feature quantity extraction unit for extracting the specified feature quantity of the search target;
A communication terminal having a feature amount transmitting unit that transmits the feature amount using short-range wireless communication;
An imaging unit;
A second feature amount extraction unit that extracts a feature amount of an object included in an image captured by the imaging unit;
A collation unit that collates the feature amount transmitted from the communication terminal with the feature amount extracted by the second feature amount extraction unit;
A collation result transmitting unit that transmits a collation result in the collation unit to the communication terminal using the short-range wireless communication;
The communication terminal includes an output unit that outputs a collation result transmitted from the search device.
Moreover, the search device of the present invention provides
An imaging unit;
A feature quantity extraction unit that extracts a feature quantity of an object included in an image captured by the imaging unit;
A collation unit that collates the feature amount transmitted from the communication terminal with the feature amount extracted by the feature amount extraction unit;
A verification result transmission unit that transmits a verification result in the verification unit to the communication terminal using short-range wireless communication.
The communication terminal of the present invention
A target identifying unit that identifies a search target from a displayed image based on an external operation;
A feature quantity extraction unit for extracting the feature quantity of the specified search target;
A feature amount transmitter that transmits the feature amount to the search device using short-range wireless communication;
And an output unit that outputs a collation result transmitted from the search device.
In addition, the search method of the present invention includes:
Processing to image,
A process of extracting a feature amount of an object included in the captured image;
Processing for collating the feature amount transmitted from the communication terminal with the extracted feature amount;
A process of transmitting the collated result to the communication terminal using near field communication is performed.
The program of the present invention is
A program for causing a computer to execute,
The procedure for imaging,
A procedure for extracting a feature amount of an object included in the captured image;
A procedure for collating the feature amount transmitted from the communication terminal with the extracted feature amount;
A procedure for transmitting the collated result to the communication terminal using near field communication is executed.

以上説明したように、本発明においては、個人情報の漏えいを生じさせずに容易に検索対象を見つけ出すことができる。   As described above, in the present invention, it is possible to easily find a search target without causing leakage of personal information.

本発明の通信システムの第1の実施の形態を示す図である。It is a figure which shows 1st Embodiment of the communication system of this invention. 図1に示した通信端末の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the communication terminal shown in FIG. 図1に示した検索装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the search device shown in FIG. 図1に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the search method in the communication system shown in FIG. 本発明の通信システムの第2の実施の形態を示す図である。It is a figure which shows 2nd Embodiment of the communication system of this invention. 図5に示した通信システムの使用例を示す図である。It is a figure which shows the usage example of the communication system shown in FIG. 図5に示した通信端末の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the communication terminal shown in FIG. 図5に示した検索装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the search device shown in FIG. 図5に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。FIG. 6 is a sequence diagram for explaining an example of a search method in the communication system shown in FIG. 5. 図7に示した出力部が表示している画像の中から利用者が検索対象を選択する操作の様子の一例を示す図である。It is a figure which shows an example of the mode of operation in which a user selects search object from the images which the output part shown in FIG. 図7に示した出力部が、照合結果送信部が態様(1)で送信した照合結果を表示した表示画面の一例を示す図である。It is a figure which shows an example of the display screen which displayed the collation result which the output part shown in FIG. 7 transmitted in the aspect (1) by the collation result transmission part. 図7に示した出力部が、照合結果送信部が態様(2)で送信した照合結果を表示した表示画面の一例を示す図である。It is a figure which shows an example of the display screen which displayed the collation result which the output part shown in FIG. 7 transmitted in the aspect (2) by the collation result transmission part. 図7に示した出力部が、照合結果送信部が態様(3)で送信した照合結果を表示した表示画面の一例を示す図である。It is a figure which shows an example of the display screen which displayed the collation result which the output part shown in FIG. 7 transmitted in the aspect (3) by the collation result transmission part. 図5に示した通信システムのおける検索方法の他の例を説明するためのシーケンス図である。FIG. 6 is a sequence diagram for explaining another example of the search method in the communication system shown in FIG. 5. ステップS29にて図7に示した出力部が表示した照合結果の一例を示す図である。It is a figure which shows an example of the collation result which the output part shown in FIG. 7 displayed in step S29. 本発明の通信システムの第3の実施の形態を示す図である。It is a figure which shows 3rd Embodiment of the communication system of this invention. 図16に示した通信端末の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the communication terminal shown in FIG. 図16に示した検索装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the search device shown in FIG. 図16に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。It is a sequence diagram for demonstrating an example of the search method in the communication system shown in FIG. 本発明の通信システムの第4の実施の形態を示す図である。It is a figure which shows 4th Embodiment of the communication system of this invention. 図20に示した検索装置の内部構成の一例を示す図である。It is a figure which shows an example of an internal structure of the search device shown in FIG. 図20に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。FIG. 21 is a sequence diagram for explaining an example of a search method in the communication system shown in FIG. 20.

以下に本発明の実施の形態について図面を参照して説明する。
(第1の実施の形態)
Embodiments of the present invention will be described below with reference to the drawings.
(First embodiment)

図1は、本発明の通信システムの第1の実施の形態を示す図である。
本形態における通信システムは図1に示すように、通信端末100と、検索装置200とを有している。通信端末100は、検索装置200との間で通信可能な通信装置である。
FIG. 1 is a diagram showing a first embodiment of a communication system of the present invention.
As shown in FIG. 1, the communication system in this embodiment includes a communication terminal 100 and a search device 200. The communication terminal 100 is a communication device that can communicate with the search device 200.

図2は、図1に示した通信端末100の内部構成の一例を示す図である。図1に示した通信端末100は図2に示すように、対象特定部110と、特徴量抽出部120と、特徴量送信部130と、出力部140とを有している。なお、図2には、図1に示した通信端末100が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。
対象特定部110は、通信端末100の外部からの操作に基づいて、表示している画像から検索対象を特定する。
特徴量抽出部120は、対象特定部110が特定した検索対象の特徴量を抽出する第1の特徴量抽出部である。
特徴量送信部130は、近距離無線通信を用いて、特徴量抽出部120が抽出した特徴量を検索装置200へ送信する。
出力部140は、検索装置200から送信されてきた照合結果を出力する。
FIG. 2 is a diagram illustrating an example of an internal configuration of the communication terminal 100 illustrated in FIG. As illustrated in FIG. 2, the communication terminal 100 illustrated in FIG. 1 includes a target identification unit 110, a feature amount extraction unit 120, a feature amount transmission unit 130, and an output unit 140. FIG. 2 shows an example of main components related to the present embodiment among the components included in communication terminal 100 shown in FIG.
The target specifying unit 110 specifies a search target from the displayed image based on an operation from the outside of the communication terminal 100.
The feature quantity extraction unit 120 is a first feature quantity extraction unit that extracts the feature quantity of the search target specified by the target specification unit 110.
The feature amount transmitting unit 130 transmits the feature amount extracted by the feature amount extracting unit 120 to the search device 200 using short-range wireless communication.
The output unit 140 outputs the collation result transmitted from the search device 200.

図3は、図1に示した検索装置200の内部構成の一例を示す図である。図1に示した検索装置200は図3に示すように、撮像を行う撮像部210と、特徴量抽出部220と、照合部230と、照合結果送信部240とを有している。なお、図3には、図1に示した検索装置200が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。
特徴量抽出部220は、撮像部210が撮像した画像に含まれる対象物の特徴量を抽出する第2の特徴量抽出部である。
照合部230は、通信端末100から送信されてきた特徴量と、特徴量抽出部220が抽出した特徴量とを照合する。
照合結果送信部240は、照合部230における照合結果を、近距離無線通信を用いて通信端末100へ送信する。
FIG. 3 is a diagram illustrating an example of an internal configuration of the search device 200 illustrated in FIG. As illustrated in FIG. 3, the search device 200 illustrated in FIG. 1 includes an imaging unit 210 that performs imaging, a feature amount extraction unit 220, a verification unit 230, and a verification result transmission unit 240. Note that FIG. 3 shows an example of main components related to the present embodiment among the components included in the search device 200 shown in FIG.
The feature amount extraction unit 220 is a second feature amount extraction unit that extracts a feature amount of an object included in an image captured by the imaging unit 210.
The collation unit 230 collates the feature amount transmitted from the communication terminal 100 with the feature amount extracted by the feature amount extraction unit 220.
The verification result transmission unit 240 transmits the verification result in the verification unit 230 to the communication terminal 100 using short-range wireless communication.

以下に、図1に示した通信システムのおける検索方法について説明する。図4は、図1に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。   Hereinafter, a search method in the communication system shown in FIG. 1 will be described. FIG. 4 is a sequence diagram for explaining an example of a search method in the communication system shown in FIG.

まず、通信端末100の対象特定部110が、通信端末100の外部からの操作に基づいて、表示している画像から検索対象を特定する(ステップS1)。すると、特徴量抽出部120は、対象特定部110が特定した検索対象の特徴量を抽出する(ステップS2)。続いて、特徴量送信部130は、特徴量抽出部120が抽出した特徴量を、近距離無線通信を用いて検索装置200へ送信する(ステップS3)。
すると、検索装置200の撮像部210が撮像を開始する(ステップS4)。続いて、特徴量抽出部220が、撮像部210が撮像した画像に含まれる対象物の特徴量を抽出する(ステップS5)。
照合部230は、特徴量送信部130から送信されてきた特徴量と、特徴量抽出部220が抽出した特徴量とを照合する(ステップS6)。続いて、照合結果送信部240は、照合部230が行った照合結果を、近距離無線通信を用いて通信端末100へ送信する(ステップS7)。
出力部140は、照合結果送信部240から照合結果が送信されてくると、その照合結果を出力する(ステップS8)。
First, the target specifying unit 110 of the communication terminal 100 specifies a search target from the displayed image based on an operation from the outside of the communication terminal 100 (step S1). Then, the feature quantity extraction unit 120 extracts the feature quantity of the search target specified by the target specification unit 110 (step S2). Subsequently, the feature amount transmitting unit 130 transmits the feature amount extracted by the feature amount extracting unit 120 to the search device 200 using short-range wireless communication (step S3).
Then, the imaging unit 210 of the search device 200 starts imaging (step S4). Subsequently, the feature amount extraction unit 220 extracts the feature amount of the target object included in the image captured by the imaging unit 210 (step S5).
The collation unit 230 collates the feature amount transmitted from the feature amount transmission unit 130 with the feature amount extracted by the feature amount extraction unit 220 (step S6). Subsequently, the verification result transmission unit 240 transmits the verification result performed by the verification unit 230 to the communication terminal 100 using short-range wireless communication (step S7).
When the collation result is transmitted from the collation result transmission unit 240, the output unit 140 outputs the collation result (step S8).

このように、通信端末100が特定した検索対象の特徴量のみを検索装置200へ送信し、検索装置200が撮像した画像の中の対象物の特徴量と照合して、その結果を通信端末100へ送信して出力する。このため、個人情報の漏えいを生じさせずに容易に検索対象を見つけ出すことができる。
(第2の実施の形態)
In this way, only the feature quantity of the search target specified by the communication terminal 100 is transmitted to the search apparatus 200, collated with the feature quantity of the object in the image captured by the search apparatus 200, and the result is used as the communication terminal 100. Send to and output. For this reason, it is possible to easily find a search target without causing leakage of personal information.
(Second Embodiment)

図5は、本発明の通信システムの第2の実施の形態を示す図である。
本形態における通信システムは図5に示すように、通信端末101と、検索装置201とを有している。通信端末101は、検索装置201との間で通信可能な通信装置である。
FIG. 5 is a diagram showing a second embodiment of the communication system of the present invention.
As shown in FIG. 5, the communication system in this embodiment includes a communication terminal 101 and a search device 201. The communication terminal 101 is a communication device that can communicate with the search device 201.

図6は、図5に示した通信システムの使用例を示す図である。図6に示すように、検索装置201は、例えば、人が多く待ち合わせるような場所に設置されている柱401に取り付けられている。このとき、検索装置201は、広いエリアを撮像できるように、柱401の所定の高さ以上の高さに取り付けられているものが好ましい。また、検索装置201は、所定の通信エリア301を有し、その通信エリア301に存在する通信端末101との間で1対1の近距離無線通信を行う。この近距離無線通信は、所定の距離範囲内で行われる、無線LAN(Local Area Network)を用いた通信や、Bluetooth(登録商標)等を用いた無線通信であって、一般的なインターネット等の通信ネットワークを介さない無線通信である。   FIG. 6 is a diagram illustrating a usage example of the communication system illustrated in FIG. 5. As shown in FIG. 6, the search device 201 is attached to a pillar 401 installed in a place where many people wait, for example. At this time, it is preferable that the search device 201 is attached at a height higher than a predetermined height of the pillar 401 so that a wide area can be imaged. The search device 201 has a predetermined communication area 301 and performs one-to-one short-range wireless communication with the communication terminal 101 existing in the communication area 301. This short-range wireless communication is communication using a wireless LAN (Local Area Network) or wireless communication using Bluetooth (registered trademark) or the like performed within a predetermined distance range. Wireless communication not via a communication network.

図7は、図5に示した通信端末101の内部構成の一例を示す図である。図5に示した通信端末101は図7に示すように、対象特定部111と、特徴量抽出部121と、特徴量送信部131と、出力部141とを有している。なお、図7には、図5に示した通信端末101が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。
対象特定部111は、通信端末101の外部からの操作に基づいて、表示している画像から検索対象を特定する。このとき、対象特定部111は、出力部141が表示している画像の中から利用者が検索対象を選択する操作を行うと、その操作に基づいて検索対象を特定する。なお、対象特定部111は、通信端末101の外部からの操作に基づいて、表示している画像から人物の顔の部分を検索対象として特定する。
特徴量抽出部121は、対象特定部111が特定した検索対象の特徴量を抽出する第1の特徴量抽出部である。特徴量抽出部121が特徴量を抽出する方法は、画像から特徴量を抽出する一般的な方法で良い。
特徴量送信部131は、近距離無線通信を用いて、特徴量抽出部121が抽出した特徴量を検索装置201へ送信する。
出力部141は、検索装置201から送信されてきた照合結果を出力する。出力部141は、検索装置201から送信されてきた照合結果を表示することで、出力を行う。また、出力部141が情報を表示する機能も有する場合、タッチパネル機能も有し、外部からの指等の接触を検知すると、その検知した接触の位置や動きに基づいて、情報を入力する機能も有するものであっても良い。
FIG. 7 is a diagram illustrating an example of an internal configuration of the communication terminal 101 illustrated in FIG. As illustrated in FIG. 7, the communication terminal 101 illustrated in FIG. 5 includes a target identification unit 111, a feature amount extraction unit 121, a feature amount transmission unit 131, and an output unit 141. FIG. 7 illustrates an example of main components related to the present embodiment among the components included in the communication terminal 101 illustrated in FIG. 5.
The target specifying unit 111 specifies a search target from the displayed image based on an operation from the outside of the communication terminal 101. At this time, when the user performs an operation of selecting a search target from the images displayed by the output unit 141, the target specifying unit 111 specifies the search target based on the operation. The target specifying unit 111 specifies a human face part from the displayed image as a search target based on an operation from the outside of the communication terminal 101.
The feature quantity extraction unit 121 is a first feature quantity extraction unit that extracts the feature quantity of the search target specified by the target specification unit 111. The method by which the feature amount extraction unit 121 extracts feature amounts may be a general method for extracting feature amounts from an image.
The feature amount transmission unit 131 transmits the feature amount extracted by the feature amount extraction unit 121 to the search device 201 using short-range wireless communication.
The output unit 141 outputs the collation result transmitted from the search device 201. The output unit 141 performs output by displaying the collation result transmitted from the search device 201. In addition, when the output unit 141 has a function of displaying information, the output unit 141 also has a touch panel function. When a contact with an external finger or the like is detected, a function of inputting information based on the detected position and movement of the contact is also provided. You may have.

図8は、図5に示した検索装置201の内部構成の一例を示す図である。図5に示した検索装置201は図8に示すように、撮像部211と、特徴量抽出部221と、照合部231と、照合結果送信部241とを有している。なお、図8には、図5に示した検索装置201が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。
撮像部211は、所定の画角で撮像を行う。この画角は、特徴量抽出部221が、撮像部211が撮像した画像に含まれる対象物の特徴量を抽出できるレベルのものである。つまり、この画角は必要以上に広いと、対象物が小さくなってしまい、特徴量抽出部221が、撮像部211が撮像した画像に含まれる対象物の特徴量を抽出することが困難となってしまうおそれがある。また、この画角は必要以上に狭いと、撮像部211が一度に撮像できる対象が少なくなってしまい、検索する効率が悪くなってしまうおそれがある。そのため、この画角は、適当な値にあらかじめ設定された画角や、動的に変化させることができる画角であることが好ましい。また、撮像部211は、撮像する方向を変えることができるものが好ましい。
特徴量抽出部221は、撮像部211が撮像した画像に含まれる対象物の特徴量を抽出する第2の特徴量抽出部である。特徴量抽出部221が特徴量を抽出する方法は、画像から特徴量を抽出する一般的な方法で良い。
照合部231は、通信端末101から送信されてきた特徴量と、特徴量抽出部221が抽出した特徴量とを照合する。
照合結果送信部241は、照合部231における照合結果を、近距離無線通信を用いて通信端末101へ送信する。
FIG. 8 is a diagram illustrating an example of an internal configuration of the search device 201 illustrated in FIG. As illustrated in FIG. 8, the search device 201 illustrated in FIG. 5 includes an imaging unit 211, a feature amount extraction unit 221, a collation unit 231, and a collation result transmission unit 241. FIG. 8 illustrates an example of main components related to the present embodiment among the components included in the search device 201 illustrated in FIG.
The imaging unit 211 performs imaging at a predetermined angle of view. This angle of view is a level at which the feature amount extraction unit 221 can extract the feature amount of the target object included in the image captured by the imaging unit 211. That is, if this angle of view is wider than necessary, the object becomes small, and it becomes difficult for the feature quantity extraction unit 221 to extract the feature quantity of the target object included in the image captured by the imaging unit 211. There is a risk that. If the angle of view is narrower than necessary, the number of objects that can be imaged by the imaging unit 211 at a time decreases, and the search efficiency may deteriorate. For this reason, this angle of view is preferably an angle of view preset to an appropriate value or an angle of view that can be dynamically changed. In addition, it is preferable that the imaging unit 211 can change the imaging direction.
The feature amount extraction unit 221 is a second feature amount extraction unit that extracts the feature amount of the target object included in the image captured by the imaging unit 211. The method by which the feature amount extraction unit 221 extracts the feature amount may be a general method for extracting the feature amount from the image.
The collation unit 231 collates the feature amount transmitted from the communication terminal 101 with the feature amount extracted by the feature amount extraction unit 221.
The collation result transmission unit 241 transmits the collation result in the collation unit 231 to the communication terminal 101 using short-range wireless communication.

以下に、図5に示した通信システムのおける検索方法について説明する。図9は、図5に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。ここでは、出力部141が、タッチパネル機能を有している場合を例に挙げて説明する。   Hereinafter, a search method in the communication system shown in FIG. 5 will be described. FIG. 9 is a sequence diagram for explaining an example of a search method in the communication system shown in FIG. Here, a case where the output unit 141 has a touch panel function will be described as an example.

まず、対象特定部111は、出力部141が表示している画像の中から利用者が検索対象を選択する操作を行うと、その操作に基づいて検索対象を特定する(ステップS11)。このとき、対象特定部111は、通信端末101の外部からの操作に基づいて、表示している画像から人物の顔の部分を検索対象として特定する。   First, when the user performs an operation of selecting a search target from the images displayed by the output unit 141, the target specifying unit 111 specifies the search target based on the operation (step S11). At this time, the target specifying unit 111 specifies a face portion of a person as a search target from the displayed image based on an operation from the outside of the communication terminal 101.

図10は、図7に示した出力部141が表示している画像の中から利用者が検索対象を選択する操作の様子の一例を示す図である。
図10に示すように、出力部141が表示している複数の人物の画像うち、一方の人物の画像の表示部分に通信端末101の利用者が指501を接触させると、対象特定部111が、その人物を検索対象として特定する。このとき、対象特定部111は、特定した人物の顔の部分を検索対象として特定する。
FIG. 10 is a diagram illustrating an example of an operation state in which the user selects a search target from the images displayed by the output unit 141 illustrated in FIG. 7.
As shown in FIG. 10, when the user of the communication terminal 101 touches the display portion of one person image among a plurality of person images displayed by the output unit 141, the target specifying unit 111 The person is specified as a search target. At this time, the target specifying unit 111 specifies the face portion of the specified person as a search target.

すると、特徴量抽出部121は、対象特定部111が特定した検索対象(顔)の特徴量を抽出する(ステップS12)。特徴量抽出部121は、画像から特徴量を抽出する一般的な方法を用いて、対象特定部111が特定した人物の顔の特徴量を抽出する。続いて、特徴量送信部131は、特徴量抽出部121が抽出した特徴量を、近距離無線通信を用いて検索装置201へ送信する(ステップS13)。
すると、検索装置201の撮像部211が撮像を開始する(ステップS14)。続いて、特徴量抽出部221が、撮像部211が撮像した画像に含まれる対象物(人物の顔)の特徴量を抽出する(ステップS15)。特徴量抽出部221は、撮像部211が撮像した画像から、人物の顔を抽出し、抽出した顔の画像からその特徴量を抽出する。撮像部211が撮像した画像に複数の人物の顔が含まれている場合、特徴量抽出部221は、それぞれの顔についてその特徴量を抽出する。
照合部231は、特徴量送信部131から送信されてきた特徴量と、特徴量抽出部221が抽出した特徴量とを照合する(ステップS16)。ステップS15にて、特徴量抽出部221が複数の顔についてそれぞれの特徴量を抽出していれば、照合部231は、特徴量送信部131から送信されてきた特徴量と、その複数の顔のそれぞれの特徴量とを照合する。照合部231は、特徴量の1つ1つについてそれぞれ照合を行い、一致したか否かをスコアとして算出するものであっても良い。続いて、照合結果送信部241は、照合部231が行った照合結果を、近距離無線通信を用いて通信端末101へ送信する(ステップS17)。
出力部141は、照合結果送信部241から照合結果が送信されてくると、その照合結果を表示する(ステップS18)。
Then, the feature quantity extraction unit 121 extracts the feature quantity of the search target (face) specified by the target specification unit 111 (step S12). The feature amount extraction unit 121 extracts the feature amount of the face of the person specified by the target specifying unit 111 using a general method for extracting the feature amount from the image. Subsequently, the feature amount transmission unit 131 transmits the feature amount extracted by the feature amount extraction unit 121 to the search device 201 using short-range wireless communication (step S13).
Then, the imaging unit 211 of the search device 201 starts imaging (step S14). Subsequently, the feature amount extraction unit 221 extracts the feature amount of the target (person's face) included in the image captured by the imaging unit 211 (step S15). The feature amount extraction unit 221 extracts a human face from the image captured by the imaging unit 211, and extracts the feature amount from the extracted face image. When a plurality of human faces are included in the image captured by the imaging unit 211, the feature amount extraction unit 221 extracts the feature amount of each face.
The collation unit 231 collates the feature amount transmitted from the feature amount transmission unit 131 with the feature amount extracted by the feature amount extraction unit 221 (step S16). In step S15, if the feature amount extraction unit 221 has extracted the feature amounts of the plurality of faces, the collation unit 231 includes the feature amount transmitted from the feature amount transmission unit 131 and the plurality of faces. Each feature is collated. The collation unit 231 may perform collation for each of the feature amounts and calculate whether or not they match as a score. Subsequently, the verification result transmission unit 241 transmits the verification result performed by the verification unit 231 to the communication terminal 101 using short-range wireless communication (step S17).
When the collation result is transmitted from the collation result transmission unit 241, the output unit 141 displays the collation result (step S <b> 18).

ここで、照合結果送信部241が通信端末101へ送信する照合結果は、以下のような(1)〜(3)の態様が挙げられる。
(1)通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いがあらかじめ設定された閾値以上である対象物の有無を示す情報。
(2)通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いがあらかじめ設定された閾値以上である対象物の位置をマーキングした画像情報。
(3)通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いが高い対象物から順に所定の数だけその順に応じた色で対象物の位置をマーキングした画像情報。
なお、上述した閾値とは、通信端末101にて特定された人物の顔と、特徴量抽出部221が抽出した特徴量の抽出元となる人物の顔とが、同一人物の顔であると認識できる基準である。例えば、この閾値は、70%と設定されているものであっても良い。
以下に、上述した態様(1)〜(3)について図面を用いて説明する。
Here, examples of the collation result transmitted from the collation result transmission unit 241 to the communication terminal 101 include the following modes (1) to (3).
(1) Information indicating the presence or absence of an object whose degree of coincidence between the feature quantity transmitted from the communication terminal 101 and the feature quantity extracted by the feature quantity extraction unit 221 is equal to or greater than a preset threshold value.
(2) Image information in which the position of an object whose degree of coincidence between the feature quantity transmitted from the communication terminal 101 and the feature quantity extracted by the feature quantity extraction unit 221 is equal to or greater than a preset threshold is marked.
(3) The position of the object is determined by a predetermined number of colors in order from the object whose degree of matching between the feature value transmitted from the communication terminal 101 and the feature value extracted by the feature value extraction unit 221 is high. Marked image information.
Note that the above-described threshold value recognizes that the face of the person specified by the communication terminal 101 and the face of the person from which the feature amount extraction unit 221 has extracted are the faces of the same person. It is a possible standard. For example, this threshold value may be set to 70%.
Hereinafter, the above-described aspects (1) to (3) will be described with reference to the drawings.

図11は、図7に示した出力部141が、照合結果送信部241が態様(1)で送信した照合結果を表示した表示画面の一例を示す図である。
図11に示すように、出力部141は、照合部231が照合を行った結果、通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いがあらかじめ設定された閾値以上である場合、その旨を示す情報を表示する。ここで、一致する度合いとは、上述したように、照合部231が特徴量の1つ1つについてそれぞれ照合を行い、一致した場合のポイントを加算していき、照合部231が照合した特徴量の数に対するそのポイントの合計の値の割合である。
FIG. 11 is a diagram illustrating an example of a display screen on which the output unit 141 illustrated in FIG. 7 displays the verification result transmitted by the verification result transmission unit 241 in the mode (1).
As shown in FIG. 11, as a result of the collation by the collation unit 231, the output unit 141 has a degree of coincidence between the feature amount transmitted from the communication terminal 101 and the feature amount extracted by the feature amount extraction unit 221 in advance. If the threshold is greater than or equal to the set threshold, information indicating that is displayed. Here, as described above, the matching degree means that the matching unit 231 performs matching for each of the feature amounts, adds points when they match, and the matching unit 231 matches the feature amounts. Is the ratio of the total value of that point to the number of.

図12は、図7に示した出力部141が、照合結果送信部241が態様(2)で送信した照合結果を表示した表示画面の一例を示す図である。
図12に示すように、出力部141は、照合部231が照合を行った結果、通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いがあらかじめ設定された閾値以上である人物の位置をマーキングした画像情報を表示する。図12に示した例では、出力部141は、撮像部211が画角を広くして撮像した画像のうち、1人の人物の位置をマーキングした画像情報を表示する。出力部141は、特徴量が一致する度合いが閾値以上である人物が複数存在する場合、その複数の人物すべてをマーキングして表示しても良いし、特徴量が一致する度合いが最も高い人物のみをマーキングして表示しても良い。図12に示した例以外であっても、出力部141は、撮像部211が撮像する範囲を一般的な平面地図として表示し、その中に一致する度合いが閾値以上である人物の位置をマーキングして表示するものであっても良い。ここで、出力部141は、特定された人物の位置がわかるような表示を行う。
FIG. 12 is a diagram illustrating an example of a display screen on which the output unit 141 illustrated in FIG. 7 displays the verification result transmitted by the verification result transmission unit 241 in the mode (2).
As illustrated in FIG. 12, the output unit 141 determines in advance whether the feature amount transmitted from the communication terminal 101 matches the feature amount extracted by the feature amount extraction unit 221 as a result of the collation by the collation unit 231. The image information marking the position of the person who is equal to or greater than the set threshold is displayed. In the example illustrated in FIG. 12, the output unit 141 displays image information in which the position of one person is marked among images captured by the imaging unit 211 with a wide angle of view. When there are a plurality of persons whose feature amounts match with a threshold value or more, the output unit 141 may mark and display all of the plurality of persons, or only a person with the highest degree of feature amount matching. May be marked and displayed. Even if it is not the example shown in FIG. 12, the output part 141 displays the range which the imaging part 211 image | photographs as a general plane map, and marks the position of the person whose matching degree is more than a threshold value in it May be displayed. Here, the output unit 141 performs display so that the position of the specified person can be known.

図13は、図7に示した出力部141が、照合結果送信部241が態様(3)で送信した照合結果を表示した表示画面の一例を示す図である。
図13に示すように、出力部141は、照合部231が複数の人物について照合を行った結果、一致する特徴量の度合いが高い人物から順に所定の数だけその順に応じた色で人物の位置をマーキングした画像情報を表示する。図13に示した例では、出力部141は、一致する特徴量の度合いが、最も高い人物を赤色でマーキングし、2番目に高い人物を黄色でマーキングし、3番目に高い人物を青色でマーキングして表示する。図13に示した例では、出力部141は、撮像部211が画角を広くして撮像した画像のうち、特徴量が一致する度合いの高い順に色別にその人物の位置をマーキングした画像情報を表示する。図13に示した例以外であっても、出力部141は、撮像部211が撮像する範囲を一般的な平面地図として表示し、その中に一致する度合いに応じて、人物の位置をその度合いの高い順に色別にマーキングして表示するものであっても良い。
FIG. 13 is a diagram illustrating an example of a display screen on which the output unit 141 illustrated in FIG. 7 displays the verification result transmitted by the verification result transmission unit 241 in the mode (3).
As illustrated in FIG. 13, the output unit 141 determines the position of a person in a color corresponding to a predetermined number in order from a person with a high degree of matching feature amount, as a result of the collation unit 231 collating a plurality of persons. The image information marked with is displayed. In the example illustrated in FIG. 13, the output unit 141 marks the person with the highest matching feature amount in red, the second highest person in yellow, and the third highest person in blue. And display. In the example illustrated in FIG. 13, the output unit 141 displays image information in which the position of the person is marked for each color in descending order of the degree of matching of the features of the image captured by the imaging unit 211 with a wide angle of view. indicate. Even if it is not the example shown in FIG. 13, the output part 141 displays the range which the imaging part 211 image | photographs as a general plane map, and according to the degree to which it matches in the inside, the position of a person is the degree It may be displayed by marking each color in descending order.

出力部141が、照合結果として、図12に示した画面や、図13に示した画面を表示する場合、照合結果送信部241は、照合部231が照合に用いた撮像部211が撮像した画像のほかに、より広い画角で撮像部211が撮像した画像も通信端末101へ送信する。さらに、照合結果送信部241は、その広い画角で撮像部211が撮像した画像において、対象人物がどこに位置しているかを示す情報も通信端末101へ送信する。以下の説明においても同様である。   When the output unit 141 displays the screen illustrated in FIG. 12 or the screen illustrated in FIG. 13 as the collation result, the collation result transmission unit 241 is an image captured by the imaging unit 211 used for collation by the collation unit 231. In addition to this, an image captured by the imaging unit 211 with a wider angle of view is also transmitted to the communication terminal 101. Furthermore, the collation result transmission unit 241 also transmits information indicating where the target person is located in the image captured by the imaging unit 211 with the wide angle of view to the communication terminal 101. The same applies to the following description.

図14は、図5に示した通信システムのおける検索方法の他の例を説明するためのシーケンス図である。ここでは、出力部141が、タッチパネル機能を有している場合を例に挙げて説明する。   FIG. 14 is a sequence diagram for explaining another example of the search method in the communication system shown in FIG. Here, a case where the output unit 141 has a touch panel function will be described as an example.

まず、対象特定部111は、出力部141が表示している画像の中から利用者が検索対象を選択する操作を行うと、その操作に基づいて検索対象を特定する(ステップS21)。このとき、対象特定部111は、通信端末101の外部からの操作に基づいて、表示している画像から人物の顔の部分を検索対象として特定する。   First, when the user performs an operation of selecting a search target from the images displayed by the output unit 141, the target specifying unit 111 specifies the search target based on the operation (step S21). At this time, the target specifying unit 111 specifies a face portion of a person as a search target from the displayed image based on an operation from the outside of the communication terminal 101.

すると、特徴量抽出部121は、対象特定部111が特定した検索対象(顔)の特徴量を抽出する(ステップS22)。特徴量抽出部121は、画像から特徴量を抽出する一般的な方法を用いて、対象特定部111が特定した人物の顔の特徴量を抽出する。続いて、特徴量送信部131は、特徴量抽出部121が抽出した特徴量を、近距離無線通信を用いて検索装置201へ送信する(ステップS23)。
すると、検索装置201の撮像部211が撮像を開始する(ステップS24)。続いて、特徴量抽出部221が、撮像部211が撮像した画像に含まれる対象物(人物の顔)の特徴量を抽出する(ステップS25)。特徴量抽出部221は、撮像部211が撮像した画像から、人物の顔を抽出し、抽出した顔の画像からその特徴量を抽出する。撮像部211が撮像した画像に複数の人物の顔が含まれている場合、特徴量抽出部221は、それぞれの顔についてその特徴量を抽出する。
照合部231は、特徴量送信部131から送信されてきた特徴量と、特徴量抽出部221が抽出した特徴量とを照合する(ステップS26)。ステップS25にて、特徴量抽出部221が複数の顔についてそれぞれの特徴量を抽出していれば、照合部231は、特徴量送信部131から送信されてきた特徴量と、その複数の顔のそれぞれの特徴量とを照合する。照合部231は、特徴量の1つ1つについてそれぞれ照合を行い、一致したか否かをスコアとして算出するものであっても良い。
特徴量の照合後、照合結果送信部241は、通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いがあらかじめ設定された閾値以上である人物の位置の、検索装置201からの方向を算出する(ステップS27)。続いて、照合結果送信部241は、算出した方向を示す情報を照合結果として、近距離無線通信を用いて通信端末101へ送信する(ステップS28)。
出力部141は、照合結果送信部241から照合結果が送信されてくると、その照合結果である方向を表示する(ステップS29)。
Then, the feature quantity extraction unit 121 extracts the feature quantity of the search target (face) specified by the target specification unit 111 (step S22). The feature amount extraction unit 121 extracts the feature amount of the face of the person specified by the target specifying unit 111 using a general method for extracting the feature amount from the image. Subsequently, the feature amount transmission unit 131 transmits the feature amount extracted by the feature amount extraction unit 121 to the search device 201 using short-range wireless communication (step S23).
Then, the imaging unit 211 of the search device 201 starts imaging (step S24). Subsequently, the feature amount extraction unit 221 extracts the feature amount of the target (person's face) included in the image captured by the imaging unit 211 (step S25). The feature amount extraction unit 221 extracts a human face from the image captured by the imaging unit 211, and extracts the feature amount from the extracted face image. When a plurality of human faces are included in the image captured by the imaging unit 211, the feature amount extraction unit 221 extracts the feature amount of each face.
The collation unit 231 collates the feature amount transmitted from the feature amount transmission unit 131 with the feature amount extracted by the feature amount extraction unit 221 (step S26). In step S25, if the feature amount extraction unit 221 has extracted the feature amounts of the plurality of faces, the collation unit 231 determines the feature amount transmitted from the feature amount transmission unit 131 and the plurality of faces. Each feature is collated. The collation unit 231 may perform collation for each of the feature amounts and calculate whether or not they match as a score.
After the feature amount matching, the matching result transmitting unit 241 matches the person whose degree of matching between the feature amount transmitted from the communication terminal 101 and the feature amount extracted by the feature amount extracting unit 221 is equal to or more than a preset threshold. The direction of the position from the search device 201 is calculated (step S27). Subsequently, the verification result transmission unit 241 transmits information indicating the calculated direction as a verification result to the communication terminal 101 using short-range wireless communication (step S28).
When the collation result is transmitted from the collation result transmission unit 241, the output unit 141 displays the direction that is the collation result (step S <b> 29).

図15は、ステップS29にて図7に示した出力部141が表示した照合結果の一例を示す図である。
図15に示すように、出力部141は、通信端末101から送信されてきた特徴量と特徴量抽出部221が抽出した特徴量とが一致する度合いが所定の閾値以上である人物の、検索装置201からの方向を示す情報を照合結果として表示する。このとき、照合結果送信部241が、検索装置201からの方向だけではなく、検索装置201からの距離も算出し、距離を示す情報についても通信端末101へ送信するものであっても良い。
FIG. 15 is a diagram illustrating an example of the collation result displayed by the output unit 141 illustrated in FIG. 7 in step S29.
As illustrated in FIG. 15, the output unit 141 is a search device for a person whose degree of coincidence between the feature amount transmitted from the communication terminal 101 and the feature amount extracted by the feature amount extraction unit 221 is equal to or greater than a predetermined threshold. Information indicating the direction from 201 is displayed as a collation result. At this time, the matching result transmission unit 241 may calculate not only the direction from the search device 201 but also the distance from the search device 201 and transmit information indicating the distance to the communication terminal 101.

このように、利用者の操作に基づいて通信端末101が特定した人物の顔の特徴量のみを検索装置201へ送信し、検索装置201が撮像した画像の中の人物の顔の特徴量と照合して、その結果を通信端末101へ送信して出力する。このため、個人情報の漏えいを生じさせずに容易に検索対象となる人物を見つけ出すことができる。
(第3の実施の形態)
As described above, only the feature amount of the face of the person specified by the communication terminal 101 based on the user's operation is transmitted to the search device 201 and collated with the feature amount of the person's face in the image captured by the search device 201. Then, the result is transmitted to the communication terminal 101 and output. Therefore, it is possible to easily find a person to be searched without causing leakage of personal information.
(Third embodiment)

図16は、本発明の通信システムの第3の実施の形態を示す図である。
本形態における通信システムは図16に示すように、通信端末102と、検索装置202とを有している。通信端末102は、検索装置202との間で通信可能な通信装置である。通信端末102と検索装置202との間の通信は、無線LANを用いた通信や、Bluetooth(登録商標)等を用いた通信等の近距離無線通信である。
FIG. 16 is a diagram showing a third embodiment of a communication system according to the present invention.
As shown in FIG. 16, the communication system in this embodiment includes a communication terminal 102 and a search device 202. The communication terminal 102 is a communication device that can communicate with the search device 202. Communication between the communication terminal 102 and the search device 202 is short-range wireless communication such as communication using a wireless LAN or communication using Bluetooth (registered trademark).

図17は、図16に示した通信端末102の内部構成の一例を示す図である。図16に示した通信端末102は図17に示すように、対象特定部112と、特徴量抽出部122と、特徴量送信部132と、出力部142と、位置情報取得部152とを有している。なお、図17には、図16に示した通信端末102が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。
対象特定部112は、通信端末102の外部からの操作に基づいて、表示している画像から検索対象を特定する。このとき、対象特定部112は、出力部142が表示している画像の中から利用者が検索対象を選択する操作を行うと、その操作に基づいて検索対象を特定する。なお、対象特定部112は、通信端末102の外部からの操作に基づいて、表示している画像から人物の顔の部分を検索対象として特定する。
特徴量抽出部122は、対象特定部112が特定した検索対象の特徴量を抽出する第1の特徴量抽出部である。特徴量抽出部122が特徴量を抽出する方法は、画像から特徴量を抽出する一般的な方法で良い。
特徴量送信部132は、近距離無線通信を用いて、特徴量抽出部122が抽出した特徴量を検索装置202へ送信する。
位置情報取得部152は、通信端末102の位置を示す位置情報を取得する。位置情報取得部152は、例えば、GPS(Global Positioning System)機能を用いて通信端末102の位置を示す位置情報を取得する。
出力部142は、位置情報取得部152が取得した位置情報が示す位置に対する、検索装置202が送信してきた位置情報が示す位置である相対位置を算出して出力する。このとき、出力部142は、算出結果を表示する。また、出力部142が情報を表示する機能も有する場合、タッチパネル機能も有し、外部からの指等の接触を検知すると、その検知した接触の位置や動きに基づいて、情報を入力する機能も有するものであっても良い。
FIG. 17 is a diagram illustrating an example of an internal configuration of the communication terminal 102 illustrated in FIG. 16. As illustrated in FIG. 17, the communication terminal 102 illustrated in FIG. 16 includes a target identification unit 112, a feature amount extraction unit 122, a feature amount transmission unit 132, an output unit 142, and a position information acquisition unit 152. ing. FIG. 17 illustrates an example of main components related to the present embodiment among the components included in the communication terminal 102 illustrated in FIG. 16.
The target specifying unit 112 specifies a search target from the displayed image based on an operation from the outside of the communication terminal 102. At this time, when the user performs an operation of selecting a search target from the images displayed by the output unit 142, the target specifying unit 112 specifies the search target based on the operation. Note that the target specifying unit 112 specifies a face portion of a person as a search target from the displayed image based on an operation from the outside of the communication terminal 102.
The feature quantity extraction unit 122 is a first feature quantity extraction unit that extracts the feature quantity of the search target specified by the target specification unit 112. The method by which the feature amount extraction unit 122 extracts the feature amount may be a general method for extracting the feature amount from the image.
The feature amount transmission unit 132 transmits the feature amount extracted by the feature amount extraction unit 122 to the search device 202 using short-range wireless communication.
The position information acquisition unit 152 acquires position information indicating the position of the communication terminal 102. The position information acquisition unit 152 acquires position information indicating the position of the communication terminal 102 using, for example, a GPS (Global Positioning System) function.
The output unit 142 calculates and outputs a relative position that is the position indicated by the position information transmitted by the search device 202 with respect to the position indicated by the position information acquired by the position information acquisition unit 152. At this time, the output unit 142 displays the calculation result. In addition, when the output unit 142 has a function of displaying information, the output unit 142 also has a touch panel function. When a contact with an external finger or the like is detected, a function of inputting information based on the detected position or movement of the contact You may have.

図18は、図16に示した検索装置202の内部構成の一例を示す図である。図16に示した検索装置202は図18に示すように、撮像部212と、特徴量抽出部222と、照合部232と、照合結果送信部242と、位置算出部252とを有している。なお、図18には、図16に示した検索装置202が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。
撮像部212は、所定の画角で撮像を行う。この画角は、特徴量抽出部222が、撮像部212が撮像した画像に含まれる対象物の特徴量を抽出できるレベルのものである。つまり、この画角は必要以上に広いと、対象物が小さくなってしまい、特徴量抽出部222が、撮像部212が撮像した画像に含まれる対象物の特徴量を抽出することが困難となってしまうおそれがある。また、この画角は必要以上に狭いと、撮像部212が一度に撮像できる対象が少なくなってしまい、検索する効率が悪くなってしまうおそれがある。そのため、この画角は、適当な値にあらかじめ設定された画角や、動的に変化させることができる画角であることが好ましい。また、撮像部212は、撮像する方向を変えることができるものが好ましい。
特徴量抽出部222は、撮像部212が撮像した画像に含まれる対象物の特徴量を抽出する第2の特徴量抽出部である。特徴量抽出部222が特徴量を抽出する方法は、画像から特徴量を抽出する一般的な方法で良い。
照合部232は、通信端末102から送信されてきた特徴量と、特徴量抽出部222が抽出した特徴量とを照合する。
位置算出部252は、照合部232における照合結果が、通信端末102から送信されてきた特徴量と特徴量抽出部222が抽出した特徴量とが一致する度合いが所定の閾値以上である人物(以下、対象人物と称する)の位置を算出する。これは、位置算出部252が、検索装置202(撮像部212)の設置位置をあらかじめ記憶しておき、その設置位置と、撮像部212が撮像した対象人物の画像に基づいて算出した対象人物までの距離とに基づいて、対象人物の位置を算出するものであっても良い。また、特徴量の一致する度合いが閾値以上のものだけではなく、位置算出部252は、第2の実施の形態のように、複数の対象人物についても位置を算出するものであっても良い。
照合結果送信部242は、照合部232における照合結果を、近距離無線通信を用いて通信端末102へ送信する。ここで、照合結果送信部242は、照合結果として位置算出部252が算出した位置を示す位置情報を通信端末102へ送信する。
FIG. 18 is a diagram illustrating an example of an internal configuration of the search device 202 illustrated in FIG. As illustrated in FIG. 18, the search device 202 illustrated in FIG. 16 includes an imaging unit 212, a feature amount extraction unit 222, a collation unit 232, a collation result transmission unit 242, and a position calculation unit 252. . FIG. 18 illustrates an example of main components related to the present embodiment among the components included in the search device 202 illustrated in FIG.
The imaging unit 212 performs imaging at a predetermined angle of view. This angle of view is at a level at which the feature quantity extraction unit 222 can extract the feature quantity of the object included in the image captured by the imaging unit 212. In other words, if this angle of view is wider than necessary, the object becomes small, and it becomes difficult for the feature quantity extraction unit 222 to extract the feature quantity of the target object included in the image captured by the imaging unit 212. There is a risk that. If the angle of view is narrower than necessary, the number of objects that can be imaged by the imaging unit 212 at a time is reduced, and the search efficiency may be deteriorated. For this reason, this angle of view is preferably an angle of view preset to an appropriate value or an angle of view that can be dynamically changed. In addition, it is preferable that the imaging unit 212 can change the imaging direction.
The feature amount extraction unit 222 is a second feature amount extraction unit that extracts the feature amount of the target object included in the image captured by the imaging unit 212. The method by which the feature amount extraction unit 222 extracts the feature amount may be a general method for extracting the feature amount from the image.
The collation unit 232 collates the feature amount transmitted from the communication terminal 102 with the feature amount extracted by the feature amount extraction unit 222.
The position calculation unit 252 is a person whose degree of matching between the feature amount transmitted from the communication terminal 102 and the feature amount extracted by the feature amount extraction unit 222 is equal to or greater than a predetermined threshold (hereinafter referred to as a matching result in the matching unit 232). , Referred to as a target person). This is because the position calculation unit 252 stores in advance the installation position of the search device 202 (imaging unit 212), and the target person calculated based on the installation position and the image of the target person captured by the imaging unit 212. The position of the target person may be calculated based on the distance. In addition, the position calculation unit 252 may calculate the positions of a plurality of target persons as in the second embodiment, in addition to the degree of matching of the feature amounts not less than the threshold value.
The verification result transmission unit 242 transmits the verification result in the verification unit 232 to the communication terminal 102 using short-range wireless communication. Here, the collation result transmission unit 242 transmits position information indicating the position calculated by the position calculation unit 252 to the communication terminal 102 as a collation result.

以下に、図16に示した通信システムのおける検索方法について説明する。図19は、図16に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。ここでは、出力部142が、タッチパネル機能を有している場合を例に挙げて説明する。   Hereinafter, a search method in the communication system shown in FIG. 16 will be described. FIG. 19 is a sequence diagram for explaining an example of a search method in the communication system shown in FIG. Here, a case where the output unit 142 has a touch panel function will be described as an example.

まず、対象特定部112は、出力部142が表示している画像の中から利用者が検索対象を選択する操作を行うと、その操作に基づいて検索対象を特定する(ステップS21)。このとき、対象特定部112は、通信端末102の外部からの操作に基づいて、表示している画像から人物の顔の部分を検索対象として特定する。   First, when the user performs an operation of selecting a search target from the images displayed by the output unit 142, the target specifying unit 112 specifies the search target based on the operation (step S21). At this time, the target specifying unit 112 specifies a face portion of a person as a search target from the displayed image based on an operation from the outside of the communication terminal 102.

すると、特徴量抽出部122は、対象特定部112が特定した検索対象(顔)の特徴量を抽出する(ステップS22)。特徴量抽出部122は、画像から特徴量を抽出する一般的な方法を用いて、対象特定部112が特定した人物の顔の特徴量を抽出する。続いて、特徴量送信部132は、特徴量抽出部122が抽出した特徴量を、近距離無線通信を用いて検索装置202へ送信する(ステップS23)。
すると、検索装置202の撮像部212が撮像を開始する(ステップS24)。続いて、特徴量抽出部222が、撮像部212が撮像した画像に含まれる対象物(人物の顔)の特徴量を抽出する(ステップS25)。特徴量抽出部222は、撮像部212が撮像した画像から、人物の顔を抽出し、抽出した顔の画像からその特徴量を抽出する。撮像部212が撮像した画像に複数の人物の顔が含まれている場合、特徴量抽出部222は、それぞれの顔についてその特徴量を抽出する。
照合部232は、特徴量送信部132から送信されてきた特徴量と、特徴量抽出部222が抽出した特徴量とを照合する(ステップS26)。ステップS25にて、特徴量抽出部222が複数の顔についてそれぞれの特徴量を抽出していれば、照合部232は、特徴量送信部132から送信されてきた特徴量と、その複数の顔のそれぞれの特徴量とを照合する。照合部232は、特徴量の1つ1つについてそれぞれ照合を行い、一致したか否かをスコアとして算出するものであっても良い。
続いて、位置算出部252は、照合部232における照合にて対象人物と判定された人物の位置を算出する(ステップS27)。この算出方法は、上述した通りである。そして、照合結果送信部242は、位置算出部252が算出した位置を示す位置情報を、近距離無線通信を用いて通信端末102へ送信する(ステップS28)。
一方、通信端末102の位置情報取得部152は、通信端末102の位置を示す位置情報を取得する(ステップS29)。そして、出力部142は、位置情報取得部152が取得した位置情報が示す位置に対する、検索装置202が送信してきた位置情報が示す位置である相対位置を算出する(ステップS30)。出力部142は、算出した相対位置を表示する(ステップS31)。
Then, the feature quantity extraction unit 122 extracts the feature quantity of the search target (face) specified by the target specification unit 112 (step S22). The feature amount extraction unit 122 extracts the feature amount of the face of the person specified by the target specifying unit 112 using a general method for extracting the feature amount from the image. Subsequently, the feature amount transmission unit 132 transmits the feature amount extracted by the feature amount extraction unit 122 to the search device 202 using short-range wireless communication (step S23).
Then, the imaging unit 212 of the search device 202 starts imaging (step S24). Subsequently, the feature amount extraction unit 222 extracts the feature amount of the object (person's face) included in the image captured by the imaging unit 212 (step S25). The feature amount extraction unit 222 extracts a human face from the image captured by the imaging unit 212, and extracts the feature amount from the extracted face image. When a plurality of human faces are included in the image captured by the imaging unit 212, the feature amount extraction unit 222 extracts the feature amount of each face.
The collation unit 232 collates the feature amount transmitted from the feature amount transmission unit 132 with the feature amount extracted by the feature amount extraction unit 222 (step S26). In step S25, if the feature amount extraction unit 222 has extracted the feature amounts of the plurality of faces, the collation unit 232 determines the feature amount transmitted from the feature amount transmission unit 132 and the plurality of faces. Each feature is collated. The collation unit 232 may perform collation for each of the feature amounts and calculate whether or not they match as a score.
Subsequently, the position calculation unit 252 calculates the position of the person determined as the target person by the collation in the collation unit 232 (step S27). This calculation method is as described above. And the collation result transmission part 242 transmits the positional information which shows the position which the position calculation part 252 calculated to the communication terminal 102 using near field communication (step S28).
On the other hand, the position information acquisition unit 152 of the communication terminal 102 acquires position information indicating the position of the communication terminal 102 (step S29). Then, the output unit 142 calculates a relative position that is the position indicated by the position information transmitted by the search device 202 with respect to the position indicated by the position information acquired by the position information acquisition unit 152 (step S30). The output unit 142 displays the calculated relative position (step S31).

このように、利用者の操作に基づいて通信端末102が特定した人物の顔の特徴量のみを検索装置202へ送信し、検索装置202が撮像した画像の中の人物の顔の特徴量と照合する。検索装置202が照合を行った結果、対象人物と判定された位置を算出し、算出した位置を通信端末102へ送信する。通信端末102は、送信されてきた対象人物の位置と、自身で取得した通信端末102の位置とに基づいて、それらの相対位置を算出して表示する。このため、通信端末102からの対象人物の位置が把握でき、個人情報の漏えいを生じさせずに容易に検索対象となる人物を見つけ出すことができる。
(第4の実施の形態)
As described above, only the feature amount of the face of the person specified by the communication terminal 102 based on the user's operation is transmitted to the search device 202 and collated with the feature amount of the person's face in the image captured by the search device 202. To do. As a result of the collation performed by the search device 202, the position determined as the target person is calculated, and the calculated position is transmitted to the communication terminal 102. The communication terminal 102 calculates and displays the relative position based on the transmitted position of the target person and the position of the communication terminal 102 acquired by itself. Therefore, the position of the target person from the communication terminal 102 can be grasped, and a person to be searched can be easily found without causing leakage of personal information.
(Fourth embodiment)

図20は、本発明の通信システムの第3の実施の形態を示す図である。
本形態における通信システムは図20に示すように、通信端末103と、複数の検索装置203−1〜203−3とを有している。通信端末103は、検索装置203−1〜203−3との間で通信可能な通信装置である。ここでは、通信端末103は、検索装置203−1の通信エリアに存在し、検索装置203−1のみと通信可能な場合を例に挙げて説明する。通信端末103の内部構成は、図7に示したものと同じで良い。検索装置203−1〜203−3は互いに有線で接続されているものであっても良いし、無線で接続されているものであっても良く、互いに通信可能である。また、図20では、検索装置が3つである場合を例に挙げて示しているが、その数はこれに限らず、2つであっても良いし、4つ以上であっても良い。
FIG. 20 is a diagram showing a third embodiment of a communication system according to the present invention.
As shown in FIG. 20, the communication system according to the present embodiment includes a communication terminal 103 and a plurality of search devices 203-1 to 203-3. The communication terminal 103 is a communication device that can communicate with the search devices 203-1 to 203-3. Here, communication terminal 103 will be described as an example where communication terminal 103 exists in the communication area of search device 203-1 and can communicate only with search device 203-1. The internal configuration of the communication terminal 103 may be the same as that shown in FIG. The search devices 203-1 to 203-3 may be connected to each other by wire or may be connected wirelessly and can communicate with each other. In FIG. 20, the case where there are three search devices is shown as an example, but the number is not limited to this, and may be two, or four or more.

図21は、図20に示した検索装置203−1の内部構成の一例を示す図である。図20に示した検索装置203−1は図21に示すように、撮像部213と、特徴量抽出部223と、照合部233と、照合結果送信部243と、共通通信部263とを有している。なお、図21には、図20に示した検索装置203−1が具備する構成要素のうち、本実施の形態に関わる主要な構成要素の一例を示す。また、検索装置203−2,203−3の内部構成については、検索装置203−1の内部構成と同じである。   FIG. 21 is a diagram illustrating an example of an internal configuration of the search device 203-1 illustrated in FIG. The search device 203-1 illustrated in FIG. 20 includes an imaging unit 213, a feature amount extraction unit 223, a collation unit 233, a collation result transmission unit 243, and a common communication unit 263, as illustrated in FIG. ing. FIG. 21 illustrates an example of main components related to the present embodiment among the components included in the search device 203-1 illustrated in FIG. The internal configuration of the search devices 203-2 and 203-3 is the same as the internal configuration of the search device 203-1.

撮像部213および特徴量抽出部223は、図8に示した撮像部211および特徴量抽出部221とそれぞれ同じものである。
共通通信部263は、通信端末103から特徴量が送信されてくると、検索装置203−2,203−3へその特徴量を送信する。また、共通通信部263は、検索装置203−2から送信されてきた特徴量を受信し、受信した特徴量と特徴量抽出部223が抽出した特徴量とを照合部233が照合した照合結果を、検索装置203−2へ送信する。また、共通通信部263は、検索装置203−3から送信されてきた特徴量を受信し、受信した特徴量と特徴量抽出部223が抽出した特徴量とを照合部233が照合した照合結果を、検索装置203−3へ送信する。また、共通通信部263は、検索装置203−2,203−3から送信されてきた照合結果を受信する。
照合部233は、通信端末103から送信されてきた特徴量と、特徴量抽出部223が抽出した特徴量とを照合する。また、照合部233は、共通通信部263が、検索装置203−2,203−3から受信した特徴量と、特徴量抽出部223が抽出した特徴量とを照合する。
照合結果送信部243は、通信端末103から送信されてきた特徴量と特徴量抽出部223が抽出した特徴量とを照合部233が照合した照合結果と、共通通信部263が受信した照合結果との少なくとも一方を通信端末103へ送信する。このとき、照合結果送信部243は、通信端末103から送信されてきた特徴量と特徴量抽出部223が抽出した特徴量とを照合部233が照合した照合結果と、共通通信部263が受信した照合結果とのうち、所定の条件を満たす照合結果を通信端末103へ送信するものであっても良い。例えば、照合結果送信部243は、1つの人物についての特徴量が一致した度合いが高い方の照合結果を送信するものであっても良い。
The imaging unit 213 and the feature amount extraction unit 223 are respectively the same as the imaging unit 211 and the feature amount extraction unit 221 illustrated in FIG.
When the feature amount is transmitted from the communication terminal 103, the common communication unit 263 transmits the feature amount to the search devices 203-2 and 203-3. Further, the common communication unit 263 receives the feature amount transmitted from the search device 203-2, and the collation unit 233 collates the received feature amount with the feature amount extracted by the feature amount extraction unit 223. To the search device 203-2. Also, the common communication unit 263 receives the feature amount transmitted from the search device 203-3, and the collation unit 233 collates the received feature amount with the feature amount extracted by the feature amount extraction unit 223. And transmitted to the search device 203-3. Further, the common communication unit 263 receives the collation results transmitted from the search devices 203-2 and 203-3.
The collation unit 233 collates the feature amount transmitted from the communication terminal 103 with the feature amount extracted by the feature amount extraction unit 223. The collation unit 233 collates the feature amount received by the common communication unit 263 from the search devices 203-2 and 203-3 with the feature amount extracted by the feature amount extraction unit 223.
The collation result transmission unit 243 includes a collation result obtained by the collation unit 233 collating the feature amount transmitted from the communication terminal 103 and the feature amount extracted by the feature amount extraction unit 223, and a collation result received by the common communication unit 263. At least one of them is transmitted to the communication terminal 103. At this time, the collation result transmission unit 243 receives the collation result obtained by the collation unit 233 comparing the feature amount transmitted from the communication terminal 103 and the feature amount extracted by the feature amount extraction unit 223, and the common communication unit 263 receives the collation result. Of the verification results, a verification result that satisfies a predetermined condition may be transmitted to the communication terminal 103. For example, the matching result transmission unit 243 may transmit a matching result having a higher degree of matching of the feature amounts for one person.

以下に、図20に示した通信システムのおける検索方法について説明する。図22は、図20に示した通信システムのおける検索方法の一例を説明するためのシーケンス図である。ここでは、出力部141が、タッチパネル機能を有している場合を例に挙げて説明する。   Hereinafter, a search method in the communication system shown in FIG. 20 will be described. FIG. 22 is a sequence diagram for explaining an example of a search method in the communication system shown in FIG. Here, a case where the output unit 141 has a touch panel function will be described as an example.

まず、対象特定部111は、出力部141が表示している画像の中から利用者が検索対象を選択する操作を行うと、その操作に基づいて検索対象を特定する(ステップS51)。このとき、対象特定部111は、通信端末103の外部からの操作に基づいて、表示している画像から人物の顔の部分を検索対象として特定する。   First, when the user performs an operation of selecting a search target from the images displayed by the output unit 141, the target specifying unit 111 specifies the search target based on the operation (step S51). At this time, the target specifying unit 111 specifies a face portion of a person as a search target from the displayed image based on an operation from the outside of the communication terminal 103.

すると、特徴量抽出部121は、対象特定部111が特定した検索対象(顔)の特徴量を抽出する(ステップS52)。特徴量抽出部121は、画像から特徴量を抽出する一般的な方法を用いて、対象特定部111が特定した人物の顔の特徴量を抽出する。続いて、特徴量送信部131は、特徴量抽出部121が抽出した特徴量を、近距離無線通信を用いて検索装置203−1へ送信する(ステップS53)。
通信端末103から特徴量が送信されてくると、検索装置203−1の共通通信部263は、その特徴量を検索装置203−2,203−3へ送信する(ステップS54)。
すると、検索装置203−1の撮像部213が撮像を開始する(ステップS55)。続いて、特徴量抽出部223が、撮像部212が撮像した画像に含まれる対象物(人物の顔)の特徴量を抽出する(ステップS56)。特徴量抽出部223は、撮像部213が撮像した画像から、人物の顔を抽出し、抽出した顔の画像からその特徴量を抽出する。撮像部213が撮像した画像に複数の人物の顔が含まれている場合、特徴量抽出部223は、それぞれの顔についてその特徴量を抽出する。検索装置203−1の照合部233は、通信端末103から送信されてきた特徴量と、特徴量抽出部223が抽出した特徴量とを照合する(ステップS57)。
同様に、検索装置203−2は、ステップS55〜57と同じ処理を行う(ステップS58〜60)。同様に、検索装置203−3は、ステップS55〜57と同じ処理を行う(ステップS61〜63)。
Then, the feature quantity extraction unit 121 extracts the feature quantity of the search target (face) specified by the target specification unit 111 (step S52). The feature amount extraction unit 121 extracts the feature amount of the face of the person specified by the target specifying unit 111 using a general method for extracting the feature amount from the image. Subsequently, the feature amount transmission unit 131 transmits the feature amount extracted by the feature amount extraction unit 121 to the search device 203-1 using short-range wireless communication (step S53).
When the feature amount is transmitted from the communication terminal 103, the common communication unit 263 of the search device 203-1 transmits the feature amount to the search devices 203-2 and 203-3 (step S54).
Then, the imaging unit 213 of the search device 203-1 starts imaging (step S55). Subsequently, the feature amount extraction unit 223 extracts the feature amount of the object (person's face) included in the image captured by the imaging unit 212 (step S56). The feature amount extraction unit 223 extracts a human face from the image captured by the imaging unit 213 and extracts the feature amount from the extracted face image. When a plurality of human faces are included in the image captured by the imaging unit 213, the feature amount extraction unit 223 extracts the feature amount of each face. The collation unit 233 of the search device 203-1 collates the feature amount transmitted from the communication terminal 103 with the feature amount extracted by the feature amount extraction unit 223 (step S57).
Similarly, the search device 203-2 performs the same process as steps S55 to S57 (steps S58 to S60). Similarly, the search device 203-3 performs the same process as steps S55 to 57 (steps S61 to 63).

検索装置203−2は、照合結果を検索装置203−1へ送信する(ステップS64)。また、検索装置203−3は、照合結果を検索装置203−1へ送信する(ステップS65)。ステップS64にて送信された照合結果およびステップS65にて送信された照合結果は、検索装置203−1の共通通信部263にて受信される。
検索装置203−1の照合結果送信部243は、ステップS57で行われた照合結果と、共通通信部263が受信した照合結果との少なくとも一方を通信端末103へ送信する(ステップS66)。
出力部141は、照合結果送信部243から照合結果が送信されてくると、その照合結果を表示する(ステップS67)。
The search device 203-2 transmits the collation result to the search device 203-1 (step S64). Further, the search device 203-3 transmits the collation result to the search device 203-1 (step S65). The collation result transmitted in step S64 and the collation result transmitted in step S65 are received by the common communication unit 263 of the search device 203-1.
The collation result transmission unit 243 of the search device 203-1 transmits at least one of the collation result performed in step S57 and the collation result received by the common communication unit 263 to the communication terminal 103 (step S66).
When the collation result is transmitted from the collation result transmission unit 243, the output unit 141 displays the collation result (step S67).

このように、本形態における通信システムは、複数の検索装置を用いて、それぞれが撮像した画像から抽出した特徴量と、通信端末から送信されてきた特徴量との照合結果を利用する。これにより、それぞれの検索装置からは撮像が困難な角度や位置に存在する人物を見つけることができる。さらに、第1〜2の実施の形態から得られる効果に加えて、より正確な検索結果を得ることができる。   As described above, the communication system according to the present embodiment uses a plurality of search devices and uses a matching result between a feature amount extracted from each captured image and a feature amount transmitted from the communication terminal. Thereby, it is possible to find a person who exists at an angle or a position that is difficult to capture from each search device. In addition to the effects obtained from the first and second embodiments, more accurate search results can be obtained.

上述した通信端末100〜103、検索装置200〜203それぞれに設けられた各構成要素が行う処理は、目的に応じてそれぞれ作製された論理回路で行うようにしても良い。また、処理内容を手順として記述したコンピュータプログラム(以下、プログラムと称する)を通信端末100〜103、検索装置200〜203それぞれにて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを通信端末100〜103、検索装置200〜203それぞれに読み込ませ、実行するものであっても良い。通信端末100〜103、検索装置200〜203それぞれにて読取可能な記録媒体とは、フロッピー(登録商標)ディスク、光磁気ディスク、DVD(Digital Versatile Disc)、CD(Compact Disc)、Blu−ray(登録商標) Discなどの移設可能な記録媒体の他、通信端末100〜103、検索装置200〜203それぞれに内蔵されたROM(Read Only Memory)、RAM(Random Access Memory)等のメモリやHDD(Hard Disc Drive)等を指す。この記録媒体に記録されたプログラムは、通信端末100〜103、検索装置200〜203それぞれに設けられたCPU(Central Processing Unit)にて読み込まれ、CPUの制御によって、上述したものと同様の処理が行われる。ここで、CPUは、プログラムが記録された記録媒体から読み込まれたプログラムを実行するコンピュータとして動作するものである。   The processing performed by each component provided in each of the communication terminals 100 to 103 and the search devices 200 to 203 described above may be performed by a logic circuit produced according to the purpose. Further, a computer program (hereinafter referred to as a program) in which processing contents are described as a procedure is recorded on a recording medium readable by each of the communication terminals 100 to 103 and the search devices 200 to 203, and the program recorded on the recording medium May be read and executed by each of the communication terminals 100 to 103 and the search devices 200 to 203. The recording media that can be read by the communication terminals 100 to 103 and the search devices 200 to 203 are a floppy (registered trademark) disk, a magneto-optical disk, a DVD (Digital Versatile Disc), a CD (Compact Disc), and a Blu-ray ( In addition to transferable recording media such as a registered disk (Disc), memories such as ROM (Read Only Memory) and RAM (Random Access Memory) built in each of the communication terminals 100 to 103 and the search devices 200 to 203, and HDD (Hard) Disc Drive) and the like. The program recorded on the recording medium is read by a CPU (Central Processing Unit) provided in each of the communication terminals 100 to 103 and the search devices 200 to 203, and the same processing as described above is performed under the control of the CPU. Done. Here, the CPU operates as a computer that executes a program read from a recording medium on which the program is recorded.

上記の実施の形態の一部または全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)外部からの操作に基づいて、表示している画像から検索対象を特定する対象特定部と、
前記特定された検索対象の特徴量を抽出する第1の特徴量抽出部と、
近距離無線通信を用いて前記特徴量を送信する特徴量送信部とを有する通信端末と、
撮像部と、
前記撮像部が撮像した画像に含まれる対象物の特徴量を抽出する第2の特徴量抽出部と、
前記通信端末から送信されてきた特徴量と、前記第2の特徴量抽出部が抽出した特徴量とを照合する照合部と、
前記照合部における照合結果を、前記近距離無線通信を用いて前記通信端末へ送信する照合結果送信部とを有する検索装置とを有し、
前記通信端末は、前記検索装置から送信されてきた照合結果を出力する出力部を有する通信システム。
(付記2)前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の有無を示す情報を前記通信端末へ送信する、付記1に記載の通信システム。
(付記3)前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の位置をマーキングした画像情報を前記通信端末へ送信する、付記1に記載の通信システム。
(付記4)前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが高い対象物から順に所定の数、該順に応じた色で該対象物の位置をマーキングした画像情報を前記通信端末へ送信する、付記3に記載の通信システム。
(付記5)前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の、前記検索装置からの方向を示す情報を前記通信端末へ送信する、付記1に記載の通信システム。
(付記6)前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の、前記検索装置からの方向および距離を示す情報を前記通信端末へ送信する、付記5に記載の通信システム。
(付記7)前記通信端末は、当該通信端末の位置を示す位置情報を取得する位置情報取得部を有し、
前記検索装置は、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の位置を算出する位置算出部を有し、
前記照合結果送信部は、前記照合結果として、前記位置算出部が算出した位置を示す位置情報を前記通信端末へ送信し、
前記出力部は、前記位置情報取得部が取得した位置情報が示す位置に対する、前記照合結果送信部が送信してきた位置情報が示す位置である相対位置を出力する、付記1に記載の通信システム。
(付記8)前記検索装置を複数有し、
前記検索装置は、前記通信端末から前記特徴量が送信されてくると、当該検索装置以外の検索装置へ該特徴量を送信し、当該検索装置以外の検索装置から送信されてきた特徴量を受信し、前記受信した特徴量と前記第2の特徴量抽出部が抽出した特徴量とを前記照合部が照合した照合結果を、該特徴量を送信してきた検索装置へ送信し、当該検索装置以外の検索装置から送信されてきた照合結果を受信する共通通信部を有し、
前記照合部は、前記共通通信部が受信した特徴量と、前記第2の特徴量抽出部が抽出した特徴量とを照合し、
前記照合結果送信部は、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とを前記照合部が照合した照合結果と、前記共通通信部が受信した照合結果との少なくとも一方を前記通信端末へ送信する、付記1から7のいずれか1項に記載の通信システム。
(付記9)前記照合結果送信部は、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とを前記照合部が照合した照合結果と、前記共通通信部が受信した照合結果とのうち、所定の条件を満たす照合結果を前記通信端末へ送信する、付記8に記載の通信システム。
(付記10)前記検索装置は、所定の高さ以上の高さに設置されている、付記1から9のいずれか1項に記載の通信システム。
(付記11)前記出力部は、前記照合結果を表示する、付記1から10のいずれか1項に記載の通信システム。
(付記12)撮像部と、
前記撮像部が撮像した画像に含まれる対象物の特徴量を抽出する特徴量抽出部と、
通信端末から送信されてきた特徴量と、前記特徴量抽出部が抽出した特徴量とを照合する照合部と、
前記照合部における照合結果を、近距離無線通信を用いて前記通信端末へ送信する照合結果送信部とを有する検索装置。
(付記13)前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の有無を示す情報を前記通信端末へ送信する、付記12に記載の検索装置。
(付記14)外部からの操作に基づいて、表示している画像から検索対象を特定する対象特定部と、
前記特定された検索対象の特徴量を抽出する特徴量抽出部と、
近距離無線通信を用いて前記特徴量を検索装置へ送信する特徴量送信部と、
前記検索装置から送信されてきた照合結果を出力する出力部とを有する通信端末。
(付記15)前記出力部は、前記照合結果を表示する、付記14に記載の通信端末。
(付記16)撮像する処理と、
前記撮像した画像に含まれる対象物の特徴量を抽出する処理と、
通信端末から送信されてきた特徴量と、前記抽出した特徴量とを照合する処理と、
前記照合した結果を、近距離無線通信を用いて前記通信端末へ送信する処理とを行う検索方法。
(付記17)コンピュータに、
撮像する手順と、
前記撮像した画像に含まれる対象物の特徴量を抽出する手順と、
通信端末から送信されてきた特徴量と、前記抽出した特徴量とを照合する手順と、
前記照合した結果を、近距離無線通信を用いて前記通信端末へ送信する手順とを実行させるためのプログラム。
A part or all of the above embodiment can be described as in the following supplementary notes, but is not limited thereto.
(Additional remark 1) Based on the operation from the outside, the object specific | specification part which specifies search object from the image currently displayed,
A first feature quantity extraction unit for extracting the specified feature quantity of the search target;
A communication terminal having a feature amount transmitting unit that transmits the feature amount using short-range wireless communication;
An imaging unit;
A second feature amount extraction unit that extracts a feature amount of an object included in an image captured by the imaging unit;
A collation unit that collates the feature amount transmitted from the communication terminal with the feature amount extracted by the second feature amount extraction unit;
A collation result transmitting unit that transmits a collation result in the collation unit to the communication terminal using the short-range wireless communication;
The said communication terminal is a communication system which has an output part which outputs the collation result transmitted from the said search device.
(Additional remark 2) The said collation result transmission part is more than a predetermined | prescribed threshold value as the said collation result, the degree of the feature quantity transmitted from the said communication terminal and the feature quantity extracted by the said 2nd feature quantity extraction part correspond. The communication system according to appendix 1, wherein information indicating the presence / absence of an object is transmitted to the communication terminal.
(Additional remark 3) The said collation result transmission part is more than a predetermined threshold value as a collation result, and the degree of the feature quantity transmitted from the said communication terminal and the feature quantity extracted by the said 2nd feature quantity extraction part correspond The communication system according to appendix 1, wherein image information marking the position of an object is transmitted to the communication terminal.
(Additional remark 4) The said collation result transmission part is from the target object in which the feature-value transmitted from the said communication terminal and the feature-value extracted by the said 2nd feature-value extraction part correspond as a said collation result is high. The communication system according to supplementary note 3, wherein image information in which the position of the object is marked with a predetermined number in order and a color corresponding to the order is transmitted to the communication terminal.
(Additional remark 5) The said collation result transmission part is more than a predetermined threshold value as a collation result, and the degree to which the feature-value transmitted from the said communication terminal and the feature-value extracted by the said 2nd feature-value extraction part correspond The communication system according to appendix 1, wherein information indicating a direction of the target object from the search device is transmitted to the communication terminal.
(Additional remark 6) The said collation result transmission part is more than a predetermined threshold value as the collation result, the degree of the feature quantity transmitted from the said communication terminal and the feature quantity extracted by the said 2nd feature quantity extraction part correspond The communication system according to appendix 5, wherein information indicating a direction and a distance of the target object from the search device is transmitted to the communication terminal.
(Appendix 7) The communication terminal has a position information acquisition unit that acquires position information indicating the position of the communication terminal,
The search device calculates a position of an object whose degree of coincidence between the feature quantity transmitted from the communication terminal and the feature quantity extracted by the second feature quantity extraction unit is a predetermined threshold or more. Part
The collation result transmitting unit transmits position information indicating the position calculated by the position calculating unit to the communication terminal as the collation result,
The communication system according to appendix 1, wherein the output unit outputs a relative position that is a position indicated by the position information transmitted by the verification result transmission unit with respect to a position indicated by the position information acquired by the position information acquisition unit.
(Appendix 8) Having a plurality of the search devices,
When the feature amount is transmitted from the communication terminal, the search device transmits the feature amount to a search device other than the search device, and receives the feature amount transmitted from a search device other than the search device. The collation unit collates the received feature quantity with the feature quantity extracted by the second feature quantity extraction unit, and transmits the collation result to the search device that has transmitted the feature quantity. Having a common communication unit for receiving the matching result transmitted from the search device of
The collation unit collates the feature amount received by the common communication unit with the feature amount extracted by the second feature amount extraction unit,
The collation result transmitting unit has received a collation result obtained by collating the feature amount transmitted from the communication terminal with the feature amount extracted by the second feature amount extracting unit, and the common communication unit. The communication system according to any one of appendices 1 to 7, wherein at least one of the verification result is transmitted to the communication terminal.
(Additional remark 9) The said collation result transmission part is the said common communication, the collation result with which the said collation part collated the feature-value transmitted from the said communication terminal, and the feature-value extracted by the said 2nd feature-value extraction part, and the said common communication The communication system according to supplementary note 8, wherein a verification result that satisfies a predetermined condition among the verification results received by the unit is transmitted to the communication terminal.
(Supplementary note 10) The communication system according to any one of supplementary notes 1 to 9, wherein the search device is installed at a height equal to or higher than a predetermined height.
(Additional remark 11) The said output part is a communication system of any one of Additional remark 1 to 10 which displays the said collation result.
(Supplementary note 12) an imaging unit;
A feature quantity extraction unit that extracts a feature quantity of an object included in an image captured by the imaging unit;
A collation unit that collates the feature amount transmitted from the communication terminal with the feature amount extracted by the feature amount extraction unit;
The search apparatus which has a collation result transmission part which transmits the collation result in the said collation part to the said communication terminal using near field communication.
(Additional remark 13) The said collation result transmission part is an object whose degree of matching with the feature-value transmitted from the said communication terminal and the feature-value extracted by the said feature-value extraction part is more than a predetermined threshold as the said collation result The search device according to appendix 12, wherein information indicating the presence or absence of an object is transmitted to the communication terminal.
(Additional remark 14) The object specific | specification part which specifies search object from the image currently displayed based on the operation from the outside,
A feature quantity extraction unit for extracting the feature quantity of the specified search target;
A feature amount transmitter that transmits the feature amount to the search device using short-range wireless communication;
A communication terminal having an output unit that outputs a collation result transmitted from the search device.
(Additional remark 15) The said output part is a communication terminal of Additional remark 14 which displays the said collation result.
(Additional remark 16) The process which images,
A process of extracting a feature amount of an object included in the captured image;
Processing for collating the feature amount transmitted from the communication terminal with the extracted feature amount;
The search method which performs the process which transmits the said collation result to the said communication terminal using near field communication.
(Supplementary note 17)
The procedure for imaging,
A procedure for extracting a feature amount of an object included in the captured image;
A procedure for collating the feature amount transmitted from the communication terminal with the extracted feature amount;
A program for executing a procedure for transmitting the collated result to the communication terminal using short-range wireless communication.

100,101,102,103 通信端末
110,111,112 対象特定部
120,121,122,220,221,222,223 特徴量抽出部
130,131,132 特徴量送信部
140,141,142 出力部
152 位置情報取得部
200,201,202,203−1〜203−3 検索装置
210,211,212,213 撮像部
230,231,232,233 照合部
240,241,242,243 照合結果送信部
252 位置算出部
263 共通通信部
301 通信エリア
401 柱
501 指
100, 101, 102, 103 Communication terminal 110, 111, 112 Target identification unit 120, 121, 122, 220, 221, 222, 223 Feature amount extraction unit 130, 131, 132 Feature amount transmission unit 140, 141, 142 Output unit 152 Position information acquisition unit 200, 201, 202, 203-1 to 203-3 Search device 210, 211, 212, 213 Imaging unit 230, 231, 232, 233 Verification unit 240, 241, 242, 243 Verification result transmission unit 252 Position calculation unit 263 Common communication unit 301 Communication area 401 Pillar 501 Finger

Claims (17)

外部からの操作に基づいて、表示している画像から検索対象を特定する対象特定部と、
前記特定された検索対象の特徴量を抽出する第1の特徴量抽出部と、
近距離無線通信を用いて前記特徴量を送信する特徴量送信部とを有する通信端末と、
撮像部と、
前記撮像部が撮像した画像に含まれる対象物の特徴量を抽出する第2の特徴量抽出部と、
前記通信端末から送信されてきた特徴量と、前記第2の特徴量抽出部が抽出した特徴量とを照合する照合部と、
前記照合部における照合結果を、前記近距離無線通信を用いて前記通信端末へ送信する照合結果送信部とを有する検索装置とを有し、
前記通信端末は、前記検索装置から送信されてきた照合結果を出力する出力部を有する通信システム。
A target identifying unit that identifies a search target from a displayed image based on an external operation;
A first feature quantity extraction unit for extracting the specified feature quantity of the search target;
A communication terminal having a feature amount transmitting unit that transmits the feature amount using short-range wireless communication;
An imaging unit;
A second feature amount extraction unit that extracts a feature amount of an object included in an image captured by the imaging unit;
A collation unit that collates the feature amount transmitted from the communication terminal with the feature amount extracted by the second feature amount extraction unit;
A collation result transmitting unit that transmits a collation result in the collation unit to the communication terminal using the short-range wireless communication;
The said communication terminal is a communication system which has an output part which outputs the collation result transmitted from the said search device.
請求項1に記載の通信システムにおいて、
前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の有無を示す情報を前記通信端末へ送信する通信システム。
The communication system according to claim 1,
The collation result transmission unit is an object whose degree of coincidence between the feature amount transmitted from the communication terminal and the feature amount extracted by the second feature amount extraction unit is equal to or greater than a predetermined threshold as the collation result The communication system which transmits the information which shows the presence or absence to the said communication terminal.
請求項1に記載の通信システムにおいて、
前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の位置をマーキングした画像情報を前記通信端末へ送信する通信システム。
The communication system according to claim 1,
The collation result transmission unit is an object whose degree of coincidence between the feature amount transmitted from the communication terminal and the feature amount extracted by the second feature amount extraction unit is equal to or greater than a predetermined threshold as the collation result The communication system which transmits the image information which marked the position of to the said communication terminal.
請求項3に記載の通信システムにおいて、
前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが高い対象物から順に所定の数、該順に応じた色で該対象物の位置をマーキングした画像情報を前記通信端末へ送信する通信システム。
The communication system according to claim 3,
The collation result transmitting unit has a predetermined number of objects in descending order of the degree of matching between the feature quantity transmitted from the communication terminal and the feature quantity extracted by the second feature quantity extraction unit as the collation result. A communication system for transmitting image information in which the position of the object is marked with a color according to the order to the communication terminal.
請求項1に記載の通信システムにおいて、
前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の、前記検索装置からの方向を示す情報を前記通信端末へ送信する通信システム。
The communication system according to claim 1,
The collation result transmission unit is an object whose degree of coincidence between the feature amount transmitted from the communication terminal and the feature amount extracted by the second feature amount extraction unit is equal to or greater than a predetermined threshold as the collation result A communication system for transmitting information indicating a direction from the search device to the communication terminal.
請求項5に記載の通信システムにおいて、
前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の、前記検索装置からの方向および距離を示す情報を前記通信端末へ送信する通信システム。
The communication system according to claim 5, wherein
The collation result transmission unit is an object whose degree of coincidence between the feature amount transmitted from the communication terminal and the feature amount extracted by the second feature amount extraction unit is equal to or greater than a predetermined threshold as the collation result A communication system for transmitting information indicating a direction and a distance from the search device to the communication terminal.
請求項1に記載の通信システムにおいて、
前記通信端末は、当該通信端末の位置を示す位置情報を取得する位置情報取得部を有し、
前記検索装置は、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の位置を算出する位置算出部を有し、
前記照合結果送信部は、前記照合結果として、前記位置算出部が算出した位置を示す位置情報を前記通信端末へ送信し、
前記出力部は、前記位置情報取得部が取得した位置情報が示す位置に対する、前記照合結果送信部が送信してきた位置情報が示す位置である相対位置を出力する通信システム。
The communication system according to claim 1,
The communication terminal has a position information acquisition unit that acquires position information indicating the position of the communication terminal;
The search device calculates a position of an object whose degree of coincidence between the feature quantity transmitted from the communication terminal and the feature quantity extracted by the second feature quantity extraction unit is a predetermined threshold or more. Part
The collation result transmitting unit transmits position information indicating the position calculated by the position calculating unit to the communication terminal as the collation result,
The said output part is a communication system which outputs the relative position which is the position which the position information which the said collation result transmission part has transmitted with respect to the position which the position information which the said position information acquisition part acquired shows.
請求項1から7のいずれか1項に記載の通信システムにおいて、
前記検索装置を複数有し、
前記検索装置は、前記通信端末から前記特徴量が送信されてくると、当該検索装置以外の検索装置へ該特徴量を送信し、当該検索装置以外の検索装置から送信されてきた特徴量を受信し、前記受信した特徴量と前記第2の特徴量抽出部が抽出した特徴量とを前記照合部が照合した照合結果を、該特徴量を送信してきた検索装置へ送信し、当該検索装置以外の検索装置から送信されてきた照合結果を受信する共通通信部を有し、
前記照合部は、前記共通通信部が受信した特徴量と、前記第2の特徴量抽出部が抽出した特徴量とを照合し、
前記照合結果送信部は、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とを前記照合部が照合した照合結果と、前記共通通信部が受信した照合結果との少なくとも一方を前記通信端末へ送信する通信システム。
The communication system according to any one of claims 1 to 7,
A plurality of the search devices;
When the feature amount is transmitted from the communication terminal, the search device transmits the feature amount to a search device other than the search device, and receives the feature amount transmitted from a search device other than the search device. The collation unit collates the received feature quantity with the feature quantity extracted by the second feature quantity extraction unit, and transmits the collation result to the search device that has transmitted the feature quantity. Having a common communication unit for receiving the matching result transmitted from the search device of
The collation unit collates the feature amount received by the common communication unit with the feature amount extracted by the second feature amount extraction unit,
The collation result transmitting unit has received a collation result obtained by collating the feature amount transmitted from the communication terminal with the feature amount extracted by the second feature amount extracting unit, and the common communication unit. A communication system that transmits at least one of the verification results to the communication terminal.
請求項8に記載の通信システムにおいて、
前記照合結果送信部は、前記通信端末から送信されてきた特徴量と前記第2の特徴量抽出部が抽出した特徴量とを前記照合部が照合した照合結果と、前記共通通信部が受信した照合結果とのうち、所定の条件を満たす照合結果を前記通信端末へ送信する通信システム。
The communication system according to claim 8,
The collation result transmitting unit has received a collation result obtained by collating the feature amount transmitted from the communication terminal with the feature amount extracted by the second feature amount extracting unit, and the common communication unit. The communication system which transmits the collation result which satisfy | fills predetermined conditions among the collation results to the said communication terminal.
請求項1から9のいずれか1項に記載の通信システムにおいて、
前記検索装置は、所定の高さ以上の高さに設置されている通信システム。
The communication system according to any one of claims 1 to 9,
The search device is a communication system installed at a height higher than a predetermined height.
請求項1から10のいずれか1項に記載の通信システムにおいて、
前記出力部は、前記照合結果を表示する通信システム。
The communication system according to any one of claims 1 to 10,
The output unit is a communication system for displaying the collation result.
撮像部と、
前記撮像部が撮像した画像に含まれる対象物の特徴量を抽出する特徴量抽出部と、
通信端末から送信されてきた特徴量と、前記特徴量抽出部が抽出した特徴量とを照合する照合部と、
前記照合部における照合結果を、近距離無線通信を用いて前記通信端末へ送信する照合結果送信部とを有する検索装置。
An imaging unit;
A feature quantity extraction unit that extracts a feature quantity of an object included in an image captured by the imaging unit;
A collation unit that collates the feature amount transmitted from the communication terminal with the feature amount extracted by the feature amount extraction unit;
The search apparatus which has a collation result transmission part which transmits the collation result in the said collation part to the said communication terminal using near field communication.
請求項12に記載の検索装置において、
前記照合結果送信部は、前記照合結果として、前記通信端末から送信されてきた特徴量と前記特徴量抽出部が抽出した特徴量とが一致する度合いが所定の閾値以上である対象物の有無を示す情報を前記通信端末へ送信する検索装置。
The search device according to claim 12, wherein
The collation result transmission unit determines whether there is an object whose degree of coincidence between the feature quantity transmitted from the communication terminal and the feature quantity extracted by the feature quantity extraction unit is a predetermined threshold or more as the collation result. A search device that transmits information to the communication terminal.
外部からの操作に基づいて、表示している画像から検索対象を特定する対象特定部と、
前記特定された検索対象の特徴量を抽出する特徴量抽出部と、
近距離無線通信を用いて前記特徴量を検索装置へ送信する特徴量送信部と、
前記検索装置から送信されてきた照合結果を出力する出力部とを有する通信端末。
A target identifying unit that identifies a search target from a displayed image based on an external operation;
A feature quantity extraction unit for extracting the feature quantity of the specified search target;
A feature amount transmitter that transmits the feature amount to the search device using short-range wireless communication;
A communication terminal having an output unit that outputs a collation result transmitted from the search device.
請求項14に記載の通信システムにおいて、
前記出力部は、前記照合結果を表示する通信端末。
The communication system according to claim 14,
The output unit is a communication terminal that displays the collation result.
撮像する処理と、
前記撮像した画像に含まれる対象物の特徴量を抽出する処理と、
通信端末から送信されてきた特徴量と、前記抽出した特徴量とを照合する処理と、
前記照合した結果を、近距離無線通信を用いて前記通信端末へ送信する処理とを行う検索方法。
Processing to image,
A process of extracting a feature amount of an object included in the captured image;
Processing for collating the feature amount transmitted from the communication terminal with the extracted feature amount;
The search method which performs the process which transmits the said collation result to the said communication terminal using near field communication.
コンピュータに、
撮像する手順と、
前記撮像した画像に含まれる対象物の特徴量を抽出する手順と、
通信端末から送信されてきた特徴量と、前記抽出した特徴量とを照合する手順と、
前記照合した結果を、近距離無線通信を用いて前記通信端末へ送信する手順とを実行させるためのプログラム。
On the computer,
The procedure for imaging,
A procedure for extracting a feature amount of an object included in the captured image;
A procedure for collating the feature amount transmitted from the communication terminal with the extracted feature amount;
A program for executing a procedure for transmitting the collated result to the communication terminal using short-range wireless communication.
JP2016056760A 2016-03-22 2016-03-22 Communication system, search device, search method, and program Active JP6690338B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016056760A JP6690338B2 (en) 2016-03-22 2016-03-22 Communication system, search device, search method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016056760A JP6690338B2 (en) 2016-03-22 2016-03-22 Communication system, search device, search method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020068203A Division JP7173597B2 (en) 2020-04-06 2020-04-06 Communication system, search device and search method

Publications (2)

Publication Number Publication Date
JP2017173962A true JP2017173962A (en) 2017-09-28
JP6690338B2 JP6690338B2 (en) 2020-04-28

Family

ID=59973092

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016056760A Active JP6690338B2 (en) 2016-03-22 2016-03-22 Communication system, search device, search method, and program

Country Status (1)

Country Link
JP (1) JP6690338B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2009075916A (en) * 2007-09-21 2009-04-09 Toshiba Corp Figure searching system and method
JP2013153304A (en) * 2012-01-25 2013-08-08 Hitachi Kokusai Electric Inc Surveillance device, surveillance camera system, and video transmission method
WO2015151155A1 (en) * 2014-03-31 2015-10-08 株式会社日立国際電気 Personal safety verification system and similarity search method for data encrypted for confidentiality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062560A (en) * 2002-07-30 2004-02-26 Omron Corp Face collating device and face collating method
JP2009075916A (en) * 2007-09-21 2009-04-09 Toshiba Corp Figure searching system and method
JP2013153304A (en) * 2012-01-25 2013-08-08 Hitachi Kokusai Electric Inc Surveillance device, surveillance camera system, and video transmission method
WO2015151155A1 (en) * 2014-03-31 2015-10-08 株式会社日立国際電気 Personal safety verification system and similarity search method for data encrypted for confidentiality

Also Published As

Publication number Publication date
JP6690338B2 (en) 2020-04-28

Similar Documents

Publication Publication Date Title
US11055569B2 (en) Systems and methods for detecting a point of interest change using a convolutional neural network
Saha et al. Closing the gap: Designing for the last-few-meters wayfinding problem for people with visual impairments
RU2019136741A (en) LOCATION-BASED WIRELESS AUTHENTICATION
US20160350583A1 (en) Image search system and image search method
JP2024023434A (en) moving object tracking device
JP2018061114A (en) Monitoring device and monitoring method
CN110276251A (en) A kind of image-recognizing method, device, equipment and storage medium
WO2007108100A1 (en) Video image information processing device, judging method, and computer program
US11023712B2 (en) Suspiciousness degree estimation model generation device
KR20200012379A (en) Image-based indoor position detection apparatus and detection method
US9286689B2 (en) Method and device for detecting the gait of a pedestrian for a portable terminal
JP2018526754A (en) Image processing apparatus, image processing method, and storage medium
JP2008225920A (en) Circular id mark reading device, circular id mark reading system, circular id mark reading method, and circular id mark reading program
Coughlan et al. Color targets: Fiducials to help visually impaired people find their way by camera phone
US20160085297A1 (en) Non-transitory computer readable medium, information processing apparatus, and position conversion method
US20210295550A1 (en) Information processing device, information processing method, and program
KR20130109777A (en) Apparatus and method for managing attendance based on face recognition
JP2016076091A (en) Information processing device and information processing program
JP7173597B2 (en) Communication system, search device and search method
US11227007B2 (en) System, method, and computer-readable medium for managing image
JP7001150B2 (en) Identification system, model re-learning method and program
US10915772B2 (en) Apparatus and method for registering face pose for face recognition
JP6690338B2 (en) Communication system, search device, search method, and program
JP6800671B2 (en) Grant device, grant method and grant program
KR20100138155A (en) System and method for searching for missing child

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R150 Certificate of patent or registration of utility model

Ref document number: 6690338

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150