JP2010277441A - Portable terminal and facial identification system - Google Patents

Portable terminal and facial identification system Download PDF

Info

Publication number
JP2010277441A
JP2010277441A JP2009131069A JP2009131069A JP2010277441A JP 2010277441 A JP2010277441 A JP 2010277441A JP 2009131069 A JP2009131069 A JP 2009131069A JP 2009131069 A JP2009131069 A JP 2009131069A JP 2010277441 A JP2010277441 A JP 2010277441A
Authority
JP
Japan
Prior art keywords
face
data
image
terminal
mobile terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009131069A
Other languages
Japanese (ja)
Inventor
Daichi Kamiura
大智 上浦
Junichi Kosaka
純一 小坂
Hideaki Imai
秀明 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Mobile Communications AB
Original Assignee
Sony Ericsson Mobile Communications AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications AB filed Critical Sony Ericsson Mobile Communications AB
Priority to JP2009131069A priority Critical patent/JP2010277441A/en
Publication of JP2010277441A publication Critical patent/JP2010277441A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To identify a face relatively simply and quickly in a portable terminal without a search server. <P>SOLUTION: A first terminal 100a detects a face in an image acquired by imaging and transmits the face data to peripheral portable terminals 100b-100g by short-range radio communications. The transmitted face data is compared (facial identification) with the face image of a user stored in the second portable terminals 100b-100g. The first terminal 100a receives the user identification information of the user from the second terminals 100b-100d storing the corresponding face images by short-range radio communications, and displays them on a display screen and/or stores the user identification information in association with the face image on a display screen. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、複数の携帯端末の相互間の通信を利用した顔識別システムに関する。   The present invention relates to a face identification system using communication between a plurality of portable terminals.

現在、広く普及している携帯電話端末は高機能化、高性能化が進み、殆どの機種にカメラ撮影機能が備わっている。また、Bluetooth(登録商標)等の近距離無線通信機能を備えたものもある。   Nowadays, mobile phone terminals that are widely used have advanced functions and high performance, and most models have a camera photographing function. Some have a short-range wireless communication function such as Bluetooth (registered trademark).

一方、カメラ撮影により得られた画像の中に存在する人の顔の領域を検出し、さらにはその顔画像の特徴点データを抽出して顔識別(Face Identification)を行う技術も知られている(非特許文献1参照)。   On the other hand, there is also known a technique for detecting a face area of a person present in an image obtained by camera photography, and further extracting feature point data of the face image to perform face identification. (Refer nonpatent literature 1).

このような状況において、携帯電話端末を用いて人(または人々)を撮影し、その画像中に写った顔画像に基づいて直ちにその人に関する情報を得ることができれば、カメラの新たな用途が広がると考えられる。   In such a situation, if a person (or people) is photographed using a mobile phone terminal and information about the person can be obtained immediately based on the face image captured in the image, a new application of the camera is expanded. it is conceivable that.

特許文献1には、物体(植物、昆虫等)の名前、属性、特徴、飼育方法などを知りたいときに、携帯電話機に付属したカメラでその物体を撮影し、その画像と欲しい情報の内容をインターネットを介して検索用サーバにリクエストし、サーバ側からユーザが入力した質問事項に対して希望する情報を提供するシステムが開示されている。   In Patent Document 1, when you want to know the name, attributes, characteristics, breeding method, etc. of an object (plant, insect, etc.), the object is photographed with the camera attached to the mobile phone, and the image and the content of the information you want are displayed. A system is disclosed that makes a request to a search server via the Internet and provides desired information for a question entered by a user from the server side.

特開2003−132062号公報JP 2003-132062 A

David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", Accepted for publication in the International Journal of Computer Vision, 2004, Computer Science Department, University of British Columbia, Vancouver, B. C., Canada, January 5, 2004David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", Accepted for publication in the International Journal of Computer Vision, 2004, Computer Science Department, University of British Columbia, Vancouver, B. C., Canada, January 5, 2004

しかしながら、従来の顔識別技術には以下の問題がある。   However, the conventional face identification technology has the following problems.

一般的に、識別するために必要な顔データをあらかじめ携帯端末内に保持する必要がある。特に、識別したい顔の数だけ顔データを持つ必要がある。また、登録されていない人を識別するためには携帯端末内の顔データを更新する必要がある。さらに、識別処理を行う際には入力データと登録されているデータのマッチング処理を行う必要がある。このような処理を1台の携帯端末内で実行するには相応の処理時間がかかる、特に、多数の顔データが登録されている状態ではなおさらである。   In general, face data necessary for identification needs to be held in the mobile terminal in advance. In particular, it is necessary to have face data for the number of faces to be identified. In addition, in order to identify a person who is not registered, it is necessary to update the face data in the mobile terminal. Furthermore, when performing the identification process, it is necessary to perform a matching process between the input data and the registered data. It takes a considerable amount of processing time to execute such a process in one portable terminal, especially in a state where a large number of face data are registered.

特許文献1に記載の技術は、インターネット上の検索用サーバを必要とする。また、実在する人の顔画像を集中的に蓄積したデータベースを用意するのは現実的でない。   The technique described in Patent Document 1 requires a search server on the Internet. In addition, it is not realistic to prepare a database in which face images of real people are concentrated.

本発明はこのような背景においてなされたもので、検索用サーバを必要とすることなく、携帯端末において比較的簡易かつ迅速に顔識別を行うことができるようにするものである。   The present invention has been made in such a background, and makes it possible to perform face identification relatively easily and quickly in a portable terminal without requiring a search server.

本発明による携帯端末は、撮影により得られた画像中に存在する顔を検出する顔検出手段と、前記顔の画像データに対応する顔データを周囲の携帯端末へ近距離無線通信により送信する送信手段と、前記送信した顔データに該当する顔画像を保存している携帯端末から当該ユーザのユーザ識別情報を近距離無線通信により受信する受信手段と、受信したユーザ識別情報を当該顔画像に対応づけて表示画面上に表示および/または記憶部に記憶する処理手段とを備えたものである。   The portable terminal according to the present invention transmits a face detection unit for detecting a face existing in an image obtained by photographing, and transmitting the face data corresponding to the image data of the face to surrounding portable terminals by short-range wireless communication. Means for receiving the user identification information of the user by short-range wireless communication from the portable terminal storing the face image corresponding to the transmitted face data, and corresponding the received user identification information to the face image And a processing means for displaying on the display screen and / or storing in the storage unit.

本発明では、撮影により得られた画像中に存在する顔を検出する処理は第1の携帯端末において行う。しかし、顔の識別処理は、前記顔の画像データに対応する顔データを周囲の携帯端末へ近距離無線通信により送信することによって、周囲に存在する第2の携帯端末に実行させる。周囲に存在する第2の携帯端末のうち、前記送信した顔データに該当する顔画像を保存している携帯端末から当該ユーザのユーザ識別情報を近距離無線通信により受信する。これにより、画像中の顔の識別が迅速に行われる。第1の携帯端末のユーザが撮影者として他の人(人々)の撮影を行ったときには、当然ながらその被撮影者は近傍に存在している。また、その被撮影者は携帯端末を所持している可能性も高い。本発明はこのような前提において極めて有効に機能する。   In the present invention, processing for detecting a face present in an image obtained by photographing is performed in the first portable terminal. However, the face identification processing is executed by the second portable terminal existing in the vicinity by transmitting the face data corresponding to the image data of the face to the nearby portable terminal by short-range wireless communication. The user identification information of the user is received by the short-range wireless communication from the portable terminal that stores the face image corresponding to the transmitted face data among the second portable terminals existing around. Thereby, the identification of the face in an image is performed rapidly. When the user of the first portable terminal photographs another person (people) as a photographer, the photographed person is naturally present in the vicinity. In addition, the photographed person is highly likely to have a portable terminal. The present invention functions extremely effectively on such a premise.

第2の携帯端末としての、本発明による他の携帯端末は、顔データを他の携帯端末から受信する受信手段と、複数の項目のデータを含む自端末のユーザのユーザ識別情報を保存する保存手段と、前記顔データの送信を受けたとき、受信した前記顔データの顔画像と自端末のユーザの顔画像とが一致するか否かを確認する顔一致検出手段と、前記顔画像の一致時に、前記許可された項目のデータのみを当該他の携帯端末へ返信する送信手段とを備えたものである。   Another portable terminal according to the present invention as a second portable terminal is a receiving means for receiving face data from another portable terminal, and a storage for storing user identification information of the user of the own terminal including data of a plurality of items. And a face match detection means for confirming whether or not the received face image of the face data matches the face image of the user of the terminal when receiving the transmission of the face data, and the match of the face image Sometimes, it is provided with a transmitting means for returning only the data of the permitted item to the other portable terminal.

なお、第1の携帯端末と第2の携帯端末とは、実際的には同一の携帯端末がそれらの構成要素を兼ね備えることが可能である。   Note that the first mobile terminal and the second mobile terminal can actually be provided with the same mobile terminal.

本発明による顔識別システムは、第1の携帯端末と第2の携帯端末による顔識別システムである。第1の携帯端末は、撮影により得られた画像中に存在する顔を検出する顔検出手段と、前記顔の画像データに対応する顔データを周囲に存在する第2の携帯端末へ近距離無線通信により送信する送信手段と、前記送信した顔データに該当する顔画像を保存している携帯端末から当該ユーザのユーザ識別情報を近距離無線通信により受信する受信手段と、受信したユーザ識別情報を当該顔画像に対応づけて表示画面上に表示および/または記憶部に記憶する処理手段とを備える。第2の携帯端末は、第1の携帯端末から前記顔データを受信する受信手段と、複数の項目のデータを含む自端末のユーザのユーザ識別情報を保存する保存手段と、前記顔データの送信を受けたとき、受信した前記顔データの顔画像と自端末のユーザの顔画像とが一致するか否かを確認する顔一致検出手段と、前記顔画像の一致時に、前記許可された項目のデータのみを第1の携帯端末へ返信する送信手段とを備える。   The face identification system according to the present invention is a face identification system using a first portable terminal and a second portable terminal. The first portable terminal is a short-distance wireless communication unit that detects a face existing in an image obtained by photographing, and a face data corresponding to the image data of the face to a second portable terminal that exists in the vicinity. Transmitting means for transmitting by communication; receiving means for receiving user identification information of the user by short-range wireless communication from a portable terminal storing a face image corresponding to the transmitted face data; and received user identification information Processing means for displaying on the display screen and / or storing it in the storage unit in association with the face image. A second mobile terminal receiving means for receiving the face data from the first mobile terminal; storage means for storing user identification information of the user of the terminal including data of a plurality of items; and transmission of the face data Receiving the face data of the face data and the face image of the user of the user terminal to confirm whether or not the face image of the permitted item is matched when the face image matches. Transmitting means for returning only data to the first portable terminal.

本発明によれば、検索用サーバを必要とすることなく、携帯端末において比較的簡易かつ迅速に顔識別を行うことが可能となる。また、携帯端末に所持者自身の顔データ以外の顔データを記憶しておく必要がないので、既存の携帯端末への応用が容易である。   According to the present invention, face recognition can be performed relatively easily and quickly on a mobile terminal without requiring a search server. In addition, since it is not necessary to store face data other than the face data of the owner itself in the mobile terminal, application to an existing mobile terminal is easy.

本発明の実施の形態における複数の携帯端末で一時的に構築される通信システムの概略構成を示す図である。It is a figure which shows schematic structure of the communication system temporarily constructed | assembled with the some portable terminal in embodiment of this invention. 図1内に示した携帯端末として典型的な携帯電話端末の概略のハードウェア構成を示す図である。It is a figure which shows the schematic hardware constitutions of a typical mobile telephone terminal as a portable terminal shown in FIG. 本発明の実施の形態における携帯端末の相互の間のやりとりを示したシーケンス図である。It is the sequence diagram which showed the exchange between the portable terminals in embodiment of this invention. 本発明の実施の形態において第1の端末のユーザ(所有者)が他のユーザの撮影を行う場面の図である。It is a figure of the scene where the user (owner) of the 1st terminal photographs other users in the embodiment of the present invention. 図4の撮影により得られた画像の例を示す図である。It is a figure which shows the example of the image obtained by imaging | photography of FIG. 図5に示した画像の中から顔検出がなされた様子の図である。It is a figure of a mode that the face detection was made | formed from the image shown in FIG. 図6の場面で検出された顔データが第1の端末から第2の端末へブロードキャストされた様子の図である。It is a figure of a mode that the face data detected in the scene of FIG. 6 was broadcast from the 1st terminal to the 2nd terminal. 本発明の実施の形態における第2の端末での顔データのマッチング処理の様子を示す図である。It is a figure which shows the mode of the matching process of the face data in the 2nd terminal in embodiment of this invention. 本発明の実施の形態におけるユーザ識別情報の例を示す図である。It is a figure which shows the example of the user identification information in embodiment of this invention. 本発明の実施の形態の第2の端末におけるユーザ識別情報問合せ設定画面と返信可否設定画面の例を示す図である。It is a figure which shows the example of the user identification information inquiry setting screen and reply availability setting screen in the 2nd terminal of embodiment of this invention. 本発明の実施の形態における第2の端末から第1の端末へユーザ識別情報が返信される様子を示す図である。It is a figure which shows a mode that user identification information is returned to the 1st terminal from the 2nd terminal in embodiment of this invention. 本発明の実施の形態において撮影画像中の各人の顔領域の下に当該ユーザ識別情報を表示した状態を示す図である。It is a figure which shows the state which displayed the said user identification information under each person's face area in the picked-up image in embodiment of this invention. 本発明の実施の形態において問い合わせを行う第1の端末の処理を示すフローチャートである。It is a flowchart which shows the process of the 1st terminal which inquires in embodiment of this invention. 本発明の実施の形態において問い合わせを受信した第2の端末の処理を表したフローチャートである。It is a flowchart showing the process of the 2nd terminal which received the inquiry in embodiment of this invention.

以下、本発明の好適な実施の形態について図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

図1に、本実施の形態における複数の携帯端末で一時的に構築される通信システムとしての顔識別システムの概略構成を示す。ここでは、携帯端末として携帯電話端末を例として説明する。この例では、本システムは、その動作の主体となる第1の携帯端末100aと、この端末の近傍に位置する第2の携帯端末100b,100c,100d等とにより構成される。第2の携帯端末の台数は図では3台示したが、1台でもよく、また、4台以上でもよい。携帯端末100a,100b,100c,100d等は総称して携帯端末100と呼ぶ。これらの各携帯端末は近距離無線通信手段を有し、相互に無線によるデータ通信を行うことができる近距離無線ネットワークを一時的に構築する機能を有する。近距離無線ネットワークとしては、例えば、Bluetooth(登録商標)などを利用可能である。Bluetooth(登録商標)のPAN(Personal Area Network)profileを用いれば、半径10m前後のネットワークを構築することが可能である。但し、本発明はこれに限るものではなく、利用可能な任意の無線ネットワークを採用可能である。   FIG. 1 shows a schematic configuration of a face identification system as a communication system temporarily constructed with a plurality of portable terminals in the present embodiment. Here, a mobile phone terminal will be described as an example of the mobile terminal. In this example, the present system is configured by a first mobile terminal 100a that is the subject of the operation, and second mobile terminals 100b, 100c, 100d, and the like located in the vicinity of this terminal. Although the number of second mobile terminals is three in the figure, it may be one or four or more. The portable terminals 100a, 100b, 100c, 100d, etc. are collectively referred to as the portable terminal 100. Each of these mobile terminals has a short-range wireless communication means, and has a function of temporarily constructing a short-range wireless network that can perform wireless data communication with each other. As the short-range wireless network, for example, Bluetooth (registered trademark) can be used. If a Bluetooth (registered trademark) PAN (Personal Area Network) profile is used, a network with a radius of about 10 m can be constructed. However, the present invention is not limited to this, and any available wireless network can be adopted.

第1の携帯端末はデジタルカメラのような撮像手段を有する。第2の携帯端末は必ずしも撮像手段を有する必要はない。また、第2の端末は当該ユーザの顔画像データとともにそのユーザに関するメタ情報としてユーザ識別情報を内部に保存しているものとする。携帯電話端末には、通常、自端末のユーザのプロフィール情報としてユーザ識別情報を保存する機能を有している。   The first portable terminal has an imaging means such as a digital camera. The second portable terminal does not necessarily need to have an imaging unit. Further, it is assumed that the second terminal stores user identification information as meta information regarding the user together with the face image data of the user. A mobile phone terminal usually has a function of storing user identification information as profile information of a user of the terminal.

図2に、携帯端末100として典型的な携帯電話端末の概略のハードウェア構成を示す。この構成は第1および第2の携帯端末のいずれとしても機能しうる。   FIG. 2 shows a schematic hardware configuration of a typical mobile phone terminal as the mobile terminal 100. This configuration can function as both the first and second portable terminals.

この携帯端末100は、バス117で相互に接続された制御部101、通信部102、アンテナ103、表示部104、操作部105、記憶部(保存手段)106、音声処理部108、撮像制御部111、近距離無線通信部113、アンテナ114、時計部115を備える。音声処理部108にはスピーカ109およびマイク110が接続される。撮像制御部111にはカメラ112(撮像手段)が接続される。   The mobile terminal 100 includes a control unit 101, a communication unit 102, an antenna 103, a display unit 104, an operation unit 105, a storage unit (storage means) 106, an audio processing unit 108, and an imaging control unit 111 that are connected to each other via a bus 117. A short-range wireless communication unit 113, an antenna 114, and a clock unit 115. A speaker 109 and a microphone 110 are connected to the audio processing unit 108. A camera 112 (imaging means) is connected to the imaging control unit 111.

制御部101は、CPUを含み、携帯端末100の各部の制御および必要なデータ処理を行う。本実施の形態ではこの制御部101が本発明の「顔一致検出手段」および「処理手段」を構成する。通信部102は、アンテナ103を介して基地局との間で無線通信を行う。表示部104は、LCD,有機EL等の表示デバイスを含み、その表示画面上に情報を表示する。操作部105は、テンキーや各種制御キーを有し、ユーザからの指示やデータの入力を受け付ける。記憶部106は、ROM、RAM、フラッシュメモリ等の記憶手段を備え、OS、各種アプリケーションプログラム等のコンピュータプログラム、各種データを記憶する。各種データとしては、本実施の形態におけるユーザの顔画像およびユーザ識別情報等を含む。音声処理部108は、受話音声、警報、動画ファイルの音声、音楽データの音声等を出力するスピーカ109と、送話音声等を集音するマイク110とに接続され、音声信号の符号化、復号化を含む所定の音声処理を行う。近距離無線通信部113は、アンテナ114を介して他の近距離無線通信部との間で無線通信を行う手段であり、本発明の「送信手段」および「受信手段」を構成する。本実施の形態では、この近距離無線通信部113により、他の端末の近距離無線通信部との間で一時的に無線通信ネットワークが構築される。時計部115は、本発明の時計手段を構成し、RTC(Real Time Clock)等を含み、年月日および時間情報を生成する時計機能およびタイマー設定を行うタイマー機能を提供する。   The control unit 101 includes a CPU, and controls each unit of the mobile terminal 100 and performs necessary data processing. In the present embodiment, the control unit 101 constitutes “face matching detection means” and “processing means” of the present invention. The communication unit 102 performs wireless communication with the base station via the antenna 103. The display unit 104 includes a display device such as an LCD or an organic EL, and displays information on the display screen. The operation unit 105 includes a numeric keypad and various control keys, and receives an instruction and data input from a user. The storage unit 106 includes storage means such as a ROM, a RAM, and a flash memory, and stores an OS, computer programs such as various application programs, and various data. The various data includes the user's face image and user identification information in the present embodiment. The audio processing unit 108 is connected to a speaker 109 that outputs received voice, alarm, audio of a moving image file, audio of music data, and the like, and a microphone 110 that collects transmitted audio and the like, and encodes and decodes an audio signal. Predetermined audio processing including conversion is performed. The short-range wireless communication unit 113 is a unit that performs wireless communication with another short-range wireless communication unit via the antenna 114, and constitutes the “transmission unit” and the “reception unit” of the present invention. In the present embodiment, the short-range wireless communication unit 113 temporarily establishes a wireless communication network with the short-range wireless communication unit of another terminal. The clock unit 115 constitutes the clock means of the present invention and includes an RTC (Real Time Clock) and the like, and provides a clock function for generating date and time information and a timer function for setting a timer.

以下、本実施の形態の動作について説明する。   Hereinafter, the operation of the present embodiment will be described.

顔画像に基づくユーザ認識のためには、第1の段階として、撮影により取得した画像中の顔画像(すなわち顔領域)を検出する顔検出または顔検知(Face Detection)の段階と、第2の段階として、検出された顔画像に基づいてその顔が誰の顔であるのかを識別する顔識別(Face Identification)の段階とがある。本発明では、第1の段階の顔検出処理は第1の端末で行うが、第2の段階の顔識別処理は第2の端末で行う。そのために、顔を識別される人々は携帯端末を所持している(持ち歩いている)ことと、その携帯端末に自身の顔データが登録されていることを前提とする。   For user recognition based on a face image, as a first stage, a face detection or face detection stage for detecting a face image (ie, a face area) in an image acquired by photographing, and a second stage As a stage, there is a face identification stage for identifying who the face is based on the detected face image. In the present invention, the face detection process in the first stage is performed by the first terminal, while the face identification process in the second stage is performed by the second terminal. Therefore, it is assumed that people whose faces are identified carry (carry) a portable terminal and their face data is registered in the portable terminal.

今、本実施の形態における典型的なアプリケーションとして、第1の携帯端末のユーザがそのカメラ機能を用いて他の人(または人々)を撮影したとき、撮影された人のユーザ識別情報(すなわち個人情報)を取得し、そのユーザ識別情報の少なくとも一部を撮影画像上の当該人に対応づけてビューファインダなどの表示画面上に表示することを想定する。   Now, as a typical application in the present embodiment, when the user of the first portable terminal takes a picture of another person (or people) using the camera function, user identification information (namely, personal) Information) is acquired, and at least a part of the user identification information is assumed to be displayed on a display screen such as a viewfinder in association with the person on the captured image.

図3は、本実施の形態における携帯端末100a〜100dの相互の間のやりとりを示したシーケンス図である。以下、携帯端末は単に端末ともいう。この図には、端末100b〜100dの他、偶然に周囲(近距離無線通信可能な範囲内)に存在した端末の代表として端末100e〜100gも含めている。   FIG. 3 is a sequence diagram showing exchanges between portable terminals 100a to 100d in the present embodiment. Hereinafter, the mobile terminal is also simply referred to as a terminal. In this figure, in addition to the terminals 100b to 100d, the terminals 100e to 100g are also included as representatives of the terminals that exist by chance (within the range where short-range wireless communication is possible).

今、第1の携帯端末である端末100aのユーザ(所有者)が他のユーザの撮影を行う(S1)。ここでは、図4に示すようにユーザAが撮影者として、ユーザB〜Dを撮影した場合を想定する。ユーザB〜Dはそれぞれ端末100b〜100dを所持しているものとする。この実施の形態における携帯端末100のアプリケーションでの「撮影」は、シャッタボタンを押して1枚の静止画を取得する形態のみならず、シャッタボタンを押す前の段階で表示部のファインダ表示画面にいわゆるカメラスルー画像を連続的(周期的)に表示する形態も含みうる。   Now, the user (owner) of the terminal 100a, which is the first portable terminal, takes a picture of another user (S1). Here, as shown in FIG. 4, it is assumed that user A has photographed users B to D as a photographer. It is assumed that the users B to D have terminals 100b to 100d, respectively. The “photographing” in the application of the portable terminal 100 in this embodiment is not limited to a mode in which a single still image is acquired by pressing the shutter button, but also a so-called viewfinder display screen of the display unit before the shutter button is pressed. A form in which camera-through images are displayed continuously (periodically) can also be included.

図5に、端末100aにより得られた画像の例を示す。この例では、端末100b〜100dをそれぞれ所持したユーザB〜Dが写った撮影画像40を例として示している。   FIG. 5 shows an example of an image obtained by the terminal 100a. In this example, a captured image 40 in which the users B to D having the terminals 100 b to 100 d are shown is shown as an example.

その後、端末100aは、そのカメラからの撮影画像40(入力画像)の中から顔検出、すなわち顔領域を定めてそれぞれの顔画像の抽出を行う(S2)。上記の例では、図6に示すように、撮影画像40の中から検出された顔画像44〜46を含む顔領域は矩形状の領域としている。   Thereafter, the terminal 100a performs face detection from the captured image 40 (input image) from the camera, that is, determines a face area and extracts each face image (S2). In the above example, as shown in FIG. 6, the face area including the face images 44 to 46 detected from the captured image 40 is a rectangular area.

端末100aは、この抽出された顔画像に対応する顔データを、近距離無線ネットワークを用いて、周りの人々が所持する端末にブロードキャストする(S3)。第2の端末へ送信する顔識別処理のためのデータは、抽出された顔領域の顔画像データそのものであってもよいし、その顔画像データから抽出された特徴点データであってもよい。通常の顔識別技術は、同じ顔であるかマッチングをするまえに、マッチングを行うためのデータ形式(顔識別用データ)に変換していることが多い。このような顔識別を行うために必要な処理をあらかじめ送信側端末で行ってしまえば、受信側の端末はデータの比較処理だけを行えばよいので、処理速度がさらに向上する。本明細書ではこれらのデータを総称して「顔データ」という。   The terminal 100a broadcasts the face data corresponding to the extracted face image to terminals owned by people around using the short-range wireless network (S3). The data for face identification processing transmitted to the second terminal may be the face image data of the extracted face area itself, or may be feature point data extracted from the face image data. Ordinary face identification techniques often convert data into a data format (face identification data) for matching before matching whether they are the same face. If the processing necessary for performing such face identification is performed in advance at the transmitting terminal, the receiving terminal only needs to perform data comparison processing, and the processing speed is further improved. In this specification, these data are collectively referred to as “face data”.

上記の例では、図7に示すように、端末100aからのブロードキャストされた顔データは、端末100b〜100dの他、偶然に周囲に存在した端末100e〜100gにも受信されうる。   In the above example, as shown in FIG. 7, the face data broadcast from the terminal 100a can be received by the terminals 100e to 100g that exist by chance in addition to the terminals 100b to 100d.

顔データを受信した携帯端末は、あらかじめ登録されている自分の顔データを用いて、送られてきた顔データの中に自分の顔に該当するか否かを確認するため、顔データのマッチング(顔識別)処理を行う(S4b〜S4g)。特徴点データのマッチング処理としては、例えば非特許文献1に開示されたような技術を利用することができる。この技術によれば、物体(顔を含む)の画像のサイズや物体の向きなどが異なる場合にも物体のマッチングを高信頼度で行うことができる。   The mobile terminal that has received the face data uses face data that has been registered in advance to check whether the face data that has been sent corresponds to the face of the user. Face identification) processing is performed (S4b to S4g). As the feature point data matching processing, for example, a technique as disclosed in Non-Patent Document 1 can be used. According to this technique, object matching can be performed with high reliability even when the size of the image of an object (including a face), the direction of the object, and the like are different.

上記の例では図8に示すように、例えばユーザCの端末100c内に保存された顔画像45’は送信されてきた顔画像44〜46のうち顔画像45と一致する。ユーザEの端末内に保存された顔画像49’は、送信されてきた顔画像44〜46のいずれとも一致しない。なお、上述したように送信される顔データは顔画像そのものではない場合があるが、ここでは便宜上「顔画像」として示している。端末内に保存されている顔画像45’は、撮影画像中の顔画像45とは同一人物の顔の画像であるが、画像データとしては厳密には同一ではない筈である。しかし、図の例では便宜上同じ画像を用いている。   In the above example, as illustrated in FIG. 8, for example, the face image 45 ′ stored in the terminal 100 c of the user C matches the face image 45 among the transmitted face images 44 to 46. The face image 49 ′ stored in the terminal of the user E does not match any of the transmitted face images 44 to 46. Although the face data transmitted as described above may not be the face image itself, it is shown here as “face image” for convenience. The face image 45 ′ stored in the terminal is an image of the face of the same person as the face image 45 in the captured image, but the image data should not be exactly the same. However, in the example of the figure, the same image is used for convenience.

このようなマッチング処理は、送られてきた顔データが複数であってもそれらと自分一人の顔データとのマッチングを行うだけでよいので処理は高速となる。すなわち、マッチング処理が撮影端末の周囲の端末で分散して行われることになる。   Such a matching process can be performed at high speed because even if there are a plurality of sent face data, it is only necessary to match the face data with one person's own face data. That is, matching processing is performed in a distributed manner at terminals around the photographing terminal.

ここで、図9に本実施の形態におけるユーザ識別情報の例を示す。図9では上記の例に対応して端末100b,100c,100d内にそれぞれ保存されているユーザ識別情報の例を示す。   Here, FIG. 9 shows an example of user identification information in the present embodiment. FIG. 9 shows an example of user identification information stored in each of the terminals 100b, 100c, and 100d corresponding to the above example.

各ユーザ識別情報は、「名前」「ニックネーム」「電話番号」「Eメールアドレス」「画像」「生年月日」等の項目を含む。「画像」は当該端末のユーザ(所有者)の顔画像を想定している。画像として複数の画像、例えば顔画像としての画像1、アバターとしての画像2等を含んでもよい。   Each user identification information includes items such as “name”, “nickname”, “telephone number”, “e-mail address”, “image”, “date of birth”, and the like. “Image” assumes a face image of the user (owner) of the terminal. The image may include a plurality of images, for example, an image 1 as a face image, an image 2 as an avatar, and the like.

図10(a)(b)は、それぞれ、第2の端末におけるユーザ識別情報問合せ設定画面501と、返信可否設定画面502の例を示している。第2の端末のユーザは、第1の端末からユーザ識別情報の問い合わせがあったとしても、それに応答したくない場合もある。そのようなユーザは予めユーザ識別情報問合せ設定画面501において、OFFの設定を行っておくことにより、第1の端末からユーザ識別情報の問い合わせに応答しない。なお、ONの設定がなされている場合にも、応答時に無条件で自動的に応答することを想定している。この代わりに、「ユーザ識別情報の問い合わせがありました。応答してもよいですか?」というようなメッセージを出力し、そのユーザの確認を得ることを条件として応答を行うようにすることも可能である。   FIGS. 10A and 10B show examples of the user identification information inquiry setting screen 501 and the reply availability setting screen 502 in the second terminal, respectively. The user of the second terminal may not want to respond to an inquiry for user identification information from the first terminal. Such a user does not respond to the inquiry of the user identification information from the first terminal by setting OFF in the user identification information inquiry setting screen 501 in advance. Even when ON is set, it is assumed that a response is automatically made unconditionally at the time of response. Alternatively, a message such as “There was a user identification information inquiry. Can I respond?” Can be sent on condition that the user's confirmation is obtained. It is.

また、返信可否設定画面502は、第2の端末のユーザがユーザ識別情報の項目毎に送信の可否(「許可」または「不許可」)を設定できるようにするものである。この返信可否設定画面502はユーザ識別情報問合せ設定画面501と併用し、返信可否設定画面502の設定がONであるときに、重ねて設定できるようにすることができる。あるいは、返信可否設定画面502を単独で採用することも可能である。この場合、すべての項目を「不許可」に設定すればユーザ識別情報問合せ設定画面501で「OFF」を設定したと実質的に等価な結果が得られる。   The reply permission / prohibition setting screen 502 allows the user of the second terminal to set permission / non-permission (“permitted” or “not permitted”) for each item of user identification information. This reply permission / inhibition setting screen 502 can be used in combination with the user identification information inquiry setting screen 501 so that it can be set repeatedly when the reply permission / inhibition setting screen 502 is set to ON. Alternatively, the reply availability setting screen 502 can be used alone. In this case, if all items are set to “non-permitted”, a result substantially equivalent to setting “OFF” on the user identification information inquiry setting screen 501 can be obtained.

図3に戻り、マッチングによる顔識別処理を行った端末は、顔の一致が確認されたら、自己の公開可能なユーザ識別情報を端末100aへ返信する(S5b〜S5d)。このユーザ識別情報は、上述のように、当該ユーザが返信許可の設定をした項目の個人情報である。顔の一致が確認されなかった端末は何の返信も行わない。上記の例では、図11に示すように、顔画像44,45,46にそれぞれ一致する顔画像44’、45’、46’が保存されている端末100b〜100dのみが内部に保存されているそれぞれの公開可能なユーザ識別情報を端末100aに返信する。   Returning to FIG. 3, the terminal that performed the face identification processing by matching returns the user identification information that can be disclosed to the terminal 100 a when the face match is confirmed (S <b> 5 b to S <b> 5 d). As described above, this user identification information is personal information of an item for which the user has set reply permission. A terminal whose face match is not confirmed does not send any reply. In the above example, as shown in FIG. 11, only the terminals 100b to 100d in which the face images 44 ′, 45 ′, and 46 ′ respectively matching the face images 44, 45, and 46 are stored are stored inside. Each openable user identification information is returned to the terminal 100a.

これらの返信を受けた端末100aは、それらのユーザ識別情報を撮影画像上の当該人に対応づけて表示する(S6)。上記の例では、図12に示すように、撮影画像40中の各人の顔領域の下に当該ユーザ識別情報を表示している。ユーザ識別情報を表示する位置は顔領域の下に限るものではない。顔画像との対応が分かれば足り、その表示位置は問わない。表示された各人のユーザ識別情報の項目は当該ユーザが許可したものに対応している。なお、「年齢」は生年月日が返送されてきたときに現在の年月日と対比して算出したものである。「年齢」に代えて生年月日をそのまま表示するようにしてもよい。もともと「年齢」の項目が存在すれば、このような算出処理は不要である。   Upon receiving these replies, the terminal 100a displays the user identification information in association with the person on the captured image (S6). In the above example, as shown in FIG. 12, the user identification information is displayed under the face area of each person in the captured image 40. The position where the user identification information is displayed is not limited to the position below the face area. If the correspondence with the face image is known, the display position is not limited. The items of the displayed user identification information of each person correspond to those permitted by the user. The “age” is calculated by comparing the current date of birth when the date of birth is returned. Instead of “age”, the date of birth may be displayed as it is. If the item “age” originally exists, such a calculation process is unnecessary.

なお、このようなユーザ識別情報を表示画面上で表示することに加えて、または代えて、取得したユーザ識別情報を内部に記憶するようにしてもよい。   In addition to or instead of displaying such user identification information on the display screen, the acquired user identification information may be stored inside.

また、返信するユーザ識別情報は典型的にはテキストデータであるが、テキストを展開したビットマップ画像データを返信するようにしてもよい。この場合、ユーザ識別情報として年齢を用いるためには、ビットマップ画像の生成の前に第2の端末側で年齢の算出を行う。テキストで返信するか画像で返信するかはユーザが選択可能としてもよい。   The user identification information to be returned is typically text data, but bitmap image data in which the text is expanded may be returned. In this case, in order to use age as the user identification information, the age is calculated on the second terminal side before the bitmap image is generated. The user may be able to select whether to reply by text or image.

図13は、問い合わせを行う第1の端末(端末100a)の処理のフローチャートを示している。この処理は、端末100の制御部101(図2)が記憶部106内のプログラムを読み出して実行することにより実現される。   FIG. 13 shows a flowchart of processing of the first terminal (terminal 100a) that makes an inquiry. This process is realized by the control unit 101 (FIG. 2) of the terminal 100 reading and executing the program in the storage unit 106.

本実施の形態では、処理対象の撮影画像は、典型的には端末のカメラ112の起動(S10a)が行われた後にカメラ撮影が行われたとき(S11a)、または、ビューファインダ内の画像(いわゆるカメラスルー画像)を利用することが選択されたとき(S11b)に得られる画像を想定している。カメラスルー画像も連続して更新される静止画と考えられ、そのうちの一つの静止画を処理対象とすることができる。また、この処理対象は、カメラスルー画像の更新に伴って逐次更新していくこともできる。なお、カメラ起動を行わずに、端末内(例えば記憶部106)から処理対象の画像を選択してもよい(S10b)。   In the present embodiment, the captured image to be processed is typically an image in the viewfinder (S11a) when the camera 112 is activated after the camera 112 of the terminal is activated (S10a) or in the viewfinder ( Assume an image obtained when it is selected to use a so-called camera-through image (S11b). The camera-through image is also considered as a still image that is continuously updated, and one of the still images can be processed. In addition, this processing target can be sequentially updated as the camera through image is updated. Note that an image to be processed may be selected from the terminal (for example, the storage unit 106) without starting the camera (S10b).

処理対象の撮影画像が与えられたら、その画像中の顔(顔領域)を検出して顔画像を抽出する顔検出処理を行う(S12)。このような顔検出処理自体の手法は周知であり、特にここでは詳述しない。顔が検出されなければ(S13,No)、本処理を終了する。   When a captured image to be processed is given, a face detection process is performed to detect a face (face area) in the image and extract a face image (S12). Such a method of the face detection process itself is well known and will not be described in detail here. If no face is detected (S13, No), this process ends.

顔が検出されたら(S13,Yes)、その顔データを近隣の端末へ送信(ブロードキャスト)する(S14)。これに応じて近隣の端末からユーザ識別情報を受信するのを待機する(S15)。検出された顔画像の個数に相当する個数の端末からの応答を待つ。送信から所定時間が経過した時点ですべての端末からの応答がなくても、タイムアウトと判断して待機を打ち切る。   If a face is detected (S13, Yes), the face data is transmitted (broadcast) to nearby terminals (S14). In response to this, it waits for receiving user identification information from a nearby terminal (S15). It waits for responses from the number of terminals corresponding to the number of detected face images. Even if there is no response from all terminals when a predetermined time has passed since transmission, it is determined that a timeout has occurred and the standby is terminated.

1台の端末でもユーザ識別情報の応答があれば(S16、Yes)、撮影画像上でそのユーザ識別情報を対応する顔画像に対応づけて表示する(S17)。上述したように、表示に代えて、または加えて、そのユーザ識別情報を当該顔画像とともに記憶部106(例えば電話帳)に記憶(登録)するようにしてもよい。   If there is a response to the user identification information even in one terminal (S16, Yes), the user identification information is displayed on the captured image in association with the corresponding face image (S17). As described above, instead of or in addition to the display, the user identification information may be stored (registered) in the storage unit 106 (for example, a phone book) together with the face image.

図14は、問い合わせを受信した第2の端末の処理を表したフローチャートである。この処理は、端末100の制御部101(図2)が記憶部106内のプログラムを読み出して実行することにより実現される。   FIG. 14 is a flowchart showing processing of the second terminal that has received the inquiry. This process is realized by the control unit 101 (FIG. 2) of the terminal 100 reading and executing the program in the storage unit 106.

まず、第2の端末は、図10(a)に示したようなユーザ識別情報問合せ設定画面501で設定された設定内容を確認する(S21)。設定が「OFF」であればこの処理を終了する。   First, the second terminal confirms the setting contents set on the user identification information inquiry setting screen 501 as shown in FIG. 10A (S21). If the setting is “OFF”, this process ends.

設定が「ON」であれば、未処理の顔データがなくなるまで、以下のループ処理を繰り返して実行する(S22)。   If the setting is “ON”, the following loop processing is repeatedly executed until there is no unprocessed face data (S22).

ループ処理ではまず、受信した顔データが複数存在すればその中から顔データを一つ選択する(S23)。その顔データが顔画像データそのものであれば、その顔画像データから顔識別用データ(特徴点データ)を生成する(S24)。その顔データがすでに顔識別用データであれば、この処理は不要である。この顔識別用データを端末内に保存されている顔データ(から得られた顔識別用データ)と比較するマッチング処理を行う(S25)。一致時には、ステップS26へ進む。一致しなければステップS22へ戻る。   In the loop process, first, if there are a plurality of received face data, one face data is selected from them (S23). If the face data is the face image data itself, face identification data (feature point data) is generated from the face image data (S24). If the face data is already face identification data, this process is unnecessary. A matching process is performed for comparing the face identification data with the face data stored in the terminal (the face identification data obtained from the data) (S25). If they match, the process proceeds to step S26. If they do not match, the process returns to step S22.

ステップS26では、図10(b)の返信可否設定画面502で設定された返信可否設定の内容を参照する。この設定で許可された項目についてユーザ識別情報を第1の端末へ返信する(S27)。この際、第2の端末は、少なくとも、複数の顔データを受信した場合には、この返信するユーザ識別情報が受信したどの顔データに対応するものかを示す画像識別データも付加する。そのようなデータとしては、もともと顔データの受信時に各顔データにその画像IDが付加されていればそれを用いることができる。画像IDが付加されていなければ、顔データの受信した順番を示す番号などを画像識別データとして利用することができる。   In step S26, the contents of the reply permission / non-permission setting set on the reply permission / non-permission setting screen 502 in FIG. User identification information is returned to the first terminal for the items permitted by this setting (S27). At this time, if at least a plurality of pieces of face data are received, the second terminal also adds image identification data indicating which received face data corresponds to the returned user identification information. As such data, if the image ID is originally added to each face data when the face data is received, it can be used. If no image ID is added, a number indicating the order in which the face data is received can be used as the image identification data.

以上、本実施の形態によれば、次のような効果が得られる。
(1) 携帯端末に所持者自身のデータ(顔データおよびユーザ識別情報)を保持すれば足り、他者のデータを持つ必要がない。したがって、その更新を行う必要もない。
(2) あらかじめ顔識別を行う相手の顔データおよびユーザ識別情報を持つ必要がないので、 初対面の相手でも顔識別が可能となる。
(3) 顔識別を行いたいユーザ(第1の端末)は顔検出(Face Detection)処理だけを行えばよい。
(4) 顔識別処理を周囲の端末に任せるために高速に顔識別を行うことが可能となる。
As described above, according to the present embodiment, the following effects can be obtained.
(1) It is sufficient to hold the owner's own data (face data and user identification information) on the portable terminal, and it is not necessary to have other person's data. Therefore, it is not necessary to perform the update.
(2) Since it is not necessary to have the face data and user identification information of the other party to perform face identification in advance, the first face-to-face partner can be identified.
(3) The user who wants to perform face identification (first terminal) need only perform face detection processing.
(4) Since face identification processing is left to surrounding terminals, face identification can be performed at high speed.

本発明は、現存する技術の組み合わせで実現することができる。また、顔識別だけでなく、拡張現実(AR:augmented reality)を実現するための技術として非常に有用であると考えられる。拡張現実は、仮想現実と対を成す概念であり、現実の環境に付加情報として仮想的な物体を電子情報として合成提示することをいう。ユーザの頭部に装着する表示装置(HMD:Head Mount Display)が実用的になった際には、カメラ装置と連動することにより、カメラ画像から一度認識した顔(個人)をトラッキングし続けることで比較的計算量が少なくARを実現することが可能となる。   The present invention can be realized by a combination of existing technologies. Further, it is considered to be very useful as a technique for realizing augmented reality (AR) as well as face identification. Augmented reality is a concept that is paired with virtual reality, and refers to the composite presentation of virtual objects as additional information in the real environment as electronic information. When a display device (HMD: Head Mount Display) worn on the user's head becomes practical, it keeps track of the face (individual) once recognized from the camera image by linking with the camera device. It is possible to realize AR with a relatively small amount of calculation.

以上、本発明の好適な実施の形態について説明したが、上記で言及した以外にも種々の変形、変更を行うことが可能である。例えば、本発明の携帯端末はカメラ付の携帯電話端末を例として説明したが、本発明は通信機能付きのデジタルカメラ等、他の装置にも適用可能である。   The preferred embodiments of the present invention have been described above, but various modifications and changes other than those mentioned above can be made. For example, although the mobile terminal of the present invention has been described by taking a mobile phone terminal with a camera as an example, the present invention can also be applied to other devices such as a digital camera with a communication function.

44,45,45’,46,49,49’…顔画像、100,100a〜100g…携帯端末、101…制御部、102…通信部、103…アンテナ、104…表示部、105…操作部、106…記憶部、108…音声処理部、109…スピーカ、110…マイク、111…撮像制御部、112…カメラ、113…近距離無線通信部、114…アンテナ、115…時計部、117…バス、501…ユーザ識別情報問合せ設定画面、502…返信可否設定画面 44, 45, 45 ', 46, 49, 49' ... face image, 100, 100a to 100g ... portable terminal, 101 ... control unit, 102 ... communication unit, 103 ... antenna, 104 ... display unit, 105 ... operation unit, DESCRIPTION OF SYMBOLS 106 ... Memory | storage part, 108 ... Audio | voice processing part, 109 ... Speaker, 110 ... Microphone, 111 ... Imaging control part, 112 ... Camera, 113 ... Near field communication part, 114 ... Antenna, 115 ... Clock part, 117 ... Bus, 501 ... User identification information inquiry setting screen, 502 ... Reply availability setting screen

Claims (7)

撮影により得られた画像中に存在する顔を検出する顔検出手段と、
前記顔の画像データに対応する顔データを周囲の携帯端末へ近距離無線通信により送信する送信手段と、
前記送信した顔データに該当する顔画像を保存している携帯端末から当該ユーザのユーザ識別情報を近距離無線通信により受信する受信手段と、
受信したユーザ識別情報を当該顔画像に対応づけて表示画面上に表示画面上に表示および/または記憶部に記憶部に記憶する処理手段と
を備えた携帯端末。
Face detection means for detecting a face present in an image obtained by photographing;
Transmitting means for transmitting face data corresponding to the image data of the face to surrounding mobile terminals by short-range wireless communication;
Receiving means for receiving user identification information of the user by short-range wireless communication from a mobile terminal storing a face image corresponding to the transmitted face data;
A mobile terminal comprising: processing means for displaying received user identification information on the display screen in association with the face image and / or storing the received user identification information in the storage unit in the storage unit.
前記顔データは前記画像中の顔領域内の画像データである請求項1に記載の携帯端末。   The mobile terminal according to claim 1, wherein the face data is image data in a face area in the image. 前記顔データは前記画像中の顔領域内の顔画像から得られた顔識別用データである請求項1に記載の携帯端末。   The mobile terminal according to claim 1, wherein the face data is face identification data obtained from a face image in a face area in the image. 前記ユーザ識別情報はテキストデータまたはテキストを展開した画像データである請求項1に記載の携帯端末。 The mobile terminal according to claim 1, wherein the user identification information is text data or image data obtained by developing text. 顔データを他の携帯端末から受信する受信手段と、
複数の項目のデータを含む自端末のユーザのユーザ識別情報を保存する保存手段と、
前記顔データの送信を受けたとき、受信した前記顔データの顔画像と自端末のユーザの顔画像とが一致するか否かを確認する顔一致検出手段と、
前記顔画像の一致時に、前記許可された項目のデータのみを当該他の携帯端末へ返信する送信手段と
を備えた携帯端末。
Receiving means for receiving face data from another mobile terminal;
Storage means for storing user identification information of a user of the terminal including data of a plurality of items;
Face coincidence detecting means for confirming whether or not the face image of the received face data matches the face image of the user of the terminal when receiving the transmission of the face data;
A mobile terminal comprising: a transmission unit that returns only the data of the permitted item to the other mobile terminal when the face images match.
前記顔データの送信を受けたとき、各項目毎に返信を許可するか否かを予め定める返信可否設定手段を有し、前記送信手段は前記顔画像の一致時に、前記許可された項目のデータのみを当該他の携帯端末へ返信する
請求項5に記載の携帯端末。
When the transmission of the face data is received, it has a reply permission setting unit that determines in advance whether or not to permit a reply for each item, and the transmission unit stores the data of the permitted item when the face images match. The mobile terminal according to claim 5, wherein only the mobile terminal is returned to the other mobile terminal.
第1の携帯端末と第2の携帯端末による顔識別システムであって、
第1の携帯端末は、
撮影により得られた画像中に存在する顔を検出する顔検出手段と、
前記顔の画像データに対応する顔データを周囲に存在する第2の携帯端末へ近距離無線通信により送信する送信手段と、
前記送信した顔データに該当する顔画像を保存している携帯端末から当該ユーザのユーザ識別情報を近距離無線通信により受信する受信手段と、
受信したユーザ識別情報を当該顔画像に対応づけて表示画面上に表示および/または記憶部に記憶する処理手段とを備え、
第2の携帯端末は、
第1の携帯端末から前記顔データを受信する受信手段と、
複数の項目のデータを含む自端末のユーザのユーザ識別情報を保存する保存手段と、
前記顔データの送信を受けたとき、受信した前記顔データの顔画像と自端末のユーザの顔画像とが一致するか否かを確認する顔一致検出手段と、
前記顔画像の一致時に、前記許可された項目のデータのみを第1の携帯端末へ返信する送信手段とを備える
顔識別システム。
A face identification system using a first portable terminal and a second portable terminal,
The first mobile terminal
Face detection means for detecting a face present in an image obtained by photographing;
Transmitting means for transmitting face data corresponding to the image data of the face to a second portable terminal existing in the vicinity by near field communication;
Receiving means for receiving user identification information of the user by short-range wireless communication from a mobile terminal storing a face image corresponding to the transmitted face data;
Processing means for displaying the received user identification information on the display screen in association with the face image and / or storing it in the storage unit,
The second mobile terminal
Receiving means for receiving the face data from the first portable terminal;
Storage means for storing user identification information of a user of the terminal including data of a plurality of items;
Face coincidence detecting means for confirming whether or not the face image of the received face data matches the face image of the user of the terminal when receiving the transmission of the face data;
Transmitting means for returning only the data of the permitted item to the first mobile terminal when the face images match, a face identification system.
JP2009131069A 2009-05-29 2009-05-29 Portable terminal and facial identification system Withdrawn JP2010277441A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009131069A JP2010277441A (en) 2009-05-29 2009-05-29 Portable terminal and facial identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009131069A JP2010277441A (en) 2009-05-29 2009-05-29 Portable terminal and facial identification system

Publications (1)

Publication Number Publication Date
JP2010277441A true JP2010277441A (en) 2010-12-09

Family

ID=43424325

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009131069A Withdrawn JP2010277441A (en) 2009-05-29 2009-05-29 Portable terminal and facial identification system

Country Status (1)

Country Link
JP (1) JP2010277441A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013161400A (en) * 2012-02-08 2013-08-19 Nec Casio Mobile Communications Ltd Mobile terminal, photographed image disclosure method, and program
CN105162972A (en) * 2011-07-05 2015-12-16 宏达国际电子股份有限公司 Wireless service providing method
CN108763498A (en) * 2018-05-30 2018-11-06 北京五八信息技术有限公司 Method for identifying ID, device, electronic equipment and readable storage medium storing program for executing

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105162972A (en) * 2011-07-05 2015-12-16 宏达国际电子股份有限公司 Wireless service providing method
CN105162972B (en) * 2011-07-05 2018-07-06 宏达国际电子股份有限公司 Wireless service provider method
JP2013161400A (en) * 2012-02-08 2013-08-19 Nec Casio Mobile Communications Ltd Mobile terminal, photographed image disclosure method, and program
CN108763498A (en) * 2018-05-30 2018-11-06 北京五八信息技术有限公司 Method for identifying ID, device, electronic equipment and readable storage medium storing program for executing
CN108763498B (en) * 2018-05-30 2021-01-26 北京五八信息技术有限公司 User identity identification method and device, electronic equipment and readable storage medium

Similar Documents

Publication Publication Date Title
US11348480B2 (en) Augmented reality panorama systems and methods
CN104838642A (en) Method and apparatus for tagging media with identity of creator or scene
CN111182145A (en) Display method and related product
JP2007102575A (en) Photography system
CN111835531B (en) Session processing method, device, computer equipment and storage medium
JP2011040865A (en) Communication terminal, and program
JP2013502662A (en) Object information providing method and photographing apparatus to which the object information is applied
JP2012247841A (en) Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
JP2012247840A (en) Neighboring person specifying apparatus, neighboring person specifying method, neighboring person specifying program, and neighboring person specifying system
JP2010277441A (en) Portable terminal and facial identification system
JP2007249633A (en) Portable terminal and presence confirmation notifying method
US20090055478A1 (en) Communication terminal and communication program thereof
US10630894B2 (en) Notification system, wearable device, information processing apparatus, control method thereof, and computer-readable storage medium
US10165019B2 (en) Shared experience information construction system
JP2021125789A (en) Image processing device, image processing system, image processing method, and computer program
KR20120080379A (en) Method and apparatus of annotating in a digital camera
JP2005123940A (en) Device, system, method and program for providing information
JP2014153829A (en) Image processing device, image processing system, image processing method and program
JP5977697B2 (en) Electronic device and method for controlling electronic device
CN109660450B (en) Automatic message reply method, device, terminal, server and storage medium
CN110673745B (en) Information processing method, first electronic equipment and computer readable storage medium
JP2016143152A (en) Photographic device, information processing device, terminal device, search support system, photography control method, photography control program, information processing method, and program
WO2020230322A1 (en) Image processing device and image processing method
JP5473034B2 (en) Terminal device and program
JP5218987B2 (en) Terminal device and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120807