JP4427714B2 - Image recognition apparatus, image recognition processing method, and image recognition program - Google Patents

Image recognition apparatus, image recognition processing method, and image recognition program Download PDF

Info

Publication number
JP4427714B2
JP4427714B2 JP2003320733A JP2003320733A JP4427714B2 JP 4427714 B2 JP4427714 B2 JP 4427714B2 JP 2003320733 A JP2003320733 A JP 2003320733A JP 2003320733 A JP2003320733 A JP 2003320733A JP 4427714 B2 JP4427714 B2 JP 4427714B2
Authority
JP
Japan
Prior art keywords
image
processing
attribute
closeness
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003320733A
Other languages
Japanese (ja)
Other versions
JP2004127285A (en
Inventor
真智子 瀬川
太 後藤
敏博 渡邉
文武 趙
誠 村田
圭吾 井原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2003320733A priority Critical patent/JP4427714B2/en
Publication of JP2004127285A publication Critical patent/JP2004127285A/en
Application granted granted Critical
Publication of JP4427714B2 publication Critical patent/JP4427714B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

本発明は、例えば、人物や店舗などに掲示されたロゴマークなどを撮像し、その対象画像から個人や法人を特定する画像認識装置、画像認識処理方法および画像認識プログラムに関する。   The present invention relates to an image recognition apparatus, an image recognition processing method, and an image recognition program for capturing, for example, a logo mark posted on a person or a store and identifying an individual or a corporation from the target image.

カメラで撮像した画像中に写る顔が誰の顔であるかを識別して人物同定する顔認識技術は、個人を識別したり認証するセキュリティ分野に用いられる他、例えば犬等の動物を模した外観形状を有するペットロボットのヒューマンインタフェースにも利用されている。   Face recognition technology that identifies a person by identifying who is the face in the image captured by the camera is used in the security field to identify and authenticate an individual, for example, imitating an animal such as a dog It is also used for the human interface of pet robots with external shapes.

ヒューマンインタフェースに使用される顔認識技術としては、例えばサポートベクタマシン(SVM)を用いて撮像画像中から人の顔に相当する濃淡パターンをパターン識別して顔検出し、これにて得られる入力顔画像データと、予めデータベース登録される各人毎の登録顔画像データとの差分値を算出し、その算出結果に基づいて、差分値が最も小さい登録顔画像データに対応付けられた人物を撮像画像中に写る人物と同定する手法が知られており、その詳細については例えば特許文献1に開示されている。   As a face recognition technique used for a human interface, for example, a support vector machine (SVM) is used to detect a face by patterning a shading pattern corresponding to a human face from a captured image, and an input face obtained thereby A difference value between the image data and registered face image data for each person registered in the database in advance is calculated, and a person associated with the registered face image data having the smallest difference value is captured based on the calculation result. A technique for identifying a person appearing inside is known, and details thereof are disclosed in Patent Document 1, for example.

特許公開2002−157596号公報Japanese Patent Publication No. 2002-157596

ところで、上述した従来の顔認識技術では、登録顔画像データを記憶管理するデータベースに予め登録されている参照画像のサンプル数が多くなると、必然的に相似する顔も増えることから誤認識が生じ易くなり認識率低下を招致するという問題がある。   By the way, in the conventional face recognition technology described above, if the number of reference image samples registered in advance in the database for storing and managing registered face image data increases, the number of similar faces inevitably increases, and thus erroneous recognition is likely to occur. There is a problem that invites a decrease in recognition rate.

そこで本発明は、このような事情に鑑みてなされたもので、データベースに登録される参照画像のサンプル数が多い場合でも認識率を向上させることができる画像認識装置、画像認識処理方法および画像認識プログラムを提供することを目的としている。   Therefore, the present invention has been made in view of such circumstances, and an image recognition apparatus, an image recognition processing method, and image recognition that can improve the recognition rate even when the number of reference image samples registered in the database is large. The purpose is to provide a program.

上記目的を達成するため、請求項1に記載の発明は、認識すべき対象画像を撮像する撮像手段と、前記対象画像に対するユーザとの親密度を推定する推定手段と、前記親密度に依存する複数の属性毎に分類され、各属性に分類された参照画像と、各参照画像に各々対応して一意に付与された認識IDとをそれぞれ記憶する複数の属性別画像データベース手段と、前記複数の属性別画像データベース手段の内から、現在、前記推定手段によって推定された親密度に対応した属性別画像データベース手段を選択する選択手段と、前記選択手段によって選択された属性別画像データベース手段に記憶された参照画像を参照して、前記撮像手段によって撮像された対象画像に対応した認識IDを特定する対象特定手段とを具備し、前記推定手段は、前記撮像手段によって撮像される全領域に対する対象画像の占有面積比、または過去において前記対象特定手段によって前記対象画像が特定された回数、または前記占有面積比と前記回数の組み合わせに基づいて、前記対象画像に対するユーザとの親密度を推定することを特徴とする。 In order to achieve the above object, the invention according to claim 1 depends on the familiarity, an imaging means for photographing a target image to be recognized, an estimation means for estimating a familiarity with a user for the target image, and the familiarity. A plurality of attribute-specific image database means for storing a reference image classified into a plurality of attributes, each of which is classified into each attribute, and a recognition ID uniquely assigned to each reference image; A selection means for selecting an attribute-specific image database means corresponding to the familiarity estimated by the estimation means from among the attribute-specific image database means, and an attribute-specific image database means selected by the selection means. reference image with reference to the to and a target specifying means for specifying a recognition ID corresponding to the target image captured by the imaging means, said estimating means, before The target image based on the occupation area ratio of the target image with respect to the entire region imaged by the imaging unit, the number of times the target image is specified by the target specifying unit in the past, or the combination of the occupation area ratio and the number of times The intimacy with the user is estimated .

請求項に記載の発明は、請求項に加えて、現在の日時を計数する日時計数手段をさらに備え、前記属性別画像データベース手段は、前記対象画像に対するユーザとの親密度と、前記撮像手段によって撮像される時刻に依存する属性に分類され、前記選択手段は、前記推定手段によって推定された親密度と、前記日時計数手段によって計数された現在日時に基づいて、前記複数の属性別画像データベース手段の内から、現在、前記撮像手段によって撮像された対象画像に対するユーザとの親密度と、現在の日時に対応した属性別画像データベース手段を選択することを特徴とする。 Invention according to claim 2, in addition to claim 1, further comprising a sundial number means for counting the current time, the attribute-based image database means includes a degree of intimacy with the user with respect to the target image, the The selection unit is categorized into attributes depending on the time taken by the imaging unit, and the selection unit is configured to select the plurality based on the familiarity estimated by the estimation unit and the current date and time counted by the date and time counting unit. The attribute-specific image database means corresponding to the user's intimacy with the target image currently captured by the imaging means and the current date and time is selected from the attribute-specific image database means .

請求項に記載の発明は、請求項に加えて、現在の位置を測位する測位手段をさらに備え、前記属性別画像データベース手段は、前記対象画像に対するユーザとの親密度と、前記撮像手段によって撮像される位置に依存する属性によって分類され、前記選択手段は、前記推定手段によって推定された親密度と、前記測位手段によって測位された現在の位置に基づいて、前記複数の属性別画像データベース手段の内から、現在、前記撮像手段によって撮像された対象画像に対するユーザとの親密度と、現在の位置に対応した属性別画像データベース手段を選択することを特徴とする。 Invention of claim 3, in addition to claim 1, further comprising a positioning means for positioning a current position, the attribute-based image database means includes a degree of intimacy with the user with respect to the target image, the image pickup means are classified by attributes that depend on the position to be imaged by said selection means, said a parent density estimated by the estimating means, on the basis of the positioning has been in the current position by the positioning means, by said plurality of attributes An attribute-specific image database means corresponding to the user's intimacy with the target image currently captured by the imaging means and the current position is selected from the image database means .

請求項に記載の発明は、請求項に加えて、現在の日時を計数する日時計数手段と、現在の位置を測位する測位手段とをさらに備え、前記属性別画像データベース手段は、前記対象画像に対するユーザとの親密度と、前記撮像手段によって撮像される時刻、および位置に依存する属性によって分類され、前記選択手段は、前記推定手段によって推定された親密度と、前記日時計数手段によって計数された現在日時、および前記測位手段によって測位された現在の位置とに基づいて、前記複数の属性別画像データベース手段の内から、現在、前記撮像手段によって撮像された対象画像に対するユーザとの親密度と、現在の日時、および現在の位置に対応した属性別画像データベース手段を選択することを特徴とする。 Invention of claim 4, in addition to claim 1, a sundial number means for counting the current time and date, further comprising a positioning means for positioning a current position, the attribute-based image database means, wherein and closeness of the user with respect to the target image, the time to be captured by the imaging unit, and is classified by the attributes depending on the position, the selection means includes a closeness estimated by said estimating means, said sundial number Based on the current date and time counted by the means and the current position measured by the positioning means, the user for the target image currently picked up by the image pickup means is selected from the plurality of attribute-specific image database means. The attribute-specific image database means corresponding to the intimacy, the current date and time, and the current position is selected .

請求項及びに記載の発明は、認識すべき対象画像を撮像する撮像ステップと、前記対象画像に対するユーザとの親密度を推定する推定ステップと、前記親密度に依存する複数の属性毎に分類され、各属性に分類された参照画像と、各参照画像に各々対応して一意に付与された認識IDとをそれぞれ記憶する複数の属性別画像データベースの内から現在、前記推定ステップの処理によって推定されたユーザとの親密度に対応した属性別画像データベースを選択する選択処理ステップと、前記選択処理ステップの処理によって選択された属性別画像データベースに記憶された参照画像を参照して、前記撮像ステップの処理で撮像された対象画像に対応した認識IDを特定する対象特定処理ステップとを具備し、前記推定ステップの処理は、前記撮像ステップの処理によって撮像される全領域に対する対象画像の占有面積比、または過去において前記対象特定ステップの処理によって前記対象画像が特定された回数、または前記占有面積比と前記回数の組み合わせに基づいて、前記対象画像に対するユーザとの親密度を推定することを特徴とする。 The invention according to claims 5 and 9 includes an imaging step of capturing a target image to be recognized, an estimation step of estimating a closeness of the user with respect to the target image, and a plurality of attributes depending on the closeness. are categorized, and the reference images classified into each attribute, each corresponding uniquely granted recognition ID and from the plurality of demographic image database for storing the respective reference images, now, the process of the estimating step A selection process step of selecting an attribute-specific image database corresponding to the intimacy with the user estimated by the above, and referring to a reference image stored in the attribute-specific image database selected by the process of the selection process step, ; and a target specifying process step of identifying the recognition ID corresponding to the target image captured by the process of the imaging step, the process of the estimation step, Based on the occupation area ratio of the target image with respect to the entire region imaged by the processing of the imaging step, the number of times the target image has been identified in the past by the processing of the target identification step, or a combination of the occupation area ratio and the number of times Then, the closeness with the user for the target image is estimated .

請求項及び10に記載の発明は、請求項及びに加えて、現在の日時を計数する日時計数処理ステップをさらに備え、前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される時刻に依存する属性に分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記日時計数処理ステップの処理によって計数された現在日時に基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対するユーザとの親密度と、現在の日時に対応した属性別画像データベースを選択することを特徴とする。 In addition to the fifth and ninth aspects, the invention described in claims 6 and 10 further includes a date and time counting processing step for counting the current date and time, and the attribute-specific image database is a parent to the user for the target image. and density, are classified to the attributes that depend on the time taken by the processing of the image pickup step, said processing of the selected process step, the parent density estimated by the processing of the estimation processing step, the sundial number of processing steps based on the current date and time counted by the processing, from among the plurality of attribute-based image database, now the closeness of the user with respect to the captured target image by the processing of the imaging step, on the current date and time A corresponding attribute-specific image database is selected .

請求項及び11に記載の発明は、請求項及びに加えて、現在の位置を測位する測位処理ステップをさらに備え、前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される位置に依存する属性によって分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記測位処理ステップの処理によって測位された現在の位置に基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対する親密度と、現在の位置に対応した属性別画像データベースを選択することを特徴とする。 In addition to the fifth and ninth aspects, the invention according to the seventh and eleventh aspects further includes a positioning processing step for positioning a current position, and the attribute-specific image database includes a closeness with the user for the target image. are classified by attribute that depends on the position taken by the processing of the image pickup step, said processing of the selected process step, the parent density estimated by the processing of the estimation process step, positioning the processing of the positioning processing step based on the has been the current position, from the plurality of demographic image database, now and familiarity for the captured target image by the processing of the image pickup step, the attribute-based image database corresponding to the current position It is characterized by selecting .

請求項及び12に記載の発明は、請求項及びに加えて、現在の日時を計数する日時計数処理ステップと、現在の位置を測位する測位処理ステップとをさらに備え、前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される時刻、および位置に依存する属性によって分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記日時計数処理ステップの処理によって計数された現在日時、および前記測位処理ステップによって測位された現在の位置とに基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対する親密度と、現在の日時、および現在の位置に対応した属性別画像データベースを選択することを特徴とする。 In addition to claims 5 and 9 , the invention described in claims 8 and 12 further comprises a date and time counting processing step for counting the current date and time, and a positioning processing step for positioning the current position, and each attribute is classified. image database, and closeness to the user with respect to the target image, the time taken by the processing of the image pickup step, and is classified by the attributes depending on the position, the processing of the selected processing steps of the estimation process step Based on the familiarity estimated by the process , the current date and time counted by the process of the date and time counting process step , and the current position measured by the positioning process step, the plurality of attribute-specific image databases from now, the closeness to the target image captured by the process of the imaging step, and the current date, and the current position And selects the corresponding attribute-based image database.

本発明によれば、例えば、人物や店舗などに掲示されたロゴマークなどを撮像し、その対象画像から個人や法人等を特定する際に、認識が行われる日時や場所、対象画像に対する親密度などの、その場の状況に対応した属性の画像データベースが自動的に選択され、選択された属性の画像データベースに記憶された参照画像を参照して、撮像された画像から個人や法人等を特定するようにしたので、画像データベースに登録される参照画像の総数が増加しても、属性別に画像データベースの細分化が図られ、1つの属性に対応する画像データベースに登録される参照画像の個数を少なく抑えることができ、しかも認識が行われる日時や場所や親密度などの状況に対応して、最適な属性の画像データベースが自動的に選択されるので、ユーザが意図的に選択操作を行わなくても、参照画像の個数が絞り込まれると共に、状況という付加的な情報によって参照画像が絞り込まれるので、認識率の向上を図ることができる。   According to the present invention, for example, when a logo mark or the like posted on a person or a store is imaged and an individual or a corporation is identified from the target image, the date and place where the recognition is performed, the familiarity with the target image An image database with an attribute corresponding to the situation at the moment is automatically selected, and a reference image stored in the image database with the selected attribute is referenced to identify an individual or a corporation from the captured image. As a result, even if the total number of reference images registered in the image database increases, the image database is segmented by attribute, and the number of reference images registered in the image database corresponding to one attribute is determined. The image database with the most appropriate attributes is automatically selected according to the situation such as date, place, familiarity, etc. Without diagrammatically perform selection operation, with the number of the reference image is narrowed, since the reference image is narrowed by the additional information that situation, it is possible to improve the recognition rate.

以下、図面を参照して本発明の実施の一形態について説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

(1)概要
図1(a)は、本発明の実施の一形態である縫い包み100の外観を示す外観図である。縫い包み100は、ネコを模したキャラクタ人形であり、その内部には顔認識装置20(後述する)が内蔵される。顔認識装置20は、縫い包み100がユーザの肩に乗せられた状態(同図(b)参照)で「肩乗せモード」として動作し、一方、同図(c)に示すように、ユーザの膝あるいは机の上に乗せられた状態で「膝乗せモード」として動作する。これらのモードは、後述するモード切替スイッチ9によって自動的に切り替えられる。
(1) Outline FIG. 1A is an external view showing an external appearance of a sewing packet 100 according to an embodiment of the present invention. The stitch wrap 100 is a character doll that imitates a cat, and a face recognition device 20 (described later) is built therein. The face recognition device 20 operates as a “shouldering mode” in a state in which the stitching 100 is placed on the user's shoulder (see FIG. 5B), while the user's face recognition device 20 operates as shown in FIG. It operates as “knee-mounting mode” while it is placed on the knee or desk. These modes are automatically switched by a mode switch 9 described later.

「肩乗せモード」では撮像した画像中に写る顔が誰の顔であるかを識別して人物同定し、その人物の名前をユーザにネコ語(鳴き声)で教えたり、撮像した画像中に写る顔を新たにデータベース登録したり、撮像した画像を、後述するアルバム閲覧処理で表示される画像として順次記録する処理を実行する。   In “shoulder-mounting mode”, the person in the captured image is identified by identifying who the face is, and the name of the person is taught to the user in a cat (scream) or captured in the captured image. Processing for newly registering a face in the database and sequentially recording captured images as images to be displayed in an album browsing process described later is executed.

一方、「膝乗せモード」では図1(c)に図示するように、縫い包み100の尻尾部分に設けられたビデオ出力ポート10(後述する)に、外部モニタMのケーブルCAを接続し、上記「肩乗せモード」下で撮像した一連の顔画像を外部モニタMにおいてアルバムとして閲覧させる処理を実行する。これら各モードの処理動作については追って詳述する。   On the other hand, in the “knee-mounting mode”, as shown in FIG. 1C, the cable CA of the external monitor M is connected to the video output port 10 (described later) provided in the tail portion of the sewing wrap 100. A process of browsing a series of face images taken under the “shouldering mode” as an album on the external monitor M is executed. The processing operation in each mode will be described in detail later.

(2)顔認識装置20の構成
次に、図2を参照して顔認識装置20の構成について説明する。図2において、CPU1はROM2に格納される制御プログラム(BIOS)を実行して装置各部の入出力インタフェースを確立させた後、HDD4(ハードディスク装置)に格納されるOSプログラムをRAM3にロードして起動させる。OS(オペレーティングシステム)プログラム起動後、CPU1はユーザ操作によって実行指示されるアプリケーションプログラムをHDD4から読み出してRAM3にロードして実行する。
(2) Configuration of Face Recognition Device 20 Next, the configuration of the face recognition device 20 will be described with reference to FIG. In FIG. 2, the CPU 1 executes a control program (BIOS) stored in the ROM 2 to establish an input / output interface for each part of the device, and then loads an OS program stored in the HDD 4 (hard disk device) into the RAM 3 and starts it. Let After the OS (operating system) program is started, the CPU 1 reads an application program instructed to be executed by a user operation from the HDD 4, loads it into the RAM 3, and executes it.

なお、ここで言うアプリケーションプログラムは、後述する「データベース選択処理」、「人物登録処理」および「名前お知らせ処理」などから構成されるメインルーチンを含んで構成されている。   The application program referred to here includes a main routine including “database selection processing”, “person registration processing”, “name notification processing”, and the like, which will be described later.

RAM3は、各種プログラムデータを格納するプログラムエリア、CPU1の演算結果を一時記憶するワークエリアおよびCCDカメラ7によって撮像される画像を一時記憶する画像データエリアを備える。HDD4は、各種プログラムを記憶すると共に、各種データベース、テーブルデータおよび音声ファイルを記憶する。   The RAM 3 includes a program area for storing various program data, a work area for temporarily storing the calculation result of the CPU 1, and an image data area for temporarily storing an image captured by the CCD camera 7. The HDD 4 stores various programs and various databases, table data, and audio files.

HDD4に記憶される各種データベースとは、顔認識時に参照される複数の画像データベースIDBおよび親密度データベースFDBを指す。複数の画像データベースIDBとは、顔認識が行われる状況に対応した複数の属性毎に設けられ、各属性に含まれる人物の参照顔画像をそれぞれ記憶するデータベースである。   The various databases stored in the HDD 4 indicate a plurality of image database IDBs and closeness databases FDB that are referred to during face recognition. The plurality of image database IDBs are databases that are provided for each of a plurality of attributes corresponding to a situation where face recognition is performed, and store a reference face image of a person included in each attribute.

具体的には、例えば図3に図示する一例のように、ユーザが勤務する会社に属する人物(上司や同僚、部下など)の参照顔画像を登録した画像データベースIDB1や、友人・知人の参照顔画像を登録した画像データベースIDB2等、ユーザの公私にわたる人間関係を属性別に分けて人物の参照顔画像を登録したデータベースである。   Specifically, as in the example illustrated in FIG. 3, for example, an image database IDB1 in which reference face images of persons belonging to a company where the user works (such as a boss, a colleague, and a subordinate) are registered, or reference faces of friends / acquaintances This is a database in which a person's public / private human relationship is classified by attribute and registered as a reference face image of a person, such as an image database IDB2 in which images are registered.

これら画像データベースIDBは、後述するように、顔認識が行われる状況に応じて自動的に選択される。各画像データベースIDBは、少なくとも認識IDと、それに対応付けられた人物の参照顔画像データとから構成されるレコードを複数記憶管理する。認識率の低下を避けるため、1つの画像データベース当り10人程度の参照顔画像データを登録することが好ましい。   These image database IDBs are automatically selected according to the situation where face recognition is performed, as will be described later. Each image database IDB stores and manages a plurality of records including at least a recognition ID and a reference face image data of a person associated therewith. In order to avoid a decrease in the recognition rate, it is preferable to register reference face image data of about 10 people per image database.

親密度データベースFDBとは、各画像データベースIDBと連係するリレーショナルデータベースであって、各画像データベースIDBに登録された人物の認識ID毎の親密度、後述するCCDカメラ7によって撮像される全領域に対する対象画像の占有面積比、および過去において同じ対象画像として特定された認識回数を記憶管理するものであり、その一例を図4に示す。   The intimacy database FDB is a relational database linked to each image database IDB, and the intimacy for each person's recognition ID registered in each image database IDB, the target for all areas imaged by the CCD camera 7 described later The occupation area ratio of the image and the number of times of recognition identified as the same target image in the past are stored and managed, and an example is shown in FIG.

ここで言う親密度とは、顔認識された人物の顔領域の大きさおよび認識回数に応じて定まる値である。例えば、図11(a)に示す様に認識した顔領域A1が大きく、かつ同一人物として認識した回数も多ければ、ユーザと親密な関係にあるとして親密度が高く、これに対し、例えば図11(b)に示す様に顔領域A2が小さく、かつ同一人物として認識した回数も少なければ、ユーザとあまり親密な関係でないとして親密度が低くなるよう定義されている。   The familiarity referred to here is a value determined according to the size of the face area of the person whose face is recognized and the number of times of recognition. For example, as shown in FIG. 11 (a), if the recognized face area A1 is large and the number of times of recognition as the same person is large, the closeness is high because it is intimately related to the user. As shown in (b), if the face area A2 is small and the number of times of recognition as the same person is small, it is defined that the intimacy is low because it is not so close to the user.

ここで、顔認識装置20で定義された親密度について、より具体的に説明する。図11(a)に示す顔領域A1とは、後述する輝度パターンによって顔を検出する際に算出される領域で、個人を特定するために必要な顔面の内の眼、鼻、口をほぼ内包する矩形領域を意味する。そして、顔領域A1が大きいとは、撮像される全領域に対する顔領域A1(対象画像)が占める割合、すなわち占有面積比が大であることを意味し、この場合、対象となる人物との距離が近く、親密度がより高いものとの推定が成り立つ。   Here, the familiarity defined by the face recognition device 20 will be described more specifically. The face area A1 shown in FIG. 11A is an area calculated when a face is detected based on a luminance pattern described later, and substantially includes eyes, nose, and mouth in the face necessary for specifying an individual. Means a rectangular area. The large face area A1 means that the ratio of the face area A1 (target image) to the entire imaged area, that is, the occupied area ratio is large. In this case, the distance from the target person Is close, and it is estimated that the intimacy is higher.

一方、図11(b)に示す様に顔領域A2が小さいとは、撮像される全領域に対する顔領域A2(対象画像)が占める割合、すなわち占有面積比が小であることを意味し、この場合、対象となる人物との距離が遠く、親密度がより低いものとの推定が成り立つ。   On the other hand, as shown in FIG. 11B, the small face area A2 means that the ratio of the face area A2 (target image) to the entire imaged area, that is, the occupied area ratio is small. In this case, it is estimated that the distance to the target person is far and the intimacy is lower.

以上の推定に基づき、親密度Rは、例えば、以下の算出式(1)に基づいて算出される。
R=a×(N/Nmax)+(1−a)×(N/Nfull)‥‥‥(1)
Based on the above estimation, the familiarity R is calculated based on the following calculation formula (1), for example.
R = a × (N / Nmax) + (1−a) × (N / Nfull) (1)

ここで、aは0.0から1.0の範囲内で任意に設定される重み付け定数、Nは現在認識している顔領域A1に関して過去同一人物として認識した認識回数、Nmaxは親密度データベースFDBに蓄積された認識回数の内の最大値(図4に示す例では、10回)、Nは現在認識している顔領域A1の面積、Nfullは撮像される全領域の面積である。上述した、算出式(1)によって、図4に示す親密度Rが算出され、新たな親密度Rが算出される度に、親密度データベースFDBが更新される。なお、顔領域A1としては、顔面の内の眼、鼻、口をほぼ内包する矩形領域ではなく、顔面が内接する矩形領域の面積等、対象となる人物との距離に応じて変化するパラメータを利用しても勿論構わない。   Here, a is a weighting constant arbitrarily set within the range of 0.0 to 1.0, N is the number of recognitions recognized as the same person in the past with respect to the currently recognized face area A1, and Nmax is stored in the familiarity database FDB. The maximum number of times of recognition (in the example shown in FIG. 4, 10 times), N is the area of the currently recognized face area A1, and Nfull is the area of the entire area to be imaged. The intimacy R shown in FIG. 4 is calculated by the calculation formula (1) described above, and the intimacy database FDB is updated each time a new intimacy R is calculated. Note that the face area A1 is not a rectangular area that substantially includes the eyes, nose, and mouth in the face, but parameters that change according to the distance from the target person, such as the area of the rectangular area that the face inscribes. Of course, you can use it.

HDD4に記憶されるテーブルデータとは、データベース選択テーブルDSTおよび名前お知らせテーブルNITを指す。データベース選択テーブルDSTは、現在日時およびユーザの現在位置に応じて、上述した複数の画像データベースIDBのいずれを選択するかを指定するテーブルデータである。   The table data stored in the HDD 4 refers to the database selection table DST and the name notification table NIT. The database selection table DST is table data that specifies which of the plurality of image database IDBs described above is selected according to the current date and time and the current position of the user.

このデータベース選択テーブルDSTでは、現在の日時および現在位置に対応させてユーザが任意に指定値を登録することが可能になっており、例えば日時が平日の日中で、現在位置が会社である場合には上述の画像データベースIDB1を選択する指定値を登録し、日時が土曜日または日曜日で、現在位置を特定しない場合には上述の画像データベースIDB2を選択する指定値を登録する。   In this database selection table DST, the user can arbitrarily register a specified value in correspondence with the current date and time and the current position. For example, when the date and time is a weekday day and the current position is a company Is registered with a designated value for selecting the above-mentioned image database IDB1, and when the date and time is Saturday or Sunday and the current position is not specified, the designated value for selecting the above-mentioned image database IDB2 is registered.

名前お知らせテーブルNITとは、顔認識にて同定された人物の認識IDと、音声ファイルとを対応付けたテーブルデータであり、同定された人物の認識IDに対応する音声ファイルを選択する際に用いられる。   The name notification table NIT is table data in which a recognition ID of a person identified by face recognition is associated with an audio file, and is used when selecting an audio file corresponding to the identified ID of the person. It is done.

サウンドシステム5は、CPU1が再生指示する音声ファイルからPCM波形データを読み出し、それをD/A変換して音声出力する。マウス6は、ユーザ操作に応じたポインティング信号やスイッチイベントを発生するものであり、縫い包み100(図1参照)の右手部分RHに設けられる。CCDカメラ7は、縫い包み100の左目部分LEに設けられ、CPU1の制御の下に撮像して画像データを発生する。位置検出部8は、CPU1の制御の下にGPS(Global Positioning System)信号を受信して現在位置を測位し、測位結果位置データをとして発生する。   The sound system 5 reads PCM waveform data from the audio file that the CPU 1 instructs to reproduce, D / A converts it, and outputs the audio. The mouse 6 generates a pointing signal or a switch event corresponding to a user operation, and is provided in the right hand portion RH of the sewing package 100 (see FIG. 1). The CCD camera 7 is provided in the left eye part LE of the stitching 100 and takes an image under the control of the CPU 1 to generate image data. The position detection unit 8 receives a GPS (Global Positioning System) signal under the control of the CPU 1, measures the current position, and generates position result position data.

モード切替スイッチ9は、縫い包み100の腰部に設けられ、腰の曲げ伸ばしに応じたモード切替イベントを発生する。すなわち、図1(b)に図示するように、縫い包み100がユーザの肩に乗せられた場合には「肩乗せモード」を表すスイッチイベントを発生し、同図(c)に示すように、ユーザの膝あるいは机の上に乗せられた場合には「膝乗せモード」を表すスイッチイベントを発生する。ビデオ出力ポート(VGAコネクタ)10は、縫い包み100の尻尾に設けられ、表示制御信号を出力する。   The mode changeover switch 9 is provided at the waist of the sewn wrap 100, and generates a mode changeover event corresponding to the bending and stretching of the waist. That is, as shown in FIG. 1B, when the stitching 100 is placed on the shoulder of the user, a switch event indicating “shouldering mode” is generated, and as shown in FIG. When it is placed on the user's knee or desk, a switch event indicating the “knee-mounting mode” is generated. A video output port (VGA connector) 10 is provided at the tail of the stitching 100 and outputs a display control signal.

なお、マウス6、CCDカメラ7、モード切替スイッチ9およびビデオ出力ポート9以外の構成要件は装置本体として縫い包み100の胴体部分に内蔵されるようになっている。   The constituent elements other than the mouse 6, the CCD camera 7, the mode switch 9 and the video output port 9 are built in the body portion of the sewn wrap 100 as the apparatus body.

(3)顔認識アルゴリズムの詳細
上述した顔認識装置20で使用される顔認識アルゴリズムの詳細については、本出願人が先に提案した特許文献1(特許公開2002−157596号公報(対応米国特許公開2003/0059092号公報))に開示されている。
(3) Details of Face Recognition Algorithm Details of the face recognition algorithm used in the above-described face recognition device 20 are disclosed in Patent Document 1 (Patent Publication 2002-157596 (patent publication No. 2002-157596) previously proposed by the present applicant). 2003/0059092)).

すなわち、顔認識装置20においては、次の3つの技術により顔認識を実現している。   That is, in the face recognition device 20, face recognition is realized by the following three techniques.

(i)複雑なシーンからの顔の検出
(ii)顔の実時間トラッキング
(iii)顔の識別
(I) Face detection from complex scenes (ii) Real-time tracking of faces (iii) Face identification

顔の検出手法は、対象物の識別に色、動き及びパターンを使うものに大別できるが、複雑なシーンの中から精度良く顔を切り出すためには顔のパターンを使うのが最も高性能である。しかしながら、シーン全体にわたり全てのスケールの顔を探索するのは、非常に処理が重いため、従来より、この手法は静止画に対してしか用いられていない。   Face detection methods can be broadly classified into those that use colors, movements, and patterns to identify objects, but using the face pattern is the most powerful method for accurately extracting faces from complex scenes. is there. However, searching for faces of all scales throughout the scene is very heavy and so far this technique has been used only for still images.

その一方で、実時間で顔を検出するシステムのほとんどは肌色の検出を行っている。しかし、色は照明条件により変化してしまうし、肌色にも人種や個人差があるため、単純な肌色認識のみでは有効な手段となり得ない。   On the other hand, most systems that detect faces in real time detect skin color. However, the color changes depending on the illumination conditions, and the skin color also has races and individual differences. Therefore, simple skin color recognition alone cannot be an effective means.

そこで、検出した顔パターンに含まれる色分布を元に顔の実時間トラッキングを行い、その動的変化に顔検出を適応していく手法を取る。また、推定した色分布から求めた顔領域に対してのみ、顔パターンの探索を行う。これにより、顔検出における演算時間の短縮を図る。   Therefore, a method is adopted in which real-time tracking of the face is performed based on the color distribution included in the detected face pattern, and face detection is adapted to the dynamic change. In addition, the face pattern is searched only for the face area obtained from the estimated color distribution. This shortens the calculation time in face detection.

さらに、顔の識別には、パターン探索により切り出した顔画像を用いて行う。そして、トラッキングに成功している間は同じ顔の識別結果として扱うことで複数の識別結果から総合的な判断を下すことを可能としている。   Furthermore, the face is identified using a face image cut out by pattern search. Then, while tracking is successful, it is possible to make a comprehensive judgment from a plurality of identification results by treating it as the identification result of the same face.

例えば、顔識別のための処理は、(i)複雑なシーンからの顔の検出を、輝度パターンによる顔の検出(顔認識)により行い、(ii)顔の実時間トラッキングを、色による顔の追跡(顔のトラッキング)により行い、そして、(iii)顔の識別を、差分顔を利用した人物識別を行っている。   For example, the processing for face identification is as follows: (i) face detection from a complex scene is performed by face detection (face recognition) using a luminance pattern, and (ii) real-time tracking of a face is performed using face detection by color. Tracking (face tracking) is performed, and (iii) face identification is performed by person identification using a differential face.

例えば、顔認識装置20におけるこのような各処理は、モジュール或いはオブジェクトとして実現される。すなわち、顔認識装置20は、顔の追跡モジュール、顔の検出モジュール及び顔の識別モジュールを備える。ここで、顔の追跡モジュールは、CCDカメラ7に撮像された画像内で変化する顔を追跡する顔追跡手段として機能し、顔の検出モジュールは、顔の追跡モジュールによる顔の追跡情報に基づいて、CCDカメラ7により撮像された画像内の顔の顔データを検出する顔データ検出手段として機能し、顔の識別モジュールは、顔の検出モジュールが検出した顔データに基づいて、特定顔を識別する顔識別手段として機能する。   For example, each process in the face recognition apparatus 20 is realized as a module or an object. That is, the face recognition device 20 includes a face tracking module, a face detection module, and a face identification module. Here, the face tracking module functions as a face tracking unit that tracks a face that changes in an image captured by the CCD camera 7, and the face detection module is based on the face tracking information by the face tracking module. The face identification module functions as face data detection means for detecting face data of a face in the image captured by the CCD camera 7, and the face identification module identifies a specific face based on the face data detected by the face detection module. It functions as a face identification means.

ここで、輝度パターンによる顔の検出では、入力画像中から顔を検出(認識)する処理を行う。具体的には、この顔の検出では、サポートベクタマシン(SVM)による顔、非顔の識別を行う。この処理は、通常、環境変化に強く、計算量が多く、姿勢変化に弱いといった特徴がある。ここで、環境変化としては、例えば、周囲の照明の変化が挙げられる。   Here, in the face detection based on the luminance pattern, processing for detecting (recognizing) the face from the input image is performed. Specifically, in this face detection, a face or non-face is identified by a support vector machine (SVM). This processing is usually characterized by being resistant to environmental changes, requiring a large amount of calculation, and being vulnerable to posture changes. Here, as an environmental change, the change of ambient illumination is mentioned, for example.

また、色による顔の追跡では、入力画像中の顔を追跡する処理を行う。具体的には、この顔の追跡では、顔の色分布の推定、顔領域の推定を行う。この処理は、通常、環境変化に弱く、計算量が少なく、姿勢変化に強いといった特徴がある。   In the face tracking by color, a process for tracking the face in the input image is performed. Specifically, in this face tracking, estimation of the face color distribution and estimation of the face area are performed. This processing is usually characterized by being weak against environmental changes, having a small amount of calculation, and being strong against posture changes.

また、人物識別では、上述の顔の検出により認識された顔を特定の顔として識別する処理を行う。具体的には、この人物識別では、目、鼻の位置同定から位置合わせ(モーフィング)を行い、差分顔から同一人物判定を行う。   In the person identification, the face recognized by the above-described face detection is identified as a specific face. Specifically, in this person identification, positioning (morphing) is performed from the position identification of eyes and nose, and the same person is determined from the difference face.

顔識別のシステムでは、以上のような処理を顔識別における各工程として適宜分担させ、相互に補完しあう関係とすることで、精度を高くした顔検出を可能としている。例えば、次のように各処理が補完しあう関係とされている。   In the face identification system, the processing described above is appropriately shared as each step in face identification, and a mutually complementary relationship is achieved, thereby enabling face detection with high accuracy. For example, each process complements each other as follows.

例えば、色による顔の追跡では環境変化に弱いが、輝度パターンによる顔の検出では環境に強いことを利用することで補完している。逆に、輝度パターンによる顔の検出では計算量が多く、姿勢変化に弱いが、色による顔の追跡が計算量が少なく、姿勢変化に強いことを利用することが補完している。   For example, the tracking of a face by color is weak against environmental changes, but the detection of a face by a luminance pattern is complemented by utilizing the fact that it is strong to the environment. On the other hand, the detection of a face using a luminance pattern requires a large amount of calculation and is vulnerable to changes in posture. However, the use of the fact that tracking of a face by color has a small amount of calculation and is strong against posture change is supplemented.

すなわち、概略すれば次のように言える。もともと計算量が多い処理とされる顔の検出を実時間で行うことは困難である。しかし、所定のタイミングにより一定期間行うとすれば、計算量の負担は軽減される。一方で、各タイミングにおいて入力画像内から顔の位置まで毎回検出したのでは、負担が大きい。   In summary, the following can be said. It is difficult to detect in real time a face that is originally a process with a large amount of calculation. However, if it is performed for a certain period at a predetermined timing, the burden of calculation amount is reduced. On the other hand, if it is detected every time from the input image to the face position at each timing, the burden is large.

そこで、計算量が少なく、姿勢変化に強い処理を利用して、入力画像内の顔の変化を実時間で追跡して、この追跡結果から得られる入力画像内の顔の推定位置についてだけ顔を検出する処理をすることとすれば、顔の位置を特定した状態での顔の検出が可能になる。すなわち、大雑把ではあるが早い処理と、信頼性は高いが遅い処理とを組み合わせて、役割を分担することで、システム全体においては各処理相互間で補完させ、これにより、協調して実時間による顔検出を可能としている。   Therefore, using a process that requires a small amount of computation and is resistant to posture changes, the face change in the input image is tracked in real time, and the face is detected only for the estimated face position in the input image obtained from the tracking result. If the detection process is performed, the face can be detected with the face position specified. In other words, by combining rough but fast processing with high reliability but slow processing and sharing roles, the entire system is complemented between each processing, so that in real time in cooperation Face detection is possible.

これにより、多くの顔検出結果を短時間で獲得でき、この獲得した顔検出結果に基づいて顔の識別を行い、そのような処理を統計的に処理することで、高精度の顔識別を可能にしている。   As a result, many face detection results can be acquired in a short time, face identification is performed based on the acquired face detection results, and such processing is processed statistically, thereby enabling highly accurate face identification. I have to.

顔認識装置20は、このような顔識別のシステムにより、シーン中から人間を見つけ出し(顔検出処理)、それを注視し(顔のトラッキング処理)、そこから得られた情報を用いた顔の識別による人物の特定(顔識別処理)に至るまで、全ての処理を自動的に行い、信頼性の高い顔識別を実現している。   The face recognition device 20 uses such a face identification system to find a person in the scene (face detection process), gaze at it (face tracking process), and identify the face using the information obtained therefrom. All processes are automatically performed until the person is identified (face identification process) by, thereby realizing highly reliable face identification.

(4)顔認識装置20の動作
次に、図5〜図9を参照して上記構成による顔認識装置20の動作について説明する。以下では、最初にメインルーチンの動作について説明した後、そのメインルーチンを構成するデータベース選択処理、人物登録処理および名前お知らせ処理の各動作を説明する。
(4) Operation of Face Recognition Device 20 Next, the operation of the face recognition device 20 configured as described above will be described with reference to FIGS. In the following, the operation of the main routine will be described first, and then the operations of database selection processing, person registration processing, and name notification processing that constitute the main routine will be described.

[1]メインルーチンの動作
ユーザが装置電源を投入して図5に図示するメインルーチンを実行させると、顔認識装置20は、ステップSA1に処理を進め、「肩乗せモード」下にあるか否かを判断する。ここで、図1(b)に図示したように、縫い包み100がユーザの肩に乗せられていると、モード切替スイッチ9が「肩乗せモード」を表すスイッチイベントを発生するので、判断結果は「YES」となり、ステップSA2に進む。
[1] Operation of Main Routine When the user turns on the apparatus power and causes the main routine shown in FIG. 5 to be executed, the face recognition apparatus 20 proceeds to step SA1 and determines whether or not it is under “shouldering mode”. Determine whether. Here, as illustrated in FIG. 1B, when the stitching 100 is placed on the shoulder of the user, the mode change switch 9 generates a switch event indicating “shouldering mode”. "YES" is determined, and the process proceeds to Step SA2.

ステップSA2では、CCDカメラ7に対して撮像実行を指示し、続くステップSA3では、撮像した画像中から人の顔に相当する濃淡パターンをパターン識別して顔検出する。次いで、ステップSA4では、顔画像の撮像条件(人物撮影条件)を満たしているか否か、すなわち先に撮像した画像中から検出した顔領域が所定の大きさを超えているかどうか、より具体的には、撮像される全領域に対する顔領域A1(対象画像)が占める割合として算出される占有面積比が、所定値よりも大であるか否かを判断する。   In step SA2, the CCD camera 7 is instructed to execute imaging, and in the subsequent step SA3, a gray pattern corresponding to a human face is identified from the captured image to detect the face. Next, in step SA4, more specifically, whether or not a face image capturing condition (person photographing condition) is satisfied, that is, whether or not the face area detected from the previously captured image exceeds a predetermined size is determined. Determines whether the ratio of the occupied area calculated as the ratio of the face area A1 (target image) to the entire imaged area is larger than a predetermined value.

撮像した画像中から検出した顔領域が所定の大きさを超えていなければ、撮像条件を満たしていないとして判断結果は「NO」となり、上記ステップSA2に処理を戻す。以後、撮像した画像中から検出した顔領域が所定の大きさを超えるまで撮像および顔検出を随時繰り返す。   If the face area detected from the captured image does not exceed a predetermined size, the determination result is “NO” because the imaging condition is not satisfied, and the process returns to step SA2. Thereafter, imaging and face detection are repeated as needed until the face area detected from the captured image exceeds a predetermined size.

そして、撮像した画像中から検出した顔領域が所定の大きさを超えて撮像条件を満たすと、ステップSA4の判断結果が「YES」となり、顔画像を取得すべくCCDカメラ7に対して撮像実行を指示する。これにより得られる顔画像データは、いったんRAM3の画像データエリアに一時記憶される。   If the face area detected from the captured image exceeds a predetermined size and satisfies the image capturing condition, the determination result in step SA4 is “YES”, and the CCD camera 7 is imaged to acquire the face image. Instruct. The face image data thus obtained is temporarily stored in the image data area of the RAM 3 once.

なお、上記ステップSA4では、撮像した画像中から検出した顔領域が所定の大きさを超えているか否かを撮像条件としたが、これに限らず、例えば顔検出してから一定時間経過後に対象人物の顔画像を撮像する態様としても構わない。   In step SA4, whether or not the face area detected from the captured image exceeds a predetermined size is set as an imaging condition. However, the present invention is not limited to this. It does not matter as a mode for capturing a human face image.

さて、こうして顔画像データを取得すると、顔認識装置20はステップSA6に処理を進め、データベース選択処理を実行する。データベース選択処理では、HDD4に格納される複数の画像データベース、すなわちユーザの公私にわたる人間関係を属性別に分け、各属性に含まれる人物の顔画像をそれぞれ登録した複数の画像データベースの内から、顔認識する場面に最も適する属性の画像データベースを選択する。具体的には、現在の日時およびユーザの現在位置に応じて、前述したデータベース選択テーブルDSTから該当する画像データベースを選択する。   Now, when the face image data is acquired in this way, the face recognition device 20 advances the process to step SA6 and executes the database selection process. In the database selection process, face recognition is performed from among a plurality of image databases stored in the HDD 4, that is, from the plurality of image databases in which the human relations between the user's public and private are divided according to attributes and the face images of persons included in each attribute are respectively registered. Select an image database with attributes that best suit the scene you want to play. Specifically, the corresponding image database is selected from the database selection table DST described above according to the current date and time and the current position of the user.

次に、ステップSA7ではユーザが縫い包み100の右手部分RHに設けられたマウス6の右ボタンをクリックして登録指示イベントを発生させた場合に人物登録処理を実行する。この処理では、上記ステップSA5にて撮像した顔画像データに認識IDを付与して、上記ステップSA6にて選択された画像データベースに新規登録したり、名前お知らせテーブルNITに新規認識IDに対応する音声ファイルをアサインする。   Next, in step SA7, the person registration process is executed when the user clicks the right button of the mouse 6 provided in the right hand portion RH of the stitching 100 to generate a registration instruction event. In this process, a recognition ID is assigned to the face image data imaged in step SA5 and newly registered in the image database selected in step SA6, or the voice corresponding to the new recognition ID in the name notification table NIT. Assign a file.

ステップSA8では、上記ステップSA6にて選択された画像データベースに登録される各人毎の登録顔画像データと、撮像して新たに得られた顔画像データとの差分値が各々算出され、この差分値が最も小さい登録顔画像データに対応付けられた個人を撮像画像中に写る人物と同定する顔認識処理を実行する。   In step SA8, a difference value between the registered face image data for each person registered in the image database selected in step SA6 and the face image data newly obtained by imaging is calculated. A face recognition process is performed for identifying an individual associated with the registered face image data having the smallest value as a person shown in the captured image.

次いで、ステップSA9では、顔認識結果に基づき、前述した親密度データベースFDBの内容を更新する。すなわち、顔認識にて同定された人物の認識IDに対応する親密度を認識回数および顔領域の大きさに応じて更新する。また、このステップSA9では、顔認識が完了した顔画像データをRAM3の画像データエリアから読み出してHDD4のアルバムフォルダ下に格納する。   In step SA9, the contents of the familiarity database FDB described above are updated based on the face recognition result. That is, the familiarity corresponding to the recognition ID of the person identified by face recognition is updated according to the number of recognitions and the size of the face area. In step SA9, the face image data for which face recognition has been completed is read from the image data area of the RAM 3 and stored in the album folder of the HDD 4.

なお、親密度を更新する態様としては、上記ステップSA9の処理に限らず、時間の概念を採り入れることも可能である。すなわち、図4に図示した親密度データベースFDBにおいて、顔認識された日時もデータベース項目として記憶管理しておき、前回顔認識した日時と今回顔認識した日時とから認識間隔を求め、求めた認識間隔が短ければ親密度を上げ、長ければ親密度を下げるようにすることもできる。   Note that the manner of updating the intimacy is not limited to the process of step SA9, and the concept of time can be adopted. That is, in the familiarity database FDB shown in FIG. 4, the date and time of face recognition are also stored and managed as database items, the recognition interval is obtained from the date and time of previous face recognition and the date and time of current face recognition, and the obtained recognition interval. It is possible to increase the intimacy if the length is short, and decrease the intimacy if the length is long.

次に、ステップSA10では、ユーザが縫い包み100の右手部分RHに設けられたマウス6の左ボタンをクリックして名前お知らせ指示イベントを発生させた場合に名前お知らせ処理を実行する。この処理では、名前お知らせテーブルNITを参照して、顔認識にて同定された人物の認識IDに対応する音声ファイルを選択して再生する。   Next, in step SA10, name notification processing is executed when the user clicks the left button of the mouse 6 provided in the right hand portion RH of the stitching 100 to generate a name notification instruction event. In this process, referring to the name notification table NIT, an audio file corresponding to the recognition ID of the person identified by face recognition is selected and reproduced.

この後、前述のステップSA1に処理を戻し、以後、ユーザが縫い包み100を肩に乗せている状態ではステップSA2〜SA10から構成される肩乗せモードの動作を繰り返す。   Thereafter, the processing is returned to the above-described step SA1, and thereafter, in the state where the user puts the stitching 100 on the shoulder, the operation in the shoulder mode composed of steps SA2 to SA10 is repeated.

そして、図1(c)に図示したように、縫い包み100の尻尾部分に設けられたビデオ出力ポート(VGAコネクタ)10に、外部モニタMのケーブルCAに接続した状態で、その縫い包み100をユーザの膝に乗せたりあるいは机に乗せると、モード切替スイッチ9が「膝乗せモード」を表すスイッチイベントを発生するので、ステップSA2の判断結果が「NO」となり、ステップSA11に進み、アルバム閲覧処理を実行する。   Then, as shown in FIG. 1C, the sewn packet 100 is connected to the video output port (VGA connector) 10 provided at the tail portion of the sewn packet 100 while being connected to the cable CA of the external monitor M. When the user is placed on the knee or placed on the desk, the mode change switch 9 generates a switch event indicating “knee-mounting mode”, so that the determination result in step SA2 is “NO”, the process proceeds to step SA11, and the album browsing process is performed. Execute.

アルバム閲覧処理では、図6に図示するアルバム閲覧ウインドウWを生成し、外部モニタMに表示する。このアルバム閲覧ウインドウWは、HDD4のアルバムフォルダ内に格納された顔画像データをインデックス表示(サムネイル表示)するもので、これらインデックス表示された中から選択された顔画像データにフレーム(画面枠)を付加して一画面表示させる機能も有している。   In the album browsing process, an album browsing window W shown in FIG. 6 is generated and displayed on the external monitor M. This album browsing window W is an index display (thumbnail display) of face image data stored in the album folder of the HDD 4, and a frame (screen frame) is added to the face image data selected from the index display. In addition, it has a function to display one screen.

例えば、アルバム閲覧ウインドウW内の日付指定ボタン20をマウス操作でクリックすると、HDD4のアルバムフォルダ内に格納された全ての顔画像データに対応した撮影日付のリストが日付リストウインドウ21に表示される。   For example, when the date designation button 20 in the album browsing window W is clicked by a mouse operation, a list of shooting dates corresponding to all face image data stored in the album folder of the HDD 4 is displayed in the date list window 21.

一方、アルバム閲覧ウインドウW内の人物指定ボタン22をマウス操作でクリックすると、HDD4のアルバムフォルダ内に格納された全ての顔画像データに対応した人物の認識ID(例えば、001,002,003,…等)のリストが人物リストウインドウ23に表示される。   On the other hand, when the person designation button 22 in the album browsing window W is clicked by a mouse operation, the person recognition IDs (for example, 001, 002, 003...) Corresponding to all the face image data stored in the album folder of the HDD 4 are clicked. Etc.) is displayed in the person list window 23.

これら日付リストウインドウ21に表示された任意の日付、または人物リストウインドウ23に表示された任意の人物の認識IDをマウス操作でクリックして指定した後、表示ボタン24をマウス操作でクリックすると、該当する日付もしくは人物IDに対応する顔画像データがHDD4から読み出され、インデックス画像P1,P2,P3,P4としてサムネイル表示エリア25に一覧表示される。   When an arbitrary date displayed in the date list window 21 or a recognition ID of an arbitrary person displayed in the person list window 23 is specified by clicking with the mouse, the corresponding button is clicked with the mouse. The face image data corresponding to the date or person ID is read from the HDD 4 and displayed as a list in the thumbnail display area 25 as index images P1, P2, P3, P4.

さらに、このサムネイル表示エリア25に一覧表示されたインデックス画像P1,P2,P3,P4の中から任意の画像をマウス操作でクリックして指定すると、選択された顔画像データにフレームを付加した画像を表示する。   Further, when an arbitrary image is clicked and designated from among the index images P1, P2, P3, and P4 displayed as a list in the thumbnail display area 25, an image obtained by adding a frame to the selected face image data is selected. indicate.

その際、画面表示する顔画像データの認識IDに基づき親密度データベースFDBから該当人物の親密度を検索し、検索した親密度に対応したフレーム(画面枠)を選択する。例えば、親密度が高い人物の顔画像データを画面表示する場合には、図12(a)に示す様に華やかなフレームを付与し、一方、親密度が低い人物の顔画像データを画面表示する場合には図12(b)に示す様に暗い感じのフレームを付与する等のエンターテイメント性を提供するようになっている。   At that time, the closeness of the corresponding person is searched from the closeness database FDB based on the recognition ID of the face image data displayed on the screen, and a frame (screen frame) corresponding to the searched closeness is selected. For example, when face image data of a person with a high degree of closeness is displayed on the screen, a gorgeous frame is added as shown in FIG. 12A, while face image data of a person with a low degree of closeness is displayed on the screen. In such a case, as shown in FIG. 12B, entertainment such as providing a dark frame is provided.

[2]データベース選択処理の動作
次に、図7を参照してデータベース選択処理の動作について説明する。上述したステップSA6を介して本処理が実行されると、顔認識装置20は図7に示すステップSB1に処理を進め、稼働中のOSプログラム側から現在の日時データを取得する。次いで、ステップSB2に進み、現在日時に対応する予定の有無を判断する。すなわち、常駐ソフトウェアとして稼働しているスケジュール帳(スケジュール管理ソフト)に、現在日時に対応した予定が登録されているかどうかを判断する。
[2] Operation of Database Selection Process Next, the operation of the database selection process will be described with reference to FIG. When this process is executed via step SA6 described above, the face recognition apparatus 20 advances the process to step SB1 shown in FIG. 7, and acquires the current date and time data from the operating OS program side. Next, the process proceeds to step SB2 to determine whether or not there is a plan corresponding to the current date and time. That is, it is determined whether or not a schedule corresponding to the current date and time is registered in a schedule book (schedule management software) operating as resident software.

そして、現在日時に対応した予定が登録されていれば、判断結果は「YES」となり、次のステップSB3に処理を進め、スケジュール帳に設定されているデータベース指定値に対応した画像データベースを選択する。   If a schedule corresponding to the current date and time is registered, the determination result is “YES”, the process proceeds to the next step SB3, and an image database corresponding to the database designated value set in the schedule book is selected. .

一方、現在日時に対応した予定がスケジュール帳に登録されていない場合には、上記ステップSB2の判断結果が「NO」となり、ステップSB4に進む。ステップSB4では、位置検出部8が発生するGPS位置情報から現在の場所を決定する。なお、GPS信号を受信できず現在の場所を特定できない状態では、GPS信号をロストした時点(例えば、屋内に入った時など)のGPS位置情報に基づき現在の場所を決定する。   On the other hand, if the schedule corresponding to the current date and time is not registered in the schedule book, the determination result in step SB2 is “NO”, and the flow advances to step SB4. In step SB4, the current location is determined from the GPS position information generated by the position detector 8. In a state where the GPS signal cannot be received and the current location cannot be specified, the current location is determined based on GPS position information at the time when the GPS signal is lost (for example, when entering the indoors).

続いて、ステップSB5では、現在の日時およびユーザの現在位置に応じて、前述したデータベース選択テーブルDSTから該当する画像データベースを選択する。これにより、顔認識する場面に最も適合した属性の画像データベースが選択される。具体的には、例えば日時が平日の日中で場所が会社であれば、前述の画像データベースIDB1が選択され、日時が土曜日または日曜日で場所を特定しない場合には前述の画像データベースIDB2が選択される。   Subsequently, in step SB5, the corresponding image database is selected from the database selection table DST described above according to the current date and time and the current position of the user. Thereby, the image database having the attribute most suitable for the scene for face recognition is selected. Specifically, for example, if the date is a weekday and the place is a company, the image database IDB1 is selected, and if the date is Saturday or Sunday and the location is not specified, the image database IDB2 is selected. The

[3]人物登録処理の動作
次に、図8を参照して人物登録処理の動作について説明する。前述したステップSA7を介して本処理が実行されると、顔認識装置20は図8に示すステップSC1に処理を進め、登録指示イベントの有無を判断する。登録指示イベントが無ければ、判断結果は「NO」となり、何も処理せずにメインルーチン(図3参照)に復帰する。
[3] Operation of Person Registration Process Next, the operation of the person registration process will be described with reference to FIG. When this process is executed via step SA7 described above, face recognition device 20 advances the process to step SC1 shown in FIG. 8, and determines whether there is a registration instruction event. If there is no registration instruction event, the determination result is “NO”, and the processing returns to the main routine (see FIG. 3) without performing any processing.

一方、ユーザが縫い包み100の右手部分RHに設けられたマウス6の右ボタンをクリックして登録指示イベントを発生させると、判断結果が「YES」となり、次のステップSC2に処理を進める。ステップSC2では、メインルーチンのステップSA5において撮像した顔画像データに新規認識IDを付与して、上記データベース選択処理にて選択された画像データベースに新規登録する。   On the other hand, when the user clicks the right button of the mouse 6 provided in the right hand portion RH of the sewing wrap 100 to generate a registration instruction event, the determination result is “YES”, and the process proceeds to the next step SC2. In step SC2, a new recognition ID is assigned to the face image data captured in step SA5 of the main routine, and the face image data is newly registered in the image database selected in the database selection process.

次いで、ステップSC3では、登録終了指示イベントが発生するまで待機する。そして、ユーザが縫い包み100の右手部分RHに設けられたマウス6の右ボタンを再度クリックして登録終了指示イベントを発生させると、判断結果が「YES」となり、ステップSC4に進む。   Next, in step SC3, the process waits until a registration end instruction event occurs. When the user clicks again on the right button of the mouse 6 provided on the right hand portion RH of the sewn wrap 100 to generate a registration end instruction event, the determination result is “YES”, and the flow proceeds to step SC4.

ステップSC4では、名前お知らせテーブルNIT中の未使用の音声ファイルに、新規認識IDを対応付けて登録する。そして、ステップSC5では、その新規認識IDに対応付けた音声ファイルを再生する。これにより、画像データベースに新規登録された人物の名前を知らせる音声ファイルの内容(例えば「にゃ〜ん」というネコの鳴き声)がユーザに通知される。   In step SC4, a new recognition ID is registered in association with an unused voice file in the name notification table NIT. In step SC5, an audio file associated with the new recognition ID is reproduced. As a result, the user is notified of the contents of the audio file that informs the name of the person newly registered in the image database (for example, the cat's cry of “Nyan”).

[4]名前お知らせ処理の動作
次に、図9を参照して名前お知らせ処理の動作について説明する。前述したステップSA10を介して本処理が実行されると、顔認識装置20は図9に示すステップSD1に処理を進め、名前お知らせ指示イベントの有無を判断する。名前お知らせ指示イベントが無ければ、判断結果は「NO」となり、何も処理せずにメインルーチン(図5参照)に復帰する。
[4] Operation of Name Notification Process Next, the operation of the name notification process will be described with reference to FIG. When this process is executed via step SA10 described above, face recognition device 20 advances the process to step SD1 shown in FIG. 9, and determines whether there is a name notification instruction event. If there is no name notification instruction event, the determination result is “NO”, and no processing is performed, and the process returns to the main routine (see FIG. 5).

一方、ユーザが縫い包み100の右手部分RHに設けられたマウス6の左ボタンをクリックして名前お知らせ指示イベントを発生させると、判断結果が「YES」となり、ステップSD2に進み、名前お知らせテーブルNITを参照して、顔認識にて同定された人物の認識IDに対応する音声ファイルを選択して再生する。これにより、縫い包み100は顔認識にて同定された人物の名前をネコ語(鳴き声)で知らせる。   On the other hand, when the user clicks the left button of the mouse 6 provided in the right hand portion RH of the sewing packet 100 to generate a name notification instruction event, the determination result is “YES”, the process proceeds to step SD2, and the name notification table NIT Referring to FIG. 4, an audio file corresponding to the recognition ID of the person identified by face recognition is selected and reproduced. As a result, the stitching 100 informs the name of the person identified by the face recognition in the cat language (scream).

以上のように、本実施の形態によれば、顔認識が行われる状況に対応した複数の属性、言い換えればユーザの公私にわたる人間関係を日時あるいは場所などの属性別に分け、各属性に含まれる人物の顔画像をそれぞれ登録した複数の画像データベースを設けておき、これら画像データベースの内から顔認識する場面に最も適する属性の画像データベースを選択し、選択した画像データベースを参照して撮像画像シーン中に写る顔が誰の顔であるかを識別して人物同定するようになっている。   As described above, according to the present embodiment, a plurality of attributes corresponding to the situation in which face recognition is performed, in other words, the personal relationship between the user's public and private is divided according to attributes such as date / time or place, and the persons included in each attribute A plurality of image databases each of which are registered face images are selected, an image database having an attribute most suitable for the face recognition scene is selected from these image databases, and the selected image database is referred to in the captured image scene. A person is identified by identifying who the face is in.

この為、データベース登録される人数が多い場合であっても、属性別に画像データベースを細分化するから、1つの画像データベース当りに登録される人数を最適化でき、しかも顔認識する場面に最も適合する属性の画像データベースを選択してそれに基づき顔認識する結果、認識率向上を図ることが可能になる。   For this reason, even if there are many people registered in the database, the image database is subdivided by attribute, so the number of people registered per image database can be optimized, and it is most suitable for face recognition situations. As a result of selecting an image database of attributes and performing face recognition based on the selected image database, it is possible to improve the recognition rate.

(5)変形例
上述した実施の一形態では、縫い包み100に顔認識装置20を内蔵させて撮像画像シーン中に写る顔が誰の顔であるか人物同定し、同定した人物の名前を知らせるようにしたが、本発明の要旨はこうした態様に限定されず種々変形が可能である。
(5) Modification In the embodiment described above, the face recognition device 20 is incorporated in the stitching 100 to identify the person who is the face in the captured image scene, and inform the name of the identified person. However, the gist of the present invention is not limited to such an embodiment, and various modifications are possible.

例えば図10に示すように、縫い包み100に替えて顔認識装置20の本体部分をショルダーバックBに収納し、マウス6やCCDカメラ7を当該バックのショルダーベルトSBに配設させる形態にすることもできる。   For example, as shown in FIG. 10, the main body portion of the face recognition device 20 is accommodated in the shoulder back B in place of the sewing wrap 100, and the mouse 6 and the CCD camera 7 are arranged on the shoulder belt SB of the back. You can also.

また、本実施の一形態では、日時あるいは場所に応じて、顔認識する場面に最も適する画像データベースを選択するようにしたが、これに限らず、前述した親密度データベースFDB(図4参照)を用いて顔認識する場面に適した画像データベースを作成することも可能である。   In the present embodiment, the image database most suitable for the face recognition scene is selected according to the date and time or the place. However, the present invention is not limited to this, and the above-described familiarity database FDB (see FIG. 4) is used. It is also possible to create an image database suitable for scenes that are used for face recognition.

すなわち、顔検出時に得られる顔領域の大きさに基づき、その顔領域の大きさに対応した親密度を有する人物の認識IDを親密度データベースFDBから検索し、検索した認識IDに対応する登録顔画像データを各画像データベースから抽出して新たな画像データベースを作成し、それを用いて顔認識すれば、撮像画像中から検出される顔領域の大きさに対応した親密度を有する人物に限定して顔認識が行われる為、認識率向上を図ることができる。   That is, based on the size of the face area obtained at the time of face detection, a recognition ID of a person having a closeness corresponding to the size of the face area is searched from the closeness database FDB, and the registered face corresponding to the searched recognition ID If image data is extracted from each image database to create a new image database and face recognition is performed using it, it is limited to persons with closeness corresponding to the size of the face area detected in the captured image. Therefore, the recognition rate can be improved.

また、上述の実施の形態においては、人物の顔から個人を特定する場合を一例として説明したが、本発明はこれに限らず、例えば、店舗などに掲示されたロゴマークなどを撮像し、そのロゴマークの画像から店舗名や法人等を特定する画像認識装置に適用し、認識が行われる日時や場所、対象となるロゴマーク画像に対する親密度などの、その場の状況に対応した属性の画像データベースを自動的に選択し、選択された属性の画像データベースに記憶された参照画像を参照して、撮像されたロゴマークの画像から店舗名や法人等を特定するようにしても構わない。   In the above-described embodiment, the case where an individual is specified from the face of a person has been described as an example. However, the present invention is not limited thereto, and for example, a logo mark posted at a store or the like is imaged. Applicable to image recognition devices that identify store names, corporations, etc. from logo mark images, images with attributes corresponding to the current situation, such as date and time of recognition, familiarity with the target logo mark image, etc. A database may be automatically selected, and a store name, a corporation, or the like may be specified from the captured logo mark image with reference to a reference image stored in the image database of the selected attribute.

さらに、本発明の要旨は、上述の実施の形態のみならず、撮像機能やGPS位置検出機能を備えた携帯電話もしくは撮像機能、GPS位置検出機能および無線通信機能を有する携帯端末にも適用可能である。その場合、携帯電話あるいは携帯端末はCPUの演算処理能力が充分でないものが多い為、端末側で撮像した画像および撮像位置を、ネットワークを介して顔認識処理するサーバ側へ送出し、サーバ側が顔認識した結果を端末側に返送する形態とすれば良い。   Further, the gist of the present invention can be applied not only to the above-described embodiment, but also to a mobile phone having an imaging function or a GPS position detection function or a mobile terminal having an imaging function, a GPS position detection function, and a wireless communication function. is there. In that case, since many mobile phones or mobile terminals do not have sufficient CPU processing capability, the image captured at the terminal side and the imaging position are sent to the server side that performs face recognition processing via the network. The recognized result may be returned to the terminal side.

本発明による実施の一形態である縫い包み100の外観およびその動作モードを説明するための図である。It is a figure for demonstrating the external appearance and the operation mode of the sewing packet 100 which are one Embodiment by this invention. 顔認識装置20の構成を示すブロック図である。2 is a block diagram illustrating a configuration of a face recognition device 20. FIG. 画像データベースIDB1,IDB2の概念を示す概念図である。It is a conceptual diagram which shows the concept of image database IDB1, IDB2. 親密度データベースFDBの概念を示す概念図である。It is a conceptual diagram which shows the concept of the familiarity database FDB. メインルーチンの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a main routine. アルバム閲覧処理に画面表示されるGUI画面の一例を示す図である。It is a figure which shows an example of the GUI screen displayed on a screen by an album browsing process. データベース選択処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a database selection process. 人物登録処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a person registration process. 名前お知らせ処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a name notification process. 変形例を示す図である。It is a figure which shows a modification. 親密度の定義を説明するための図である。It is a figure for demonstrating the definition of intimacy. アルバム閲覧処理にて画面表示される顔画像データに付加されるフレームの一例を示す図である。It is a figure which shows an example of the flame | frame added to the face image data displayed on a screen by an album browsing process.

符号の説明Explanation of symbols

1 CPU, 2 ROM, 3 RAM, 4 HDD, 5 サウンドシステム, 6 マウス, 7 CCDカメラ, 8 位置検出部, 9 モード切替スイッチ, 10 ビデオ出力ポート, 20 顔認識装置, 100 縫い包み   1 CPU, 2 ROM, 3 RAM, 4 HDD, 5 Sound system, 6 Mouse, 7 CCD camera, 8 Position detection unit, 9 Mode switch, 10 Video output port, 20 Face recognition device, 100 Sewing

Claims (12)

認識すべき対象画像を撮像する撮像手段と、
前記対象画像に対するユーザとの親密度を推定する推定手段と、
前記親密度に依存する複数の属性毎に分類され、各属性に分類された参照画像と、各参照画像に各々対応して一意に付与された認識IDとをそれぞれ記憶する複数の属性別画像データベース手段と、
前記複数の属性別画像データベース手段の内から、現在、前記推定手段によって推定された親密度に対応した属性別画像データベース手段を選択する選択手段と、
前記選択手段によって選択された属性別画像データベース手段に記憶された参照画像を参照して、前記撮像手段によって撮像された対象画像に対応した認識IDを特定する対象特定手段とを具備し、
前記推定手段は、前記撮像手段によって撮像される全領域に対する対象画像の占有面積比、または過去において前記対象特定手段によって前記対象画像が特定された回数、または前記占有面積比と前記回数の組み合わせに基づいて、前記対象画像に対するユーザとの親密度を推定する
ことを特徴とする画像認識装置。
Imaging means for imaging a target image to be recognized;
Estimating means for estimating a closeness with a user for the target image;
A plurality of attribute-specific image databases each storing a reference image classified into a plurality of attributes depending on the familiarity, and a recognition ID uniquely assigned to each reference image. Means,
A selection means for selecting an attribute-specific image database means corresponding to the intimacy estimated by the estimation means from the plurality of attribute-specific image database means;
With reference to a reference image stored in the attribute-specific image database means selected by the selection means, and a target specifying means for specifying a recognition ID corresponding to the target image imaged by the imaging means,
The estimation means is based on the occupation area ratio of the target image with respect to the entire region imaged by the imaging means, or the number of times the target image has been identified by the target identification means in the past, or a combination of the occupation area ratio and the number of times. An image recognition apparatus characterized by estimating a closeness with a user for the target image .
現在の日時を計数する日時計数手段をさらに備え、
前記属性別画像データベース手段は、前記対象画像に対するユーザとの親密度と、前記撮像手段によって撮像される時刻に依存する属性に分類され、前記選択手段は、前記推定手段によって推定された親密度と、前記日時計数手段によって計数された現在日時に基づいて、前記複数の属性別画像データベース手段の内から、現在、前記撮像手段によって撮像された対象画像に対するユーザとの親密度と、現在の日時に対応した属性別画像データベース手段を選択する
ことを特徴とする請求項記載の画像認識装置。
It further comprises a date and time counting means for counting the current date and time,
The attribute-specific image database means is classified into attributes depending on a closeness with the user for the target image and a time when the image is picked up by the imaging means, and the selecting means is a closeness estimated by the estimating means. And, based on the current date and time counted by the date and time counting means, from among the plurality of attribute-specific image database means, the familiarity with the user for the target image currently captured by the imaging means, the image recognition apparatus according to claim 1, wherein the selecting the demographic image database means corresponding to the date and time.
現在の位置を測位する測位手段をさらに備え、
前記属性別画像データベース手段は、前記対象画像に対するユーザとの親密度と、前記撮像手段によって撮像される位置に依存する属性によって分類され、前記選択手段は、前記推定手段によって推定された親密度と、前記測位手段によって測位された現在の位置に基づいて、前記複数の属性別画像データベース手段の内から、現在、前記撮像手段によって撮像された対象画像に対するユーザとの親密度と、現在の位置に対応した属性別画像データベース手段を選択する
ことを特徴とする請求項記載の画像認識装置。
A positioning means for positioning the current position;
The attribute-specific image database unit is classified according to an attribute depending on a closeness with a user with respect to the target image and a position captured by the imaging unit, and the selection unit is determined by the closeness estimated by the estimation unit If, on the basis of the current position as the positioning by said positioning means, from among the plurality of attribute-based image database unit, now the closeness of the user with respect to the captured target image by the imaging means, the current the image recognition apparatus according to claim 1, wherein the selecting demographic image database means corresponding to the position.
現在の日時を計数する日時計数手段と、
現在の位置を測位する測位手段とをさらに備え、
前記属性別画像データベース手段は、前記対象画像に対するユーザとの親密度と、前記撮像手段によって撮像される時刻、および位置に依存する属性によって分類され、前記選択手段は、前記推定手段によって推定された親密度と、前記日時計数手段によって計数された現在日時、および前記測位手段によって測位された現在の位置とに基づいて、前記複数の属性別画像データベース手段の内から、現在、前記撮像手段によって撮像された対象画像に対するユーザとの親密度と、現在の日時、および現在の位置に対応した属性別画像データベース手段を選択する
ことを特徴とする請求項記載の画像認識装置。
A date and time counting means for counting the current date and time;
A positioning means for positioning the current position;
The attribute-based image database means includes a degree of intimacy with the user with respect to the target image, are classified by the attributes that depend on the time and location to be imaged by said imaging means, said selection means is estimated by said estimating means Based on the familiarity, the current date and time counted by the date and time counting means , and the current position measured by the positioning means, the imaging means is currently selected from the plurality of attribute-specific image database means. image recognition apparatus familiarity and the current date and time, and claim 1, wherein the selecting demographic image database means corresponding to the current position of the user with respect to the captured target image by.
認識すべき対象画像を撮像する撮像ステップと、
前記対象画像に対するユーザとの親密度を推定する推定ステップと、
前記親密度に依存する複数の属性毎に分類され、各属性に分類された参照画像と、各参照画像に各々対応して一意に付与された認識IDとをそれぞれ記憶する複数の属性別画像データベースの内から現在、前記推定ステップの処理によって推定されたユーザとの親密度に対応した属性別画像データベースを選択する選択処理ステップと、
前記選択処理ステップの処理によって選択された属性別画像データベースに記憶された参照画像を参照して、前記撮像ステップの処理で撮像された対象画像に対応した認識IDを特定する対象特定処理ステップとを具備し、
前記推定ステップの処理は、前記撮像ステップの処理によって撮像される全領域に対する対象画像の占有面積比、または過去において前記対象特定ステップの処理によって前記対象画像が特定された回数、または前記占有面積比と前記回数の組み合わせに基づいて、前記対象画像に対するユーザとの親密度を推定する
ことを特徴とする画像認識処理方法。
An imaging step of imaging a target image to be recognized ;
An estimation step for estimating a closeness with the user for the target image;
A plurality of attribute-specific image databases each storing a reference image classified into a plurality of attributes depending on the familiarity, and a recognition ID uniquely assigned to each reference image. from among a selection processing step of selecting the current, the attribute-image database corresponding to closeness of the user estimated by the processing of said estimating step,
A target identification processing step of identifying a recognition ID corresponding to the target image captured in the processing of the imaging step with reference to a reference image stored in the attribute-specific image database selected by the processing of the selection processing step; Equipped ,
The process of the estimation step is the ratio of the occupied area of the target image to the entire region imaged by the process of the imaging step, or the number of times the target image is specified by the process of the target specifying step in the past, or the occupied area ratio And the intimacy with the user for the target image based on the combination of the number of times and the number of times
Image recognition processing method characterized by.
現在の日時を計数する日時計数処理ステップをさらに備え、
前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される時刻に依存する属性に分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記日時計数処理ステップの処理によって計数された現在日時に基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対するユーザとの親密度と、現在の日時に対応した属性別画像データベースを選択する
ことを特徴とする請求項記載の画像認識処理方法。
A date and time counting step for counting the current date and time,
The attribute-specific image database is categorized into attributes that depend on a closeness with the user for the target image and a time imaged by the imaging step process, and the selection process step process includes the estimation process step . Based on the closeness estimated by the process and the current date and time counted by the process of the date and time counting process step , the image is currently captured by the process of the imaging step from the plurality of attribute-specific image databases. 6. The image recognition processing method according to claim 5 , wherein an attribute-specific image database corresponding to the closeness with the user for the target image and the current date and time is selected .
現在の位置を測位する測位処理ステップをさらに備え、
前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される位置に依存する属性によって分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記測位処理ステップの処理によって測位された現在の位置に基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対する親密度と、現在の位置に対応した属性別画像データベースを選択する
ことを特徴とする請求項記載の画像認識処理方法。
It further includes a positioning processing step for positioning the current position,
The attribute-specific image database is classified according to an attribute depending on a closeness with a user with respect to the target image and a position imaged by the imaging step processing, and the selection processing step processing is performed by the estimation processing step . a closeness estimated by processing, on the basis of the the process the current position as the positioning by the positioning process step, from among the plurality of attribute-based image database, currently taken by the processing of the imaging step object 6. The image recognition processing method according to claim 5 , wherein an attribute-specific image database corresponding to the closeness to the image and the current position is selected .
現在の日時を計数する日時計数処理ステップと、
現在の位置を測位する測位処理ステップとをさらに備え、
前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される時刻、および位置に依存する属性によって分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記日時計数処理ステップの処理によって計数された現在日時、および前記測位処理ステップによって測位された現在の位置とに基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対する親密度と、現在の日時、および現在の位置に対応した属性別画像データベースを選択する
ことを特徴とする請求項記載の画像認識処理方法。
A date and time counting process step for counting the current date and time;
A positioning process step for positioning the current position;
The demographic image database, and closeness to the user with respect to the target image, the time taken by the processing of the image pickup step, and is classified by the attributes depends on the position, the processing of the selection processing step, the estimated Based on the closeness estimated by the processing of the processing step , the current date and time counted by the processing of the date and time counting processing step , and the current position measured by the positioning processing step, the plurality of attribute-specific images from among the database, the current, and familiarity for the subject image picked up by the processing in the imaging step, claim 5, characterized in that to select the current date and time, and the attribute-based image database corresponding to the current position The image recognition processing method described.
認識すべき対象画像を撮像する撮像ステップと、
前記対象画像に対するユーザとの親密度を推定する推定ステップと、
前記親密度に依存する複数の属性毎に分類され、各属性に分類された参照画像と、各参照画像に各々対応して一意に付与された認識IDとをそれぞれ記憶する複数の属性別画像データベースの内から現在、前記推定ステップの処理によって推定されたユーザとの親密度に対応した属性別画像データベースを選択する選択処理ステップと、
前記選択処理ステップの処理によって選択された属性別画像データベースに記憶された参照画像を参照して、前記撮像ステップの処理で撮像された対象画像に対応した認識IDを特定する対象特定処理ステップとを具備し、
前記推定ステップの処理は、前記撮像ステップの処理によって撮像される全領域に対する対象画像の占有面積比、または過去において前記対象特定ステップの処理によって前記対象画像が特定された回数、または前記占有面積比と前記回数の組み合わせに基づいて、前記対象画像に対するユーザとの親密度を推定する
ことを特徴とする画像認識プログラム。
An imaging step of imaging a target image to be recognized ;
An estimation step for estimating a closeness with the user for the target image;
A plurality of attribute-specific image databases each storing a reference image classified into a plurality of attributes depending on the familiarity, and a recognition ID uniquely assigned to each reference image. from among a selection processing step of selecting the current, the attribute-image database corresponding to closeness of the user estimated by the processing of said estimating step,
A target identification processing step of identifying a recognition ID corresponding to the target image captured in the processing of the imaging step with reference to a reference image stored in the attribute-specific image database selected by the processing of the selection processing step; Equipped ,
The process of the estimation step is the ratio of the occupied area of the target image to the entire region imaged by the process of the imaging step, or the number of times the target image is specified by the process of the target specifying step in the past, or the occupied area ratio And the intimacy with the user for the target image based on the combination of the number of times and the number of times
An image recognition program characterized by that .
現在の日時を計数する日時計数処理ステップをさらに備え、
前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される時刻に依存する属性に分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記日時計数処理ステップの処理によって計数された現在日時に基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対するユーザの親密度と、現在の日時に対応した属性別画像データベースを選択する
ことを特徴とする請求項記載の画像認識プログラム。
A date and time counting step for counting the current date and time,
The attribute-specific image database is categorized into attributes that depend on a closeness with the user for the target image and a time imaged by the imaging step process , and the selection process step process includes the estimation process step . Based on the closeness estimated by the process and the current date and time counted by the process of the date and time counting process step , the image is currently captured by the process of the imaging step from the plurality of attribute-specific image databases. The image recognition program according to claim 9 , wherein an attribute-specific image database corresponding to a user's familiarity with the target image and the current date and time is selected .
現在の位置を測位する測位処理ステップをさらに備え、
前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される位置に依存する属性によって分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記測位処理ステップの処理によって測位された現在の位置に基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対するユーザの親密度と、現在の位置に対応した属性別画像データベースを選択する
ことを特徴とする請求項記載の画像認識処理プログラム。
It further includes a positioning processing step for positioning the current position,
The attribute-specific image database is classified according to an attribute depending on a closeness with a user with respect to the target image and a position imaged by the imaging step processing , and the selection processing step processing is performed by the estimation processing step . a closeness estimated by processing, on the basis of the the process the current position as the positioning by the positioning process step, from among the plurality of attribute-based image database, currently taken by the processing of the imaging step object The image recognition processing program according to claim 9 , wherein an image database classified by attribute corresponding to a user's familiarity with an image and a current position is selected .
現在の日時を計数する日時計数処理ステップと、
現在の位置を測位する測位処理ステップとをさらに備え、
前記属性別画像データベースは、前記対象画像に対するユーザとの親密度と、前記撮像ステップの処理によって撮像される時刻、および位置に依存する属性によって分類され、前記選択処理ステップの処理は、前記推定処理ステップの処理によって推定された親密度と、前記日時計数処理ステップの処理によって計数された現在日時、および前記測位処理ステップの処理によって測位された現在の位置とに基づいて、前記複数の属性別画像データベースの内から、現在、前記撮像ステップの処理によって撮像された対象画像に対する親密度と、現在の日時、および現在の位置に対応した属性別画像データベースを選択する
ことを特徴とする請求項記載の画像認識プログラム。
A date and time counting process step for counting the current date and time;
A positioning process step for positioning the current position;
The demographic image database, and closeness to the user with respect to the target image, the time taken by the processing of the image pickup step, and is classified by the attributes depends on the position, the processing of the selection processing step, the estimated The plurality of attributes based on the closeness estimated by the processing of the processing step , the current date and time counted by the processing of the date and time counting processing step , and the current position measured by the processing of the positioning processing step from among the different image database, now to the closeness to the target image captured by the process of the imaging step, and selects the current date and time, and the attribute-based image database corresponding to the current position according Item 10. The image recognition program according to Item 9 .
JP2003320733A 2002-09-13 2003-09-12 Image recognition apparatus, image recognition processing method, and image recognition program Expired - Fee Related JP4427714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003320733A JP4427714B2 (en) 2002-09-13 2003-09-12 Image recognition apparatus, image recognition processing method, and image recognition program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002267595 2002-09-13
JP2003320733A JP4427714B2 (en) 2002-09-13 2003-09-12 Image recognition apparatus, image recognition processing method, and image recognition program

Publications (2)

Publication Number Publication Date
JP2004127285A JP2004127285A (en) 2004-04-22
JP4427714B2 true JP4427714B2 (en) 2010-03-10

Family

ID=32301607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003320733A Expired - Fee Related JP4427714B2 (en) 2002-09-13 2003-09-12 Image recognition apparatus, image recognition processing method, and image recognition program

Country Status (1)

Country Link
JP (1) JP4427714B2 (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4624933B2 (en) * 2005-03-16 2011-02-02 富士フイルム株式会社 IMAGING DEVICE, IMAGING METHOD, ALBUM CREATION DEVICE, ALBUM CREATION METHOD, ALBUM CREATION SYSTEM, AND PROGRAM
JP4579169B2 (en) * 2006-02-27 2010-11-10 富士フイルム株式会社 Imaging condition setting method and imaging apparatus using the same
US8315463B2 (en) * 2006-11-14 2012-11-20 Eastman Kodak Company User interface for face recognition
JP5236264B2 (en) * 2007-11-28 2013-07-17 ソフトバンクモバイル株式会社 Communication terminal, information processing method, and program
JP5251547B2 (en) 2008-06-06 2013-07-31 ソニー株式会社 Image photographing apparatus, image photographing method, and computer program
US8477207B2 (en) 2008-06-06 2013-07-02 Sony Corporation Image capturing apparatus, image capturing method, and computer program
WO2014128751A1 (en) * 2013-02-19 2014-08-28 株式会社ブリリアントサービス Head mount display apparatus, head mount display program, and head mount display method
CN104933391B (en) * 2014-03-20 2018-08-10 联想(北京)有限公司 Method and apparatus for carrying out face recognition and electronic equipment
JP6533481B2 (en) * 2016-03-16 2019-06-19 富士フイルム株式会社 IMAGE PROCESSING APPARATUS, IMAGE PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JP2018190430A (en) * 2018-06-14 2018-11-29 株式会社ニコン Text generation device, electronic apparatus, and program

Also Published As

Publication number Publication date
JP2004127285A (en) 2004-04-22

Similar Documents

Publication Publication Date Title
US7340079B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
US10157324B2 (en) Systems and methods of updating user identifiers in an image-sharing environment
US9373024B2 (en) Method and apparatus for automated analysis and identification of a person in image and video content
CN103140862B (en) User interface system and operational approach thereof
US10264207B2 (en) Method and system for creating virtual message onto a moving object and searching the same
US10747991B2 (en) People stream analysis method, people stream analysis apparatus, and people stream analysis system
US20050011959A1 (en) Tags and automated vision
US8948451B2 (en) Information presentation device, information presentation method, information presentation system, information registration device, information registration method, information registration system, and program
US11657575B2 (en) Generating augmented reality content based on third-party content
JPWO2009016833A1 (en) Video analysis device, method for calculating evaluation value between persons by video analysis
US8644614B2 (en) Image processing apparatus, image processing method, and storage medium
JP4427714B2 (en) Image recognition apparatus, image recognition processing method, and image recognition program
KR20150007403A (en) Apparatus and method for operating information searching data of persons and person recognizes method using the same
US20230336671A1 (en) Imaging apparatus
US20230091214A1 (en) Augmented reality items based on scan
JP2014042235A (en) Audience rating survey system, facial expression information generation device, and facial expression information generation program
US10606886B2 (en) Method and system for remote management of virtual message for a moving object
KR20230029945A (en) Augmented reality content based on product data
CN107016351A (en) Shoot the acquisition methods and device of tutorial message
KR101587177B1 (en) Mobile terminal and method for controlling the same
US20230394830A1 (en) Image processing apparatus, image processing method, and non-transitory storage medium
Selvi et al. Estimated Posture for Human Elbow Flexion in Acoustic Environments
JP2021117823A (en) Information processing device, information processing method, and program
CN111563086A (en) Information association method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091119

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091202

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121225

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131225

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees