JP4720167B2 - Electronic camera and program - Google Patents

Electronic camera and program Download PDF

Info

Publication number
JP4720167B2
JP4720167B2 JP2004351940A JP2004351940A JP4720167B2 JP 4720167 B2 JP4720167 B2 JP 4720167B2 JP 2004351940 A JP2004351940 A JP 2004351940A JP 2004351940 A JP2004351940 A JP 2004351940A JP 4720167 B2 JP4720167 B2 JP 4720167B2
Authority
JP
Japan
Prior art keywords
person
unit
image
recognition
personal information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2004351940A
Other languages
Japanese (ja)
Other versions
JP2006165822A (en
Inventor
武史 増田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2004351940A priority Critical patent/JP4720167B2/en
Publication of JP2006165822A publication Critical patent/JP2006165822A/en
Application granted granted Critical
Publication of JP4720167B2 publication Critical patent/JP4720167B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像やその他の情報を表示する機能を有する電子カメラおよび画像処理プログラムに関する。   The present invention relates to an electronic camera and an image processing program having a function of displaying images and other information.

従来より、画像処理の手法を用いた顔認識技術を適用した電子カメラが知られている(例えば、特許文献1参照)。このような電子カメラでは、顔認識の結果を画像処理条件や焦点調節条件の決定などに反映している。
特開2002−77592号公報
Conventionally, an electronic camera to which a face recognition technique using an image processing technique is applied is known (for example, see Patent Document 1). In such an electronic camera, the result of face recognition is reflected in the determination of image processing conditions and focus adjustment conditions.
JP 2002-77592 A

前述した顔認識技術は、有益なものである反面、処理に時間を要する技術であるため、顔認識の結果を様々な用途に利用するのが好ましい。
本発明は、顔認識技術を利用して、より多くの情報をユーザに対して提示することができる電子カメラおよび画像処理プログラムを提供することを目的とする。
Although the above-described face recognition technique is useful, it is a technique that requires time for processing. Therefore, it is preferable to use the result of face recognition for various purposes.
An object of the present invention is to provide an electronic camera and an image processing program capable of presenting more information to a user by using face recognition technology.

請求項1に記載の電子カメラは、人物ごとに、個人情報とその人物の人物認識に関わる情報とを記録する情報記録部と、被写体像を撮像して画像を生成する撮像部と、前記撮像部により生成された前記画像に対して、前記情報記録部に記録された前記人物認識に関わる情報に基づいて人物認識を行う認識部と、前記撮像部により生成された前記画像を表示する表示部と、前記認識部が、前記撮像部により生成された前記画像中に、前記情報記録部に記録された人物のいずれかを認識すると、その人物の個人情報を前記情報記録部から読み出して表示する表示制御部とを備え、前記人物認識により複数の人物が認識された場合、前記表示制御部は、前記撮像部により生成された前記画像について、前記個人情報を表示する人物の顔の部分とそれ以外の人物の部分とを異なる表示方法で前記表示部に表示させることを特徴とする。 The electronic camera according to claim 1, for each person, an information recording unit that records personal information and information related to person recognition of the person, an imaging unit that captures a subject image and generates an image, and the imaging A recognition unit that performs person recognition on the image generated by the unit based on information related to the person recognition recorded in the information recording unit, and a display unit that displays the image generated by the imaging unit When the recognizing unit recognizes one of the persons recorded in the information recording unit in the image generated by the imaging unit, the personal information of the person is read from the information recording unit and displayed. and a display control unit, when a plurality of persons by the person recognition is recognized, the display control unit, for the image generated by the imaging unit, the portion of the face of the person to view the private information and it And a portion of the outside of a person is displayed on the display unit in different display method is characterized in Rukoto.

請求項2に記載の電子カメラは、請求項1に記載の電子カメラにおいて、前記撮像部により生成された前記画像と、前記認識部により認識された前記人物とを関連づけて記録する画像記録部と、前記画像記録部に記録された前記画像を、その画像に関連づけて記録された前記人物の個人情報に基づいて検索する画像検索部とを備え、前記表示制御部は、前記画像検索部による検索結果に応じて、前記画像を前記画像記録部から読み出して前記表示部に表示することを特徴とする。 An electronic camera according to claim 2 is the electronic camera according to claim 1, wherein the image generated by the imaging unit and the person recognized by the recognition unit are recorded in association with each other. An image search unit that searches for the image recorded in the image recording unit based on the personal information of the person recorded in association with the image, and the display control unit performs a search by the image search unit According to the result, the image is read from the image recording unit and displayed on the display unit.

請求項3に記載の電子カメラは、請求項2に記載の電子カメラにおいて、前記表示制御部は、前記画像に関連づけて記録された前記人物の個人情報を前記情報記録部から読み出して前記表示部に表示することを特徴とする。
請求項4に記載の電子カメラは、請求項1に記載の電子カメラにおいて、前記表示制御部は、前記撮像部により生成された前記画像のうち、前記人物の主要部分と重複しない位置に、前記個人情報を重ね合わせて前記表示部に表示することを特徴とする。
The electronic camera according to claim 3 is the electronic camera according to claim 2, wherein the display control unit reads personal information of the person recorded in association with the image from the information recording unit, and the display unit It is characterized by displaying.
The electronic camera according to claim 4 is the electronic camera according to claim 1, wherein the display control unit is located at a position that does not overlap with a main part of the person in the image generated by the imaging unit. The personal information is superimposed and displayed on the display unit.

求項に記載の電子カメラは、請求項1に記載の電子カメラにおいて、前記人物認識により複数の人物が認識された場合、前記表示制御部は、前記個人情報を表示する人物の画像を、ユーザ操作に基づいて前記表示部に拡大表示することを特徴とする。 Electronic camera according to Motomeko 5, in the electronic camera according to claim 1, wherein when a plurality of persons has been recognized by the person recognition, the display control unit, an image of a person displaying the personal information The enlarged display is performed on the display unit based on a user operation.

請求項に記載の電子カメラは、請求項1に記載の電子カメラにおいて、前記人物認識により複数の人物が認識された場合、前記表示制御部は、前記複数の人物について、前記個人情報を順番にまたは一覧に前記表示部に表示することを特徴とする。
請求項に記載の電子カメラは、請求項1に記載の電子カメラにおいて、前記認識部は、前記人物認識に関わる情報に基づく人物認識を行う前に、前記撮像部により生成された前記画像に対して、被写体認識を行い、前記被写体認識により人物と認識された部分に対して、前記人物認識を行うことを特徴とする。
According to a sixth aspect of the present invention , in the electronic camera according to the first aspect, when a plurality of persons are recognized by the person recognition, the display control unit sequentially orders the personal information for the plurality of persons. Or displayed on the display section in a list.
The electronic camera according to claim 7 is the electronic camera according to claim 1, wherein the recognizing unit adds the image generated by the imaging unit before performing person recognition based on information related to the person recognition. On the other hand, subject recognition is performed, and the person recognition is performed on a portion recognized as a person by the subject recognition.

求項に記載の電子カメラは、請求項に記載の電子カメラにおいて、前記情報記録部は、前記被写体認識によって人物と認識された部分のうち、前記人物認識によりいずれの人物も認識されない部分について、ユーザ操作に基づいて、前記個人情報と前記人物認識に関わる情報との少なくとも一方を記録することを特徴とする。 Electronic camera according to Motomeko 8 is an electronic camera according to claim 7, wherein the information recording unit, among the recognized a person by the object recognition section, not recognized any person by the person recognition For the portion, at least one of the personal information and the information related to person recognition is recorded based on a user operation.

請求項9に記載の画像処理プログラムは、コンピュータを、請求項1,4−8のいずれか1項に記載の認識部および表示制御部として機能させることを特徴とする。 The image processing program according to claim 9, computer, according to claim 1, characterized in that to function as a recognition unit and a display control unit according to any one of 4-8.

本発明によれば、顔認識技術を利用して、より多くの情報をユーザに対して提示することができる電子カメラおよび画像処理プログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the electronic camera and image processing program which can show more information with respect to a user using face recognition technology can be provided.

〈第1実施形態〉
以下、図面を用いて本発明の第1実施形態について説明する。第1実施形態では、本発明の電子カメラを搭載した携帯電話機を用いて説明を行う。
図1は、第1実施形態の携帯電話機1の構成を示すブロック図である。
携帯電話機1は、図1に示すように、撮像部2、ユーザ操作を受け付ける操作部3、制御部4、画像処理部5、表示処理部6、情報記録部7、画像記録部8、通信部9を備えており、撮像部2、制御部4、画像処理部5、情報記録部7、画像記録部8、通信部9はバスを介して相互に接続されている。また、不図示の電源ボタン、番号ボタン、その他の選択操作などに関わる十字キーおよび決定ボタンなどを含む操作部3の状態は、制御部4により検知される。また、撮像部2、制御部4、画像処理部5、情報記録部7、画像記録部8、通信部9からの情報は、前述したバスを介して表示部6にも供給される。また、通信部9は、制御部4の指示にしたがって、通話、メールの送受信、インターネットへの接続、画像情報を含む情報の送受信などの通信を行う。
<First Embodiment>
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. In the first embodiment, description will be given using a mobile phone equipped with the electronic camera of the present invention.
FIG. 1 is a block diagram showing the configuration of the mobile phone 1 of the first embodiment.
As shown in FIG. 1, the mobile phone 1 includes an imaging unit 2, an operation unit 3 that receives user operations, a control unit 4, an image processing unit 5, a display processing unit 6, an information recording unit 7, an image recording unit 8, and a communication unit. 9, the image pickup unit 2, the control unit 4, the image processing unit 5, the information recording unit 7, the image recording unit 8, and the communication unit 9 are connected to each other via a bus. Further, the control unit 4 detects the state of the operation unit 3 including a power button, a number button (not shown), a cross key related to other selection operations, a determination button, and the like. Information from the imaging unit 2, the control unit 4, the image processing unit 5, the information recording unit 7, the image recording unit 8, and the communication unit 9 is also supplied to the display unit 6 through the bus described above. The communication unit 9 performs communication such as a call, transmission / reception of mail, connection to the Internet, transmission / reception of information including image information in accordance with instructions from the control unit 4.

なお、撮像部2は、不図示のレンズ、被写体の明るさや撮影距離などを測定する各種センサ、撮像素子、A/D変換器などを備えている。また、制御部4内の不図示のメモリには、各部の動作内容を示すプログラムが予め記録されている。また、情報記録部7は、人物ごとに、個人情報とその人物の顔部分の画像とを予め記録している(詳細は後述する)。個人情報とは、名前、電話番号、住所、メールアドレス、血液型、性別、生年月日、グループ区分、インターネットURLなどである。   The imaging unit 2 includes a lens (not shown), various sensors that measure the brightness and shooting distance of the subject, an imaging device, an A / D converter, and the like. In addition, in a memory (not shown) in the control unit 4, a program indicating the operation content of each unit is recorded in advance. The information recording unit 7 records in advance personal information and an image of the face portion of each person in advance (details will be described later). Personal information includes name, telephone number, address, mail address, blood type, gender, date of birth, group classification, Internet URL, and the like.

また、情報記録部7は、請求項の「情報記録部」に対応し、撮像部2、制御部4は、請求項の「撮像部」に対応する。また、制御部4は、請求項の「認識部」、「表示制御部」および「画像検索部」に対応し、表示部6は、請求項の「表示部」に対応する。また、画像記録部8は、請求項の「画像記録部」に対応する。
以上説明した構成の携帯電話機1の動作について、図2のフローチャートを用いて説明する。
The information recording unit 7 corresponds to the “information recording unit” in the claims, and the imaging unit 2 and the control unit 4 correspond to the “imaging unit” in the claims. The control unit 4 corresponds to “recognition unit”, “display control unit”, and “image search unit” in claims, and the display unit 6 corresponds to “display unit” in claims. The image recording unit 8 corresponds to an “image recording unit” in the claims.
The operation of the mobile phone 1 having the above-described configuration will be described using the flowchart of FIG.

ステップS1において、制御部4は、撮像開始が指示されたか否かを判定する。撮像開始は、操作部3の不図示のレリーズボタンを介して行われる。
制御部4は、撮像開始が指示されるまで待機し、撮像開始が指示されると、ステップS2において、各部を介して撮像を行う。
ステップS3において、制御部4は、被写体認識を行う。制御部4は、ステップS2の撮像により生成した画像に対して被写体認識を行い、人物の部分を認識する。例えば、画像中に、図3に示すように3人の人物(A,B,C)が存在する場合、この被写体認識により、3人の人物(A,B,C)が認識される。
In step S1, the control unit 4 determines whether or not an instruction to start imaging is given. Imaging is started via a release button (not shown) of the operation unit 3.
The control unit 4 stands by until an instruction to start imaging is given, and when the imaging start is instructed, imaging is performed via each unit in step S2.
In step S3, the control unit 4 performs subject recognition. The control unit 4 performs subject recognition on the image generated by the imaging in step S <b> 2 and recognizes the person portion. For example, when there are three persons (A, B, C) as shown in FIG. 3 in the image, the three persons (A, B, C) are recognized by this subject recognition.

ステップS4において、制御部4は、人物認識を行う。制御部4は、ステップS3で認識した人物の部分に対して、人物認識を行う。ステップS3で説明したように、3人の人物が存在する場合、順番に(例えば、左側から)人物認識の対象とする。
具体的には、情報記録部7から予め記録されている人物の顔画像を読み出し、人物認識の対象である人物の画像とパターンマッチングを行う。なお、人物認識においては、パターンマッチングの他に特徴量(両眼の間の距離など)の比較など、どのような手法を用いても良い。そして、情報記録部7に予め記録されている全ての人物を比較対象として、順番に人物認識を行う。
In step S4, the control unit 4 performs person recognition. The control unit 4 performs person recognition on the person portion recognized in step S3. As described in step S <b> 3, when there are three persons, the persons are sequentially recognized (for example, from the left side).
Specifically, a face image of a person recorded in advance from the information recording unit 7 is read out, and pattern matching is performed with an image of a person who is a person recognition target. In person recognition, in addition to pattern matching, any method such as comparison of feature quantities (such as a distance between both eyes) may be used. Then, all persons recorded in advance in the information recording unit 7 are compared, and person recognition is performed in order.

ステップS5において、制御部4は、登録済みの人物であるか否かを判定する。制御部4は、ステップS4の人物認識の結果、人物認識の対象が、情報記録部7に予め記録されている人物のいずれかと一致するか否かを判定し、一致する場合(登録済みである場合)には、ステップS8に進み、一致しない場合(登録済みでない場合)には、ステップS6に進む。   In step S5, the control unit 4 determines whether or not the person is a registered person. As a result of the person recognition in step S4, the control unit 4 determines whether the person recognition target matches any of the persons recorded in advance in the information recording unit 7, and if they match (registered). In the case), the process proceeds to step S8, and if they do not match (not registered), the process proceeds to step S6.

登録済みの人物でない場合、ステップS6において、制御部4は、情報が入力されたか否かを判定する。制御部4は、表示部6に、登録済みの人物でない人物の顔部分の画像を拡大表示するとともに、「この人物の個人情報を入力してください。」というようなメッセージを表示し、ユーザに個人情報の入力を促す。ユーザは、操作部3を介して、名前などの個人情報を入力する。   If it is not a registered person, in step S6, the control unit 4 determines whether information has been input. The control unit 4 enlarges and displays an image of the face portion of a person who is not a registered person on the display unit 6 and displays a message such as “Please enter personal information of this person.” Prompt for personal information. The user inputs personal information such as a name via the operation unit 3.

ステップS7において、制御部4は、情報記録部7に、ステップS6で表示した人物の画像と入力された個人情報とを記録する。
ステップS8において、制御部4は、ステップS3で認識した全ての被写体に対して人物認識を行ったか否かを判定する。
全ての被写体に対して人物認識を行っていない場合、制御部4は、ステップS4に戻り、次の被写体を人物認識の対象として、人物認識を行う。
In step S <b> 7, the control unit 4 records the person image displayed in step S <b> 6 and the input personal information in the information recording unit 7.
In step S8, the control unit 4 determines whether person recognition has been performed for all the subjects recognized in step S3.
If person recognition has not been performed for all subjects, the control unit 4 returns to step S4 and performs person recognition with the next subject as a person recognition target.

そして、全ての被写体に対して人物認識を行うと、ステップS9において、制御部4は、個人情報を情報記録部7から読み出して、表示部6に表示する。
ステップS10において、制御部4は、通信開始が指示されたか否かを判定する。
通信開始が指示されると、ステップS11において、制御部4は、指示にしたがって通信を行う。すなわち、制御部4は、指示にしたがって、ステップS9で表示した電話番号に対する通話や、メールアドレスに対するメールの送信や、インターネットURLに対する接続などを行い、一連の処理を終了する。
When person recognition is performed on all subjects, the control unit 4 reads out personal information from the information recording unit 7 and displays it on the display unit 6 in step S9.
In step S10, the control unit 4 determines whether or not communication start is instructed.
When the start of communication is instructed, in step S11, the control unit 4 performs communication according to the instruction. That is, according to the instruction, the control unit 4 performs a call to the telephone number displayed in step S9, transmits a mail to the mail address, connects to the Internet URL, etc., and ends the series of processes.

なお、ステップS4の人物により複数の人物が人物認識された場合、複数の人物の個人情報を表示することになる。したがって、制御部4は、複数の人物の個人情報を順番に表示する。すなわち、まず、図4Aに示すように、左側の人物の個人情報を表示し、次に中央の人物の個人情報を表示し、最後に、図4Bに示すように右側の人物の個人情報を表する。このとき、個人情報を表示する人物とそれ以外の人物とを異なる表示方法で表示する。図4Aおよび図4Bでは、個人情報を表示する人物の顔部分を除く部分を暗転表示する例を示す。他に、個人情報を表示する人物の顔部分をハイライト表示したり、枠で囲うようにしても良い。図4Aでは、枠aで顔の部分を囲み、点線bで囲まれた部分に個人情報を表示している。また、図4Bでは、枠cで顔の部分を囲み、点線dで囲まれた部分に個人情報を表示している。 When a plurality of persons are recognized by the person in step S4, personal information of the plurality of persons is displayed. Therefore, the control part 4 displays the personal information of a several person in order. That is, first, the personal information of the left person is displayed as shown in FIG. 4A, then the personal information of the central person is displayed, and finally, the personal information of the right person is displayed as shown in FIG. 4B. To do. At this time, the person who displays the personal information and the other person are displayed by different display methods. 4A and 4B show an example in which a portion other than the face portion of a person displaying personal information is dark-displayed. In addition, the face portion of a person displaying personal information may be highlighted or surrounded by a frame. In FIG. 4A, a face part is surrounded by a frame a, and personal information is displayed in a part surrounded by a dotted line b. In FIG. 4B, the face portion is surrounded by a frame c, and personal information is displayed in the portion surrounded by a dotted line d.

また、複数の人物の個人情報を一覧に表示するようにしても良い。すなわち、図5に示すように、複数の人物の個人情報を多分割表示することにより、ユーザは、携帯電話機1をアドレス帳のように使用することができる。
また、ユーザ操作に応じて、個人情報を表示する人物を拡大表示するようにしても良い。すなわち、図6に示すように、枠eに顔部分の画像を拡大表示し、点線fで囲まれた部分に個人情報を拡大表示する。このように表示を行うことにより、特定の人物の画像および個人情報を分かり易く表示することができる。なお、図2のステップS6で説明した個人情報の入力の際にも、図6と同様の表示を行い、ユーザに情報の入力を促すようにすると良い。
Further, personal information of a plurality of persons may be displayed in a list. That is, as shown in FIG. 5, by displaying the personal information of a plurality of persons in multiple divisions, the user can use the mobile phone 1 like an address book.
In addition, a person who displays personal information may be enlarged and displayed in accordance with a user operation. That is, as shown in FIG. 6, the image of the face portion is enlarged and displayed in the frame e, and the personal information is enlarged and displayed in the portion surrounded by the dotted line f. By performing display in this way, it is possible to display an image and personal information of a specific person in an easy-to-understand manner. In addition, when inputting the personal information described in step S6 in FIG. 2, it is preferable to display the same as in FIG. 6 to prompt the user to input information.

さらに、図2のフローチャートでは、未登録の人物(ステップS3の被写体認識により認識されたが、ステップS4の人物認識により認識されない人物)については、ステップS6およびステップS7で個人情報の入力を促す例を示したが、登録済みの人物と未登録の人物とを異なる表示方法で表示することにより、ユーザに未登録の人物を提示するようにしても良い。例えば、図7に示すように、未登録の人物の部分を暗転表示し、それ以外の人物については、個人情報を表示するようにしても良い。図7では、左側の未登録の人物の顔部分を枠gで囲んで暗転表示し、未登録であることを示す文字を表示する例を示す。異なる表示方法であれば、色の違い、ハイライト表示、点滅表示などどのような表示方法を用いるようにしても良い。   Further, in the flowchart of FIG. 2, for an unregistered person (a person who has been recognized by the subject recognition in step S3 but is not recognized by the person recognition in step S4), an example in which input of personal information is prompted in steps S6 and S7. However, the registered person and the unregistered person may be displayed by different display methods to present the unregistered person to the user. For example, as shown in FIG. 7, the part of the unregistered person may be displayed in dark, and personal information may be displayed for other persons. FIG. 7 shows an example in which the face portion of the left unregistered person is surrounded by a frame g and is darkly displayed, and characters indicating unregistered are displayed. As long as the display methods are different, any display method such as a difference in color, highlight display, or blinking display may be used.

また、図2のフローチャートのステップS9の後に、画像を記録するステップを行うようにしても良い。このとき、制御部4は、ステップS2の撮像で生成した画像と、ステップS4で認識した人物とを関連づけて記録する。このように記録を行うことにより、画像の検索時には、人物の種類に基づいて画像の検索を行うことができる。また、その人物の個人情報を画像の検索に用いることにより、様々な検索を行うことができる。   Further, an image recording step may be performed after step S9 of the flowchart of FIG. At this time, the control unit 4 records the image generated by the imaging in step S2 in association with the person recognized in step S4. By recording in this way, when searching for an image, it is possible to search for an image based on the type of person. In addition, various searches can be performed by using the personal information of the person for the search of images.

例えば、図6に示した拡大表示の状態で、さらに枠hを表示し、操作部3の操作に基づいて、個人情報のいずれかを選択する。図6に示すように、例えば「グループA」が選択された場合、個人情報に「グループA」が記録されている人物の全ての画像を、容易に検索することができる。同様に、画像の並べ替えを行うこともできる。
また、スルー画像の撮像時に同様の表示を行うようにすれば、携帯電話機1を、個人情報の管理および検索用のツールとして使用することができる。なお、スルー画像の撮像時に同様の表示を行う場合には、人物の移動に合わせて、個人情報を表示する領域を移動させるのが好ましい。すなわち、人物と重複しない位置に、個人情報を表示する。
For example, in the enlarged display state shown in FIG. 6, a frame h is further displayed, and one of personal information is selected based on the operation of the operation unit 3. As shown in FIG. 6, for example, when “Group A” is selected, all images of persons whose “Group A” is recorded in the personal information can be easily searched. Similarly, the images can be rearranged.
In addition, if the same display is performed when a through image is captured, the mobile phone 1 can be used as a tool for managing and retrieving personal information. In addition, when performing the same display at the time of capturing a through image, it is preferable to move the area for displaying personal information in accordance with the movement of the person. That is, personal information is displayed at a position that does not overlap with a person.

また、図2のフローチャートのステップS1およびステップS2で説明した撮像を、画像の取得に置き換えても良い。すなわち、メールに添付された画像や、インターネット上のホームページなどからダウンロードした画像を取得した場合にも、ステップS3以降で説明した処理を同様に行うようにしても良い。
以上説明したように、第1実施形態によれば、人物ごとに、個人情報とその人物の人物認識に関わる情報とを記録しておき、撮像により生成された画像に対して、予め記録された人物認識に関わる情報に基づいて人物認識を行う。そして、認識の結果、撮像により生成された画像中に、予め記録された人物のいずれかを認識すると、その人物の個人情報を読み出して表示する。したがって、 顔認識技術を利用して、より多くの情報をユーザに対して提示することができる。
Further, the imaging described in step S1 and step S2 in the flowchart of FIG. 2 may be replaced with image acquisition. That is, even when an image attached to an e-mail or an image downloaded from a homepage on the Internet is acquired, the processing described in and after step S3 may be similarly performed.
As described above, according to the first embodiment, for each person, personal information and information related to person recognition of the person are recorded and recorded in advance on an image generated by imaging. Person recognition is performed based on information related to person recognition. As a result of recognition, when one of the persons recorded in advance is recognized in the image generated by imaging, the personal information of the person is read and displayed. Therefore, more information can be presented to the user using the face recognition technology.

また、第1実施形態によれば、撮像により生成された画像と、認識された人物とを関連づけて記録しておくそして、記録された画像を、その画像に関連づけて記録された人物の種類に基づいて検索可能とし、検索結果に応じて画像を読み出して表示する。したがって、顔認識技術を利用して、画像の分類および検索を簡便化することができる。さらに、画像に関連づけて記録された人物の個人情報を情報記録部から読み出して表示することにより、少ない操作で、より多くの情報をユーザに対して提示することができる。   Further, according to the first embodiment, an image generated by imaging and a recognized person are recorded in association with each other, and the recorded image is recorded in the type of person recorded in association with the image. Based on the search result, an image is read out and displayed. Therefore, image classification and search can be simplified using face recognition technology. Furthermore, by reading out personal information of a person recorded in association with an image from the information recording unit and displaying it, more information can be presented to the user with fewer operations.

また、第1実施形態によれば、撮像により生成された画像のうち、人物の主要部分と重複しない位置に、個人情報を重ね合わせて表示する。そのため、対象人物の画像と個人情報とを同時にユーザに対して提示することができる。
また、第1実施形態によれば、人物認識により複数の人物が認識された場合、個人情報を表示する人物とそれ以外の人物とを異なる表示方法で表示する。したがって、どの人物の個人情報が表示されているのかを、分かり易くユーザに対して提示することができる。
Further, according to the first embodiment, personal information is superimposed and displayed at a position that does not overlap with a main part of a person in an image generated by imaging. Therefore, the image of the target person and personal information can be simultaneously presented to the user.
Further, according to the first embodiment, when a plurality of persons are recognized by person recognition, the person displaying personal information and the other person are displayed by different display methods. Therefore, it is possible to easily present to the user which person's personal information is displayed.

また、第1実施形態によれば、人物認識により複数の人物が認識された場合、個人情報を表示する人物の画像を、ユーザ操作に基づいて拡大表示する。したがって、個人情報を表示する人物の画像を、明確にユーザに対して提示することができる。
また、第1実施形態によれば、人物認識により複数の人物が認識された場合、複数の人物について、個人情報を順番にまたは一覧に表示する。したがって、複数の人物が存在する場合でも、全ての人物の個人情報を、分かり易くユーザに対して提示することができる。
According to the first embodiment, when a plurality of persons are recognized by person recognition, an image of a person displaying personal information is enlarged and displayed based on a user operation. Therefore, an image of a person displaying personal information can be clearly presented to the user.
Further, according to the first embodiment, when a plurality of persons are recognized by person recognition, personal information is displayed in order or in a list for the plurality of persons. Therefore, even when there are a plurality of persons, the personal information of all persons can be presented to the user in an easy-to-understand manner.

また、第1実施形態によれば、人物認識に関わる情報に基づく人物認識を行う前に、撮像により生成された画像に対して、被写体認識を行い、被写体認識により人物と認識された部分に対して、人物認識を行う。したがって、人物認識に要する時間を短縮することができる。
また、第1実施形態によれば、被写体認識によって人物と認識された部分のうち、人物認識により認識された人物の部分とそれ以外の部分とを異なる表示方法で表示する。したがって、個人情報を記録している人物と記録していない人物とを、分かり易くユーザに対して提示することができる。
Further, according to the first embodiment, before performing person recognition based on information related to person recognition, subject recognition is performed on an image generated by imaging, and a portion recognized as a person by subject recognition is recognized. Person recognition. Therefore, the time required for person recognition can be shortened.
Further, according to the first embodiment, among the parts recognized as the person by the subject recognition, the person part recognized by the person recognition and the other parts are displayed by different display methods. Therefore, it is possible to present to the user the person who records personal information and the person who does not record personal information in an easy-to-understand manner.

また、第1実施形態によれば、被写体認識によって人物と認識された部分のうち、人物認識によりいずれの人物も認識されない部分について、ユーザ操作に基づいて、個人情報と人物認識に関わる情報との少なくとも一方を記録する。したがって、個人情報を記録していない人物をユーザに対して提示するとともに、その人物について、速やかに情報を記録することが可能となる。   Further, according to the first embodiment, among the parts recognized as the person by the subject recognition, the part in which no person is recognized by the person recognition, the personal information and the information related to the person recognition are determined based on the user operation. Record at least one. Therefore, it is possible to present a person who has not recorded personal information to the user and to quickly record information about the person.

なお、第1実施形態では、ステップS3の被写体認識により認識した全ての被写体に対して、ステップS4で人物認識を行う例を示したが、ユーザ操作に応じて人物認識の対象を限定するようにしても良いし、人物認識の順番を指定させるようにしても良い。
また、第1実施形態では、人物認識に関わる情報として、人物の画像を記録する例を示したが、顔の特徴を示す特徴量などを記録するようにしても良い。
In the first embodiment, the example in which person recognition is performed in step S4 on all the objects recognized by the subject recognition in step S3 has been described. However, the target of person recognition is limited according to the user operation. Alternatively, the order of person recognition may be specified.
In the first embodiment, an example in which a person image is recorded as information related to person recognition has been described. However, a feature amount indicating a facial feature may be recorded.

また、個人情報の種類や、表示する個人情報の内容などは、ユーザ操作により指定可能とするのが好ましい。
〈第2実施形態〉
以下、図面を用いて本発明の第2実施形態について説明する。なお、第2実施形態では、第1実施形態と同様に、本発明の電子カメラを搭載した携帯電話機を用いて説明を行う。携帯電話機の構成については第1実施形態と同様であるため図示および説明を省略し、携帯電話機1と同様の符号を用いて説明を行う。
In addition, it is preferable that the type of personal information, the content of personal information to be displayed, and the like can be specified by user operation.
Second Embodiment
The second embodiment of the present invention will be described below with reference to the drawings. In the second embodiment, as in the first embodiment, description will be made using a mobile phone equipped with the electronic camera of the present invention. Since the configuration of the mobile phone is the same as that of the first embodiment, the illustration and description are omitted, and the description is made using the same reference numerals as those of the mobile phone 1.

図8に、携帯電話機1の表示部6の表示例を示す。制御部4は、画像再生時に、図8に示すように、このような画像とともに、操作用アイコンh,i,jを表示する。そして、操作部3を介して、電話アイコンjが選択されると、制御部4は、図2のフローチャートと同様の処理を行う。そして、人物認識した人物の顔の部分に、図9に示すように、枠k,l,mを表示する。ユーザは、操作部3を介して3つの枠のいずれかを選択することにより、通話を行う相手を選択することができる。   FIG. 8 shows a display example of the display unit 6 of the mobile phone 1. As shown in FIG. 8, the control unit 4 displays operation icons h, i, and j together with such an image during image reproduction. When the telephone icon j is selected via the operation unit 3, the control unit 4 performs the same processing as that in the flowchart of FIG. Then, as shown in FIG. 9, frames k, l, and m are displayed on the face portion of the person who has been recognized. The user can select the other party to call by selecting one of the three frames via the operation unit 3.

制御部4は、選択された人物の個人情報(電話番号)を情報記録部7から読み出し、枠の上部に表示する。図9は、中央の人物の枠lの上部に、名前と電話番号を表示する例を示す。なお、個人情報を表示する枠の色を変えるなど、個人情報を表示しない人物と異なる表示を行う。ユーザは、このような表示を目視して、通話を行う相手を確認することができる。なお、図9では、名前と電話番号を表示する例を示したが、他の個人情報を表示するようにしても良い。   The control unit 4 reads the personal information (phone number) of the selected person from the information recording unit 7 and displays it on the upper part of the frame. FIG. 9 shows an example in which a name and a telephone number are displayed on the upper part of the frame 1 of the central person. It should be noted that a display different from the person who does not display personal information is performed, such as changing the color of a frame for displaying personal information. The user can check such a display and confirm the other party who is talking. FIG. 9 shows an example in which the name and the telephone number are displayed, but other personal information may be displayed.

通話を行う相手を選択した状態で、操作部3の不図示の通話ボタンが選択されると、制御部は、表示した電話番号に発呼を開始し、通話可能状態となる。そして、通話が終了すると、制御部4は、図9に示す表示を再び行う。
なお、上述した通話を行う相手の選択を繰り返すことにより、同じ画像に存在する複数の人物を同時に選択し、同時に複数の人物に対して通話を行うことができる。
When a call button (not shown) on the operation unit 3 is selected in a state in which the other party to make a call is selected, the control unit starts calling the displayed telephone number and enters a call ready state. When the call ends, the control unit 4 performs the display shown in FIG. 9 again.
It should be noted that by repeatedly selecting the other party to make a call as described above, a plurality of persons existing in the same image can be selected at the same time, and a call can be made to a plurality of persons at the same time.

また、図9に示す表示の状態で、全員アイコンpが選択されると、制御部4は、全員について個人情報の表示を行う。また、図10に示すように、人物認識した複数の人物のそれぞれについて個人情報を表示し、チェックボックスq,r,sを表示して、ユーザに通話を行う相手を選択させるようにしても良い。
また、一度通話を行った後には、画像と個人情報とを関連づけて画像記録部8に記録する。このような記録を行うことにより、再度の人物認識を省くことができる。また、ある人物が対応づけられた画像が複数存在する場合には、その人物から着信した場合に、複数の画像を読み出し、表示部6にスライドショーのように表示しても良い。
In addition, when the everyone icon p is selected in the display state shown in FIG. 9, the control unit 4 displays personal information for all of them. In addition, as shown in FIG. 10, personal information may be displayed for each of a plurality of persons who have been recognized, and check boxes q, r, and s may be displayed to allow the user to select a partner to call. .
In addition, after making a call once, the image and personal information are associated and recorded in the image recording unit 8. By performing such recording, it is possible to omit the person recognition again. In addition, when there are a plurality of images associated with a certain person, a plurality of images may be read and displayed on the display unit 6 like a slide show when an incoming call is received from the person.

以上説明したように、第2実施形態によれば、人物ごとに、個人情報とその人物の人物認識に関わる情報とを記録しておき、取得した画像に対して、予め記録された人物認識に関わる情報に基づいて人物認識を行う。そして、認識の結果、取得した画像中に、予め記録された人物のいずれかを認識すると、その人物の個人情報を読み出して表示し、表示した個人情報に基づいて、通信を行う。したがって、画像を利用して、簡便に個人情報を検索し、通信を行うことができる。   As described above, according to the second embodiment, for each person, personal information and information related to the person's recognition of the person are recorded, and the acquired image can be recorded in advance. Person recognition is performed based on the related information. As a result of recognition, when one of the persons recorded in advance is recognized in the acquired image, the personal information of the person is read and displayed, and communication is performed based on the displayed personal information. Therefore, it is possible to simply search for personal information and perform communication using an image.

また、複数の人物が存在する場合には、複数の人物を選択して、同時に通話を行う(メールを送信する)ことができる。1枚の画像に集合写真のように写っている人たちは、例えば、旅行仲間などの同じ目的で行動するグループに所属している場合が多い。したがって、これらの複数の人物に対して同じ内容を報知したい場合には、電話帳に登録された電話相手を何度も探す必要が無くなる。   In addition, when there are a plurality of persons, it is possible to select a plurality of persons and make a call (send mail) at the same time. People who appear in a single image like a group photo often belong to groups that act for the same purpose, such as travel companions. Therefore, when it is desired to notify the same content to a plurality of persons, there is no need to search for the telephone partner registered in the telephone directory many times.

また、同じ人物が複数の画像に対応づけられていれば、複数の画像のいずれの画像からでも個人情報を読み出すことができるので、個人情報の検索に必要な負担を減らすことができる。
なお、人物の画像が横顔である場合には、被写体認識や人物認識を行うことが困難であるため、ユーザが手動で人物の画像を指定可能とすると良い。
Also, if the same person is associated with a plurality of images, personal information can be read from any of the plurality of images, so the burden required for searching for personal information can be reduced.
When a person image is a profile, it is difficult to perform subject recognition or person recognition, and it is preferable that the user can manually specify a person image.

また、第1実施形態および第2実施形態において、表示部6の表示部分が小さく、個人情報を表示するのが困難な場合、画像のみを表示するようにしても良い。このような場合、ユーザの指示にしたがって、その画像に対応づけられた個人情報に基づく通信を行うようにすれば良い。
また、第1実施形態および第2実施形態の発明を、コンピュータや電子手帳、PDAなどに適用しても良い。このような場合、図2に示したフローチャートの一部を各装置のCPUに実行させるようにすれば良い。
In the first embodiment and the second embodiment, when the display portion of the display unit 6 is small and it is difficult to display personal information, only an image may be displayed. In such a case, the communication based on the personal information associated with the image may be performed according to the user's instruction.
The inventions of the first and second embodiments may be applied to computers, electronic notebooks, PDAs, and the like. In such a case, a part of the flowchart shown in FIG. 2 may be executed by the CPU of each device.

また、第1実施形態および第2実施形態の発明を、セキュリティの分野に応用するようにしても良い。すなわち、監視カメラや犯罪者照会用データベースに適用しても良い。
また、第1実施形態および第2実施形態の発明は、個人情報に関わる発明であるため、情報の保持および漏洩に留意する必要がある。そのため、適切なロック機能、コピー防止機能、ユーザ認証機能などを組み合わせることが好ましい。
The inventions of the first embodiment and the second embodiment may be applied to the security field. That is, it may be applied to a surveillance camera or a criminal inquiry database.
In addition, since the inventions of the first embodiment and the second embodiment are inventions related to personal information, it is necessary to pay attention to the retention and leakage of information. Therefore, it is preferable to combine an appropriate lock function, copy protection function, user authentication function, and the like.

第1実施形態の携帯電話機1の構成を示すブロック図である。It is a block diagram which shows the structure of the mobile telephone 1 of 1st Embodiment. 携帯電話機1の動作を示すフローチャートである。4 is a flowchart showing the operation of the mobile phone 1. 表示部6の表示例を示す図である。6 is a diagram illustrating a display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG. 表示部6の別の表示例を示す図である。11 is a diagram showing another display example of the display unit 6. FIG.

符号の説明Explanation of symbols

1 携帯電話機
2 撮像部
3 操作部
4 制御部
5 画像処理部
6 表示部
7 情報記録部
8 画像記録部
9 通信部
DESCRIPTION OF SYMBOLS 1 Mobile phone 2 Imaging part 3 Operation part 4 Control part 5 Image processing part 6 Display part 7 Information recording part 8 Image recording part 9 Communication part

Claims (9)

人物ごとに、個人情報とその人物の人物認識に関わる情報とを記録する情報記録部と、
被写体像を撮像して画像を生成する撮像部と、
前記撮像部により生成された前記画像に対して、前記情報記録部に記録された前記人物認識に関わる情報に基づいて人物認識を行う認識部と、
前記撮像部により生成された前記画像を表示する表示部と、
前記認識部が、前記撮像部により生成された前記画像中に、前記情報記録部に記録された人物のいずれかを認識すると、その人物の個人情報を前記情報記録部から読み出して前記表示部に表示する表示制御部とを備え、
前記人物認識により複数の人物が認識された場合、前記表示制御部は、前記撮像部により生成された前記画像について、前記個人情報を表示する人物の顔の部分とそれ以外の人物の部分とを異なる表示方法で前記表示部に表示させ
ことを特徴とする電子カメラ。
For each person, an information recording unit that records personal information and information related to person recognition of the person,
An imaging unit that captures a subject image and generates an image;
A recognition unit that performs person recognition on the image generated by the imaging unit based on information related to the person recognition recorded in the information recording unit;
A display unit for displaying the image generated by the imaging unit;
When the recognizing unit recognizes one of the persons recorded in the information recording unit in the image generated by the imaging unit, the personal information of the person is read from the information recording unit and is displayed on the display unit. A display control unit for displaying,
If a plurality of persons by the person recognition is recognized, the display control unit, for the image generated by the imaging unit, a portion and the other person portion of the face of the person to view the private information an electronic camera, characterized in that Ru is displayed on the display unit in different display methods.
請求項1に記載の電子カメラにおいて、
前記撮像部により生成された前記画像と、前記認識部により認識された前記人物とを関連づけて記録する画像記録部と、
前記画像記録部に記録された前記画像を、その画像に関連づけて記録された前記人物の個人情報に基づいて検索する画像検索部とを備え、
前記表示制御部は、前記画像検索部による検索結果に応じて、前記画像を前記画像記録部から読み出して前記表示部に表示する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
An image recording unit that records the image generated by the imaging unit in association with the person recognized by the recognition unit;
An image search unit for searching the image recorded in the image recording unit based on personal information of the person recorded in association with the image;
The display control unit reads the image from the image recording unit and displays the image on the display unit according to a search result by the image search unit.
請求項2に記載の電子カメラにおいて、
前記表示制御部は、前記画像に関連づけて記録された前記人物の個人情報を前記情報記録部から読み出して前記表示部に表示する
ことを特徴とする電子カメラ。
The electronic camera according to claim 2,
The display control unit reads out the personal information of the person recorded in association with the image from the information recording unit and displays the personal information on the display unit.
請求項1に記載の電子カメラにおいて、
前記表示制御部は、前記撮像部により生成された前記画像のうち、前記人物の主要部分と重複しない位置に、前記個人情報を重ね合わせて前記表示部に表示する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The display control unit superimposes and displays the personal information on the display unit at a position that does not overlap with a main part of the person in the image generated by the imaging unit.
請求項1に記載の電子カメラにおいて、
前記人物認識により複数の人物が認識された場合、前記表示制御部は、前記個人情報を表示する人物の画像を、ユーザ操作に基づいて前記表示部に拡大表示する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
When a plurality of persons are recognized by the person recognition, the display control unit enlarges and displays an image of a person displaying the personal information on the display unit based on a user operation.
請求項1に記載の電子カメラにおいて、
前記人物認識により複数の人物が認識された場合、前記表示制御部は、前記複数の人物について、前記個人情報を順番にまたは一覧に前記表示部に表示する
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
When a plurality of persons are recognized by the person recognition, the display control unit displays the personal information on the plurality of persons in order or in a list on the display unit.
請求項1に記載の電子カメラにおいて、
前記認識部は、前記人物認識に関わる情報に基づく人物認識を行う前に、前記撮像部により生成された前記画像に対して、被写体認識を行い、前記被写体認識により人物と認識された部分に対して、前記人物認識を行う
ことを特徴とする電子カメラ。
The electronic camera according to claim 1,
The recognizing unit performs subject recognition on the image generated by the imaging unit before performing person recognition based on information related to the person recognition, and for a portion recognized as a person by the subject recognition. An electronic camera characterized by performing the person recognition.
請求項7に記載の電子カメラにおいて、
前記情報記録部は、前記被写体認識によって人物と認識された部分のうち、前記人物認識によりいずれの人物も認識されない部分について、ユーザ操作に基づいて、前記個人情報と前記人物認識に関わる情報との少なくとも一方を記録する
ことを特徴とする電子カメラ。
The electronic camera according to claim 7,
The information recording unit is configured to obtain, based on a user operation, a portion of the portion recognized as a person by the subject recognition and a portion where no person is recognized by the person recognition based on a user operation. An electronic camera characterized by recording at least one of them.
コンピュータを、請求項1,4−8のいずれか1項に記載の認識部および表示制御部として機能させるための画像処理プログラム。 Computer, according to claim 1, 4 8 image processing program for operating as a recognition unit and a display control unit according to any one of.
JP2004351940A 2004-12-03 2004-12-03 Electronic camera and program Active JP4720167B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004351940A JP4720167B2 (en) 2004-12-03 2004-12-03 Electronic camera and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004351940A JP4720167B2 (en) 2004-12-03 2004-12-03 Electronic camera and program

Publications (2)

Publication Number Publication Date
JP2006165822A JP2006165822A (en) 2006-06-22
JP4720167B2 true JP4720167B2 (en) 2011-07-13

Family

ID=36667359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351940A Active JP4720167B2 (en) 2004-12-03 2004-12-03 Electronic camera and program

Country Status (1)

Country Link
JP (1) JP4720167B2 (en)

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5228307B2 (en) 2006-10-16 2013-07-03 ソニー株式会社 Display device and display method
JP4765909B2 (en) * 2006-11-24 2011-09-07 カシオ計算機株式会社 Imaging apparatus, group member determination method and program
JP4639208B2 (en) 2007-03-16 2011-02-23 富士フイルム株式会社 Image selection apparatus, image selection method, imaging apparatus, and program
JP2008244903A (en) * 2007-03-28 2008-10-09 Casio Comput Co Ltd Photographing device, control program, and display control method
WO2008133237A1 (en) * 2007-04-23 2008-11-06 Sharp Kabushiki Kaisha Image picking-up device, computer readable recording medium including recorded program for control of the device, and control method
JP4998202B2 (en) * 2007-10-23 2012-08-15 日本電気株式会社 Mobile communication terminal
JP5273998B2 (en) 2007-12-07 2013-08-28 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2009290541A (en) * 2008-05-29 2009-12-10 Casio Hitachi Mobile Communications Co Ltd Mobile terminal apparatus and program
JP5274357B2 (en) * 2008-06-16 2013-08-28 キヤノン株式会社 Authentication device, imaging device, authentication method, and program thereof
JP5153478B2 (en) 2008-06-26 2013-02-27 キヤノン株式会社 Image processing apparatus and image processing method
JP5182507B2 (en) * 2008-09-26 2013-04-17 カシオ計算機株式会社 Imaging apparatus, imaging guide method, and program
JP4816717B2 (en) 2008-12-09 2011-11-16 ソニー株式会社 Image processing apparatus, imaging apparatus, image processing method, and program
KR101049009B1 (en) * 2009-02-09 2011-07-12 주식회사 팬택 Device and method for managing phone number using image in mobile terminal
JP5272884B2 (en) * 2009-05-11 2013-08-28 ブラザー工業株式会社 Image display apparatus, image display method, and image display program
JP5526620B2 (en) * 2009-06-25 2014-06-18 株式会社ニコン Digital camera
JP5604285B2 (en) 2009-12-28 2014-10-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Imaging device
JP5467992B2 (en) 2010-01-06 2014-04-09 パナソニック株式会社 Imaging device
JP2012008802A (en) * 2010-06-24 2012-01-12 Toshiba Corp Monitoring system and person specification method
JP5348114B2 (en) * 2010-11-18 2013-11-20 日本電気株式会社 Information display system, apparatus, method and program
JP2012195812A (en) * 2011-03-17 2012-10-11 Nec Saitama Ltd Face detection device, face detection method, and program
JP6080417B2 (en) 2011-08-19 2017-02-15 キヤノン株式会社 Image processing apparatus and image processing method
JP5869805B2 (en) * 2011-08-25 2016-02-24 キヤノン株式会社 Information processing apparatus, imaging apparatus, control method therefor, program, and storage medium
JP2013164745A (en) * 2012-02-10 2013-08-22 Sharp Corp Communication terminal
JP5911732B2 (en) * 2012-02-21 2016-04-27 京セラ株式会社 Portable terminal device, program, and application execution control method
JP6021366B2 (en) * 2012-03-12 2016-11-09 キヤノン株式会社 Information processing system, information processing system control method, information processing apparatus, and computer program.
JP5279930B1 (en) 2012-03-27 2013-09-04 株式会社東芝 Server, electronic device, server control method, server control program
JP5979984B2 (en) * 2012-05-28 2016-08-31 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP2013083994A (en) * 2012-11-30 2013-05-09 Sony Corp Display unit and display method
JP5555344B2 (en) * 2013-03-05 2014-07-23 オリンパスイメージング株式会社 IMAGING DEVICE AND IMAGING DEVICE PROGRAM
JP6338418B2 (en) * 2014-03-28 2018-06-06 三菱電機株式会社 Image processing apparatus and image processing method
JP6458782B2 (en) * 2016-07-28 2019-01-30 カシオ計算機株式会社 Display control apparatus, display control method, and program
CN107748879A (en) * 2017-11-16 2018-03-02 百度在线网络技术(北京)有限公司 For obtaining the method and device of face information
WO2021199124A1 (en) * 2020-03-30 2021-10-07 日本電気株式会社 Detection device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3585625B2 (en) * 1996-02-27 2004-11-04 シャープ株式会社 Image input device and image transmission device using the same
US6038333A (en) * 1998-03-16 2000-03-14 Hewlett-Packard Company Person identifier and management system
JP3984029B2 (en) * 2001-11-12 2007-09-26 オリンパス株式会社 Image processing apparatus and program
JP4055539B2 (en) * 2002-10-04 2008-03-05 ソニー株式会社 Interactive communication system
JP4196714B2 (en) * 2003-04-15 2008-12-17 株式会社ニコン Digital camera

Also Published As

Publication number Publication date
JP2006165822A (en) 2006-06-22

Similar Documents

Publication Publication Date Title
JP4720167B2 (en) Electronic camera and program
JP4552632B2 (en) Portable device
EP2174482B1 (en) Apparatus, method and computer program product for using images in contact lists maintained in electronic devices
US8224128B2 (en) Portable information terminal device
US8363951B2 (en) Face recognition training method and apparatus
JP5522976B2 (en) How to use image information on mobile devices
US20110043643A1 (en) Method for transmitting image and image pickup apparatus applying the same
US20060104483A1 (en) Wireless digital image capture device with biometric readers
US20140129981A1 (en) Electronic Device and Method for Handling Tags
JP5348682B2 (en) Image management apparatus, control method thereof, and program
JP2006293912A (en) Information display system, information display method and portable terminal device
JP2005267146A (en) Method and device for creating email by means of image recognition function
JP4998202B2 (en) Mobile communication terminal
JP2006134008A (en) Business store system
JP2005293544A (en) Identity verification device
JP2008269411A (en) Image keyword editing system, image keyword provision server and image keyword editing device
CN110717399A (en) Face recognition method and electronic terminal equipment
JP3982132B2 (en) Information output control method and information display device
JP6794819B2 (en) Image print system
JP2009049886A (en) Image retrieval device, photographing device, image retrieval method, and program
JP6725926B1 (en) Information processing apparatus, information processing system, computer program, and information processing method
JP4150651B2 (en) Support information providing method, support information providing program, and information providing management system
JP2005057360A (en) Picture photographing apparatus and program
JP2006318352A (en) Image processing device
KR101619091B1 (en) Method for transmitting image and image pickup apparatus applying the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110308

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110321

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4720167

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250