JP2014174782A - Image processing device, image processing method and program - Google Patents

Image processing device, image processing method and program Download PDF

Info

Publication number
JP2014174782A
JP2014174782A JP2013047532A JP2013047532A JP2014174782A JP 2014174782 A JP2014174782 A JP 2014174782A JP 2013047532 A JP2013047532 A JP 2013047532A JP 2013047532 A JP2013047532 A JP 2013047532A JP 2014174782 A JP2014174782 A JP 2014174782A
Authority
JP
Japan
Prior art keywords
person
image
processing apparatus
image processing
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013047532A
Other languages
Japanese (ja)
Other versions
JP5874982B2 (en
Inventor
Yoshiki Ishige
善樹 石毛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2013047532A priority Critical patent/JP5874982B2/en
Publication of JP2014174782A publication Critical patent/JP2014174782A/en
Application granted granted Critical
Publication of JP5874982B2 publication Critical patent/JP5874982B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To appropriately identify a person in an image in relation to a subject executing processing to the image.SOLUTION: A name database d1 stores for example "a name" and "a face image and a feature" as person information for each of a plurality of persons (e.g. relatives). A person relationship database d2 stores a relationship (a relative structure) between the persons (the relatives). A control section 1 refers to the name database d1, recognizes the person on the basis of a face of the person in the image, and identifies a person relationship to the recognized person on the basis of the person relationship database d2 from a perspective of a person who is the subject executing the processing to the image (e.g. the subject seeing the image).

Description

本発明は、画像を処理する画像処理装置、画像処理方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for processing an image.

一般に、デジタルカメラなどの撮像装置は、撮影時にその撮影日時の年月日情報や撮影場所の位置情報を取得して、その画像ファイルのExif(Exchangeable Image File Format)情報として付加して記録保存するようにしている。更に、従来では、撮影画像内の人物の顔を認識してその顔から人物を特定し、その人物の名前及び年齢を撮影画像内の人物に関連付けておくことによって、その撮影画像の再生時に画像内の各人物に対応付けてその名前及び年齢を表示するようにした技術が開示されている(特許文献1参照)。   In general, an imaging device such as a digital camera acquires date / time information of a shooting date and position information of a shooting location at the time of shooting, and adds and stores the information as Exif (Exchangeable Image File Format) information of the image file. I am doing so. Further, conventionally, by recognizing a person's face in the captured image, identifying the person from the face, and associating the person's name and age with the person in the captured image, A technique is disclosed in which the name and age are displayed in association with each person (see Patent Document 1).

特開2009−110147号公報JP 2009-110147 A

しかしながら、上述の特許文献の技術は、画像内の各人物に対応付けてその名前及び年齢を表示することによって、誰が何歳の時に撮影した画像であるかを知ることができたとしても、その画像を観る人が親族であるか他人であるかに拘わらず、その付加情報を一律に表示することは、形式的であって面白みに欠けたり、理解されなかったり、親しみ易さがなかったりする、などの問題が残る。このことは、画像を観る他に、付加情報に基づく何らかの処理を行う場合も同様の問題がある。   However, even if the technique of the above-mentioned patent document displays the name and age in association with each person in the image, even if it is possible to know who is the image taken at what age, Regardless of whether the person viewing the image is a relative or another person, displaying the additional information uniformly is formal and lacks interest, is not understood, or is not easy to get to know , Etc. problems remain. This has the same problem when performing some processing based on the additional information in addition to viewing the image.

本発明の課題は、画像内の人物をその画像に対する処理の主体との関係において適切に特定できるようにすることである。   An object of the present invention is to enable appropriate identification of a person in an image in relation to a subject of processing for the image.

上述した課題を解決するために本発明の画像処理装置は、
複数の人物の相関関係を記憶する人物記憶手段と、
画像内の人物の顔に基づいてその人物を認識する認識手段と、
画像に対する処理の主体となる人物を決定する決定手段と、
前記決定手段によって決定された主体の人物を視点として、前記認識手段によって認識された人物との人物関係を前記複数の人物の相関関係に基づいて特定する特定手段と、
を備えたことを特徴とする画像処理装置である。
In order to solve the above-described problems, the image processing apparatus of the present invention provides:
Person storage means for storing a correlation between a plurality of persons;
Recognition means for recognizing the person based on the face of the person in the image;
A determination means for determining a person who is a subject of processing for an image;
Specifying means for specifying a person relationship with the person recognized by the recognition means based on the correlation of the plurality of persons, with the subject person determined by the determination means as a viewpoint;
An image processing apparatus comprising:

上述した課題を解決するために本発明の画像処理方法は、
画像内の人物の顔に基づいてその人物を認識するステップと、
画像に対する処理の主体となる人物を視点として、前記認識された人物との人物関係を複数の人物の相関関係に基づいて特定するステップと、
を含むことを特徴とする画像処理方法である。
In order to solve the above-described problem, the image processing method of the present invention
Recognizing the person based on the person's face in the image;
Specifying a person relationship with the recognized person based on a correlation between a plurality of persons, with a person who is a subject of processing on an image as a viewpoint;
The image processing method characterized by including.

上述した課題を解決するために本発明のプログラムは、
コンピュータに対して、
画像内の人物の顔に基づいてその人物を認識する機能と、
画像に対する処理の主体となる人物を決定する機能と、
前記決定された主体の人物を視点として、前記認識された人物との人物関係を複数の人物の相関関係に基づいて特定する機能と、
を実現させるためのプログラムである。
In order to solve the above-described problems, the program of the present invention
Against the computer,
The ability to recognize a person based on the person's face in the image,
A function to determine the person who will be the subject of processing for the image;
A function of specifying a person relationship with the recognized person based on a correlation between a plurality of persons, with the determined subject person as a viewpoint;
It is a program for realizing.

本発明によれば、画像内の人物をその画像に対する処理の主体との関係において適切に特定することができる。   According to the present invention, it is possible to appropriately identify a person in an image in relation to the subject of processing for the image.

画像処理装置として適用したデジタルカメラの基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the digital camera applied as an image processing apparatus. 名前データベースd1を説明するための図。The figure for demonstrating the name database d1. 人物関係データベースd2を説明するための図。The figure for demonstrating the person relationship database d2. 関連解析基礎データベースd3を説明するための図。The figure for demonstrating the related analysis basic database d3. (1)、(2)は、画像再生時にその画像に対する処理の主体を視点として、その画像内の各人物がどのような人物関係にあるかを示す情報(続柄)を各人物に対応付けて付加表示(識別表示)した場合を例示した図。In (1) and (2), the information (relationship) indicating what kind of person each person in the image has is related to each person from the viewpoint of the subject of processing for the image at the time of image reproduction. The figure which illustrated the case where additional display (identification display) was carried out. 名前データベースd1及び人物関係データベースd2への登録処理を示したフローチャート。The flowchart which showed the registration process to the name database d1 and the person relationship database d2. 再生モードで人物関係付加表示機能が指定された際に実行開始されるフローチャート。10 is a flowchart that starts execution when a person relationship additional display function is designated in a playback mode. 図7の動作に続くフローチャート。8 is a flowchart following the operation of FIG. 主体決定処理(図7のステップB3)を詳述するためのフローチャート。8 is a flowchart for explaining in detail the subject determination process (step B3 in FIG. 7). (1)は、主体(A又はF)に応じた人物関係を例示した図、(2)、(3)は、主体(A又はC)の場合にその人物関係に応じて取得した文字列(続柄)を例示した図。(1) is a diagram illustrating a person relationship according to the subject (A or F), and (2) and (3) are character strings (according to the person relationship in the case of the subject (A or C)) ( The figure which illustrated the connection). (1)、(2)は、人物関係を付加表示する場合の具体例を示した図。(1), (2) is the figure which showed the specific example in the case of adding and displaying a person relationship.

以下、図1〜図11を参照して本発明の実施形態を説明する。
本実施形態は、画像処理装置としてデジタルカメラに適用した場合を例示したもので、図1は、この画像処理装置(デジタルカメラ)の基本的な構成要素を示したブロック図である。
このデジタルカメラは、静止画像のほかに動画像の撮影も可能なデジタルコンパクトカメラであり、画像を撮影する撮像機能、現在日時やタイマ時間を計時する計時機能、記録保存している撮影済み画像(保存画像)を任意に読み出して再生する画像再生機能、画像内の人物の顔からその人物を認識する顔認識機能などのほか、本実施形態では人物関係付加表示機能を備えている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a digital camera as an image processing apparatus. FIG. 1 is a block diagram showing basic components of the image processing apparatus (digital camera).
This digital camera is a digital compact camera that can shoot moving images in addition to still images. It has an image capturing function for capturing images, a time counting function for measuring the current date and time and timer time, and recorded and saved images ( In addition to an image reproduction function for arbitrarily reading out and reproducing (saved images) and reproduction, a face recognition function for recognizing a person from the face of the person in the image, etc., in this embodiment, a person relationship additional display function is provided.

この顔認識機能は、画像を解析して人物の顔を認識することでその人物を特定する機能であり、このような顔認識機能は、カメラにおいて一般的に用いられている技術であり、本実施形態ではその周知技術を利用するようにしているため、その説明は省略する。人物関係付加表示機能は、撮影画像の再生時にその画像に対する処理の主体(本実施形態では画像を観る主体)を視点として、その画像内の各人物がどのような関係にあるかを示す情報(例えば、親族であれば、続柄を示す文字列)を画像内の各人物に対応付けて付加表示(識別表示)する機能である。   This face recognition function is a function for identifying a person by analyzing the image and recognizing the person's face. Such a face recognition function is a technique commonly used in cameras, Since the known technique is used in the embodiment, the description thereof is omitted. The person relationship addition display function is information indicating how each person in the image has a relationship from the viewpoint of the subject of the processing of the image (in this embodiment, the subject of viewing the image) during playback of the captured image ( For example, in the case of a relative, this is a function of additionally displaying (identifying display) a character string indicating a relationship) in association with each person in the image.

制御部1は、電源部(二次電池)2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこのデジタルカメラの全体動作を制御するもので、この制御部1には図示しないCPU(中央演算処理装置)やメモリなどが設けられている。記憶部3は、例えば、ROM、フラッシュメモリなどを有する構成で、後述する図6〜図9に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているプログラムメモリm1と、このデジタルカメラが動作するために必要となる各種の情報(例えば、フラグなど)を一時的に記憶するワークメモリm2と、撮影済み画像を記録保存する画像メモリm3のほか、後述する名前データベースd1、人物関係データベースd2、関連解析基礎データベースd3を有している。なお、記憶部3は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、図示しないが、通信機能を介してネットワークに接続されている状態においては所定のサーバ装置側における記憶領域を含むものであってもよい。   The control unit 1 operates by supplying power from the power source unit (secondary battery) 2 and controls the overall operation of the digital camera in accordance with various programs in the storage unit 3. A CPU (Central Processing Unit) and a memory (not shown) are provided. The storage unit 3 includes, for example, a ROM, a flash memory, and the like, and stores programs and various applications for realizing the present embodiment in accordance with operation procedures shown in FIGS. A program memory m1, a work memory m2 for temporarily storing various kinds of information (for example, flags) necessary for the operation of the digital camera, an image memory m3 for recording and saving captured images, It has a name database d1, a person relation database d2, and a related analysis basic database d3, which will be described later. The storage unit 3 may include a removable portable memory (recording medium) such as an SD card or an IC card, and is connected to a network via a communication function (not shown). In the state, a storage area on a predetermined server device side may be included.

操作部4は、図示省略したが、撮影可能な状態とする撮影モードと撮影画像を再生する再生モードを任意に切り替えるモード変更キーと、撮影開始を指示するシャッタキーと、撮影パラメータ設定キーなどを備えている。制御部1は、この操作部4から操作キーに対応して出力される入力操作信号に応じて、例えば、モード変更処理、撮影処理、撮影条件の設定処理などを行う。表示部5は、高精細液晶ディスプレイあるいは有機EL(Electro Luminescence)ディスプレイで、ライブビュー画像を表示するモニタ画面となったり、撮影画像を再生する再生画面となったりする。なお、操作部4と表示部5とによってタッチパネル及び表示パネルを備えたタッチ表示部を構成するようにしてもよい。   Although not shown, the operation unit 4 includes a mode change key for arbitrarily switching between a shooting mode for enabling shooting and a playback mode for reproducing a shot image, a shutter key for instructing start of shooting, a shooting parameter setting key, and the like. I have. The control unit 1 performs, for example, a mode change process, a shooting process, a shooting condition setting process, and the like according to an input operation signal output from the operation unit 4 corresponding to the operation key. The display unit 5 is a high-definition liquid crystal display or an organic EL (Electro Luminescence) display, and serves as a monitor screen that displays a live view image or a playback screen that reproduces a captured image. In addition, you may make it comprise the touch display part provided with the touch panel and the display panel by the operation part 4 and the display part 5. FIG.

撮像部6は、光学レンズからの被写体画像が撮像素子(CCDやCMOSなど)に結像されることにより被写体を高精細に静止画撮影することが可能なもので、撮影レンズ、撮像素子、ストロボ、各種のセンサ、アナログ処理部、デジタル処理部を有している。この撮像部6によって撮影された画像は、その画像のサイズを縮小することによって圧縮(可逆圧縮)してファイル化する画像圧縮処理が施された後に、記憶部3に記録保存される。   The imaging unit 6 is capable of taking a high-definition still image by imaging a subject image from an optical lens on an imaging device (CCD, CMOS, etc.). And various sensors, analog processing units, and digital processing units. The image captured by the imaging unit 6 is recorded and stored in the storage unit 3 after being subjected to image compression processing for compression (reversible compression) by reducing the size of the image to form a file.

図2は、人物関係付加表示機能で使用する名前データベースd1を説明するための図である。
名前データベースd1は、複数の人物(グループを構成する各人物)の個々に対応してその個人情報(人物情報)を記憶するもので、「ID」、「名前」、「年齢」、「顔画像・特徴データ」の各項目を有し、その内容は予めユーザ操作によって操作部4から任意に入力されて登録されたものである。ここで、図示の例では、複数の人物(親族)を構成する各人の個人情報(人物情報)を記憶した場合で、「ID」は、人物識別情報であり、図示の例では“A”、“B”、…、が人物IDとして登録されている。
FIG. 2 is a diagram for explaining the name database d1 used in the person relationship addition display function.
The name database d1 stores personal information (person information) corresponding to each of a plurality of persons (each person constituting a group), and “ID”, “name”, “age”, “face image” Each item of “feature data” has contents that are arbitrarily input and registered in advance from the operation unit 4 by a user operation. Here, in the illustrated example, personal information (person information) of each person constituting a plurality of persons (relatives) is stored, and “ID” is person identification information, and in the illustrated example, “A”. , “B”,... Are registered as person IDs.

「名前」は、その人物の氏名(実名)である。「年齢」は、操作部4から予め入力された生年月日情報に基づいて算出した現時点での実年齢であり、制御部1は、その「年齢」の更新処理を定期的(例えば、1日毎)に実行するようにしている。「顔画像・特徴」は、本人の顔画像と共にその画像を解析して得られた顔の特徴情報であり、顔認識時に照合用として参照される基本情報である。なお、制御部1は、「顔画像・特徴」のうち最初に特徴情報で照合した結果、人物を認識することができなかった場合にその顔画像で再度照合するようにしている。   “Name” is the name (real name) of the person. “Age” is the current actual age calculated based on the birth date information input in advance from the operation unit 4, and the control unit 1 periodically updates the “age” (for example, every day ) To run. The “face image / feature” is face feature information obtained by analyzing the face image together with the person's face image, and is basic information referred to for collation during face recognition. Note that the control unit 1 tries to collate again with the face image when the person cannot be recognized as a result of the collation with the feature information first of the “face image / feature”.

図3は、人物関係付加表示機能で使用する人物関係データベースd2を説明するための図である。
人物関係データベースd2は、上述の名前データベースd1内に記憶されている複数の人物の相関関係を定義するもので、その内容は予めユーザ操作により任意に入力されて登録されたものである。図示の例は、複数の人物として親族を例示した場合で、その親族の相関関係(親族の構成)をどのようなデータ構造で定義するかは任意である。図3(1)〜(3)は、親族の相関関係をツリー構造(階層構造)で示した相関図を示し、制御部1は、画像を観る主体となる人物を視点として、その画像内の人物との関係(人物関係:続柄)を人物関係データベースd2に定義されている複数の人物(親族)の相関関係(親族の構成)に基づいて特定するようにしている。なお、図中、黒塗りの円形は、主体となる人物(A)を示している(以下、同様)。
FIG. 3 is a diagram for explaining the person relation database d2 used in the person relation additional display function.
The person relation database d2 defines a correlation between a plurality of persons stored in the name database d1 described above, and the contents are arbitrarily input and registered in advance by a user operation. In the example shown in the figure, relatives are exemplified as a plurality of persons, and it is arbitrary what data structure is used to define the correlation (configuration of relatives) of the relatives. FIGS. 3 (1) to (3) show correlation diagrams showing the correlation of relatives in a tree structure (hierarchical structure), and the control unit 1 uses a person who is the subject of viewing an image as a viewpoint, The relationship (person relationship: relationship) with a person is specified based on the correlation (relative structure) of a plurality of persons (relatives) defined in the personal relationship database d2. In the figure, a black circle indicates the main person (A) (the same applies hereinafter).

図3(1)は、基準となる人物(ID:A、男)を視点とした場合において、人物(ID:B、女)は人物(A)の妻、人物(ID:C、男)は人物(A)の息子、人物(ID:D、女)は人物(C)の妹であることを示した相関図である。同様に、図3(2)は、基準となる人物B(女)を視点とした場合に、人物(C)は人物(B)の息子、人物(D)は人物(C)の妹であることを示した相関図である。図3(3)は、基準となる人物A(男)を視点とした場合に、人物(B)は人物(A)の妻、人物(C)は人物(A)の息子、人物(D)は人物(C)の妹、人物(E)は人物(D)の弟であることを示した相関図である。   FIG. 3 (1) shows that the person (ID: B, female) is the wife of the person (A), and the person (ID: C, male) is the person (ID: A, male) as the viewpoint. It is a correlation diagram showing that the son of the person (A) and the person (ID: D, woman) are the sisters of the person (C). Similarly, in FIG. 3 (2), the person (C) is the son of the person (B) and the person (D) is the younger sister of the person (C) when the person B (female) serving as a reference is viewed. It is the correlation diagram which showed that. FIG. 3 (3) shows that the person (B) is the wife of the person (A), the person (C) is the son of the person (A), and the person (D) when the reference person A (male) is the viewpoint. Is a correlation diagram showing that the younger sister of the person (C) and the person (E) is the younger brother of the person (D).

図4は、人物関係付加表示機能で使用する関連解析基礎データベースd3を説明するための図である。
関連解析基礎データベースd3は、名前データベースd1内の各人物の「名前」に代わって呼ばれる続柄の一般定義を記憶するデータベースであり、名前データベースd1内の複数の人物(親族)において、基準となる人物を視点として、他の人物との関係(続柄)を示す文字列(人物関係を示す情報)を記憶している。すなわち、基準となる人物が誰かに応じて続柄の呼び方が異なるために、例えば、“妻の逆は夫”、“息子の逆は父”、…、“妻の父は義父”、…、“父の妻は母”、“父の父は祖父”…、を記憶している。
FIG. 4 is a diagram for explaining the relation analysis basic database d3 used in the person relation addition display function.
The related analysis basic database d3 is a database that stores general definitions of relationships called in place of the “name” of each person in the name database d1, and is a reference person among a plurality of persons (relatives) in the name database d1. A character string (information indicating a person relationship) indicating a relationship (relationship) with another person is stored. In other words, because the name of the relationship is different depending on who the standard person is, for example, “the reverse of the wife is the husband”, “the reverse of the son is the father”,…, “the father of the wife is the father-in-law”,…, "My father's wife is my mother", "My father's father is my grandfather" ...

また、同じ視点でもその主体の年齢によって続柄の呼び方(表現形式)が異なるように、例えば、“父”=“お父さん”、“祖父”=“お爺ちゃん”、…などを記憶している(図示省略)。例えば、18歳未満の場合には、その主体にとってどのような関係にある人物であるかを理解し易い表現又は親しみ易い表現となるような文字列を記憶している。制御部1は、画像再生時にその画像を観る主体を視点として、その画像内の各人物がどのような人物関係にあるかを、人物関係データベースd2を参照することによって特定した場合に、その相関関係に応じた続柄を示す文字列を関連解析基礎データベースd3から読み出すようにしている。   Also, from the same viewpoint, for example, “Father” = “Dad”, “Grandfather” = “Grandpa”, etc. are stored so that the relationship name (expression format) varies depending on the age of the subject. (Not shown). For example, in the case of a person under the age of 18, a character string is stored so that the expression is easy to understand or familiar to the person in relation to the subject. When the control unit 1 specifies what kind of person relationship each person in the image has from the viewpoint of the subject who views the image during image reproduction by referring to the person relation database d2, the correlation A character string indicating a relationship according to the relationship is read from the related analysis basic database d3.

図5は、人物関係付加表示機能を実行した場合の表示例を示した図である。
すなわち、画像再生時にその画像を観る主体を視点として、その画像内の各人物がどのような人物関係(続柄)にあるかを示す情報を各人物に対応付けて付加表示(識別表示)した場合を例示した図である。制御部1は、画像再生時にその画像を観る主体となる人物を決定するようにしているが、その際、ユーザ操作によって入力指定された人物を主体として決定したり、撮像部6でユーザ自身を撮影した画像内の人物を主体として決定したりするようにしている。
FIG. 5 is a diagram showing a display example when the person relationship addition display function is executed.
In other words, from the viewpoint of the subject who views the image during image reproduction, information indicating what kind of person relationship (relationship) each person in the image is associated with each person is additionally displayed (identified display) FIG. The control unit 1 determines the person who will be the subject to view the image during image reproduction. At that time, the control unit 1 determines the person who is designated to be input by the user operation as the subject, or the imaging unit 6 identifies the user himself / herself. A person in the captured image is determined as a subject.

図5(1)は、主体が人物(A)の場合の表示例で、人物(B)の続柄として“妻”、人物(C)の続柄として“息子”が付加表示された場合である。この場合、続柄の付加表示(識別表示)は、背景用の矩形枠内に続柄の文字列を配置し、この矩形枠を画像内に合成するようにしたもので、人物の顔を避けてその身体内に合成配置した場合を例示している。図5(2)は、主体が人物(C)の場合の表示例で、人物(B)の続柄として“母”、人物(C)の続柄として“僕”が付加表示された場合である。この場合、図5(1)と同様に、続柄の付加表示(識別表示)は、矩形枠を画像内に合成するようにしたものであるが、人物全体(全身)を避けてその人物に対応付けて近接配置した場合を例示している。   FIG. 5A is a display example in the case where the subject is a person (A), in which “wife” is additionally displayed as a relationship of the person (B) and “son” is additionally displayed as a relationship of the person (C). In this case, the additional display (identification display) of the continuation pattern is such that the character string of the continuation pattern is arranged in the background rectangular frame and this rectangular frame is synthesized in the image. The case where it synthetically arranges in the body is illustrated. FIG. 5B is a display example in the case where the subject is a person (C), in which “mother” is additionally displayed as a relationship of the person (B), and “I” is additionally displayed as a relationship of the person (C). In this case, as in FIG. 5 (1), the additional display (identification display) of the continuation pattern is such that a rectangular frame is synthesized in the image, but the whole person (whole body) is avoided and it corresponds to that person. The case where it adjoins and is arranged is illustrated.

なお、図5(1)、(2)の表示例では、矩形枠の下地の色(背景色)として、例えば、白色又は黒色などのように予め決められた色に統一するようにしている。また、上述の例では、背景用の矩形枠を配置する場合を示したが、続柄を示す文字列を画像内に直接合成するようにしてもよく、続柄を示す文字列を画像に直接配置する際には、その配置位置の画像色とのコントラストに応じて文字列の色を決定するようにしている。このように本実施形態においては、背景用の矩形枠内に続柄の文字列を配置する識別表示を行うのか、矩形枠を使用せずにその文字列を画像内に直接合成する識別表示を行うのかを任意に指定可能としている。また、矩形枠を使用した識別表示が指定された場合には、更に、矩形枠を顔以外の身体に合成配置するのか、身体以外の他の位置に合成配置するのかを任意に指定可能としている。   In the display examples of FIGS. 5 (1) and 5 (2), the background color (background color) of the rectangular frame is unified to a predetermined color such as white or black. Moreover, although the case where the background rectangular frame is arranged is shown in the above-described example, a character string indicating a related pattern may be directly synthesized in the image, or the character string indicating the related pattern is directly arranged on the image. In this case, the color of the character string is determined according to the contrast with the image color at the arrangement position. As described above, in the present embodiment, the identification display in which the character string of the related pattern is arranged in the rectangular frame for background is performed, or the identification display in which the character string is directly combined in the image without using the rectangular frame is performed. Can be specified arbitrarily. In addition, when identification display using a rectangular frame is designated, it is further possible to arbitrarily designate whether the rectangular frame is to be synthesized and arranged on a body other than the face or at a position other than the body. .

このように本実施形態において画像処理装置(デジタルカメラ)は、複数の人物(親族)の相関関係(親族の構成)を記憶する人物記憶手段(人物関係データベースd2)と、画像内の人物の顔に基づいてその人物を認識する認識手段(制御部1、名前データベースd1)と、画像に対する処理の主体(画像を観る主体)となる人物を決定する決定手段(制御部1、操作部4又は撮像部6)と、この決定手段によって決定された主体の人物を視点として、認識手段によって認識された人物との人物関係(続柄)を複数の人物の相関関係に基づいて特定する特定手段(制御部1、人物関係データベースd2)と、を備える構成となっている。   As described above, in this embodiment, the image processing apparatus (digital camera) includes a person storage unit (person relation database d2) for storing a correlation (configuration of relatives) of a plurality of persons (relatives), and a person's face in the image. Based on the recognition means (control unit 1, name database d1) and determination means (control unit 1, operation unit 4 or imaging) that determines the person who will be the subject of processing on the image (subject to watch the image) 6) and a specifying unit (control unit) for specifying a person relationship (relationship) with the person recognized by the recognition unit based on the correlation of a plurality of persons with the subject person determined by the determination unit as a viewpoint 1 and a person relation database d2).

次に、本実施形態における画像処理装置(デジタルカメラ)の動作概念を図6〜図9に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用して本実施形態特有の動作を実行することもできる。なお、図6〜図9は、カメラの全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図6〜図9のフローのいずれから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the image processing apparatus (digital camera) in the present embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. In addition, the operation according to the above-described program code transmitted via a transmission medium such as a network can be sequentially executed. In other words, in addition to the recording medium, an operation unique to the present embodiment can be executed using a program / data supplied externally via a transmission medium. 6 to 9 are flowcharts showing an outline of the operation of the characteristic part of the present embodiment among the entire operations of the camera. When the flow is left from any of the flows of FIGS. Return to the main flow of operation (not shown).

図6は、名前データベースd1及び人物関係データベースd2への人物登録処理を示したフローチャートであり、メニュー画面の中から「人物登録処理」の項目が選択指定された際に実行開始される。
先ず、制御部1は、人物(親族)を撮影した画像を撮像部6から取得し(ステップA1)、その画像をファイル化して画像メモリm3(例えば、SDカード)に記録保存(ステップA2)した後、その画像を解析し、いずれか一人の人物の顔を処理対象として特定してその顔画像を抽出すると共に、更にその顔画像を解析して輪郭、目、鼻、口などの特徴データを検出する(ステップA3)。
FIG. 6 is a flowchart showing person registration processing in the name database d1 and the person relation database d2, and is started when an item “person registration processing” is selected and specified from the menu screen.
First, the control unit 1 obtains an image obtained by photographing a person (relative) from the imaging unit 6 (step A1), records the image as a file, and stores it in an image memory m3 (for example, an SD card) (step A2). After that, the image is analyzed, the face of any one person is specified as a processing target and the face image is extracted, and the face image is further analyzed to obtain feature data such as an outline, eyes, nose, and mouth. Detect (step A3).

そして、検出した顔画像、特徴データに基づいて名前データベースd1の「顔画像・特徴」を参照し、基本的に同一(特徴的に同一)の「顔画像・特徴」が登録されているか、つまり、登録済みであるかを調べる(ステップA4)。「顔画像・特徴」が登録済みであれば(ステップA4でYES)、その「顔画像・特徴」に今回新たに検出した顔画像・特徴データを上書きすることによってその内容を更新する処理(ステップA5)を行った後、その画像内に未処理の他の顔があるかを調べ(ステップA11)、未処理の他の顔が残っていれば(ステップA11でYES)、上述のステップA3に戻り、その顔画像を抽出してその解析を行う。   Then, referring to the “face image / feature” in the name database d1 based on the detected face image and feature data, basically the same (featurely identical) “face image / feature” is registered. It is checked whether it has been registered (step A4). If the “face image / feature” has already been registered (YES in step A4), the content of the “face image / feature” is updated by overwriting the newly detected face image / feature data this time (step After performing A5), it is checked whether there are other unprocessed faces in the image (step A11). If other unprocessed faces remain (YES in step A11), the process proceeds to step A3 described above. Returning, the face image is extracted and analyzed.

いま、「顔画像・特徴」が登録済みでなければ(ステップA4でNO)、新規登録の有無を問い合わせる画面を表示する(ステップA6)。この状態において、ユーザ操作で新規登録が指示されたかを調べ(ステップA7)、新規登録が指示されなければ(ステップA7でNO)、上述のステップA11に移るが、新規登録が指示されたときには(ステップA7でYES)、今回検出した顔画像、特徴データを名前データベースd1に追加登録する(ステップA8)。   If “face image / feature” has not been registered (NO in step A4), a screen for inquiring whether or not a new registration has been made is displayed (step A6). In this state, it is checked whether a new registration is instructed by a user operation (step A7). If no new registration is instructed (NO in step A7), the process proceeds to step A11 described above, but when a new registration is instructed ( YES in step A7), the face image and feature data detected this time are additionally registered in the name database d1 (step A8).

更に、その人物の個人情報(人物情報)として操作部4からその名前及び生年月日が入力されると(ステップA9)、制御部1は、その生年月日から年齢を算出して、名前データベースd1の「名前」、「年齢」に追加登録する(ステップA10)。そして、画像内に未処理の他の顔があるかを調べ(ステップA11)、未処理の他の顔が残っていれば(ステップA11でYES)、上述のステップA3に戻り、上述の動作を繰り返す。また、画像内に未処理の他の顔が残っていなければ(ステップA11でNO)、名前データベースd1への登録終了が指示されたかを調べ(ステップA12)、その終了が指示されなければ(ステップA12でNO)、最初のステップA1に戻り、次の撮影画像を取得して、以下、上述の動作を繰り返す。   Further, when the name and date of birth are input from the operation unit 4 as personal information (person information) of the person (step A9), the control unit 1 calculates the age from the date of birth, and the name database It is additionally registered in “name” and “age” of d1 (step A10). Then, it is checked whether or not there is another unprocessed face in the image (step A11). If another unprocessed face remains (YES in step A11), the process returns to the above-described step A3, and the above-described operation is performed. repeat. If no other unprocessed face remains in the image (NO in step A11), it is checked whether or not the registration end to the name database d1 is instructed (step A12). (NO in A12), the process returns to the first step A1, the next captured image is acquired, and the above-described operation is repeated thereafter.

名前データベースd1への登録終了が指示されたときには(ステップA12でYES)、人物関係データベースd2への登録処理に移る(ステップA13〜A15)。すなわち、人物関係データベースd2に基づいて人物の相関関係をツリー構造の相関図として定義した入力画面を表示する(ステップA13)。ここで、ツリー構造の相関図内において今回新規に追加登録した人物の位置を指定したり、名前又はIDを入力したりすることによって、その新規登録した人物の相関関係が入力されると(ステップA14)、その入力を反映した相関図を人物関係データベースd2に上書きすることでその内容を更新登録する処理を行う(ステップA15)。その後、図6のフローから抜ける。   When the end of registration in the name database d1 is instructed (YES in step A12), the process proceeds to registration processing in the person relation database d2 (steps A13 to A15). That is, an input screen is displayed in which the correlation between persons is defined as a tree structure correlation diagram based on the person relationship database d2 (step A13). When the correlation of the newly registered person is input by designating the position of the person newly registered this time or inputting the name or ID in the correlation diagram of the tree structure (step) A14) A process of updating and registering the content is performed by overwriting the correlation diagram reflecting the input in the person relation database d2 (step A15). Thereafter, the flow of FIG. 6 is exited.

図7及び図8は、再生モードにおいて人物関係付加表示機能が指定された際に実行開始されるフローチャートである。
先ず,制御部1は、画像を観る主体は決定済みであるかを調べ(図7のステップB1)、主体が決定済みでなければ(ステップB1でNO)、主体決定処理(ステップB3)に移るが、主体が決定済みであれば(ステップB1でYES)、その主体の変更がユーザ操作によって指示されたかを調べる(ステップB2)。ここで、主体の変更が指示されたときには(ステップB2でYES)、主体決定処理に移る(ステップB3)。
7 and 8 are flowcharts that are started when the person relationship additional display function is designated in the reproduction mode.
First, the control unit 1 checks whether the subject to view the image has been determined (step B1 in FIG. 7). If the subject has not been determined (NO in step B1), the control unit 1 proceeds to subject determination processing (step B3). However, if the subject has been determined (YES in step B1), it is checked whether the change of the subject has been instructed by a user operation (step B2). Here, when the change of the subject is instructed (YES in step B2), the process proceeds to subject determination processing (step B3).

図9は、主体決定処理(図7のステップB3)を詳述するためのフローチャートである。
先ず、制御部1は、主体は親族内か、つまり、複数の人物(親族)の相関関係(親族の構成)内に属する人物を主体とすることがユーザ操作によって指示されたかを調べ(ステップC1)、親族内の人物が主体として指定されなければ(ステップC1でNO)、他人を主体として決定する(ステップC2)。また、親族内の人物が主体として指示されたときには(ステップC1でYES)、その主体を自動決定することがユーザ操作により指示されたかを調べる(ステップC3)。
FIG. 9 is a flowchart for explaining the subject determination process (step B3 in FIG. 7) in detail.
First, the control unit 1 checks whether the subject is within a relative, that is, whether or not the user has instructed the subject to be a subject belonging to the correlation (relative structure) of a plurality of persons (relatives) (step C1). ), If a person in the relative is not designated as the subject (NO in step C1), another person is determined as the subject (step C2). When a person in the relative is instructed as a subject (YES in step C1), it is checked whether or not a user operation has instructed to automatically determine the subject (step C3).

自動決定が指示されたときには(ステップC3でYES)、主体となる人物を撮影するために撮像部6を起動し(ステップC4)、その撮影画像を取得して画像内の顔を解析してその特徴を検出し、その検出結果(顔画像、特徴データ)に基づいて名前データベースd1を参照し、その顔の人物を主体として決定する(ステップC5)。また、主体の自動決定が指示されなければ(ステップC3でNO)、名前データベースd1の「名前」を一覧表示し(ステップC6)、その一覧画面からユーザ操作によって選択された名前の人物を主体として決定する(ステップC7)。このようにして決定した主体をワークメモリm2に一時記憶(ステップC8)した後、図9のフローから抜ける。   When automatic determination is instructed (YES in step C3), the imaging unit 6 is activated to capture the subject person (step C4), the captured image is acquired, the face in the image is analyzed, and the image is analyzed. A feature is detected, the name database d1 is referenced based on the detection result (face image, feature data), and the person of the face is determined as the subject (step C5). If automatic determination of the subject is not instructed (NO in step C3), a list of “names” in the name database d1 is displayed (step C6), and the person whose name is selected by the user operation from the list screen is the subject. Determine (step C7). The main body determined in this way is temporarily stored in the work memory m2 (step C8), and then the flow of FIG. 9 is exited.

このような主体決定処理(図7のステップB3)が終わると、上述のステップB1に戻る。いま、主体が決定済みであり(ステップB1でYES)、かつその変更も指示されなければ(ステップB2でNO)、上述の主体決定処理でワークメモリm2に一時記憶されている主体を読み出しておく(ステップB4)。そして、画像一覧画面を表示し(ステップB5)、その一覧画面の中から表示対象の画像がユーザ操作によって任意に選択されると(ステップB6)、その選択画像内の各人物の顔を検出し(ステップB7)、その検出結果(顔画像、特徴データ)に基づいて名前データベースd1を参照し、各人物をそれぞれ特定する(ステップB8)。   When such a subject determination process (step B3 in FIG. 7) ends, the process returns to step B1 described above. If the subject has already been determined (YES in step B1) and no change is instructed (NO in step B2), the subject temporarily stored in the work memory m2 is read in the subject determination process described above. (Step B4). Then, an image list screen is displayed (step B5). When an image to be displayed is arbitrarily selected from the list screen by a user operation (step B6), the face of each person in the selected image is detected. (Step B7), referring to the name database d1 based on the detection result (face image, feature data), and specifying each person (Step B8).

次に、図8のフローに移り、上述の主体決定処理(図7のステップB3)によって決定した主体は親族であるかを調べ(ステップB9)、親族以外の他人が主体であれば(ステップB9でNO)、上述のステップB8で特定した各人物の「名前」の文字列(例えば、○○太郎、○○花子、○○一郎、○○優子など)を名前データベースd1から読み出し取得する(ステップB10)。そして、後述する表示処理(ステップB15〜B18)に移る。また、主体が親族であれば(ステップB9でYES)、上述のステップB8で特定した各人物に基づいて人物関係データベースd2を参照し、主体を視点として、各人物との人間関係を特定する(ステップB11)。例えば、図10(1)に示すように、主体(基準A)の場合には、人物(B)は人物(A)の妻、人物(C)は人物(A)の息子、人物(D)は人物(C)の妹、人物(E)は人物(D)の弟となる人間関係を特定する。また、主体(基準F)の場合には、人物(G)は人物(F)の妻、人物(A)は人物(F)の息子、人物(H)は人物(A)の妹となる人間関係を特定する。   Next, the flow proceeds to the flow of FIG. 8, and it is checked whether the subject determined by the subject determination process (step B3 in FIG. 7) is a relative (step B9). If another person other than the relative is the subject (step B9) NO), and the character string of “name” of each person identified in the above-mentioned step B8 (for example, XXX Taro, XX Hanako, XX Ichiro, XX Yuko) is read out from the name database d1 (step B10). Then, the process proceeds to a display process (steps B15 to B18) described later. If the subject is a relative (YES in step B9), the person relation database d2 is referred to based on each person identified in step B8 described above, and the human relationship with each person is identified from the subject as a viewpoint ( Step B11). For example, as shown in FIG. 10A, in the case of the subject (reference A), the person (B) is the wife of the person (A), the person (C) is the son of the person (A), and the person (D) Identifies a human relationship that is a younger sister of the person (C) and a person (E) is the younger brother of the person (D). In the case of the subject (reference F), the person (G) is the wife of the person (F), the person (A) is the son of the person (F), and the person (H) is the younger sister of the person (A). Identify relationships.

そして、主体の「年齢」を名前データベースd1から読み出し、その年齢層(例えば、18歳未満/以上)を特定する(ステップB12)。次に、主体の年齢層及び各人物との人間関係に基づいて関連解析基礎データベースd3を参照し(ステップB13)、主体を視点として、各人物の続柄を表す文字列を取得する(ステップB14)。例えば、図10(2)に示すように、主体(基準A)の場合に人物(A)、(B)、〜(H)の続柄を示す文字列として、“私”、“妻”、“長男”、“娘”、“次男”、“父”、“母”、“妹”を取得する。また、図10(3)に示すように、主体(基準C)の場合に、その人物(C)の年齢が18歳未満であれば、人物(A)、(B)、〜(H)の続柄を示す文字列として、“お父さん”、“お母さん”、“僕”、“妹”、“弟”、“おじいちゃん”、“おばあちゃん”、“叔母さん”を取得する。また、人物(C)の年齢が18歳以上であれば、“父”、“母”、“僕”、“妹”、“弟”、“祖父、“祖母”、“叔母さん”を取得する。   Then, the “age” of the subject is read from the name database d1, and the age group (for example, under 18 years old / above) is specified (step B12). Next, the related analysis basic database d3 is referred based on the age group of the subject and the human relationship with each person (step B13), and a character string representing the relationship of each person is obtained from the subject as a viewpoint (step B14). . For example, as shown in FIG. 10 (2), in the case of the subject (reference A), character strings indicating the relationships between the persons (A), (B), to (H) are “I”, “wife”, “ Acquire the eldest son, daughter, second son, father, mother, and sister. Further, as shown in FIG. 10 (3), in the case of the subject (standard C), if the age of the person (C) is less than 18 years old, the person (A), (B), to (H) “Dad”, “Mom”, “I”, “Sister”, “Brother”, “Grandpa”, “Grandma”, “Aunt” are acquired as a character string indicating the relationship. If the person (C) is 18 years old or older, “Father”, “Mother”, “I”, “Sister”, “Brother”, “Grandfather,“ Grandmother ”, and“ Aunt ”are acquired.

そして、表示処理(ステップB15〜B18)に移り、先ず、表示形式を決定する(ステップB15)。すなわち、背景用の矩形枠内に続柄の文字列を配置する識別表示がユーザ操作で指定されているのか、矩形枠を使用せずにその文字列を画像内に直接合成する識別表示がユーザ操作で指定されているのかの表示形式を決定する。次に、取得文字列の画像内の配置する位置を決定する(ステップB16)。すなわち、人物の顔を避けてその身体内に取得文字列を配置することがユーザ操作で指定されているのか、人物全体(全身)を避けてその人物に対応付けて取得文字列を近接配置することがユーザ操作で指定されているのかの配置位置を決定する。   Then, the process proceeds to display processing (steps B15 to B18), and first, the display format is determined (step B15). In other words, whether the identification display that arranges the character string of the related pattern within the rectangular frame for the background is specified by the user operation, or the identification display that directly synthesizes the character string in the image without using the rectangular frame is the user operation Determines the display format as specified in. Next, the position of the acquired character string in the image is determined (step B16). In other words, whether or not the user's operation specifies that the acquired character string should be placed in the body while avoiding the face of the person, or the acquired character string is closely placed in association with the person while avoiding the entire person (whole body) Is determined by the user operation.

更に、表示色を決定する(ステップB17)。すなわち、背景用の矩形枠内に続柄の文字列を配置する表示形式の場合には、矩形枠の下地の色(背景色)として、白色又は黒色を決定し、矩形枠を使用せずに取得文字列を画像内に直接配置する表示形式の場合には、その配置位置の画像色とのコントラストに応じて文字列の色を決定する。これによって決定した表示形式、配置位置、表示色で取得文字列を画像内の該当する人物に対応付けて付加表示(識別表示)する(ステップB18)。   Further, the display color is determined (step B17). In other words, in the case of a display format in which a character string of a related pattern is placed in a rectangular frame for background, white or black is determined as the background color (background color) of the rectangular frame, and it is acquired without using the rectangular frame. In the case of a display format in which the character string is directly arranged in the image, the color of the character string is determined according to the contrast with the image color at the arrangement position. The acquired character string is added and displayed (identified display) in association with the corresponding person in the image with the display format, arrangement position, and display color determined in this way (step B18).

図11は、人物関係付加表示の具体例を示した図で、表示形式として、矩形枠を使用せずにその文字列を画像内に直接合成すること、配置位置として、人物全体(全身)を避けてその人物に対応付けて取得文字列を近接配置することが指定された場合の表示例である。
図11(1)は、親族以外の他人が主体の場合の人物関係付加表示例を示した図である。この場合、人物(A)には“○○太郎”、人物(C)には“○○一郎”、人物(D)には“○○優子”、人物(B)には“○○花子”、人物(E)には“○○二郎”が付加表示(識別表示)される。図11(2)は、親族(C:18歳未満)が主体の場合の人物関係付加表示例を示した図である。この場合、人物(A)には“お父さん”、人物(C)には“僕”、人物(D)には“妹”、人物(B)には“お母さん”、人物(E)には“弟”が付加表示(識別表示)される。
FIG. 11 is a diagram showing a specific example of the person relation addition display. As a display format, the character string is directly synthesized in an image without using a rectangular frame, and the entire person (whole body) is set as an arrangement position. This is a display example when it is specified that the acquired character string is arranged close to the person in association with the person.
FIG. 11 (1) is a diagram showing an example of a person relationship addition display when a person other than the relative is the subject. In this case, “Taro XXX” is the person (A), “Ichiro XX” is the person (C), “Yu Yuko” is the person (D), “Hanako XX” is the person (B). The person (E) is additionally displayed (identified display) “Jiro XX”. FIG. 11 (2) is a diagram showing an example of a personal relationship addition display when a relative (C: under 18 years old) is the subject. In this case, the person (A) is “dad”, the person (C) is “I”, the person (D) is “sister”, the person (B) is “mother”, and the person (E) is “ "Brother" is additionally displayed (identified).

このように人物関係が付加表示されている状態において、ユーザ操作によりその画像の保存が指示されたかを調べたり(ステップB19)、次の画像への切り替えが指示されたかを調べたり(ステップB21)、人物関係付加表示の終了が指示されたかを調べたりする(ステップB22)。いま、画像の保存が指示されたときには(ステップB19でYES)、人物関係(続柄)を示す情報(取得文字列)を合成した画像をファイル化して画像メモリm3(例えば、SDカード)に記録保存する(ステップB20)。   In this state where the personal relationship is additionally displayed, it is checked whether the user has instructed to save the image (step B19), or whether switching to the next image is instructed (step B21). Then, it is checked whether or not the end of the person relationship additional display is instructed (step B22). When an instruction to save an image is given (YES in step B19), an image obtained by combining information (acquired character string) indicating personal relationships (relationships) is filed and recorded in an image memory m3 (for example, an SD card). (Step B20).

また、次の画像への切り替えが指示されたときには(ステップB21でYES)、図7のステップB2に移り、主体が変更されなければ(ステップB2でNO)、上述の動作を繰り返す。また、主体の変更が指示されたときには(ステップB2でYES)、主体決定処理(ステップB3)を実行した後、上述の動作を繰り返す。なお、人物関係付加表示機能の終了が指示されたときには(ステップB22でYES)、図7及び図8のフローから抜ける。   When an instruction to switch to the next image is given (YES in step B21), the process proceeds to step B2 in FIG. 7, and if the subject is not changed (NO in step B2), the above operation is repeated. When the change of the subject is instructed (YES in step B2), the subject determination process (step B3) is executed, and then the above operation is repeated. When an instruction to end the personal relationship additional display function is given (YES in step B22), the flow of FIGS. 7 and 8 is exited.

以上のように、本実施形態において制御部1は、名前データベースd1を参照し、画像内の人物の顔に基づいてその人物を認識し、画像に対する処理の主体となる人物を視点として、その認識した人物との人物関係を人物関係データベースd2に基づいて特定するようにしたので、画像内の人物をその画像に対する処理の主体との関係において適切に特定することができる。   As described above, in the present embodiment, the control unit 1 refers to the name database d1, recognizes the person based on the face of the person in the image, and recognizes the person as the viewpoint of processing on the image. Since the person relation with the person is specified based on the person relation database d2, the person in the image can be appropriately specified in relation to the subject of the processing for the image.

制御部1は、特定した人物関係を示す情報を画像内の人物に対応付けて表示部5に識別表示するようにしたので、同じ人物でも主体が誰かによって異なる人物関係をその識別表示によって主体に知らせることができる。   Since the control unit 1 identifies and displays information indicating the specified personal relationship on the display unit 5 in association with the person in the image, a personal relationship that differs depending on who is the same person depends on the identification display. I can inform you.

制御部1は、主体となる人物が複数の人物の相関関係内に属している場合にその相関関係に基づいた識別表示するようにしたので、主体にとってはその人物がどのような関係にあるのかを容易に知ることができる。この場合、主体にとってその人物がどのような関係にあるのかを理解しやすい表現で識別表示したり、親しみやすい表現で識別表示したりすることが可能となり、例えば、家族紹介写真の作成などに便利なものとなる。   Since the control unit 1 identifies and displays based on the correlation when the subject person belongs to the correlation among a plurality of persons, what kind of relationship the person has for the subject Can be easily known. In this case, it is possible to identify and display in an easy-to-understand manner the relationship of the person to the subject, or to identify and display in a friendly expression, for example, useful for creating a family introduction photo. It will be something.

制御部1は、主体が複数の人物の相関関係内に属さない他人の場合には、名前データベースd1から名前を読み出して画像内の人物に対応付けて識別表示するようにしたので、誰からでも理解しやすい名前で識別表示することが可能となる。   The control unit 1 reads out the name from the name database d1 and identifies and displays the name in association with the person in the image when the subject is another person who does not belong to the correlation among a plurality of persons. It is possible to identify and display with an easily understandable name.

制御部1は、人物関係を示す情報を識別表示する場合に、画像内において人物の顔を隠さない位置でその人物に対応付けて配置するようにしたので、人物関係を示す情報を適切な位置に配置することができ、主体にとっては人物の顔を確認しながら識別表示との対応を明瞭に理解することができる。   When the control unit 1 identifies and displays the information indicating the personal relationship, the control unit 1 arranges the information indicating the personal relationship in an appropriate position in the image so as not to hide the human face. The subject can clearly understand the correspondence with the identification display while confirming the face of the person.

制御部1は、人物関係を示す情報を識別表示する場合に、画像内において人物全体を隠さない位置でその人物に対応付けて配置するようにしたので、画像内の人物が識別表示によって影響されることはなく、主体にとっては人物全体を確認しながら識別表示との対応を明瞭に理解することができる。   When the control unit 1 identifies and displays information indicating a person relationship, the controller 1 is arranged in association with the person at a position that does not hide the entire person in the image, so that the person in the image is affected by the identification display. The subject can clearly understand the correspondence with the identification display while confirming the entire person.

制御部1は、人物関係を示す情報を識別表示する場合に、画像内においてその情報を配置する下地の色に応じて選択した色で着色するようにしたので、対照色などによって見やすい表示が可能となり、配色を変更する編集操作も不要となる。   When the control unit 1 identifies and displays information indicating a personal relationship, the control unit 1 is colored in a color selected according to the color of the ground on which the information is arranged in the image, so that it is possible to display the information easily using a contrasting color or the like. Thus, an editing operation for changing the color scheme is also unnecessary.

制御部1は、主体の年齢層に基づいて、人物関係を示す情報を変更するようにしたので、主体にとって理解し易く親しみのある情報を表示することが可能となる。   Since the control unit 1 changes the information indicating the personal relationship based on the age group of the subject, the control unit 1 can display information that is easy to understand and familiar to the subject.

制御部1は、撮像部6によって撮影された画像内の顔からその人物を認識することによって主体となる人物を決定するようにしたので、主体を指定する操作などが不要となり、利便性が向上する。   Since the control unit 1 determines the person as the subject by recognizing the person from the face in the image taken by the imaging unit 6, an operation for designating the subject is not required, and convenience is improved. To do.

制御部1は、主体となる人物を視点として、画像内の人物の続柄を親族の構成に基づいて特定するようにしたので、主体が誰かによって続柄の呼び方を変えることができる。また、親族というグループを単位とするために人物関係(続柄)も容易に特定することが可能となる。   Since the control unit 1 identifies the relationship of the person in the image based on the structure of the relative with the subject person as the viewpoint, it is possible to change the way the relationship is called by the subject. In addition, since the group of relatives is used as a unit, it is possible to easily specify the personal relationship (relationship).

制御部1は、操作部4から複数の人物の相関関係と共に各人物の個人情報が人物情報として任意に入力されると、入力された人物の相関関係及び人物情報を名前データベースd1及び人物関係データベースd2に記憶するようにしたので、ユーザ独自の人物の相関関係及び人物情報をいつでも自由に登録することができる。   When the personal information of each person is arbitrarily input as personal information together with the correlation between a plurality of persons from the operation unit 4, the control unit 1 stores the input personal correlation and personal information in the name database d 1 and the personal relationship database. Since it is stored in d2, the user's unique person correlation and person information can be freely registered at any time.

制御部1は、人物関係を示す情報を画像に付加して記録保存するようにしたので、画像を再生するだけでその画像内の人物との関係をいつでも自由に知ることが可能となると共に、例えば、家族紹介写真をいつでも自由に作成することが可能となる。   Since the control unit 1 adds information indicating the personal relationship to the image and records and saves it, it is possible to freely know the relationship with the person in the image at any time simply by reproducing the image. For example, family introduction photos can be freely created at any time.

なお、上述した実施形態においては、主体となる人物を視点として、画像内の人物との関係を示す情報(続柄)を識別表示するようにしたが、人物関係のほかにその個人情報(例えば、年齢など)も合わせて識別表示するようにしてもよい。この場合、主体が誰かに応じて個人情報の項目を選択して表示するようにしてもよい。
上述した実施形態においては、画像に対する処理の主体を、画像を観る主体とした場合を例示したが、撮影画像の付加情報に基づく何らかの処理を行う場合にはその処理の主体であってもよい。
In the above-described embodiment, the information (relationship) indicating the relationship with the person in the image is identified and displayed from the subject person as the viewpoint. However, in addition to the person relationship, the personal information (for example, (Such as age) may also be identified and displayed. In this case, an item of personal information may be selected and displayed according to who the subject is.
In the above-described embodiment, the case where the subject of processing on an image is the subject of viewing an image is exemplified, but when performing some processing based on additional information of a captured image, the subject of the processing may be used.

上述した実施形態においては、複数の人物の相関関係として親族の相関図を例示したが、相関図としては、会社やその他の組織の人事構成図、組織図などであってもよい。   In the above-described embodiment, a relative correlation diagram is illustrated as a correlation between a plurality of persons. However, the correlation diagram may be a personnel configuration diagram, an organization chart, or the like of a company or another organization.

上述した実施形態においては、名前データベースd1の「名前」にその人物の氏名(実名)を記憶するようにしたが、ニックネーム、筆名、芸名、アイコンなどを記憶するようにしてもよい。   In the above-described embodiment, the name (real name) of the person is stored in the “name” of the name database d1, but a nickname, a brush name, a stage name, an icon, and the like may be stored.

上述した実施形態においては、人物関係を示す情報(取得文字列)を合成した画像をファイル化して記録保存するようにしたが、人物関係を示す情報をその配置位置などと共に画像ファイルのExif情報として格納するようにしてもよい。   In the above-described embodiment, an image obtained by synthesizing information (acquired character string) indicating personal relationships is filed and stored. However, information indicating personal relationships is used as Exif information of an image file together with its arrangement position and the like. You may make it store.

上述した実施形態においては、特定した人物関係を示す情報を画像内の人物に対応付けて表示部5に識別表示するようにしたが、表示は行わず印刷するようにしてもよい。   In the above-described embodiment, information indicating the specified personal relationship is identified and displayed on the display unit 5 in association with the person in the image. However, the information may be printed without being displayed.

また、上述した実施形態においては、画像処理装置としてデジタルカメラに適用した場合を例示したが、カメラに限らず、レコーダー、パーソナルコンピュータ、PDA(個人向け携帯型情報通信機器)、スマートフォンなどの携帯電話機、音楽プレイヤー、タブレット端末、テレビ受信機などであってもよい。   In the above-described embodiment, the case where the present invention is applied to a digital camera as an image processing apparatus is illustrated. However, the present invention is not limited to a camera, and a mobile phone such as a recorder, personal computer, PDA (personal portable information communication device) A music player, a tablet terminal, a television receiver, or the like may be used.

また、上述した本実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “device” and “unit” shown in the above-described embodiment may be separated into a plurality of cases according to function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
複数の人物の相関関係を記憶する人物記憶手段と、
画像内の人物の顔に基づいてその人物を認識する認識手段と、
画像に対する処理の主体となる人物を決定する決定手段と、
前記決定手段によって決定された主体の人物を視点として、前記認識手段によって認識された人物との人物関係を前記複数の人物の相関関係に基づいて特定する特定手段と、
を備えたことを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記特定手段により特定された人物関係を示す情報に基づいて前記画像に対する所定の処理を行う処理手段を更に備える、
ようにしたことを特徴とする画像処理装置である。

(請求項3)
請求項3に記載の発明は、請求項2に記載の画像処理装置において、
前記処理手段は、前記特定手段によって特定された人物関係を示す情報を画像内の人物に対応付けて識別表示する、
ようにしたことを特徴とする画像処理装置である。
(請求項4)
請求項4に記載の発明は、請求項3に記載の画像処理装置において、
前記処理手段は、前記決定手段によって決定された主体の人物が前記複数の人物の相関関係内に属している場合にその相関関係に基づいた識別表示を行う、
ようにしたことを特徴とする画像処理装置である。
(請求項5)
請求項5に記載の発明は、請求項3又は請求項4に記載の画像処理装置において、
前記人物記憶手段は、複数の人物の相関関係と共に各人物の顔及び名前を記憶し、
前記処理手段は、前記決定手段によって決定された主体の人物が前記複数の人物の相関関係に属さない他人の場合には、前記認識手段によって認識された人物の名前を前記人物記憶手段から読み出して画像内の人物に対応付けて識別表示する、
ようにしたことを特徴とする画像処理装置である。
(請求項6)
請求項6記載の発明は、請求項3に記載の画像処理装置において、
前記人物関係を示す情報の識別表示は、前記画像内において人物の顔を隠さない位置でその人物に対応付けて配置する、
ようにしたことを特徴とする画像処理装置である。
(請求項7)
請求項7に記載の発明は、請求項6に記載の画像処理装置において、
前記人物関係を示す情報の識別表示は、前記画像内において人物全体を隠さない位置でその人物に対応付けて配置する、
ようにしたことを特徴とする画像処理装置である。
(請求項8)
請求項8に記載の発明は、請求項3〜請求項7のいずれか1項に記載の画像処理装置において、
前記人物関係を示す情報の識別表示は、前記画像内においてその情報を配置する下地の色に応じて選択した色で着色する、
ようにしたことを特徴とする画像処理装置である。
(請求項9)
請求項9に記載の発明は、請求項3〜請求項8のいずれか1項に記載の画像処理装置において、
前記人物記憶手段は、複数の人物の相関関係と共に各人物の顔及び年齢を記憶し、
前記処理手段は、前記決定手段によって決定された主体の人物の年齢層に基づいて、前記人物関係を示す情報を変更する、
ようにしたことを特徴とする画像処理装置である。
(請求項10)
請求項10に記載の発明は、請求項1〜請求項9のいずれか1項に記載の画像処理装置において、
撮像手段を更に備え、
前記決定手段は、前記撮像手段によって撮影された画像内の顔からその人物を認識することによって主体となる人物を決定する、
ようにしたことを特徴とする画像処理装置である。
(請求項11)
請求項11に記載の発明は、請求項1〜請求項10のいずれか1項に記載の画像処理装置において、
前記人物記憶手段は、複数の人物の相関関係として親族の構成を記憶し、
前記特定手段は、前記決定手段によって決定された主体となる人物を視点として、前記認識手段によって認識された人物の続柄を前記親族の構成に基づいて特定する、
ようにしたことを特徴とする画像処理装置である。
(請求項12)
請求項12に記載の発明は、請求項1〜請求項11のいずれか1項に記載の画像処理装置において、
複数の人物の相関関係と共に各人物の個人情報を人物情報として任意に入力する入力手段を更に備え、
前記人物記憶手段は、前記入力手段から入力された人物の相関関係及び人物情報を記憶する、
ようにしたことを特徴とする画像処理装置である。
(請求項13)
請求項13に記載の発明は、請求項1〜請求項12のいずれか1項に記載の画像処理装置において、
前記特定手段によって特定された人物関係を示す情報を画像に付加して記録保存する画像保存手段を更に備える、
ようにしたことを特徴とする画像処理装置である。
(請求項14)
請求項14に記載の発明は、
画像内の人物の顔に基づいてその人物を認識するステップと、
画像に対する処理の主体となる人物を視点として、前記認識された人物との人物関係を複数の人物の相関関係に基づいて特定するステップと、
を含むことを特徴とする画像処理方法である。
(請求項15)
請求項15に記載の発明は、
コンピュータに対して、
画像内の人物の顔に基づいてその人物を認識する機能と、
画像に対する処理の主体となる人物を決定する機能と、
前記決定された主体の人物を視点として、前記認識された人物との人物関係を複数の人物の相関関係に基づいて特定する機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Person storage means for storing a correlation between a plurality of persons;
Recognition means for recognizing the person based on the face of the person in the image;
A determination means for determining a person who is a subject of processing for an image;
Specifying means for specifying a person relationship with the person recognized by the recognition means based on the correlation of the plurality of persons, with the subject person determined by the determination means as a viewpoint;
An image processing apparatus comprising:
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
Processing means for performing a predetermined process on the image based on information indicating the personal relationship specified by the specifying means;
This is an image processing apparatus characterized by being configured as described above.

(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 2,
The processing means identifies and displays information indicating the personal relationship specified by the specifying means in association with a person in the image.
This is an image processing apparatus characterized by being configured as described above.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to claim 3,
The processing means performs identification display based on the correlation when the subject person determined by the determination means belongs to the correlation among the plurality of persons.
This is an image processing apparatus characterized by being configured as described above.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 3 or 4,
The person storage means stores a face and a name of each person together with a correlation between a plurality of persons,
The processing means reads out the name of the person recognized by the recognition means from the person storage means if the subject person determined by the determination means is another person who does not belong to the correlation of the plurality of persons. Display in association with the person in the image,
This is an image processing apparatus characterized by being configured as described above.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to claim 3,
The identification display of the information indicating the person relationship is arranged in association with the person at a position where the face of the person is not hidden in the image.
This is an image processing apparatus characterized by being configured as described above.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to claim 6,
The identification display of information indicating the person relationship is arranged in association with the person at a position that does not hide the entire person in the image.
This is an image processing apparatus characterized by being configured as described above.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to any one of claims 3 to 7,
The identification display of information indicating the person relationship is colored in a color selected according to the color of the background on which the information is arranged in the image.
This is an image processing apparatus characterized by being configured as described above.
(Claim 9)
The invention according to claim 9 is the image processing apparatus according to any one of claims 3 to 8,
The person storage means stores a face and age of each person together with a correlation between a plurality of persons,
The processing means changes information indicating the person relationship based on the age group of the subject person determined by the determining means.
This is an image processing apparatus characterized by being configured as described above.
(Claim 10)
The invention according to claim 10 is the image processing apparatus according to any one of claims 1 to 9,
Further comprising an imaging means,
The determining unit determines a person as a subject by recognizing the person from the face in the image captured by the imaging unit;
This is an image processing apparatus characterized by being configured as described above.
(Claim 11)
The invention according to claim 11 is the image processing apparatus according to any one of claims 1 to 10,
The person storage means stores a relative structure as a correlation between a plurality of persons,
The specifying means specifies a person's relationship recognized by the recognizing means based on the configuration of the relatives, with the person who is the subject determined by the determining means as a viewpoint.
This is an image processing apparatus characterized by being configured as described above.
(Claim 12)
The invention according to claim 12 is the image processing apparatus according to any one of claims 1 to 11,
It further comprises an input means for arbitrarily inputting personal information of each person as personal information together with a correlation between a plurality of persons,
The person storage means stores the correlation and person information of the person input from the input means;
This is an image processing apparatus characterized by being configured as described above.
(Claim 13)
The invention according to claim 13 is the image processing apparatus according to any one of claims 1 to 12,
Image storage means for adding information indicating the personal relationship specified by the specifying means to the image and recording and saving the image is further provided.
This is an image processing apparatus characterized by being configured as described above.
(Claim 14)
The invention according to claim 14
Recognizing the person based on the person's face in the image;
Specifying a person relationship with the recognized person based on a correlation between a plurality of persons, with a person who is a subject of processing on an image as a viewpoint;
The image processing method characterized by including.
(Claim 15)
The invention according to claim 15 is:
Against the computer,
The ability to recognize a person based on the person's face in the image,
A function to determine the person who will be the subject of processing for the image;
A function of specifying a person relationship with the recognized person based on a correlation between a plurality of persons, with the determined subject person as a viewpoint;
It is a program for realizing.

1 制御部
3 記憶部
4 操作部
5 表示部
6 撮像部
m1 プログラムメモリ
m3 画像メモリ
d1 名前データベース
d2 人物関係データベース
d3 関連解析基礎データベース
DESCRIPTION OF SYMBOLS 1 Control part 3 Memory | storage part 4 Operation part 5 Display part 6 Imaging part m1 Program memory m3 Image memory d1 Name database d2 Person relation database d3 Related analysis basic database

Claims (15)

複数の人物の相関関係を記憶する人物記憶手段と、
画像内の人物の顔に基づいてその人物を認識する認識手段と、
画像に対する処理の主体となる人物を決定する決定手段と、
前記決定手段によって決定された主体の人物を視点として、前記認識手段によって認識された人物との人物関係を前記複数の人物の相関関係に基づいて特定する特定手段と、
を備えたことを特徴とする画像処理装置。
Person storage means for storing a correlation between a plurality of persons;
Recognition means for recognizing the person based on the face of the person in the image;
A determination means for determining a person who is a subject of processing for an image;
Specifying means for specifying a person relationship with the person recognized by the recognition means based on the correlation of the plurality of persons, with the subject person determined by the determination means as a viewpoint;
An image processing apparatus comprising:
前記特定手段により特定された人物関係を示す情報に基づいて前記画像に対する所定の処理を行う処理手段を更に備える、
ようにしたことを特徴とする請求項1に記載の画像処理装置
Processing means for performing a predetermined process on the image based on information indicating the personal relationship specified by the specifying means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記処理手段は、前記特定手段によって特定された人物関係を示す情報を画像内の人物に対応付けて識別表示する、
ようにしたことを特徴とする請求項2に記載の画像処理装置。
The processing means identifies and displays information indicating the personal relationship specified by the specifying means in association with a person in the image.
The image processing apparatus according to claim 2, which is configured as described above.
前記処理手段は、前記決定手段によって決定された主体の人物が前記複数の人物の相関関係内に属している場合にその相関関係に基づいた識別表示を行う、
ようにしたことを特徴とする請求項3に記載の画像処理装置。
The processing means performs identification display based on the correlation when the subject person determined by the determination means belongs to the correlation among the plurality of persons.
The image processing apparatus according to claim 3, which is configured as described above.
前記人物記憶手段は、複数の人物の相関関係と共に各人物の顔及び名前を記憶し、
前記処理手段は、前記決定手段によって決定された主体の人物が前記複数の人物の相関関係に属さない他人の場合には、前記認識手段によって認識された人物の名前を前記人物記憶手段から読み出して画像内の人物に対応付けて識別表示する、
ようにしたことを特徴とする請求項3又は請求項4に記載の画像処理装置。
The person storage means stores a face and a name of each person together with a correlation between a plurality of persons,
The processing means reads out the name of the person recognized by the recognition means from the person storage means if the subject person determined by the determination means is another person who does not belong to the correlation of the plurality of persons. Display in association with the person in the image,
5. The image processing apparatus according to claim 3, wherein the image processing apparatus is configured as described above.
前記人物関係を示す情報の識別表示は、前記画像内において人物の顔を隠さない位置でその人物に対応付けて配置する、
ようにしたことを特徴とする請求項3に記載の画像処理装置。
The identification display of the information indicating the person relationship is arranged in association with the person at a position where the face of the person is not hidden in the image.
The image processing apparatus according to claim 3, which is configured as described above.
前記人物関係を示す情報の識別表示は、前記画像内において人物全体を隠さない位置でその人物に対応付けて配置する、
ようにしたことを特徴とする請求項6に記載の画像処理装置。
The identification display of information indicating the person relationship is arranged in association with the person at a position that does not hide the entire person in the image.
The image processing apparatus according to claim 6, which is configured as described above.
前記人物関係を示す情報の識別表示は、前記画像内においてその情報を配置する下地の色に応じて選択した色で着色する、
ようにしたことを特徴とする請求項3〜請求項7のいずれか1項に記載の画像処理装置。
The identification display of information indicating the person relationship is colored in a color selected according to the color of the background on which the information is arranged in the image.
The image processing apparatus according to claim 3, wherein the image processing apparatus is configured as described above.
前記人物記憶手段は、複数の人物の相関関係と共に各人物の顔及び年齢を記憶し、
前記処理手段は、前記決定手段によって決定された主体の人物の年齢層に基づいて、前記人物関係を示す情報を変更する、
ようにしたことを特徴とする請求項3〜請求項8のいずれか1項に記載の画像処理装置。
The person storage means stores a face and age of each person together with a correlation between a plurality of persons,
The processing means changes information indicating the person relationship based on the age group of the subject person determined by the determining means.
The image processing apparatus according to claim 3, wherein the image processing apparatus is configured as described above.
撮像手段を更に備え、
前記決定手段は、前記撮像手段によって撮影された画像内の顔からその人物を認識することによって主体となる人物を決定する、
ようにしたことを特徴とする請求項1〜請求項9のいずれか1項に記載の画像処理装置。
Further comprising an imaging means,
The determining unit determines a person as a subject by recognizing the person from the face in the image captured by the imaging unit;
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記人物記憶手段は、複数の人物の相関関係として親族の構成を記憶し、
前記特定手段は、前記決定手段によって決定された主体となる人物を視点として、前記認識手段によって認識された人物の続柄を前記親族の構成に基づいて特定する、
ようにしたことを特徴とする請求項1〜請求項10のいずれか1項に記載の画像処理装置。
The person storage means stores a relative structure as a correlation between a plurality of persons,
The specifying means specifies a person's relationship recognized by the recognizing means based on the configuration of the relatives, with the person who is the subject determined by the determining means as a viewpoint.
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
複数の人物の相関関係と共に各人物の個人情報を人物情報として任意に入力する入力手段を更に備え、
前記人物記憶手段は、前記入力手段から入力された人物の相関関係及び人物情報を記憶する、
ようにしたことを特徴とする請求項1〜請求項11のいずれか1項に記載の画像処理装置。
It further comprises an input means for arbitrarily inputting personal information of each person as personal information together with a correlation between a plurality of persons,
The person storage means stores the correlation and person information of the person input from the input means;
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記特定手段によって特定された人物関係を示す情報を画像に付加して記録保存する画像保存手段を更に備える、
ようにしたことを特徴とする請求項1〜請求項12のいずれか1項に記載の画像処理装置。
Image storage means for adding information indicating the personal relationship specified by the specifying means to the image and recording and saving the image is further provided.
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
画像内の人物の顔に基づいてその人物を認識するステップと、
画像に対する処理の主体となる人物を視点として、前記認識された人物との人物関係を複数の人物の相関関係に基づいて特定するステップと、
を含むことを特徴とする画像処理方法。
Recognizing the person based on the person's face in the image;
Specifying a person relationship with the recognized person based on a correlation between a plurality of persons, with a person who is a subject of processing on an image as a viewpoint;
An image processing method comprising:
コンピュータに対して、
画像内の人物の顔に基づいてその人物を認識する機能と、
画像に対する処理の主体となる人物を決定する機能と、
前記決定された主体の人物を視点として、前記認識された人物との人物関係を複数の人物の相関関係に基づいて特定する機能と、
を実現させるためのプログラム。
Against the computer,
The ability to recognize a person based on the person's face in the image,
A function to determine the person who will be the subject of processing for the image;
A function of specifying a person relationship with the recognized person based on a correlation between a plurality of persons, with the determined subject person as a viewpoint;
A program to realize
JP2013047532A 2013-03-11 2013-03-11 Image processing apparatus, image processing method, and program Active JP5874982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013047532A JP5874982B2 (en) 2013-03-11 2013-03-11 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013047532A JP5874982B2 (en) 2013-03-11 2013-03-11 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2014174782A true JP2014174782A (en) 2014-09-22
JP5874982B2 JP5874982B2 (en) 2016-03-02

Family

ID=51695937

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013047532A Active JP5874982B2 (en) 2013-03-11 2013-03-11 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5874982B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170075003A (en) * 2014-11-28 2017-06-30 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for providing image presentation information
WO2017154136A1 (en) * 2016-03-09 2017-09-14 日立マクセル株式会社 Portable information terminal and information processing method used thereupon
JP2017538975A (en) * 2015-11-26 2017-12-28 小米科技有限責任公司Xiaomi Inc. Music playback method, apparatus and terminal device based on face album
JP2018160176A (en) * 2017-03-23 2018-10-11 富士ゼロックス株式会社 Information conversion apparatus and program
JP2020160745A (en) * 2019-03-26 2020-10-01 富士フイルム株式会社 Image processing method, program and image processing system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295648A (en) * 2003-03-27 2004-10-21 Seiko Epson Corp Family tree preparation method, family tree preparation program, and family tree preparation system
JP2007129471A (en) * 2005-11-02 2007-05-24 Fujifilm Corp Image processing system
US20090119608A1 (en) * 2007-11-05 2009-05-07 Scott David Huskey Face and subject tagging with relationship indexing in files to enhance organization and usability
US7636450B1 (en) * 2006-01-26 2009-12-22 Adobe Systems Incorporated Displaying detected objects to indicate grouping
JP2011061341A (en) * 2009-09-08 2011-03-24 Casio Computer Co Ltd Electrophotography display device, control method for the same, and program
JP2011155385A (en) * 2010-01-26 2011-08-11 Sony Corp Electronic device, content transmission method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004295648A (en) * 2003-03-27 2004-10-21 Seiko Epson Corp Family tree preparation method, family tree preparation program, and family tree preparation system
JP2007129471A (en) * 2005-11-02 2007-05-24 Fujifilm Corp Image processing system
US7636450B1 (en) * 2006-01-26 2009-12-22 Adobe Systems Incorporated Displaying detected objects to indicate grouping
US20090119608A1 (en) * 2007-11-05 2009-05-07 Scott David Huskey Face and subject tagging with relationship indexing in files to enhance organization and usability
JP2011061341A (en) * 2009-09-08 2011-03-24 Casio Computer Co Ltd Electrophotography display device, control method for the same, and program
JP2011155385A (en) * 2010-01-26 2011-08-11 Sony Corp Electronic device, content transmission method, and program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170075003A (en) * 2014-11-28 2017-06-30 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for providing image presentation information
JP2018503173A (en) * 2014-11-28 2018-02-01 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method and apparatus for providing image presentation information
KR101954552B1 (en) * 2014-11-28 2019-03-05 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and device for providing image presentation information
JP2017538975A (en) * 2015-11-26 2017-12-28 小米科技有限責任公司Xiaomi Inc. Music playback method, apparatus and terminal device based on face album
US9953221B2 (en) 2015-11-26 2018-04-24 Xiaomi Inc. Multimedia presentation method and apparatus
WO2017154136A1 (en) * 2016-03-09 2017-09-14 日立マクセル株式会社 Portable information terminal and information processing method used thereupon
JPWO2017154136A1 (en) * 2016-03-09 2018-08-30 マクセル株式会社 Portable information terminal and information processing method used therefor
JP2018160176A (en) * 2017-03-23 2018-10-11 富士ゼロックス株式会社 Information conversion apparatus and program
JP2020160745A (en) * 2019-03-26 2020-10-01 富士フイルム株式会社 Image processing method, program and image processing system
JP7105210B2 (en) 2019-03-26 2022-07-22 富士フイルム株式会社 Image processing method, program, and image processing system

Also Published As

Publication number Publication date
JP5874982B2 (en) 2016-03-02

Similar Documents

Publication Publication Date Title
CN103945130B (en) The image acquisition method of electronic equipment and electronic equipment
JP5874982B2 (en) Image processing apparatus, image processing method, and program
US8406600B2 (en) Imaging apparatus
CN101262561B (en) Imaging apparatus and control method thereof
JP6108755B2 (en) Shooting device, shot image transmission method, and shot image transmission program
JP2009169768A (en) Information processor and program
JP6059239B2 (en) Imaging device, imaging system, imaging method, and imaging control program
JP2002170119A (en) Image recognition device and method and recording medium
CN106713700A (en) Picture processing method and apparatus, as well as terminal
JP2007110262A (en) Software for image appreciation and image storage device
US9201947B2 (en) Methods and systems for media file management
JP2014154891A (en) Information processor, control method for the same, program, and storage medium
CN105229999A (en) Image recording structure, image recording process and program
JP2009077277A (en) External recording medium management system, apparatus, method, and program
JP6323548B2 (en) Imaging assistance system, imaging apparatus, information processing apparatus, imaging assistance program, and imaging assistance method
JP2009182544A (en) Video information processor
JP2007110261A (en) Digital camera
JP2017188787A (en) Imaging apparatus, image synthesizing method, and image synthesizing program
JP2009087004A (en) Image retrieval device and image retrieval method
JP4858875B2 (en) Videophone device and program
WO2023021759A1 (en) Information processing device and information processing method
JP2010183216A (en) Photographing device, image reproducing device, and photographing result notifying method
WO2022158201A1 (en) Image processing device, image processing method, and program
JP5473034B2 (en) Terminal device and program
JP2007288409A (en) Imaging apparatus with image data classifying function and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140929

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160107

R150 Certificate of patent or registration of utility model

Ref document number: 5874982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150