JP2006094035A - Image processor and processing method, and program - Google Patents

Image processor and processing method, and program Download PDF

Info

Publication number
JP2006094035A
JP2006094035A JP2004275863A JP2004275863A JP2006094035A JP 2006094035 A JP2006094035 A JP 2006094035A JP 2004275863 A JP2004275863 A JP 2004275863A JP 2004275863 A JP2004275863 A JP 2004275863A JP 2006094035 A JP2006094035 A JP 2006094035A
Authority
JP
Japan
Prior art keywords
image
face
person
group
template
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004275863A
Other languages
Japanese (ja)
Inventor
Makoto Yonaha
誠 與那覇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2004275863A priority Critical patent/JP2006094035A/en
Publication of JP2006094035A publication Critical patent/JP2006094035A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor, processing method, and program in which a face image can be compounded appropriately with a template image like a "back cloth" depending on the mode of a group in a photographed image. <P>SOLUTION: A face detecting section 3 detects the face part of a person Fn from a photographed image and detects a marker mk put on a part of the person Fn other than the face part. A group specifying setion 3a specifies a person belonging to the same group among persons whose face part is detected according to a marker mk put on the detected person Fn. A template input section 2 outputs a template image having composite regions Pn of the same number as the total number N of calculated markers to a compounding section 5. A trimming section 4 extracts a face image fn, i.e. the image at the face part of a person Fn belonging to the same group, from the photographed image. An arranging section 5a arranges the face image fn in the composite region Pn and the compounding section 5 compounds the face image fn arranged in the composite region Pn and the template image. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は画像処理装置、画像処理方法及び画像処理プログラムに係り、特に人物を記録した画像の顔部分を抽出してテンプレート画像の所定位置に合成する装置、方法及びプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly, to an apparatus, method, and program for extracting a face portion of an image in which a person is recorded and synthesizing it at a predetermined position of a template image.

従来、人物画像の顔部分の画像である顔画像と背景画像や服装画像を容易に合成するための技術が様々開発されている。例えば特許文献1によると、背景画像や服装画像などに合成の基準となる2点を指定する一方、顔画像の頭髪領域と顔輪郭の内部を合成に用いる領域とし、顔画像の合成の基準となる2点を指定する。顔画像の合成の基準となる2点は、あごの先端を通る水平線上で、その2点を結ぶ線分の中点があごの先端に、長さが顔の横幅になるように指定する。そして、顔画像に指定された2点と背景画像などに指定された2点が重なるように、顔画像の合成に用いる領域をマッピングして肖像画像を生成する。
特開平10−222649号公報
Conventionally, various techniques for easily synthesizing a face image, which is an image of a face portion of a person image, a background image, and a clothing image have been developed. For example, according to Patent Document 1, while specifying two points as a reference for synthesis in a background image, a clothing image, and the like, the hair region of the face image and the inside of the face outline are used as a region for synthesis, Specify two points. Two points serving as a reference for the synthesis of the face image are specified so that the midpoint of the line connecting the two points is on the tip of the jaw on the horizontal line passing through the tip of the jaw and the length is the width of the face. Then, the portrait image is generated by mapping the region used for the synthesis of the face image so that the two points designated for the face image and the two points designated for the background image overlap.
Japanese Patent Laid-Open No. 10-222649

ところで最近、人物キャラクタの顔部分がくり抜かれたように空白にしておき、その空白部分に別途複数の人物を撮影した画像から抽出された顔画像をはめ込んで合成するいわゆる「かきわり」状のテンプレート画像が開発されている。この顔画像の抽出元となる人物の撮影画像の中には、友人や同僚などで形成されるグループとグループとは無関係な人物が混在していたり、グループの中にも仲のよいサブグループや疎遠な人物同士が記録されていることが往々にしてある。このような撮影画像から得られた複数の顔画像を機械的にテンプレート画像の空白部分に配置すると、余り仲の良くない人物の顔画像同士が隣接したり、あるグループに属する人物の合間に全く関係のない人物の顔画像が配置されてしまうといった問題が生じる。本発明はこのような問題点に鑑みてなされたもので、撮影した画像中のグループの態様に応じて「かきわり」状のテンプレート画像に顔画像を適切に合成できる画像処理装置及び方法を提供することを目的とする。   By the way, recently, the character character's face part is blanked out, and a so-called “skin” -like template is created by inserting a face image extracted from an image obtained by photographing a plurality of persons into the blank part. Images are being developed. In the captured image of the person from whom this face image is extracted, there are a mixture of people who are not related to the group and groups formed by friends and colleagues. Often people are recorded. If a plurality of face images obtained from such a photographed image are mechanically placed in the blank portion of the template image, the face images of persons who are not very close to each other are adjacent to each other, or there is no relationship between the persons belonging to a certain group. There arises a problem that a face image of a person without a mark is arranged. The present invention has been made in view of such problems, and provides an image processing apparatus and method capable of appropriately compositing a face image with a “crisp” template image according to the mode of a group in a captured image. The purpose is to do.

上述の課題を解決するため、本願発明に係る画像処理装置は、人物及び人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力部と、人物の顔部分及び所定のマーカーを検出する検出部と、検出された人物の顔部分の画像である顔画像を撮影画像から抽出する抽出部と、顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力部と、所定のマーカーの検出の有無に従って抽出された顔画像を入力されたテンプレート画像の合成領域に配置する配置部と、合成領域に配置された顔画像とテンプレート画像とを合成する合成部と、を備える。   In order to solve the above-described problem, an image processing apparatus according to the present invention includes a photographed image input unit that inputs a photographed image in which a predetermined marker attached to a part other than a person and a person's face part is recorded, and a person's face part A template image having a detection unit for detecting a predetermined marker, an extraction unit for extracting a face image that is an image of the detected human face portion from the photographed image, and a composite region that is a blank region for arranging the face image A template image input unit for inputting a face image, a placement unit for placing a face image extracted according to whether or not a predetermined marker is detected, in a composite region of the input template image, a face image and a template image placed in the composite region, And a synthesis unit for synthesizing.

この画像処理装置では、人物の顔部分以外の部分に付帯する帽子、ネクタイなど所定のマーカーによって撮影画像に記録された人物の顔画像が、テンプレート画像の空白部分に合成される。このため、あるグループのメンバーに帽子やネクタイなど特定のマーカーを身につけてもらえば、撮影画像中にあるグループとそのグループとは無関係の人物が混在していても、グループのメンバーだけの顔画像とテンプレート画像が合成された画像を得ることができる。   In this image processing apparatus, a face image of a person recorded in a photographed image with a predetermined marker such as a hat or tie attached to a portion other than the face portion of the person is combined with a blank portion of the template image. For this reason, if a group member wears a specific marker such as a hat or tie, even if a group in the captured image and a person unrelated to the group are mixed, a facial image of only the group member And a template image can be obtained.

この画像処理装置は、所定のマーカーに従って顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定部と、入力されたテンプレート画像の中から同一のグループに属する人物の数以上の合成領域を有するテンプレート画像を選択する選択部と、をさらに備え、抽出部は同一のグループに属する人物の顔部分の画像である顔画像を撮影画像から抽出し、配置部は抽出された顔画像を選択されたテンプレート画像の合成領域に配置してもよい。   The image processing apparatus includes a group identification unit that identifies persons belonging to the same group from persons whose face portions are detected according to a predetermined marker, and the number of persons belonging to the same group from the input template images. A selection unit that selects a template image having the above-described composite region, and the extraction unit extracts a face image that is an image of a face part of a person belonging to the same group from the photographed image, and the arrangement unit is extracted The face image may be arranged in the synthesis area of the selected template image.

こうすれば、同一のグループに属する人物の顔画像の数に応じた空白部分を有するテンプレート画像が選択され、その空白部分にグループのメンバーの顔画像が合成される。   In this way, a template image having a blank portion corresponding to the number of face images of persons belonging to the same group is selected, and the face images of the group members are combined with the blank portion.

また、上述の課題を解決するため、本願発明に係る画像処理装置は、人物及び人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力部と、人物の顔部分及び所定のマーカーを検出する検出部と、所定のマーカーに従って顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定部と、人物の顔部分の画像である顔画像を撮影画像から抽出する抽出部と、同一のグループに属する人物の顔画像を配置する空白の領域であるグループ領域を有するテンプレート画像を入力するテンプレート画像入力部と、同一のグループに属する人物の顔画像をグループ領域に配置する配置部と、グループ領域に配置された顔画像とテンプレート画像とを合成する合成部と、を備える。   In order to solve the above-described problem, an image processing apparatus according to the present invention includes a captured image input unit that inputs a captured image in which a predetermined marker attached to a portion other than a person and a person's face portion is recorded, A detection unit that detects a face part and a predetermined marker, a group specification part that specifies a person belonging to the same group from persons whose face parts are detected according to the predetermined marker, and a face that is an image of the face part of the person An extraction unit that extracts an image from a photographed image, a template image input unit that inputs a template image having a group area that is a blank area in which face images of persons belonging to the same group are arranged, and a person belonging to the same group An arrangement unit that arranges the face image in the group area and a synthesis unit that synthesizes the face image arranged in the group area and the template image are provided.

この画像処理装置では、人物の顔部分以外の部分に付帯する帽子、ネクタイなど所定のマーカーによって撮影画像に記録された人物が同一のグループに属すること、即ちあるグループのメンバーであることが特定される。同一のグループに属する人物の顔画像は同一のグループ領域に配置されてテンプレート画像と合成される。即ち、あるグループに包含される仲良しグループなどの小グループに帽子やネクタイなど特定のマーカーを身につけてもらえば、その小グループをテンプレート画像の「かきわり」中の特に一体感のある領域に合成することができる。   In this image processing apparatus, it is specified that a person recorded in a photographed image belongs to the same group, that is, a member of a certain group, by a predetermined marker such as a hat or a tie attached to a part other than the face part of the person. The Face images of persons belonging to the same group are arranged in the same group area and synthesized with the template image. In other words, if a small group such as a good friend group included in a group wears a specific marker such as a hat or tie, the small group is synthesized into a particularly unity area in the “feel” of the template image. can do.

配置部は同一のグループに属さない人物の顔画像をグループ領域に含まれない空白の領域である合成領域に配置してもよい。   The placement unit may place a face image of a person who does not belong to the same group in a composite area that is a blank area that is not included in the group area.

また、上述の課題を解決するため、本願発明に係る画像処理方法は、人物及び人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分及び所定のマーカーを検出する検出ステップと、検出された人物の顔部分の画像である顔画像を撮影画像から抽出する抽出ステップと、顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、所定のマーカーの検出の有無に従って抽出された顔画像を入力されたテンプレート画像の合成領域に配置する配置ステップと、合成領域に配置された顔画像とテンプレート画像とを合成する合成ステップと、を含む。   In order to solve the above-described problem, an image processing method according to the present invention includes a photographed image input step of inputting a photographed image in which a predetermined marker attached to a part other than a person and a person's face part is recorded, A detection step for detecting a face portion and a predetermined marker; an extraction step for extracting a face image that is an image of the detected face portion of a person from a photographed image; and a synthesis region that is a blank region for arranging the face image. A template image input step for inputting a template image, a placement step for placing a face image extracted according to the presence or absence of detection of a predetermined marker in a composite region of the input template image, and a face image and a template placed in the composite region Synthesizing with the image.

また、上述の課題を解決するため、本願発明に係る画像処理方法は、人物及び人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分及び所定のマーカーを検出する検出ステップと、所定のマーカーに従って顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定ステップと、人物の顔部分の画像である顔画像を撮影画像から抽出する抽出ステップと、同一のグループに属する人物の顔画像を配置する空白の領域であるグループ領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、同一のグループに属する人物の顔画像をグループ領域に配置する配置ステップと、グループ領域に配置された顔画像とテンプレート画像とを合成する合成ステップと、を含む。   In order to solve the above-described problem, an image processing method according to the present invention includes a photographed image input step of inputting a photographed image in which a predetermined marker attached to a part other than a person and a person's face part is recorded, A detecting step for detecting a face part and a predetermined marker, a group specifying step for specifying a person belonging to the same group from persons whose face parts are detected according to the predetermined marker, and a face which is an image of the face part of the person An extraction step for extracting an image from a photographed image, a template image input step for inputting a template image having a group area that is a blank area for placing face images of persons belonging to the same group, An arrangement step of arranging a face image in a group area; a face image and a template image arranged in the group area; Comprising a synthesizing step of synthesizing a.

また、上述の課題を解決するため、本願発明に係る画像処理プログラムは、人物及び人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分及び所定のマーカーを検出する検出ステップと、検出された人物の顔部分の画像である顔画像を撮影画像から抽出する抽出ステップと、顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、所定のマーカーの検出の有無に従って抽出された顔画像を入力されたテンプレート画像の合成領域に配置する配置ステップと、合成領域に配置された顔画像とテンプレート画像とを合成する合成ステップと、をコンピュータに実行させる。   In order to solve the above-described problem, an image processing program according to the present invention includes a captured image input step of inputting a captured image in which a predetermined marker attached to a portion other than a person and a person's face portion is recorded, A detection step for detecting a face portion and a predetermined marker; an extraction step for extracting a face image that is an image of the detected face portion of a person from a photographed image; and a synthesis region that is a blank region for arranging the face image. A template image input step for inputting a template image, a placement step for placing a face image extracted according to the presence or absence of detection of a predetermined marker in a composite region of the input template image, and a face image and a template placed in the composite region And causing the computer to execute a combining step of combining the image.

また、上述の課題を解決するため、本願発明に係る画像処理プログラムは、人物及び人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、人物の顔部分及び所定のマーカーを検出する検出ステップと、所定のマーカーに従って顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定ステップと、人物の顔部分の画像である顔画像を撮影画像から抽出する抽出ステップと、同一のグループに属する人物の顔画像を配置する空白の領域であるグループ領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、同一のグループに属する人物の顔画像をグループ領域に配置する配置ステップと、グループ領域に配置された顔画像とテンプレート画像とを合成する合成ステップと、をコンピュータに実行させる。   In order to solve the above-described problem, an image processing program according to the present invention includes a captured image input step of inputting a captured image in which a predetermined marker attached to a portion other than a person and a person's face portion is recorded, A detecting step for detecting a face part and a predetermined marker, a group specifying step for specifying a person belonging to the same group from persons whose face parts are detected according to the predetermined marker, and a face which is an image of the face part of the person An extraction step for extracting an image from a photographed image, a template image input step for inputting a template image having a group area that is a blank area for placing face images of persons belonging to the same group, Arrangement step for arranging a face image in a group area, and a face image and a template arranged in the group area To perform a synthesizing step of synthesizing an image, to the computer.

この画像処理プログラムは、上述の画像処理装置と同様の作用効果を奏する。この画像処理プログラムは、CD−ROM、DVD、MOその他のコンピュータ読み取り可能な記録媒体に記録して提供してもよい。   This image processing program has the same effects as the above-described image processing apparatus. The image processing program may be provided by being recorded on a CD-ROM, DVD, MO, or other computer-readable recording medium.

この発明によると、あるグループに帽子やネクタイなど特定のマーカーを身につけてもらえば、撮影画像中にあるグループとそのグループとは無関係の人物が混在していても、グループのメンバーだけの顔画像とテンプレート画像が合成された画像を得ることができる。   According to this invention, if a certain group wears a specific marker such as a hat or tie, even if a group in the captured image and a person unrelated to the group are mixed, a face image of only the group members And a template image can be obtained.

また、この発明によると、あるグループに包含される仲良しグループなどの小グループに帽子やネクタイなど特定のマーカーを身につけてもらえば、その小グループをテンプレート画像の「かきわり」中の特に一体感のある領域に合成することができる。   Also, according to the present invention, if a small group such as a good friend group included in a certain group wears a specific marker such as a hat or a tie, the small group is particularly sensed in the “feel” of the template image. Can be synthesized in a certain area.

以下、添付した図面を参照し本発明の好ましい実施の形態を説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

<第1実施形態>
[概略構成]
図1は、本発明の好ましい第1の実施形態に係る画像処理装置100の概略機能構成図である。画像処理装置100は、撮影画像入力部1、テンプレート入力部2、顔検出部3、トリミング部4、合成部5及びテンプレート選択部6を有している。撮影画像入力部1はデジタルスチルカメラ、フィルムスキャナ、メディアドライバおよび各種無線・有線通信装置などによって取得した撮影画像を入力する。顔検出部3、トリミング部4、合成部5及びテンプレート選択部6は、ワンチップマイコンなどによって構成される処理部9に含まれる。顔検出部3は、公知の顔認識技術により撮影画像から人物の顔部分である顔画像を検出する。撮影画像に複数の人物が記録されている場合は、複数の顔画像を個別に検出する。トリミング部4は、検出された個々の顔画像を撮影画像から独立の画像として抽出する。合成部5は、顔画像とテンプレート画像を合成した合成画像を作成する。顔検出部3はグループ特定部3aを有し、合成部は配置部5aを有するが、詳細は後述する。画像処理装置100は、合成画像を印刷するプリンタ200と接続されていてもよい。また、図示しないが、画像処理装置100は、ユーザの操作入力を受け付けるキーボードやタッチパネルなどで構成された操作部、合成画像を所定の記憶媒体に記憶するメディアライタなどを有していてもよい。
<First Embodiment>
[Schematic configuration]
FIG. 1 is a schematic functional configuration diagram of an image processing apparatus 100 according to a preferred first embodiment of the present invention. The image processing apparatus 100 includes a captured image input unit 1, a template input unit 2, a face detection unit 3, a trimming unit 4, a synthesis unit 5, and a template selection unit 6. The captured image input unit 1 inputs captured images acquired by a digital still camera, a film scanner, a media driver, various wireless / wired communication devices, and the like. The face detection unit 3, the trimming unit 4, the synthesis unit 5, and the template selection unit 6 are included in a processing unit 9 configured by a one-chip microcomputer or the like. The face detection unit 3 detects a face image that is a face portion of a person from a captured image by a known face recognition technique. When a plurality of persons are recorded in the captured image, a plurality of face images are individually detected. The trimming unit 4 extracts each detected face image as an independent image from the captured image. The synthesizing unit 5 creates a synthesized image by synthesizing the face image and the template image. The face detection unit 3 includes a group specifying unit 3a, and the combining unit includes an arrangement unit 5a, which will be described in detail later. The image processing apparatus 100 may be connected to a printer 200 that prints a composite image. Although not shown, the image processing apparatus 100 may include an operation unit configured by a keyboard, a touch panel, and the like that accepts user operation input, a media writer that stores a composite image in a predetermined storage medium, and the like.

[処理の流れ]
次に、図2のフローチャートに基づき、画像処理装置100の実行する合成処理の流れを説明する。
[Process flow]
Next, the flow of the composition process executed by the image processing apparatus 100 will be described based on the flowchart of FIG.

S1では、撮影画像入力部1は撮影画像を入力する。図3は撮影画像入力部1に入力される撮影画像の一例である。撮影画像には、複数の人物Fn(n=1、2・・)が記録されている。この図では一例としてn=8となっている。家族、友達、同僚など、ある特定のグループに属する人物には、同じグループに属していることを示すマーカーmkを身につけさせた上で撮影される。どのグループにも属さない人物には何も身につけさせない。マーカーmkは顔検出のため顔部分を覆わないように身につけさせる必要があり、例えば顔部分を覆わないよう浅く被った帽子や首下のネクタイなどが挙げられる。この図では、F1〜F5が帽子のマーカーmkを身につけた状態で撮影されている。以下、撮影画像中の人物がマーカーmkを身につけた状態をマーカーが付帯されているともいう。   In S1, the captured image input unit 1 inputs a captured image. FIG. 3 is an example of a photographed image input to the photographed image input unit 1. A plurality of persons Fn (n = 1, 2,...) Are recorded in the photographed image. In this figure, n = 8 as an example. A person belonging to a specific group such as a family member, a friend, or a colleague is photographed while wearing a marker mk indicating that the person belongs to the same group. Do not let anyone who does not belong to any group wear anything. The marker mk needs to be worn so as not to cover the face part for face detection. For example, a shallow hat or neck tie may be used so as not to cover the face part. In this figure, F1 to F5 are taken with the hat marker mk being worn. Hereinafter, a state in which a person in a captured image wears the marker mk is also referred to as a marker.

S2では、顔検出部3は撮影画像から人物Fnの顔部分を検出するとともに、その人物Fnの顔部分以外の部分に付帯するマーカーmkを検出する。グループ特定部3aは検出した人物Fnに付帯するマーカーmkに従って、顔部分を検出した人物のうち同一のグループに属する人物を特定する。例えば、図3において、人物F1〜F8の顔部分が検出されたとすると、同一のグループに属する人物はマーカーmkの付帯した人物F1〜F5と特定される。   In S2, the face detection unit 3 detects the face part of the person Fn from the photographed image and also detects a marker mk attached to a part other than the face part of the person Fn. The group specifying unit 3a specifies persons belonging to the same group among the persons whose face portions are detected according to the marker mk attached to the detected person Fn. For example, in FIG. 3, if the face portions of the persons F1 to F8 are detected, the persons belonging to the same group are specified as the persons F1 to F5 accompanied by the marker mk.

S3では、グループ特定部3aは同一のグループに属する人物の数即ち検出されたマーカーmkの総数Nを算出する。また、後述のステップS8を繰り返し実行した回数をカウントする数値nをn=0に設定する。   In S3, the group specifying unit 3a calculates the number of persons belonging to the same group, that is, the total number N of detected markers mk. Further, a numerical value n for counting the number of times of repeatedly executing step S8 described later is set to n = 0.

S4では、テンプレート入力部2は、算出されたマーカーの総数Nと同一数の合成領域Pn(n=1〜N)を有するテンプレート画像を入力し、合成部5にこのテンプレート画像を出力する。図4に示すように、テンプレート画像は、同一のグループに属する人物Fn(n=1〜N)から抽出される顔部分の画像fn(以下顔画像という)を合成する空白の領域である合成領域Pn(n=1〜N)を有している。テンプレート入力部2に異なる数の合成領域を有する複数のテンプレート画像が入力された場合、テンプレート選択部6はそのテンプレート画像の中から総数Nの合成領域を有するテンプレート画像を選択して合成部5に出力する。   In S <b> 4, the template input unit 2 inputs a template image having the same number of synthesis regions Pn (n = 1 to N) as the total number N of calculated markers, and outputs this template image to the synthesis unit 5. As shown in FIG. 4, the template image is a blank area for synthesizing a face part image fn (hereinafter referred to as a face image) extracted from a person Fn (n = 1 to N) belonging to the same group. Pn (n = 1 to N). When a plurality of template images having different numbers of synthesis regions are input to the template input unit 2, the template selection unit 6 selects a template image having a total number N of synthesis regions from the template images and sends the template image to the synthesis unit 5. Output.

S5では、トリミング部4は、同一のグループに属する人物Fnの顔部分の画像である顔画像fnを撮影画像から抽出する。S6では、配置部5aは顔画像fnを合成領域Pnに配置し、合成部5は合成領域Pnに配置された顔画像fnとテンプレート画像とを合成する。合成部5は、顔画像fnが合成領域Pnに適切に合成されるよう顔画像fnを適宜拡縮、アスペクト比変更、センタリング、色変更などの画像処理をした上で合成してもよい。   In S5, the trimming unit 4 extracts a face image fn that is an image of the face portion of the person Fn belonging to the same group from the captured image. In S6, the arrangement unit 5a arranges the face image fn in the synthesis area Pn, and the synthesis unit 5 synthesizes the face image fn arranged in the synthesis area Pn and the template image. The combining unit 5 may combine the face image fn after appropriately performing image processing such as enlargement / reduction, aspect ratio change, centering, and color change so that the face image fn is appropriately combined with the combining region Pn.

S7では、nをインクリメントし、S8では、n=Nとなったか否かを判断する。n=Nでない場合はS5に戻り、n=Nとなった場合は処理を終了する。図5は、本処理が終了した際に得られる合成画像の概念説明図である。この図では、図3において同一のマーカーmkが付与された人物F1〜F5の顔画像f1〜f5がそれぞれ合成領域P1〜P5に合成された状態を示している。   In S7, n is incremented, and in S8, it is determined whether or not n = N. If n = N, the process returns to S5, and if n = N, the process ends. FIG. 5 is a conceptual explanatory diagram of a composite image obtained when this processing is completed. This figure shows a state in which the face images f1 to f5 of the persons F1 to F5 to which the same marker mk is given in FIG. 3 are synthesized in the synthesis areas P1 to P5, respectively.

なお、ステップS1〜8を処理部9に実行させる画像処理プログラムは、半導体メモリで構成された記憶部30に記憶されている。画像処理プログラムは、CD−ROM、DVD、MOその他のコンピュータ読み取り可能な記録媒体に記録して処理部9に提供してもよい。   Note that an image processing program for causing the processing unit 9 to execute steps S1 to S8 is stored in the storage unit 30 configured by a semiconductor memory. The image processing program may be recorded on a CD-ROM, DVD, MO, or other computer-readable recording medium and provided to the processing unit 9.

以上説明した通り、特定のマーカーが付与された人物の顔画像は、そのマーカーが付与された数と同一の数の合成領域を有するテンプレートに合成される。即ち、あるグループに帽子やネクタイなど特定のマーカーを身につけてもらえば、そのグループと全く無関係な人物と一緒に1つの撮影画像に記録されても、そのグループの構成員の顔画像だけをテンプレート画像の「かきわり」部分に合成した画像を得ることができる。   As described above, the face image of a person to whom a specific marker is assigned is synthesized with a template having the same number of synthesis regions as the number of markers. That is, if a group wears a specific marker such as a hat or tie, even if it is recorded on a single photographed image together with a person who is completely unrelated to the group, only the face images of the members of the group are used as templates. It is possible to obtain an image synthesized with the “crisp” portion of the image.

<第2実施形態>
図6は、本発明の第2の実施形態に係る画像処理装置100のブロック構成図である。この画像処理装置100は、第1実施形態と異なり、テンプレート選択部6を有しておらず、配置部5aを有している。後述するが、配置部5aは、同じマーカーの付与された小グループに属する顔画像をテンプレート画像中の所定の小グループ領域内の合成領域に配置する。小グループとは、学校のクラスや職場の部署など1つの大グループ内の仲良しグループなど大グループに包含されるグループを意味する。
Second Embodiment
FIG. 6 is a block diagram of an image processing apparatus 100 according to the second embodiment of the present invention. Unlike the first embodiment, the image processing apparatus 100 does not include the template selection unit 6 but includes the arrangement unit 5a. As will be described later, the arrangement unit 5a arranges face images belonging to a small group to which the same marker is assigned in a composite area in a predetermined small group area in the template image. A small group means a group included in a large group, such as a close group within a large group such as a school class or a workplace department.

図7に示すように、本実施形態の撮影画像には、大グループの構成員たる人物が記録されており、第1実施形態のようにあるグループが全く無関係の他人と一緒に同じ撮影画像に記録されることは想定していない。図8は小グループ領域Gを有するテンプレート画像の一例である。小グループ領域Gは、同一の小グループに属する3人分の顔画像を配置する合成領域g1〜g3を有している。小グループの一体感を出すようにするため、図8のように小グループ領域G内に文を入れるか、あるいは合成領域gn間の距離を他の合成領域Pnよりも近接させるなどしてもよい。無論、小グループ領域内の合成領域gnの数はこの図に示したものに限定されない。   As shown in FIG. 7, in the captured image of this embodiment, a person who is a member of a large group is recorded, and in the same captured image together with other people who are completely irrelevant as in the first embodiment. It is not supposed to be recorded. FIG. 8 is an example of a template image having a small group region G. The small group area G has synthesis areas g1 to g3 in which face images for three persons belonging to the same small group are arranged. In order to give a sense of unity of the small group, a sentence may be put in the small group region G as shown in FIG. 8, or the distance between the combined regions gn may be made closer to the other combined regions Pn. . Of course, the number of synthesis regions gn in the small group region is not limited to that shown in this figure.

図9は、本実施形態に係る画像処理装置100の実行する合成処理の流れを示すフローチャートである。S101では、撮影画像入力部1は撮影画像を入力する。ただし、ここで入力される撮影画像は、第1実施形態と異なり学校のクラスや職場の部署など1つの大グループに属する構成員を記録しており、小グループの構成員となる人物にはマーカーmkが付帯している(図7参照)。   FIG. 9 is a flowchart showing the flow of the composition process executed by the image processing apparatus 100 according to this embodiment. In S101, the captured image input unit 1 inputs a captured image. However, unlike the first embodiment, the photographed image input here records members belonging to one large group, such as a school class and a workplace department, and the person who becomes a member of the small group is a marker. mk is attached (see FIG. 7).

S102では、顔検出部3は撮影画像から人物の顔部分を検出するとともに、その人物の顔部分以外の部分に付帯するマーカーmkを検出する。グループ特定部3aは検出した人物に付帯するマーカーmkに従って、顔部分を検出した人物のうち同一の小グループに属する人物Fnと、小グループに属さない人物Fn’を特定する。例えば、図7において、同一の小グループに属する人物はF1〜F3、小グループに属さない人物はF1’〜F2’と特定される。   In S102, the face detection unit 3 detects a person's face part from the photographed image, and also detects a marker mk attached to a part other than the person's face part. The group specifying unit 3a specifies a person Fn belonging to the same small group and a person Fn 'not belonging to the small group among the persons whose face portions are detected, according to the marker mk attached to the detected person. For example, in FIG. 7, persons belonging to the same small group are identified as F1 to F3, and persons not belonging to the small group are identified as F1 'to F2'.

S103では、グループ特定部3aは同一の小グループに属する人物の数即ち検出されたマーカーmkの総数Nと、小グループに属さない人物の総数N’を算出する。また、後述のステップS108を繰り返し実行した回数をカウントする数値nをn=0に設定する。   In S103, the group specifying unit 3a calculates the number of persons belonging to the same small group, that is, the total number N of detected markers mk and the total number N 'of persons not belonging to the small group. Further, a numerical value n for counting the number of times of repeatedly executing step S108 described later is set to n = 0.

S104では、テンプレート入力部2は、同一の小グループに属する人物の総数Nと同一数の合成領域gn(n=1〜N)を含む小グループ領域G及び小グループに属さない人物の総数N’だけ合成領域Pn(n=1〜N’)を有するテンプレート画像を入力し、合成部5にこのテンプレート画像を出力する。   In S104, the template input unit 2 determines that the small group region G includes the same number of combined regions gn (n = 1 to N) as the total number N of people belonging to the same small group, and the total number N ′ of people not belonging to the small group. A template image having only a synthesis region Pn (n = 1 to N ′) is input, and this template image is output to the synthesis unit 5.

S105では、トリミング部4は、同一の小グループに属する人物Fnの顔部分の画像である顔画像fnを撮影画像から抽出する。S106では、配置部5aは顔画像fnを小グループ領域Gの合成領域gnに配置し、合成部5は合成領域gnに配置された顔画像fnとテンプレート画像とを合成する。合成部5は、顔画像fnが合成領域gn内に適切に合成されるよう顔画像fnを適宜拡縮、アスペクト比変更、センタリング、色変更などの画像処理を行った上で合成してもよい。   In S105, the trimming unit 4 extracts a face image fn, which is an image of the face portion of the person Fn belonging to the same small group, from the captured image. In S106, the arrangement unit 5a arranges the face image fn in the synthesis region gn of the small group region G, and the synthesis unit 5 synthesizes the face image fn arranged in the synthesis region gn and the template image. The synthesizing unit 5 may synthesize the face image fn after appropriately performing image processing such as enlargement / reduction, aspect ratio change, centering, and color change so that the face image fn is appropriately synthesized in the synthesis region gn.

S107では、nをインクリメントし、S108では、n=Nとなったか否かを判断する。n=Nでない場合はS105に戻り、n=Nとなった場合はS109に移行する。   In S107, n is incremented, and in S108, it is determined whether or not n = N. If n = N, the process returns to S105, and if n = N, the process proceeds to S109.

S109では、n=0とし、S110では、トリミング部4は、小グループに属さない人物Fn’の顔部分の画像である顔画像fn’を撮影画像から抽出する。S111では、配置部5aは顔画像fn’を小グループ領域Gに含まれない合成領域Pnに配置し、合成部5は合成領域Pnに配置された顔画像fn’とテンプレート画像とを合成する。合成部5は、顔画像fn’が合成領域Pn内に適切に合成されるよう顔画像fn’を適宜拡縮、アスペクト比変更、センタリング、色変更などの画像処理をした上で合成してもよい。   In S109, n = 0, and in S110, the trimming unit 4 extracts a face image fn ′, which is an image of the face portion of the person Fn ′ not belonging to the small group, from the captured image. In S111, the arrangement unit 5a arranges the face image fn ′ in the synthesis area Pn not included in the small group area G, and the synthesis unit 5 synthesizes the face image fn ′ arranged in the synthesis area Pn and the template image. The synthesizing unit 5 may synthesize the face image fn ′ after appropriately performing image processing such as enlargement / reduction, aspect ratio change, centering, and color change so that the face image fn ′ is appropriately synthesized in the synthesis region Pn. .

S112では、n=N’となったか否かを判断する。n=N’でない場合はS110に戻り、n=Nとなった場合は処理を終了する。   In S112, it is determined whether or not n = N ′. If not n = N ′, the process returns to S110, and if n = N, the process is terminated.

なお、ステップS101〜112を処理部9に実行させる画像処理プログラムは、半導体メモリで構成された記憶部30に記憶されている。画像処理プログラムは、CD−ROM、DVD、MOその他のコンピュータ読み取り可能な記録媒体に記録して処理部9に提供してもよい。   Note that an image processing program that causes the processing unit 9 to execute steps S101 to S112 is stored in the storage unit 30 configured by a semiconductor memory. The image processing program may be recorded on a CD-ROM, DVD, MO, or other computer-readable recording medium and provided to the processing unit 9.

図10は、本処理が終了した際に得られる合成画像の概念説明図である。この図では、図7において同一のマーカーmkが付与された小グループに属する人物F1〜F3の顔画像f1〜f3がそれぞれ合成領域g1〜g3に合成され、かつ小グループに属さない人物F1’及びF2’の顔画像f1’及びf2’がそれぞれ合成領域P1及びP2に合成された状態を示している。   FIG. 10 is a conceptual explanatory diagram of a composite image obtained when this processing is completed. In this figure, the face images f1 to f3 of the persons F1 to F3 belonging to the small group to which the same marker mk is assigned in FIG. 7 are respectively combined with the combined regions g1 to g3, and the person F1 ′ not belonging to the small group and F2 ′ shows a state in which face images f1 ′ and f2 ′ of F2 ′ are synthesized in the synthesis areas P1 and P2, respectively.

以上説明した通り、特定のマーカーを付帯させた小グループに属する人物の顔画像は、小グループ領域の合成領域に合成される。即ち、ある小グループに帽子やネクタイなど特定のマーカーを身につけてもらえば、その小グループをテンプレート画像の「かきわり」中の特に一体感のある領域に合成することができる。   As described above, face images of persons belonging to a small group to which a specific marker is attached are combined with the combined region of the small group region. In other words, if a certain small group wears a specific marker such as a hat or a tie, the small group can be synthesized into a particularly united area in the “feel” of the template image.

第1実施形態に係る画像処理装置の概略機能構成図1 is a schematic functional configuration diagram of an image processing apparatus according to a first embodiment. 第1実施形態に係る合成処理の流れを示すフローチャートThe flowchart which shows the flow of the synthetic | combination process which concerns on 1st Embodiment. 撮影画像の外観を示す図Figure showing the appearance of the captured image テンプレート画像の外観を示す図Diagram showing the appearance of a template image テンプレート画像に顔画像が合成された状態を示す図The figure which shows the state by which the face image was synthesize | combined with the template image 第2実施形態に係る画像処理装置の概略機能構成図Schematic functional configuration diagram of an image processing apparatus according to the second embodiment 撮影画像の外観を示す図Figure showing the appearance of the captured image テンプレート画像の外観を示す図Diagram showing the appearance of a template image 第2実施形態に係る合成処理の流れを示すフローチャートFlowchart showing the flow of composition processing according to the second embodiment テンプレート画像に顔画像が合成された状態を示す図The figure which shows the state by which the face image was synthesize | combined with the template image

符号の説明Explanation of symbols

1:撮影画像入力部、2:テンプレート入力部、3:顔検出部、3a:グループ特定部、4:トリミング部、5:合成部、5a:配置部、6:テンプレート選択部、9:処理部
1: shot image input unit, 2: template input unit, 3: face detection unit, 3a: group specifying unit, 4: trimming unit, 5: composition unit, 5a: placement unit, 6: template selection unit, 9: processing unit

Claims (8)

人物及び前記人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力部と、
前記人物の顔部分及び前記所定のマーカーを検出する検出部と、
前記検出された人物の顔部分の画像である顔画像を前記撮影画像から抽出する抽出部と、
前記顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力部と、
前記所定のマーカーの検出の有無に従って前記抽出された顔画像を前記入力されたテンプレート画像の合成領域に配置する配置部と、
前記合成領域に配置された顔画像と前記テンプレート画像とを合成する合成部と、
を備える画像処理装置。
A photographed image input unit for inputting a photographed image in which a predetermined marker attached to a person and a part other than the face part of the person is recorded;
A detection unit for detecting the face portion of the person and the predetermined marker;
An extraction unit that extracts a face image, which is an image of the detected face portion of the person, from the captured image;
A template image input unit for inputting a template image having a composite area which is a blank area in which the face image is arranged;
An arrangement unit that arranges the extracted face image in a composite region of the input template image according to the presence or absence of detection of the predetermined marker;
A synthesis unit that synthesizes the face image and the template image arranged in the synthesis region;
An image processing apparatus comprising:
前記所定のマーカーに従って前記顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定部と、
前記入力されたテンプレート画像の中から前記同一のグループに属する人物の数以上の前記合成領域を有するテンプレート画像を選択する選択部と、
をさらに備え、
前記抽出部は前記同一のグループに属する人物の顔部分の画像である顔画像を前記撮影画像から抽出し、
前記配置部は前記抽出された顔画像を前記選択されたテンプレート画像の合成領域に配置する請求項1に記載の画像処理装置。
A group specifying unit for specifying persons belonging to the same group from the persons detected in the face portion according to the predetermined marker;
A selection unit that selects, from the input template images, a template image having the composite region equal to or more than the number of persons belonging to the same group;
Further comprising
The extraction unit extracts a face image that is an image of a face portion of a person belonging to the same group from the photographed image,
The image processing apparatus according to claim 1, wherein the arrangement unit arranges the extracted face image in a synthesis region of the selected template image.
人物及び前記人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力部と、
前記人物の顔部分及び前記所定のマーカーを検出する検出部と、
前記所定のマーカーに従って前記顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定部と、
前記人物の顔部分の画像である顔画像を前記撮影画像から抽出する抽出部と、
同一のグループに属する人物の顔画像を配置する空白の領域であるグループ領域を有するテンプレート画像を入力するテンプレート画像入力部と、
前記同一のグループに属する人物の顔画像を前記グループ領域に配置する配置部と、
前記グループ領域に配置された顔画像と前記テンプレート画像とを合成する合成部と、
を備える画像処理装置。
A photographed image input unit for inputting a photographed image in which a predetermined marker attached to a person and a part other than the face part of the person is recorded;
A detection unit for detecting the face portion of the person and the predetermined marker;
A group specifying unit for specifying persons belonging to the same group from the persons detected in the face portion according to the predetermined marker;
An extraction unit that extracts a face image that is an image of the face portion of the person from the photographed image;
A template image input unit for inputting a template image having a group area which is a blank area in which face images of persons belonging to the same group are arranged;
An arrangement unit that arranges face images of persons belonging to the same group in the group region;
A synthesizing unit that synthesizes the face image arranged in the group region and the template image;
An image processing apparatus comprising:
前記配置部は同一のグループに属さない人物の顔画像を前記グループ領域に含まれない空白の領域である合成領域に配置する請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the arrangement unit arranges a face image of a person who does not belong to the same group in a composite area which is a blank area not included in the group area. 人物及び前記人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分及び前記所定のマーカーを検出する検出ステップと、
前記検出された人物の顔部分の画像である顔画像を前記撮影画像から抽出する抽出ステップと、
前記顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、
前記所定のマーカーの検出の有無に従って前記抽出された顔画像を前記入力されたテンプレート画像の合成領域に配置する配置ステップと、
前記合成領域に配置された顔画像と前記テンプレート画像とを合成する合成ステップと、
を含む画像処理方法。
A photographed image input step of inputting a photographed image in which a predetermined marker attached to a person and a part other than the face part of the person is recorded;
A detection step of detecting the face portion of the person and the predetermined marker;
An extraction step of extracting a face image, which is an image of the detected human face portion, from the captured image;
A template image input step for inputting a template image having a composite area which is a blank area in which the face image is arranged;
An arrangement step of arranging the extracted face image in a composite region of the input template image according to presence or absence of detection of the predetermined marker;
A synthesis step of synthesizing the face image arranged in the synthesis area with the template image;
An image processing method including:
人物及び前記人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分及び前記所定のマーカーを検出する検出ステップと、
前記所定のマーカーに従って前記顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定ステップと、
前記人物の顔部分の画像である顔画像を前記撮影画像から抽出する抽出ステップと、
同一のグループに属する人物の顔画像を配置する空白の領域であるグループ領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、
前記同一のグループに属する人物の顔画像を前記グループ領域に配置する配置ステップと、
前記グループ領域に配置された顔画像と前記テンプレート画像とを合成する合成ステップと、
を含む画像処理方法。
A photographed image input step of inputting a photographed image in which a predetermined marker attached to a person and a part other than the face part of the person is recorded;
A detection step of detecting the face portion of the person and the predetermined marker;
A group specifying step of specifying persons belonging to the same group from persons detected in the face portion according to the predetermined marker;
An extraction step of extracting a face image that is an image of the face portion of the person from the photographed image;
A template image input step for inputting a template image having a group area that is a blank area in which face images of persons belonging to the same group are arranged;
An arrangement step of arranging face images of persons belonging to the same group in the group area;
A synthesizing step of synthesizing the face image arranged in the group region and the template image;
An image processing method including:
人物及び前記人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分及び前記所定のマーカーを検出する検出ステップと、
前記検出された人物の顔部分の画像である顔画像を前記撮影画像から抽出する抽出ステップと、
前記顔画像を配置する空白の領域である合成領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、
前記所定のマーカーの検出の有無に従って前記抽出された顔画像を前記入力されたテンプレート画像の合成領域に配置する配置ステップと、
前記合成領域に配置された顔画像と前記テンプレート画像とを合成する合成ステップと、
をコンピュータに実行させる画像処理プログラム。
A photographed image input step of inputting a photographed image in which a predetermined marker attached to a person and a part other than the face part of the person is recorded;
A detection step of detecting the face portion of the person and the predetermined marker;
An extraction step of extracting a face image, which is an image of the detected human face portion, from the captured image;
A template image input step for inputting a template image having a composite area which is a blank area in which the face image is arranged;
An arrangement step of arranging the extracted face image in a composite region of the input template image according to presence or absence of detection of the predetermined marker;
A synthesis step of synthesizing the face image arranged in the synthesis area with the template image;
An image processing program for causing a computer to execute.
人物及び前記人物の顔部分以外の部分に付帯する所定のマーカーを記録した撮影画像を入力する撮影画像入力ステップと、
前記人物の顔部分及び前記所定のマーカーを検出する検出ステップと、
前記所定のマーカーに従って前記顔部分の検出された人物の中から同一のグループに属する人物を特定するグループ特定ステップと、
前記人物の顔部分の画像である顔画像を前記撮影画像から抽出する抽出ステップと、
同一のグループに属する人物の顔画像を配置する空白の領域であるグループ領域を有するテンプレート画像を入力するテンプレート画像入力ステップと、
前記同一のグループに属する人物の顔画像を前記グループ領域に配置する配置ステップと、
前記グループ領域に配置された顔画像と前記テンプレート画像とを合成する合成ステップと、
をコンピュータに実行させる画像処理プログラム。


A photographed image input step of inputting a photographed image in which a predetermined marker attached to a person and a part other than the face part of the person is recorded;
A detection step of detecting the face portion of the person and the predetermined marker;
A group specifying step of specifying persons belonging to the same group from persons detected in the face portion according to the predetermined marker;
An extraction step of extracting a face image that is an image of the face portion of the person from the photographed image;
A template image input step for inputting a template image having a group area that is a blank area in which face images of persons belonging to the same group are arranged;
An arrangement step of arranging face images of persons belonging to the same group in the group area;
A synthesizing step of synthesizing the face image arranged in the group region and the template image;
An image processing program for causing a computer to execute.


JP2004275863A 2004-09-22 2004-09-22 Image processor and processing method, and program Pending JP2006094035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004275863A JP2006094035A (en) 2004-09-22 2004-09-22 Image processor and processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004275863A JP2006094035A (en) 2004-09-22 2004-09-22 Image processor and processing method, and program

Publications (1)

Publication Number Publication Date
JP2006094035A true JP2006094035A (en) 2006-04-06

Family

ID=36234590

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004275863A Pending JP2006094035A (en) 2004-09-22 2004-09-22 Image processor and processing method, and program

Country Status (1)

Country Link
JP (1) JP2006094035A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005470A (en) * 2006-05-22 2008-01-10 Sony Ericsson Mobilecommunications Japan Inc Information processing apparatus, information processing method, information processing program, and mobile terminal device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008005470A (en) * 2006-05-22 2008-01-10 Sony Ericsson Mobilecommunications Japan Inc Information processing apparatus, information processing method, information processing program, and mobile terminal device
US8204270B2 (en) 2006-05-22 2012-06-19 Sony Mobile Communications Japan, Inc. Apparatus, method, program, and mobile terminal device with person image extracting and linking

Similar Documents

Publication Publication Date Title
US9311736B2 (en) Clothing and body covering pattern creation machine and method
US7486808B2 (en) Image processing device, image processing method and image processing program
JP5180127B2 (en) Image creating apparatus and image creating method
JP2007094487A (en) Method and system for correcting image
JP2011170892A (en) Image extracting device, image extracting method, and image extracting program
JP2010134876A (en) Information processing device and method
JP4702534B2 (en) Image processing apparatus, image processing method, and image processing program
JP2004199248A (en) Image layouting device, method and program
JP2009211513A (en) Image processing apparatus and method therefor
JP4219521B2 (en) Matching method and apparatus, and recording medium
US20060056668A1 (en) Image processing apparatus and image processing method
JP2008217479A (en) Image arrangement method and device
JP5545316B2 (en) Print production apparatus and print production method
CN103810687B (en) Image processing method and device
JP2006094035A (en) Image processor and processing method, and program
JP2003263632A (en) Virtual trying-on display device, virtual trying-on display method, virtual trying-on display program and computer-readable recording medium with its program recorded
KR101742779B1 (en) System for making dynamic digital image by voice recognition
JP2006277731A (en) Image extracting device, image extracting method, and image extracting program
JP2004234500A (en) Image layout device, image layout method, program in image layout device and image editing device
JP2020107037A (en) Information processing apparatus, information processing method, and program
JP2007034721A (en) Extraction of image including face of object
JP2006092026A (en) Image processing apparatus, image processing method, and image processing program
JP2007068146A (en) Image processing apparatus, method for calculating white balance evaluation value, program including program code for obtaining method for calculating white balance evaluation value, and storage medium for storing the program
JP2008187256A (en) Motion image creating device, method and program
JP2006092191A (en) Apparatus for detecting face image, method for detecting face image, and program for detecting face image

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20070105