JP5549504B2 - Image processing program and image processing apparatus - Google Patents

Image processing program and image processing apparatus Download PDF

Info

Publication number
JP5549504B2
JP5549504B2 JP2010215612A JP2010215612A JP5549504B2 JP 5549504 B2 JP5549504 B2 JP 5549504B2 JP 2010215612 A JP2010215612 A JP 2010215612A JP 2010215612 A JP2010215612 A JP 2010215612A JP 5549504 B2 JP5549504 B2 JP 5549504B2
Authority
JP
Japan
Prior art keywords
image
image data
person
information
background
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010215612A
Other languages
Japanese (ja)
Other versions
JP2012070338A (en
Inventor
加奈子 小竹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2010215612A priority Critical patent/JP5549504B2/en
Publication of JP2012070338A publication Critical patent/JP2012070338A/en
Application granted granted Critical
Publication of JP5549504B2 publication Critical patent/JP5549504B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Editing Of Facsimile Originals (AREA)

Description

本発明は、画像処理プログラムおよび画像処理装置に関するものである。   The present invention relates to an image processing program and an image processing apparatus.

特許文献1には、メディアに記憶された画像データのうち、代表的な画像データに基づく画像を、メディアのラベル面に印刷する印刷装置が記載されている。   Patent Document 1 describes a printing apparatus that prints an image based on representative image data among image data stored in a medium on a label surface of the medium.

特開2006−224665号公報JP 2006-224665 A

しかしながら、上記従来の技術は、単に、代表的な画像をラベル面に印刷するだけのものであるため、その印刷結果が、ユーザにとってつまらないものになる虞があった。また、記録媒体に格納された複数の画像データを、ユーザに必ずしも的確に把握させることができない虞があった。   However, since the above conventional technique merely prints a representative image on the label surface, there is a possibility that the printing result may be boring for the user. Further, there is a possibility that the user cannot necessarily accurately grasp the plurality of image data stored in the recording medium.

本発明は、上述した問題点を解決するためになされたものであり、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができる出力画像に対応した出力画像データを生成できる画像処理プログラムおよび画像処理装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, is preferable for the user, and is an output image corresponding to an output image that allows the user to grasp a plurality of pieces of image data stored in a recording medium. An object is to provide an image processing program and an image processing apparatus capable of generating data.

この目的を達成するために、本発明の画像処理プログラムは、コンピュータを、記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段と、前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段として機能させる。前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものであって、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである。 In order to achieve this object, an image processing program according to the present invention selects a human image from a plurality of image data stored in a recording medium and selects image data corresponding to a human image including a person as a subject. Means, a background image selecting means for selecting image data corresponding to a background image to be arranged in an output image among a plurality of image data stored in the recording medium, and the person included as a subject in the person image; Generation of output image data corresponding to an output image in which the background image is arranged based on the image data selected by the person image selection means and the image data selected by the background image selection means It means, in the human image corresponding to the image data, to function as a recognized person recognizing means a person included as a subject . When the plurality of image data is classified into two or more groups and stored in the recording medium, the person image selection unit selects image data corresponding to the person image for each group, The background image selection means selects image data corresponding to the background image for each group, and the generation means selects the person included in the person image as a subject and the background image from the group. The output image data is generated so that a composite image synthesized every time is included in the output image for each of the two or more groups, and is classified into each of two or more different groups. About the above image data, when the same person is recognized by the person recognition means, it is created for each of the two or more different groups. In association with the above combined image, the as same person is placed, and generates the output image data.

上記の画像処理プログラムは、前記記録媒体に格納された画像データについて、撮影が行われた場所を表す場所情報を取得する場所情報取得手段として、前記コンピュータを機能させ、前記生成手段は、前記場所情報取得手段により取得された前記場所情報が前記出力画像に含まれるように、前記出力画像データを生成するものであって良い。   The image processing program causes the computer to function as location information acquisition means for acquiring location information indicating the location where the image was taken for the image data stored in the recording medium, and the generation means includes the location The output image data may be generated so that the location information acquired by the information acquisition means is included in the output image.

なお、本発明は、画像処理装置、画像処理方法、画像処理プログラムを記録する記録媒体、画像処理装置と当該画像処理装置により生成された画像データを出力する出力装置とを含む画像処理システム等の種々の態様で構成することができる。   The present invention is an image processing apparatus, an image processing method, a recording medium for recording an image processing program, an image processing system including an image processing apparatus and an output device for outputting image data generated by the image processing apparatus, etc. It can be configured in various ways.

請求項1記載の画像処理プログラムによれば、記録媒体に格納された複数の画像データのうち、人物画像に対応した画像データと、背景画像に対応した画像データとが選択される。そして、人物画像に被写体として含まれる人物と背景画像とが配置された出力画像に対応する出力画像データが生成される。よって、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。
また、複数の画像データが2以上のグループに分類されて記録媒体に格納されている場合には、人物画像に被写体として含まれる人物と背景画像とがグループ毎に合成された合成画像が、2以上のグループの各々について、出力画像に含まれるように、出力画像データを生成できるという効果がある。
更に、互いに異なる2以上のグループに分類される2以上の画像データについて、同一の人物が認識される場合、互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が出力画像に配置されるように、出力画像データを生成できるという効果がある。
According to the image processing program of the first aspect, image data corresponding to a person image and image data corresponding to a background image are selected from among a plurality of image data stored in a recording medium. Then, output image data corresponding to an output image in which a person included in the person image as a subject and a background image are arranged is generated. Therefore, there is an effect that it is possible to generate output image data corresponding to an output image that is preferable for the user and that allows the user to grasp a plurality of image data stored in the recording medium.
In addition, when a plurality of image data is classified into two or more groups and stored in a recording medium, a composite image in which a person and a background image included as a subject in a person image are combined for each group is 2 For each of the above groups, output image data can be generated so as to be included in the output image.
Further, when the same person is recognized for two or more image data classified into two or more different groups, the two or more composite images created for each of the two or more different groups are associated with each other, The output image data can be generated so that the same person is arranged in the output image.

請求項2記載の画像処理プログラムによれば、請求項1の奏する効果に加え、画像データの撮影が行われた場所を表す場所情報が出力画像に含まれるので、記録媒体に格納された複数の画像データをより的確に把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。   According to the image processing program of the second aspect, in addition to the effect of the first aspect, the location information indicating the location where the image data was taken is included in the output image. There is an effect that it is possible to generate output image data corresponding to an output image that allows the image data to be grasped more accurately.

請求項3記載の画像処理プログラムによれば、請求項2の奏する効果に加え、地名情報および互いに異なる複数の施設名情報が見やすく配置された、出力画像に対応した出力画像データを生成できるという効果がある。   According to the image processing program of claim 3, in addition to the effect of claim 2, the output image data corresponding to the output image in which the place name information and a plurality of different facility name information are arranged in an easy-to-view manner can be generated. There is.

請求項4記載の画像処理プログラムによれば、請求項2または3の奏する効果に加え、画像データの撮影が行われた場所毎に画像データの数が計数され、計数された数に基づいて、背景画像に対応した画像データが選択されるので、適切な背景画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。   According to the image processing program of claim 4, in addition to the effect of claim 2 or 3, the number of image data is counted for each place where the image data was taken, and based on the counted number, Since the image data corresponding to the background image is selected, there is an effect that the output image data can be generated so that an appropriate background image is included in the output image.

請求項5記載の画像処理プログラムによれば、請求項1から4のいずれかの奏する効果に加え、2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報が出力画像に含まれるように、出力画像データを生成できるという効果がある。   According to the image processing program of claim 5, in addition to the effect of any one of claims 1 to 4, shooting period information representing a shooting period including a time point when two or more pieces of image data are shot is included in the output image. The output image data can be generated so as to be included.

請求項6記載の画像処理プログラムによれば、請求項1から5のいずれかの奏する効果に加え、人物を焦点として撮影された画像データの中から、人物画像に対応した画像データが選択され、人物を焦点として撮影された画像データではないと判断された画像データの中から、背景画像に対応した画像データが選択されるので、人物画像および背景画像ともに適切な画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。   According to the image processing program of claim 6, in addition to the effect of any one of claims 1 to 5, image data corresponding to a person image is selected from image data photographed with a person as a focus, Since the image data corresponding to the background image is selected from the image data determined not to be the image data photographed with the person as the focus, it is assumed that an appropriate image is included in the output image for both the person image and the background image. In addition, there is an effect that output image data can be generated.

請求項記載の画像処理装置によれば、請求項1記載の画像処理プログラムを実行するコンピュータと同様の作用効果を奏する。 According to the image processing apparatus of the seventh aspect, the same effect as the computer that executes the image processing program according to the first aspect is obtained.

本発明の実施形態であるプリンタドライバを搭載したPCと、当該PCに接続されたプリンタとの電気的構成を示すブロック図である。1 is a block diagram illustrating an electrical configuration of a PC on which a printer driver according to an embodiment of the present invention is mounted and a printer connected to the PC. (a)は、人物テーブルに格納される情報の構成を模式的に示す図であり、(b)は、背景テーブルに格納される情報の構成を模式的に示す図である。(A) is a figure which shows typically the structure of the information stored in a person table, (b) is a figure which shows typically the structure of the information stored in a background table. レーベル面に印刷されるラベル画像の一例を示す図である。It is a figure which shows an example of the label image printed on a label surface. PCのCPUによって実行されるラベル作成処理の一部を示すフローチャートである。It is a flowchart which shows a part of label production process performed by CPU of PC. PCのCPUによって実行されるラベル作成処理の一部を示すフローチャートである。It is a flowchart which shows a part of label production process performed by CPU of PC. PCのCPUによって実行される人物背景合成処理を示すフローチャートである。It is a flowchart which shows the person background composition process performed by CPU of PC.

以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図1は、本発明の画像処理プログラムの一実施形態であるプリンタドライバ14aを搭載したパーソナルコンピュータ10(以下、PC10と称する)と、PC10に接続されたプリンタ20の電気的な概略構成を示すブロック図である。図1に示すように、PC10とプリンタ20とは、LAN回線4を介して接続されている。また、LAN回線4は、ルータ(図示せず)を介してインターネット8に接続されている。   Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing an electrical schematic configuration of a personal computer 10 (hereinafter referred to as a PC 10) equipped with a printer driver 14a, which is an embodiment of an image processing program of the present invention, and a printer 20 connected to the PC 10. FIG. As shown in FIG. 1, the PC 10 and the printer 20 are connected via a LAN line 4. The LAN line 4 is connected to the Internet 8 via a router (not shown).

プリンタ20は、CDやDVDなどのディスク形状の記録媒体をトレイ(図示せず)に載置可能に構成され、記録媒体のレーベル面に画像を印刷できるものである。プリンタドライバ14aは、レーベル面に印刷させるラベル画像に対応した出力画像データを生成し、プリンタ20へ供給する。特に、本実施形態のプリンタドライバ14aは、記録媒体に格納された複数の画像データを用いて出力画像データを生成するものであって、記録媒体に格納された複数の画像データをユーザに把握させることができるようなラベル画像を、プリンタ20に印刷させる。   The printer 20 is configured such that a disk-shaped recording medium such as a CD or a DVD can be placed on a tray (not shown), and can print an image on the label surface of the recording medium. The printer driver 14 a generates output image data corresponding to the label image to be printed on the label surface, and supplies it to the printer 20. In particular, the printer driver 14a of the present embodiment generates output image data using a plurality of image data stored on a recording medium, and allows the user to grasp the plurality of image data stored on the recording medium. The printer 20 prints a label image that can be printed.

PC10は、CPU11、ROM12、RAM13、ハードディスクドライブ14(以下、HDD14と称す)、光ディスクドライブ15、LANインターフェイス16(以下、LANI/F16)、入力装置17、表示装置18とを主に有し、これらはバスライン19を介して互いに接続されている。   The PC 10 mainly includes a CPU 11, a ROM 12, a RAM 13, a hard disk drive 14 (hereinafter referred to as HDD 14), an optical disk drive 15, a LAN interface 16 (hereinafter referred to as LAN I / F 16), an input device 17, and a display device 18. Are connected to each other via a bus line 19.

CPU11は、ROM12やHDD14に記憶される固定値やプログラムに従って、バスライン19により接続された各部を制御する。ROM12は、PC10の動作を制御するためのプログラムなどが格納されたメモリであり、RAM13は、CPU11の処理に必要なデータなどを一時的に記憶するための読み書き可能なメモリであり、人物テーブル13aと、背景テーブル13bとが設けられる。人物テーブル13aについては、図2(a)を参照して後述する。背景テーブル13bについては、図2(b)を参照して後述する。   The CPU 11 controls each unit connected via the bus line 19 according to fixed values and programs stored in the ROM 12 and the HDD 14. The ROM 12 is a memory storing a program for controlling the operation of the PC 10, and the RAM 13 is a readable / writable memory for temporarily storing data necessary for the processing of the CPU 11, and a person table 13a. And a background table 13b. The person table 13a will be described later with reference to FIG. The background table 13b will be described later with reference to FIG.

HDD14には、プリンタドライバ14aが格納される。プリンタドライバ14aは、プリンタ20を制御するためのプログラムである。CPU11は、プリンタドライバ14aを実行することにより、後述するラベル作成処理(図4,図5)を実行する。光ディスクドライブ15は、記録媒体の一例であるCDやDVDなどの光ディスクに格納された情報を読み出す。   The HDD 14 stores a printer driver 14a. The printer driver 14 a is a program for controlling the printer 20. The CPU 11 executes a label creation process (FIGS. 4 and 5) described later by executing the printer driver 14a. The optical disk drive 15 reads information stored in an optical disk such as a CD or a DVD that is an example of a recording medium.

LANI/F16は、PC10をLAN回線4に接続するものである。入力装置17は、PC10に指示や情報を入力するためのものである。表示装置18は、各種のデータを表示する。   The LAN I / F 16 connects the PC 10 to the LAN line 4. The input device 17 is for inputting instructions and information to the PC 10. The display device 18 displays various data.

プリンタ20は、CPU21、ROM22、RAM23、LANインターフェイス24(以下、LANI/F24)、操作キー25、LCD26、印刷部27を主に有し、これらはバスライン28を介してお互いに接続されている。   The printer 20 mainly includes a CPU 21, a ROM 22, a RAM 23, a LAN interface 24 (hereinafter, LAN I / F 24), an operation key 25, an LCD 26, and a printing unit 27, which are connected to each other via a bus line 28. .

CPU21は、ROM22に記憶されているプログラムに従って様々な処理を実行する。ROM22は、プリンタ20の動作を制御するプログラムなどを格納するメモリである。RAM23は、CPU21の処理に必要なデータなどを一時的に記憶するためのメモリである。   The CPU 21 executes various processes according to programs stored in the ROM 22. The ROM 22 is a memory that stores a program for controlling the operation of the printer 20. The RAM 23 is a memory for temporarily storing data necessary for processing by the CPU 21.

操作キー25は、プリンタ20に指示や情報を入力するためのものである。LCD26は、様々な情報を表示することができる表示装置である。プリンタ20は、LANI/F24を介して入力される出力画像データに基づいて印刷部27を駆動し、出力画像データに基づく画像を印刷する。なお、プリンタ20はインクを吐出して画像を形成するインクジェット方式のプリンタであるものとする。   The operation keys 25 are for inputting instructions and information to the printer 20. The LCD 26 is a display device that can display various information. The printer 20 drives the printing unit 27 based on output image data input via the LAN I / F 24 and prints an image based on the output image data. Note that the printer 20 is an ink jet printer that ejects ink to form an image.

PC10は、記録媒体のレーベル面にラベル画像を印刷させるため、ラベル画像に対応した出力画像データを生成し、プリンタ20へ供給する。その際、PC10は、光ディスクドライブ15に装着された記録媒体から、画像データを読み出し、ラベル画像の作成に必要な情報を人物テーブル13aまたは背景テーブル13bに保存する。なお、本実施形態において、PC10の光ディスクドライブ15には、デジタルカメラで撮影されたExif(Exchangeable Image File Format)形式の画像データを格納する記録媒体が装着されているものとする。   The PC 10 generates output image data corresponding to the label image and supplies it to the printer 20 in order to print the label image on the label surface of the recording medium. At that time, the PC 10 reads the image data from the recording medium loaded in the optical disc drive 15, and stores information necessary for creating the label image in the person table 13a or the background table 13b. In the present embodiment, it is assumed that the optical disk drive 15 of the PC 10 is mounted with a recording medium that stores image data in an Exif (Exchangeable Image File Format) format captured by a digital camera.

図2(a)は、人物テーブル13aに格納される人物情報の構成を模式的に示す図である。人物情報は、フォルダ名情報30、撮影日情報32、ファイル名情報34、人物有無情報36を含むひとまとまりの情報である。フォルダ名情報30は、画像データを格納するフォルダ名を示す情報である。なお、本実施形態において、光ディスクドライブ15に装着された記録媒体には、2つのフォルダ(フォルダ名:AAA,BBB)が設定されており、これらのフォルダによって画像データが分類して格納されているものとする。   FIG. 2A is a diagram schematically showing the configuration of person information stored in the person table 13a. The person information is a group of information including folder name information 30, shooting date information 32, file name information 34, and person presence / absence information 36. The folder name information 30 is information indicating a folder name for storing image data. In the present embodiment, two folders (folder names: AAA, BBB) are set in the recording medium loaded in the optical disc drive 15, and image data is classified and stored by these folders. Shall.

撮影日情報32は、画像データの撮影日を示す情報である。なお、撮影日は各画像データのヘッダから取得できる。ファイル名情報34は、画像データに付されたファイル名を示す情報である。人物有無情報36は、画像データに被写体として撮影されている人物と撮影されていない人物とを示す情報である。例えば、記録媒体に格納された複数の画像データから、被写体として認識された人物が、人物A、人物B、人物C、人物Dの4名である場合、人物有無情報36は、これら4名の人物が撮影されているか否かを、画像データ毎に示す情報である。なお、図2(a)においては、画像データに撮影されている人物の人物有無情報36に○を記している。   The shooting date information 32 is information indicating the shooting date of the image data. The shooting date can be acquired from the header of each image data. The file name information 34 is information indicating the file name attached to the image data. The person presence / absence information 36 is information indicating a person photographed as a subject in the image data and a person not photographed. For example, when there are four persons A, B, C, and D from the plurality of image data stored in the recording medium, the person presence / absence information 36 includes the four persons. This is information indicating whether or not a person is photographed for each image data. In FIG. 2A, a circle is indicated in the person presence / absence information 36 of the person photographed in the image data.

PC10は、記録媒体に格納された複数の画像データのうち、人物を焦点として撮影された画像データの各々について、人物情報を作成し、人物テーブル13aに格納する。そして、人物テーブル13aに格納された人物情報を用いて、ラベル画像の作成に利用すべき画像データを選択するのであるが、詳細は図6を参照して後述する。   The PC 10 creates person information for each piece of image data photographed with a person as a focus among the plurality of image data stored in the recording medium, and stores the person information in the person table 13a. The person information stored in the person table 13a is used to select image data to be used for creating a label image. Details will be described later with reference to FIG.

図2(b)は、背景テーブル13bに格納される背景情報の構成を模式的に示す図である。背景情報は、フォルダ名情報40、撮影日情報42、撮影場所情報44、ファイル名情報46、枚数情報48を含むひとまとまりの情報である。フォルダ名情報40は、画像データが格納されたフォルダのフォルダ名を示す情報である。撮影日情報42は、画像データの撮影日を示す情報である。撮影場所情報44は、画像データの撮影場所を示す情報である。PC10は、画像データのヘッダから、当該画像データが撮影された地点の経度および緯度を示す位置情報を取得する。そして、当該位置情報で特定される撮影場所を、PC10にインストールされた地図アプリケーションや、インターネット8を介してアクセス可能な検索サービスを利用して取得し、撮影場所情報44として、背景テーブル13bに格納する。なお、本実施形態においては、撮影場所情報44として保存される情報には、住所および施設名が含まれるものとするが、施設名を取得できない場合には、住所のみが保存されても良い。   FIG. 2B is a diagram schematically showing the configuration of the background information stored in the background table 13b. The background information is a set of information including folder name information 40, shooting date information 42, shooting location information 44, file name information 46, and number information 48. The folder name information 40 is information indicating the folder name of the folder in which the image data is stored. The shooting date information 42 is information indicating the shooting date of the image data. The shooting location information 44 is information indicating the shooting location of the image data. The PC 10 acquires position information indicating the longitude and latitude of the point where the image data was taken from the header of the image data. Then, the shooting location specified by the position information is acquired using a map application installed in the PC 10 or a search service accessible via the Internet 8 and stored as shooting location information 44 in the background table 13b. To do. In the present embodiment, the information stored as the shooting location information 44 includes an address and a facility name. However, if the facility name cannot be acquired, only the address may be stored.

ファイル名情報46は、撮影場所情報44で示される撮影場所において撮影された画像データのファイル名を示す情報である。同一の撮影場所において撮影された画像データが複数存在する場合、それら複数の画像データのファイル名がファイル名情報46として保存される。枚数情報48は、同一の撮影場所で撮影された画像データの数を示す情報である。ここで、「同一の撮影場所」とは、撮影場所情報44で示される撮影場所に、施設名が含まれる場合、同一の施設名で特定される撮影場所を意味している。また、撮影場所情報44で示される撮影場所に、施設名が含まれない場合は、同一の住所で特定される撮影場所を意味している。すなわち、ここでいう「同一の撮影場所」とは、経度・緯度を示す位置情報が完全に一致することまでは要求しない。   The file name information 46 is information indicating a file name of image data shot at the shooting location indicated by the shooting location information 44. When there are a plurality of image data shot at the same shooting location, the file names of the plurality of image data are stored as file name information 46. The number information 48 is information indicating the number of image data shot at the same shooting location. Here, “the same shooting location” means a shooting location specified by the same facility name when the facility name is included in the shooting location indicated by the shooting location information 44. Further, when the facility name is not included in the shooting location indicated by the shooting location information 44, it means the shooting location specified by the same address. In other words, the “same shooting location” here does not require until the position information indicating the longitude and latitude completely match.

PC10は、記録媒体に格納された複数の画像データのうち、人物を焦点とせずに撮影された画像データの各々について、背景情報を作成し、背景テーブル13bに格納する。そして、背景テーブル13bに格納された背景情報を用いて、ラベル画像の作成に利用すべき画像データを選択するのであるが、詳細は図6を参照して後述する。   The PC 10 creates background information for each piece of image data captured without focusing on a person among a plurality of image data stored in the recording medium, and stores the background information in the background table 13b. Then, using the background information stored in the background table 13b, image data to be used for creating a label image is selected. Details will be described later with reference to FIG.

図3を参照して、PC10が実行するラベル作成処理の結果、記録媒体のレーベル面に印刷されるラベル画像について説明する。図3は、レーベル面に印刷されるラベル画像の一例を示す図である。   With reference to FIG. 3, the label image printed on the label surface of the recording medium as a result of the label creation processing executed by the PC 10 will be described. FIG. 3 is a diagram illustrating an example of a label image printed on the label surface.

図3に示すように、ラベル画像50は、フォルダ毎に作成される複数の合成画像52を含む。各合成画像52は、画像データに撮影された人物54と背景画像56とを、フォルダ毎に合成したものである。記録媒体に2以上のフォルダが設定され、複数の画像データがフォルダによって2以上のグループに分類されている場合、別々のフォルダに格納された画像データは、それぞれ別の機会に撮影されたものである可能性が高い。よって、フォルダ毎(グループ毎)に合成画像52を作成することにより、記録媒体に格納された画像データの内容を、分かりやすくユーザに示すことができる。   As shown in FIG. 3, the label image 50 includes a plurality of composite images 52 created for each folder. Each synthesized image 52 is obtained by synthesizing a person 54 photographed in image data and a background image 56 for each folder. When two or more folders are set on the recording medium and a plurality of image data are classified into two or more groups according to the folders, the image data stored in different folders are taken at different occasions. There is a high possibility. Therefore, by creating the composite image 52 for each folder (for each group), the contents of the image data stored in the recording medium can be easily shown to the user.

また、人物54と背景画像56との組み合わせにより、ユーザは、出来事の内容を鮮明に思い起こし、記録媒体に格納されている画像データの内容を把握できる。また、ラベル画像50には人物54が含まれるので、ユーザにとっては懐かしく、単に背景画像56のみが配置されている場合に比較して、ユーザにとって好ましいものとなる。   Further, the combination of the person 54 and the background image 56 allows the user to clearly remember the contents of the event and grasp the contents of the image data stored in the recording medium. Further, since the person 54 is included in the label image 50, it is nostalgic for the user and is preferable for the user as compared with the case where only the background image 56 is arranged.

さらに、各合成画像52には、撮影期間情報58と、地域情報60と、施設名情報62とが含まれる。撮影期間情報58は、各フォルダに格納された複数の画像データの撮影日を包含する期間である。例えば、1つのフォルダに、2010年1月1日に撮影された画像データと、2010年1月2日に撮影された画像データとが格納されている場合、当該フォルダに対応した合成画像52には、撮影期間情報58として、「2010/1/1−2010/1/2」と示される。地域情報60は、撮影場所の住所から抽出される県名を示す文字列である。施設名情報62は、撮影場所の施設名を示す文字列であり、撮影場所情報44に含まれる、住所以外の文字列である。   Further, each composite image 52 includes shooting period information 58, area information 60, and facility name information 62. The shooting period information 58 is a period including shooting dates of a plurality of image data stored in each folder. For example, when image data taken on January 1, 2010 and image data taken on January 2, 2010 are stored in one folder, the combined image 52 corresponding to the folder is stored in the combined image 52. Is indicated as “2010/1 / 1−2010 / 1/2” as the shooting period information 58. The area information 60 is a character string indicating the prefecture name extracted from the address of the shooting location. The facility name information 62 is a character string indicating the facility name of the shooting location, and is a character string other than the address included in the shooting location information 44.

ここで、1のフォルダから取得される複数の撮影場所情報44に、同一の地域情報60が含まれ、且つ、互いに異なる複数の施設名情報62が含まれる場合、その同一の地域情報60(例えば、京都)を1つ、合成画像52に配置し、且つ、互いに異なる複数の施設名情報62(例えば、○○寺、○○神宮・・・)を、合成画像52に配置する。このようにすれば、地名情報60と施設名情報62とを、見やすく配置できる。   Here, when the plurality of shooting location information 44 acquired from one folder includes the same region information 60 and includes a plurality of different facility name information 62, the same region information 60 (for example, , Kyoto) is arranged in the composite image 52, and a plurality of different facility name information 62 (for example, XX temple, XX Jingu ...) is arranged in the composite image 52. In this way, the place name information 60 and the facility name information 62 can be arranged in an easy-to-see manner.

なお、図示は省略するが、1つのフォルダから取得される複数の撮影場所情報44に、複数の地域情報60(例えば、京都および奈良)が含まれる場合、複数の地域情報60を1つの合成画像52に配置し、且つ、複数の撮影場所情報44に含まれる施設名情報62を、地域情報60毎に分けて、合成画像52に配置するものとする。   In addition, although illustration is abbreviate | omitted, when several area | region information 60 (for example, Kyoto and Nara) is included in the some imaging | photography place information 44 acquired from one folder, several area | region information 60 is combined into one synthetic image. The facility name information 62 arranged in the area 52 and included in the plurality of shooting location information 44 is divided for each area information 60 and arranged in the composite image 52.

ラベル画像50に含まれる、撮影期間情報58、地域情報60および施設名情報62は、記録媒体に格納された画像データをユーザに把握させるために役立つ。   The shooting period information 58, the area information 60, and the facility name information 62 included in the label image 50 are useful for allowing the user to grasp the image data stored in the recording medium.

ここで、図3に示す人物A,人物Bのように、ある人物を被写体として含む画像データが、複数のフォルダに存在する場合、当該人物の画像は、複数のフォルダに対応した合成画像52の境界64に配置される。すなわち、互いに異なる2以上のフォルダに分類される2以上の画像データにおいて、同一の人物が認識される場合、ラベル画像50においては、当該同一の人物を、2以上の合成画像52に関連付けて配置する。したがって、ユーザが、イベント毎にフォルダを作成し、各イベントに関連した画像データをフォルダによって分類して管理している場合には、複数のイベントに共通して参加した人物を、ユーザが一目で把握できるようなラベル画像50を作成できる。   Here, when image data including a certain person as a subject exists in a plurality of folders, such as the person A and the person B shown in FIG. 3, the image of the person is the composite image 52 corresponding to the plurality of folders. Located at boundary 64. That is, when the same person is recognized in two or more image data classified into two or more different folders, the same person is arranged in association with two or more composite images 52 in the label image 50. To do. Therefore, when a user creates a folder for each event and classifies and manages image data related to each event according to the folder, the user can identify the persons who participated in multiple events at a glance. A label image 50 that can be grasped can be created.

なお、記録媒体にフォルダが設定されていない場合、またはフォルダが1つのみ設定されている場合、ラベル画像50は1つの合成画像52のみを含む。   When no folder is set on the recording medium or when only one folder is set, the label image 50 includes only one composite image 52.

図4は、PC10のCPU11によって実行されるラベル作成処理を示すフローチャートである。この処理は、ラベル画像50をプリンタ20に印刷させるための処理であって、プリンタドライバ14aに従って実行される。PC10において、ユーザが光ディスクドライブ15に記録媒体を装着し、ラベル印刷の実行を指示すると、この処理が開始される。   FIG. 4 is a flowchart showing label creation processing executed by the CPU 11 of the PC 10. This process is a process for causing the printer 20 to print the label image 50, and is executed according to the printer driver 14a. In the PC 10, when the user mounts a recording medium on the optical disc drive 15 and instructs execution of label printing, this processing is started.

まず、ステップS401(以下、ステップを省略)において、CPU11は、人物テーブル13aおよび背景テーブル13bをクリアする(S401)。次に、CPU11は、光ディスクドライブ15に装着された記録媒体に設定されたフォルダのうち、1つのフォルダを選択する(S402)。次に、CPU11は、選択されたフォルダから1つの画像データを取得する(S403)。次に、CPU11は、取得した画像データが、写真データであるか否かを判断する(S404)。具体的には、取得した画像データがが、Exif形式の画像データであるか否かを判断する。なお、フォルダから取得した画像データが写真データではない場合(S404:No)、CPU11は、S411の処理に移行する。   First, in step S401 (hereinafter step is omitted), the CPU 11 clears the person table 13a and the background table 13b (S401). Next, the CPU 11 selects one folder among the folders set in the recording medium loaded in the optical disc drive 15 (S402). Next, the CPU 11 acquires one piece of image data from the selected folder (S403). Next, the CPU 11 determines whether or not the acquired image data is photograph data (S404). Specifically, it is determined whether or not the acquired image data is Exif format image data. If the image data acquired from the folder is not photo data (S404: No), the CPU 11 proceeds to the process of S411.

一方、取得した画像データが写真データである場合(S404:Yes)、CPU11は、当該画像データが、人物を焦点として撮影された画像データであるか否かを判断する(S405)。取得した画像データが、人物を焦点として撮影された画像データであると判断される場合(S405:Yes)、CPU11は、当該画像データに対応した人物画像に、被写体として含まれる人物を認識する(S406)。なお、本実施形態においては、公知の顔認識技術を利用して、顔が認識された画像データを、人物が焦点として撮影された画像データであると判断し(S405:Yes)、その認識した顔に基づき人物を認識する(S406)。また、被写体として含まれる人物のうち、画像に占める面積が所定面積以上である人物を認識し、画像に占める面積が所定面積未満である人物については、認識しないものとする。   On the other hand, when the acquired image data is photograph data (S404: Yes), the CPU 11 determines whether or not the image data is image data photographed with a person as a focus (S405). When it is determined that the acquired image data is image data photographed with a person as a focus (S405: Yes), the CPU 11 recognizes a person included as a subject in the person image corresponding to the image data ( S406). In the present embodiment, it is determined that the image data in which the face has been recognized is image data that has been captured with the person in focus using a known face recognition technique (S405: Yes), and the recognition is performed. A person is recognized based on the face (S406). Further, among persons included as subjects, a person whose area occupied by the image is equal to or larger than a predetermined area is recognized, and a person whose area occupied by the image is less than the predetermined area is not recognized.

次に、CPU11は、S406において認識した人物の項目が、人物テーブル13aの人物有無情報36に含まれるか否かを判断する(S407)。認識した人物の項目が人物テーブル13aの人物有無情報36に含まれないと判断される場合(S407:No)、すなわち、S406において認識された人物が、記録媒体に格納された画像データを順番に処理していく上で、初めて認識された人物であると判断される場合、CPU11は、人物テーブル13aの人物有無情報36として、該当人物の項目を追加する(S408)。一方、S406において認識した人物の項目が人物有無情報36に既に含まれている場合(S407:Yes)、CPU11は、S408の処理をスキップする。   Next, the CPU 11 determines whether or not the item of the person recognized in S406 is included in the person presence / absence information 36 of the person table 13a (S407). When it is determined that the recognized person item is not included in the person presence / absence information 36 of the person table 13a (S407: No), that is, the person recognized in S406 sequentially outputs the image data stored in the recording medium. When it is determined that the person is recognized for the first time in processing, the CPU 11 adds an item of the person as the person presence / absence information 36 in the person table 13a (S408). On the other hand, when the item of the person recognized in S406 is already included in the person presence / absence information 36 (S407: Yes), the CPU 11 skips the process of S408.

次に、CPU11は、画像データの人物情報を作成する(S409)。具体的には、S402において選択されたフォルダのフォルダ名を示すフォルダ名情報30、S403において取得した画像データの撮影日を示す撮影日情報32、ファイル名を示すファイル名情報34を作成し、また、S406において認識された人物に基づいて、各人物の有無を示す人物有無情報36を作成する。次に、CPU11は、作成した人物情報を人物テーブル13aに保存する(S410)。   Next, the CPU 11 creates person information of the image data (S409). Specifically, folder name information 30 indicating the folder name of the folder selected in S402, shooting date information 32 indicating the shooting date of the image data acquired in S403, and file name information 34 indicating the file name are created. The person presence / absence information 36 indicating the presence / absence of each person is created based on the person recognized in S406. Next, the CPU 11 stores the created person information in the person table 13a (S410).

次に、CPU11は、同じフォルダ内に別の画像データが存在するか否かを判断する(S411)。S411の判断が肯定される場合(S411:Yes)、CPU11はS403から処理を繰り返す。   Next, the CPU 11 determines whether another image data exists in the same folder (S411). If the determination in S411 is affirmative (S411: Yes), the CPU 11 repeats the processing from S403.

そして、取得した画像データが、人物を焦点として撮影された画像データではないと判断される場合(S405:No)、CPU11は、画像データから取得される位置情報を用いて撮影場所を取得する(S412)。次に、CPU11は、取得した撮影場所が、背景テーブル13bに既に保存されているか否かを判断する(S414)。S414の判断が否定される場合(S414:No)、CPU11は、取得した撮影場所を示す撮影場所情報44、およびフォルダ名情報40、撮影日情報42、ファイル名情報46、枚数情報48を作成し、背景テーブル13bに保存する(S416)。なお、ここで保存される枚数情報48の値は「1」とされる。次に、CPU11は、S411の処理に移行する。   If it is determined that the acquired image data is not image data shot with a person as the focus (S405: No), the CPU 11 acquires a shooting location using position information acquired from the image data ( S412). Next, the CPU 11 determines whether or not the acquired shooting location is already stored in the background table 13b (S414). When the determination in S414 is negative (S414: No), the CPU 11 creates shooting location information 44 indicating the acquired shooting location, folder name information 40, shooting date information 42, file name information 46, and number information 48. And stored in the background table 13b (S416). Note that the value of the number information 48 stored here is “1”. Next, the CPU 11 proceeds to the process of S411.

一方、取得した撮影場所が背景テーブル13bに既に保存されている場合(S414:Yes)、CPU11は、背景テーブル13bに保存されている枚数情報48のうち、取得した撮影場所を示す撮影場所情報44に対応した枚数情報48の値に、「1」を加算し、且つ、画像データのファイル名をファイル名情報46に追加する(S418)。すなわち、撮影が行われた場所毎に画像データの数を計数する。そして、CPU11は、S411の処理に移行する。   On the other hand, when the acquired shooting location is already stored in the background table 13b (S414: Yes), the CPU 11 captures shooting location information 44 indicating the acquired shooting location in the number information 48 stored in the background table 13b. “1” is added to the value of the number information 48 corresponding to “”, and the file name of the image data is added to the file name information 46 (S418). That is, the number of image data is counted for each place where the image is taken. And CPU11 transfers to the process of S411.

このように処理を繰り返すうちに、選択されたフォルダ内の全ての画像データを処理した場合(S411:No)、次に、CPU11は、未処理のフォルダが記録媒体に存在するか否かを判断する(S420)。S420の判断が肯定される場合(S420:Yes)、CPU11は、S402に戻り、未処理のフォルダを選択して処理を繰り返す。   When all the image data in the selected folder has been processed while the processing is repeated in this way (S411: No), the CPU 11 next determines whether or not an unprocessed folder exists in the recording medium. (S420). If the determination in S420 is affirmative (S420: Yes), the CPU 11 returns to S402, selects an unprocessed folder, and repeats the process.

このようにして処理を繰り返すうちに、記録媒体内の全てのフォルダについて処理を終了すると(S420:No)、CPU11は、図5に示すS422の処理に移行する。   When the processing is completed for all folders in the recording medium while the processing is repeated in this way (S420: No), the CPU 11 proceeds to the processing of S422 shown in FIG.

図5は、ラベル作成処理の続きを示すフローチャートである。次に、CPU11は、人物情報または背景情報が存在するか否かを判断する(S422)。人物テーブル13aに人物情報が存在せず、且つ、背景テーブル13bに背景情報が存在しない場合(S422:No)、CPU11は、PC10にインストールされたラベル作成アプリケーション(図示せず)を起動し(S424)、処理を終了する。   FIG. 5 is a flowchart showing the continuation of the label creation process. Next, the CPU 11 determines whether or not person information or background information exists (S422). When the person information does not exist in the person table 13a and the background information does not exist in the background table 13b (S422: No), the CPU 11 activates a label creation application (not shown) installed in the PC 10 (S424). ), The process is terminated.

一方、人物情報または背景情報のうち、少なくともいずれか一方が存在する場合(S422:Yes)、CPU11は、ラベル画像50を構成する各画素の画素値を格納するためにRAM13に設けられたラベルエリアを、フォルダの数に応じて分割し、分割された各エリアに、それぞれ1つのフォルダを割り当てる(S426)。ただし、記録媒体に設定されたフォルダの数が1以下である場合、CPU11は、ラベルエリアの分割を行わない。また、写真データであると判断される画像データを格納しないフォルダが、記録媒体に設定されている場合、そのフォルダは、記録媒体に設定されたフォルダの数としてはカウントしない。すなわち、S426においては、写真データであると判断される画像データを格納したフォルダの数に応じて、ラベルエリアを分割する。   On the other hand, when at least one of the person information and the background information exists (S422: Yes), the CPU 11 provides a label area provided in the RAM 13 for storing the pixel value of each pixel constituting the label image 50. Are divided according to the number of folders, and one folder is assigned to each divided area (S426). However, when the number of folders set in the recording medium is 1 or less, the CPU 11 does not divide the label area. Further, when a folder that does not store image data determined to be photo data is set in the recording medium, the folder is not counted as the number of folders set in the recording medium. That is, in S426, the label area is divided according to the number of folders storing image data determined to be photo data.

次に、CPU11は、人物54と背景画像56とをラベルエリアに配置する人物背景合成処理を実行する(S428)。人物背景合成処理については、図6を参照して後述する。次に、CPU11は、背景テーブル13bに保存された撮影場所情報44から、撮影場所を示す地域情報60と施設名情報62とを取得し(S429)、フォルダ毎に割り当てられたラベルエリアに配置する。すなわち、地域情報60と施設名情報62とを構成する画素の画素値をラベルエリアに書き込む(S430)。なお、フローチャートにおいて図示は省略するが、背景テーブル13bに背景情報が保存されていない場合、CPU11は、S429,S430の処理をスキップする。   Next, the CPU 11 executes a person background composition process for arranging the person 54 and the background image 56 in the label area (S428). The person background composition process will be described later with reference to FIG. Next, the CPU 11 acquires area information 60 and facility name information 62 indicating the shooting location from the shooting location information 44 stored in the background table 13b (S429), and arranges them in the label area assigned for each folder. . That is, the pixel values of the pixels constituting the area information 60 and the facility name information 62 are written in the label area (S430). Although not shown in the flowchart, when the background information is not stored in the background table 13b, the CPU 11 skips the processes of S429 and S430.

また、CPU11は、人物テーブル13aおよび背景テーブル13bに格納された撮影日情報32,42を用いて、フォルダ毎の撮影期間情報58を取得する(S432)。そして、CPU11は、取得した撮影期間情報58を、フォルダ毎に割り当てられたラベルエリアに配置する。すなわち、撮影期間情報58を構成する画素の画素値をラベルエリアに書き込む(S434)。   Further, the CPU 11 acquires the shooting period information 58 for each folder by using the shooting date information 32 and 42 stored in the person table 13a and the background table 13b (S432). Then, the CPU 11 arranges the acquired shooting period information 58 in the label area assigned for each folder. That is, the pixel values of the pixels constituting the shooting period information 58 are written in the label area (S434).

次に、CPU11は、ラベルエリアに配置された画像、すなわち、ラベル画像50に対応する出力画像データを生成する(S436)。具体的には、ラベルエリアに生成された画像データに公知の色変換処理およびハーフトーン処理を施して、出力画像データに変換する。そして、生成した出力画像データをプリンタ20へ供給し(S438)、処理を終了する。   Next, the CPU 11 generates output image data corresponding to the image arranged in the label area, that is, the label image 50 (S436). Specifically, the image data generated in the label area is subjected to known color conversion processing and halftone processing to be converted into output image data. Then, the generated output image data is supplied to the printer 20 (S438), and the process ends.

一方、プリンタ20は、トレイ(図示せず)の所定位置に記録媒体が載置されるまで待機する。そして、ユーザが、記録媒体を光ディスクドライブ15からプリンタ20のトレイへ移動させると、プリンタ20は、PC10から受信した出力画像データを用いて、記録媒体のレーベル面にラベル画像50を印刷する。   On the other hand, the printer 20 stands by until a recording medium is placed at a predetermined position on a tray (not shown). When the user moves the recording medium from the optical disk drive 15 to the tray of the printer 20, the printer 20 prints the label image 50 on the label surface of the recording medium using the output image data received from the PC 10.

図6は、PC10のCPU11が実行する人物背景合成処理(S428)を示すフローチャートである。まず、CPU11は、背景テーブル13bに背景情報が保存されているか否かを判断する(S602)。背景情報が保存されている場合(S602:Yes)、CPU11は、ラベル画像50に配置すべき背景画像56に対応した画像データを選択する(S604)。ここで、CPU11は、背景テーブル13bにファイル名が保存された画像データの中からいずれかを選択する。すなわち、人物を焦点とせずに撮影された画像データを選択する。よって、背景画像56を描画するために適切な画像データを選択できる。   FIG. 6 is a flowchart showing the human background composition process (S428) executed by the CPU 11 of the PC 10. First, the CPU 11 determines whether background information is stored in the background table 13b (S602). When background information is stored (S602: Yes), the CPU 11 selects image data corresponding to the background image 56 to be arranged in the label image 50 (S604). Here, the CPU 11 selects one of the image data whose file names are stored in the background table 13b. In other words, the image data captured without focusing on the person is selected. Therefore, it is possible to select appropriate image data for drawing the background image 56.

なお、2以上のフォルダについて、背景情報が保存されている場合、CPU11は、背景画像56に対応した画像データを、フォルダ毎に選択する。具体的には、枚数情報48の値が最も大きい撮影場所をフォルダ毎に特定し、その撮影場所において撮影された画像データのうちいずれかを選択する。多くの画像データが撮影された場所は、その場所を訪れた人物にとって印象深かった可能性が高い。よって、枚数情報48に基づいて画像データを選択することにより、印象深い場所において撮影された背景画像56を、ラベル画像50に配置できる。   When background information is stored for two or more folders, the CPU 11 selects image data corresponding to the background image 56 for each folder. Specifically, the shooting location where the value of the number information 48 is the largest is specified for each folder, and one of the image data shot at the shooting location is selected. A place where a lot of image data has been taken is likely to have been impressive for a person who visited the place. Therefore, by selecting the image data based on the number information 48, the background image 56 photographed in an impressive place can be arranged on the label image 50.

次に、CPU11は、背景画像56をラベルエリアに配置する(S606)。具体的には、選択した画像データをラベル画像50のサイズに合わせた適切なサイズに拡大または縮小し、背景画像56を構成する各画素の値を、フォルダ毎に割り当てられたラベルエリアに書き込む。なお、背景テーブル13bに背景情報が保存されていない場合(S602:No)、CPU11はS604,S606の処理をスキップする。   Next, the CPU 11 arranges the background image 56 in the label area (S606). Specifically, the selected image data is enlarged or reduced to an appropriate size according to the size of the label image 50, and the value of each pixel constituting the background image 56 is written in the label area assigned for each folder. If background information is not stored in the background table 13b (S602: No), the CPU 11 skips the processes of S604 and S606.

次に、CPU11は、人物テーブル13aに人物情報が保存されているか否かを判断する(S608)。人物情報が保存されていない場合(S608:No)、CPU11は処理を終了する。一方、人物情報が保存されている場合(S608:Yes)、CPU11は、人物を被写体として含む人物画像に対応した画像データの中から、いずれかを選択する(S610)。   Next, the CPU 11 determines whether or not person information is stored in the person table 13a (S608). When the personal information is not stored (S608: No), the CPU 11 ends the process. On the other hand, when the person information is stored (S608: Yes), the CPU 11 selects one of the image data corresponding to the person image including the person as a subject (S610).

S610の処理における、画像データの選択の条件を説明する。第1に、人物テーブル13aにファイル名が保存された画像データから、いずれを選択する。すなわち、人物を焦点として撮影された画像データの中からいずれかを選択する。   The conditions for selecting image data in the processing of S610 will be described. First, any of the image data whose file names are stored in the person table 13a is selected. That is, one of image data photographed with a person as a focus is selected.

第2に、被写体として含まれる人物が最も多い画像データを、人物テーブル13aの人物有無情報36に基づいて、フォルダ毎に選択する。例えば、図2(a)に示す人物テーブル13aの例の場合、フォルダAAAについては、3名の人物が被写体として含まれる画像データ「a1.jpg」または「a9.jpg」のうち、いずれかが選択される。また、フォルダBBBについては、3名の人物が被写体として含まれる画像データ「a17.jpg」が選択される。   Second, the image data with the largest number of persons included as subjects is selected for each folder based on the person presence / absence information 36 in the person table 13a. For example, in the example of the person table 13a shown in FIG. 2A, for the folder AAA, one of the image data “a1.jpg” or “a9.jpg” including three persons as subjects is selected. Selected. For the folder BBB, the image data “a17.jpg” including three persons as subjects is selected.

第3に、被写体として含まれる人物が画像において占める面積が所定面積以上である画像データを選択する。従って、被写体として含まれる人物が最も多い画像データであっても、人物の面積が所定面積未満である場合には、別の画像データを選択する。   Third, image data in which the area occupied by the person included as the subject in the image is greater than or equal to a predetermined area is selected. Therefore, even if the image data includes the largest number of persons included as subjects, if the area of the person is less than the predetermined area, another image data is selected.

これらの条件に基づいて、画像データが選択されると、次に、CPU11は、選択された画像データから、人物54を構成する画素のデータを抽出し(S612)、フォルダ毎に割り当てられたラベルエリアの中心付近に、人物54を配置する(S614)。   When image data is selected based on these conditions, the CPU 11 then extracts pixel data constituting the person 54 from the selected image data (S612), and the label assigned to each folder. A person 54 is placed near the center of the area (S614).

次に、CPU11は、全ての人物54について、同数配置したか否かを判断する(S616)。すなわち、記録媒体に格納された画像データのうち、いずれかにおいて検出された人物(図2(a)に示す例の場合、人物A,人物B,人物C,人物D)について、その画像が同数配置されたか否かを判断する。   Next, the CPU 11 determines whether or not all the persons 54 are arranged in the same number (S616). That is, the same number of images is detected for the person detected in any of the image data stored in the recording medium (in the example shown in FIG. 2A, person A, person B, person C, person D). It is determined whether or not it has been placed.

各人物の配置数が異なると判断される場合(S616:No)、CPU11は、配置数が少ないと判断された人物が撮影されている画像データを選択し(S618)、選択された画像データから、該当する人物を構成する画素のデータを抽出し(S620)、フォルダ毎に割り当てられたラベルエリアに配置する(S622)。このようにすれば、人物54の配置数が不平等になることを抑制できる。なお、各人物の配置数が同数である場合(S616:Yes)、CPU11は、S618〜S622の処理をスキップし、S624の処理に移行する。   When it is determined that the number of arrangement of each person is different (S616: No), the CPU 11 selects image data in which a person determined to have a small number of arrangement is photographed (S618), and from the selected image data. Then, the pixel data constituting the corresponding person is extracted (S620) and placed in the label area assigned to each folder (S622). In this way, it is possible to prevent the number of persons 54 from becoming unequal. In addition, when the number of arrangement | positioning of each person is the same number (S616: Yes), CPU11 skips the process of S618-S622 and transfers to the process of S624.

次に、CPU11は、互いに異なるフォルダに分類された2以上の画像データに、同一の人物が撮影されているか否かを判断する(S624)。すなわち、ある人物を撮影した画像データが、2以上のフォルダに格納されているかを判断する。S624の判断が肯定される場合(S624:Yes)、CPU11は、当該人物が撮影された画像データを選択し(S626)、選択された画像データから、該当する人物を構成する画素のデータを抽出する(S628)。そして、合成画像52の境界64に、人物54が配置されるように、抽出したデータをラベルエリアに書き込み(S630)、処理を終了する。一方、S624の判断が否定される場合(S624:No)、CPU11は、S626〜S630の処理をスキップし、処理を終了する。   Next, the CPU 11 determines whether or not the same person is photographed in two or more image data classified into different folders (S624). That is, it is determined whether image data obtained by photographing a certain person is stored in two or more folders. When the determination in S624 is affirmative (S624: Yes), the CPU 11 selects image data in which the person is photographed (S626), and extracts pixel data constituting the person from the selected image data. (S628). Then, the extracted data is written in the label area so that the person 54 is placed at the boundary 64 of the composite image 52 (S630), and the process is terminated. On the other hand, when determination of S624 is denied (S624: No), CPU11 skips the process of S626-S630, and complete | finishes a process.

PC10によれば、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができるラベル画像50を、プリンタ20に印刷させることができる。   According to the PC 10, it is possible for the printer 20 to print the label image 50 that is preferable for the user and that allows the user to grasp a plurality of image data stored in the recording medium.

上記実施形態において、PC10がコンピュータおよび画像処理装置の一例に相当し、プリンタドライバ14aが画像処理プログラムの一例に相当する。また、ラベル画像50が出力画像の一例に相当する。撮影日情報32,42が撮影時点情報の一例に相当する。地名情報60および施設名情報62が場所情報の一例に相当する。   In the above embodiment, the PC 10 corresponds to an example of a computer and an image processing apparatus, and the printer driver 14a corresponds to an example of an image processing program. The label image 50 corresponds to an example of an output image. The shooting date information 32 and 42 corresponds to an example of shooting time point information. The place name information 60 and the facility name information 62 correspond to an example of place information.

また、上記実施形態では、S405を実行するCPU11が画像種類判断手段の一例に相当する。S406を実行するCPU11が人物認識手段の一例に相当する。S418を実行するCPU11が計数手段の一例に相当する。S429を実行するCPU11が場所情報取得手段の一例に相当する。S432を実行するCPU11が撮影時点取得手段および撮影期間取得手段の一例に相当する。S436を実行するCPU11が生成手段の一例に相当する。S604を実行するCPU11が背景画像選択手段の一例に相当する。S610,S618,S626を実行するCPU11が人物画像選択手段の一例に相当する。   In the above embodiment, the CPU 11 that executes S405 corresponds to an example of an image type determination unit. The CPU 11 that executes S406 corresponds to an example of a person recognition unit. The CPU 11 that executes S418 corresponds to an example of a counting unit. The CPU 11 that executes S429 corresponds to an example of a location information acquisition unit. The CPU 11 that executes S432 corresponds to an example of an imaging time point acquisition unit and an imaging period acquisition unit. The CPU 11 that executes S436 corresponds to an example of a generation unit. The CPU 11 that executes S604 corresponds to an example of a background image selection unit. The CPU 11 that executes S610, S618, and S626 corresponds to an example of a person image selection unit.

以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。   Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.

例えば、上記実施形態では、PC10がコンピュータまたは画像処理装置の一例であり、プリンタドライバ14aが画像処理プログラムの一例であった。プリンタ20を画像処理装置の一例とし、プリンタ20にインストールされるプログラムを、画像処理プログラムの一例として、本発明を適用しても良い。   For example, in the above embodiment, the PC 10 is an example of a computer or an image processing apparatus, and the printer driver 14a is an example of an image processing program. The present invention may be applied with the printer 20 as an example of an image processing apparatus and a program installed in the printer 20 as an example of an image processing program.

また、画像処理プログラムは、プリンタドライバ14a以外のプログラムであっても良く、例えば、出力画像データを生成し、生成した出力画像データを、プリンタドライバ14aに出力するプログラムであっても良い。また、上記実施形態においては、画像データに、色変換処理およびハーフトーン処理を施したものを、出力画像データと称していた。しかしながら、本発明の画像処理プログラムまたは画像処理装置によって生成される出力画像データは、色変換処理およびハーフトーン処理前のデータであっても良い。   The image processing program may be a program other than the printer driver 14a. For example, the image processing program may be a program that generates output image data and outputs the generated output image data to the printer driver 14a. In the above embodiment, the image data that has been subjected to color conversion processing and halftone processing is referred to as output image data. However, the output image data generated by the image processing program or the image processing apparatus of the present invention may be data before color conversion processing and halftone processing.

また、上記実施形態では、プリンタ20は、記録媒体のレーベル面にラベル画像を印刷していたが、用紙やラベル用シールに出力画像を印刷する場合においても本発明は適用可能である。また、上記実施形態において、プリンタ20はインクジェットプリンタであったが、レーザプリンタなど他の方式のプリンタを採用する場合にも、本発明を適用可能である。   In the above embodiment, the printer 20 prints the label image on the label surface of the recording medium. However, the present invention can also be applied to the case where the output image is printed on paper or a label sticker. In the above embodiment, the printer 20 is an ink jet printer. However, the present invention can also be applied to a case where another type of printer such as a laser printer is employed.

また、上記実施形態のラベル画像50においては、撮影場所を示す地名情報60や施設名情報62が文字列で配置されていたが、例えば撮影場所を示す地図画像が、場所情報として配置されても良い。   In the label image 50 of the above embodiment, the place name information 60 and the facility name information 62 indicating the shooting location are arranged as character strings. However, for example, a map image showing the shooting location may be arranged as the location information. good.

また、上記実施形態のS604の処理では、枚数情報48の値が最も大きい撮影場所で撮影された画像データが、背景画像56に対応した画像データとして選択されていた。しかしながら、例えば、枚数情報48の値が所定値以上の画像データの中からいずれかを選択するように構成しても良い。また、枚数情報48の値が2番目に大きい撮影場所で撮影された画像データを選択するように構成しても良い。あるいは、枚数情報48の値が最も小さい撮影場所で撮影された画像データを選択するように構成しても良い。   Further, in the processing of S604 in the above embodiment, the image data shot at the shooting location where the value of the number information 48 is the largest is selected as the image data corresponding to the background image 56. However, for example, it may be configured to select one of the image data in which the value of the number information 48 is a predetermined value or more. Further, it may be configured to select image data shot at a shooting location where the value of the number information 48 is the second largest. Or you may comprise so that the image data image | photographed in the imaging location where the value of the number information 48 is the smallest may be selected.

また、上記実施形態では、位置情報から撮影場所を取得することとしていた。しかしながら、画像データに撮影されている建造物と登録されている建造物との形状や色合の類似度から、画像データの撮影場所を特定できる場合には、位置情報を使用せずに撮影場所を取得しても良い。   In the above embodiment, the shooting location is acquired from the position information. However, if the shooting location of the image data can be specified from the similarity of the shape and color of the building that is shot in the image data and the registered building, the shooting location can be determined without using position information. You may get it.

また、上記実施形態では、人物を焦点とせずに撮影された画像データが、背景画像56に対応する画像データとして選択されていた。しかしながら、例えば、人物の肌色を示す面積が所定面積以下である画像データの中から、背景画像56に対応する画像データを選択しても良い。
<その他>
<手段>
この目的を達成するために、技術的思想1記載の画像処理プログラムは、コンピュータを、記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段として機能させる。
技術的思想2記載の画像処理プログラムは、技術的思想1記載の画像処理プログラムにおいて、前記記録媒体に格納された画像データについて、撮影が行われた場所を表す場所情報を取得する場所情報取得手段として、前記コンピュータを機能させ、前記生成手段は、前記場所情報取得手段により取得された前記場所情報が前記出力画像に含まれるように、前記出力画像データを生成するものである。
技術的思想3記載の画像処理プログラムは、技術的思想2記載の画像処理プログラムにおいて、前記場所情報には地名情報と施設名情報とが含まれており、前記生成手段は、複数の前記場所情報に同一の地名情報が含まれ、且つ、互いに異なる複数の施設名情報が含まれる場合、前記同一の地名情報が1つ配置され、且つ、前記互いに異なる複数の施設名情報が配置された出力画像に対応する出力画像データを生成するものである。
技術的思想4記載の画像処理プログラムは、技術的思想2または3記載の画像処理プログラムにおいて、前記場所情報取得手段により取得される前記場所情報に基づいて、撮影が行われた場所毎に前記画像データの数を計数する計数手段を前記コンピュータに実行させ、前記背景画像選択手段は、前記計数手段により計数された数に基づいて、前記背景画像に対応した画像データを選択するものである。
技術的思想5記載の画像処理プログラムは、技術的思想1から4のいずれかに記載の画像処理プログラムにおいて、前記記録媒体に格納された画像データのうち、2以上の画像データについて、撮影が行われた時点を表す撮影時点情報を取得する撮影時点取得手段と、前記撮影時点取得手段により取得された前記撮影時点情報に基づいて、前記2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報を取得する撮影期間取得手段として、前記コンピュータを機能させ、前記生成手段は、前記撮影期間取得手段により取得された前記撮影期間情報が、前記出力画像に含まれるように、前記出力画像データを生成するものである。
技術的思想6記載の画像処理プログラムは、技術的思想1から5のいずれかに記載の画像処理プログラムにおいて、前記記録媒体に格納された複数の画像データの各々について、人物を焦点として撮影された画像データであるか否かを判断する画像種類判断手段として、前記コンピュータを機能させ、前記人物画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データであると判断された画像データのうち、いずれかを選択するものであり、前記背景画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データではないと判断された画像データのうち、いずれかを選択するものである。
技術的思想7記載の画像処理プログラムは、技術的思想1から6のいずれかに記載の画像処理プログラムにおいて、前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものである。
技術的思想8記載の画像処理プログラムは、技術的思想7に記載の画像処理プログラムにおいて、前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段を前記コンピュータに実行させ、前記生成手段は、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである。
技術的思想9記載の画像処理装置は、記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段とを備える。
<効果>
技術的思想1記載の画像処理プログラムによれば、記録媒体に格納された複数の画像データのうち、人物画像に対応した画像データと、背景画像に対応した画像データとが選択される。そして、人物画像に被写体として含まれる人物と背景画像とが配置された出力画像に対応する出力画像データが生成される。よって、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。
技術的思想2記載の画像処理プログラムによれば、技術的思想1の奏する効果に加え、画像データの撮影が行われた場所を表す場所情報が出力画像に含まれるので、記録媒体に格納された複数の画像データをより的確に把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。
技術的思想3記載の画像処理プログラムによれば、技術的思想2の奏する効果に加え、地名情報および互いに異なる複数の施設名情報が見やすく配置された、出力画像に対応した出力画像データを生成できるという効果がある。
技術的思想4記載の画像処理プログラムによれば、技術的思想2または3の奏する効果に加え、画像データの撮影が行われた場所毎に画像データの数が計数され、計数された数に基づいて、背景画像に対応した画像データが選択されるので、適切な背景画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想5記載の画像処理プログラムによれば、技術的思想1から4のいずれかの奏する効果に加え、2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報が出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想6記載の画像処理プログラムによれば、技術的思想1から5のいずれかの奏する効果に加え、人物を焦点として撮影された画像データの中から、人物画像に対応した画像データが選択され、人物を焦点として撮影された画像データではないと判断された画像データの中から、背景画像に対応した画像データが選択されるので、人物画像および背景画像ともに適切な画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想7記載の画像処理プログラムによれば、技術的思想1から6のいずれかの奏する効果に加え、複数の画像データが2以上のグループに分類されて記録媒体に格納されている場合には、人物画像に被写体として含まれる人物と背景画像とがグループ毎に合成された合成画像が、2以上のグループの各々について、出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想8記載の画像処理プログラムによれば、技術的思想7の奏する効果に加え、互いに異なる2以上のグループに分類される2以上の画像データについて、同一の人物が認識される場合、互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が出力画像に配置されるように、出力画像データを生成できるという効果がある。
技術的思想9記載の画像処理装置によれば、技術的思想1記載の画像処理プログラムを実行するコンピュータと同様の作用効果を奏する。
In the above-described embodiment, image data captured without focusing on a person is selected as image data corresponding to the background image 56. However, for example, image data corresponding to the background image 56 may be selected from image data in which the area indicating the skin color of a person is a predetermined area or less.
<Others>
<Means>
In order to achieve this object, an image processing program described in the technical idea 1 causes a computer to select image data corresponding to a person image including a person as a subject from among a plurality of image data stored in a recording medium. A person image selecting means; a background image selecting means for selecting image data corresponding to a background image to be arranged in an output image from a plurality of image data stored in the recording medium; and the person image is included as a subject. Based on the image data selected by the person image selection means and the image data selected by the background image selection means, output image data corresponding to an output image in which the person and the background image are arranged It functions as a generating means for generating.
The image processing program described in the technical idea 2 is the image processing program described in the technical idea 1, in which the location information acquisition unit acquires location information indicating the location where the image was taken for the image data stored in the recording medium. As described above, the computer is caused to function, and the generation unit generates the output image data so that the location information acquired by the location information acquisition unit is included in the output image.
The image processing program described in the technical idea 3 is the image processing program described in the technical idea 2, wherein the location information includes place name information and facility name information, and the generation means includes a plurality of the location information. When the same place name information is included and a plurality of different facility name information are included, an output image in which one of the same place name information is arranged and the plurality of different facility name information is arranged The output image data corresponding to is generated.
The image processing program described in the technical idea 4 is the image processing program described in the technical idea 2 or 3, wherein the image is recorded for each place where photographing is performed based on the location information acquired by the location information acquisition unit. Counting means for counting the number of data is executed by the computer, and the background image selecting means selects image data corresponding to the background image based on the number counted by the counting means.
The image processing program described in the technical idea 5 is the image processing program described in any of the technical ideas 1 to 4, in which two or more image data among the image data stored in the recording medium are photographed. A shooting time point that includes shooting time point information that represents a broken time point, and a shooting period that includes a time point when the two or more pieces of image data are shot based on the shooting time point information acquired by the shooting time point acquisition unit. As the shooting period acquisition means for acquiring the shooting period information representing the above, the computer functions, and the generation means includes the output period so that the shooting period information acquired by the shooting period acquisition means is included in the output image. Output image data is generated.
The image processing program described in the technical idea 6 is the image processing program described in any of the technical ideas 1 to 5, and each of the plurality of image data stored in the recording medium is photographed with a person as a focus. The computer functions as an image type determination unit that determines whether the image data is image data, and the person image selection unit is determined by the image type determination unit to be image data photographed with a person as a focus. The background image selection means selects one of the image data determined not to be image data photographed with a person as a focus by the image type determination means. Is to choose.
The image processing program according to the technical idea 7 is the image processing program according to any one of the technical ideas 1 to 6, wherein the plurality of image data are classified into two or more groups and stored in the recording medium. The person image selecting unit selects image data corresponding to the person image for each group, and the background image selecting unit selects image data corresponding to the background image for each group. The generation means includes a composite image obtained by combining the person image included in the person image as a subject and the background image for each of the groups in the output image for each of the two or more groups. As described above, the output image data is generated.
The image processing program described in the technical idea 8 is the image processing program described in the technical idea 7, which causes the computer to execute person recognition means for recognizing a person included as a subject in a person image corresponding to the image data. The generating means creates two or more groups different from each other when the same person is recognized by the person recognition means for two or more image data classified into two or more different groups. The output image data is generated so that the same person is arranged in association with two or more synthesized images.
The image processing apparatus described in the technical idea 9 includes a person image selection unit that selects image data corresponding to a person image including a person as a subject among a plurality of image data stored in the recording medium, and the image processing apparatus stores the image data in the recording medium. Out of the plurality of image data, background image selection means for selecting image data corresponding to the background image to be arranged in the output image, the person included as a subject in the person image, and the background image are arranged. Generating means for generating output image data corresponding to the output image based on the image data selected by the person image selecting means and the image data selected by the background image selecting means.
<Effect>
According to the image processing program described in the technical idea 1, image data corresponding to a person image and image data corresponding to a background image are selected from among a plurality of image data stored in a recording medium. Then, output image data corresponding to an output image in which a person included in the person image as a subject and a background image are arranged is generated. Therefore, there is an effect that it is possible to generate output image data corresponding to an output image that is preferable for the user and that allows the user to grasp a plurality of image data stored in the recording medium.
According to the image processing program described in the technical idea 2, in addition to the effect produced by the technical idea 1, the location information indicating the location where the image data was taken is included in the output image, and therefore stored in the recording medium. There is an effect that output image data corresponding to an output image capable of more accurately grasping a plurality of image data can be generated.
According to the image processing program described in the technical idea 3, in addition to the effect produced by the technical idea 2, it is possible to generate output image data corresponding to an output image in which place name information and a plurality of different facility name information are arranged in an easy-to-see manner. There is an effect.
According to the image processing program described in the technical idea 4, in addition to the effect produced by the technical idea 2 or 3, the number of image data is counted for each place where the image data is taken, and based on the counted number. Since the image data corresponding to the background image is selected, the output image data can be generated so that an appropriate background image is included in the output image.
According to the image processing program described in the technical idea 5, in addition to the effect of any one of the technical ideas 1 to 4, shooting period information representing a shooting period including a time point when two or more pieces of image data are shot is output. The output image data can be generated so as to be included in the image.
According to the image processing program described in the technical idea 6, in addition to the effect of any of the technical ideas 1 to 5, image data corresponding to the person image is selected from the image data photographed with the person as a focus. Since the image data corresponding to the background image is selected from the image data that is determined not to be image data photographed with a person as the focus, an appropriate image for both the person image and the background image is included in the output image. As described above, the output image data can be generated.
According to the image processing program described in the technical idea 7, in addition to the effect of any one of the technical ideas 1 to 6, when a plurality of image data are classified into two or more groups and stored in the recording medium The effect is that output image data can be generated so that a composite image obtained by combining a person image and a background image included in a person image for each group is included in the output image for each of two or more groups. is there.
According to the image processing program described in the technical idea 8, in addition to the effect produced by the technical idea 7, when two or more image data classified into two or more different groups are recognized, There is an effect that output image data can be generated so that the same person is arranged in the output image in association with two or more composite images created for each of two or more different groups.
According to the image processing apparatus described in the technical idea 9, the same effect as the computer that executes the image processing program described in the technical idea 1 can be obtained.

10 PC(コンピュータおよび画像処理装置の一例)
14a プリンタドライバ(画像処理プログラムの一例)
50 ラベル画像
52 合成画像
54 人物
56 背景画像
10 PC (an example of a computer and an image processing apparatus)
14a Printer driver (an example of an image processing program)
50 label image 52 composite image 54 person 56 background image

Claims (7)

画像処理プログラムであって、
コンピュータを、
記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、
前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、
前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段と
前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段として機能させ、
前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、
前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものであって、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである画像処理プログラム。
An image processing program,
Computer
A person image selecting means for selecting image data corresponding to a person image including a person as a subject among a plurality of image data stored in a recording medium;
A background image selection means for selecting image data corresponding to a background image to be arranged in the output image from the plurality of image data stored in the recording medium;
Output image data corresponding to an output image in which the person included as the subject in the person image and the background image are arranged is selected by the image data selected by the person image selection means and the background image selection means. Generating means for generating the generated image data based on the image data ;
In human image it is corresponding to the image data, to function as a recognized person recognizing means a person included as a subject,
When the plurality of image data is classified into two or more groups and stored in the recording medium, the person image selection unit selects image data corresponding to the person image for each group, The background image selection means is for selecting image data corresponding to the background image for each group,
The generating means includes the output image so that a composite image obtained by combining the person image and the background image included in the person image for each group is included in the output image for each of the two or more groups. When the same person is recognized by the person recognizing unit for generating two or more image data classified into two or more different groups, the two or more different groups are generated. An image processing program for generating the output image data so that the same person is arranged in association with two or more composite images created for each of the above .
前記記録媒体に格納された画像データについて、撮影が行われた場所を表す場所情報を取得する場所情報取得手段として、前記コンピュータを機能させ、
前記生成手段は、前記場所情報取得手段により取得された前記場所情報が前記出力画像に含まれるように、前記出力画像データを生成するものである請求項1記載の画像処理プログラム。
For the image data stored in the recording medium, the computer is caused to function as location information acquisition means for acquiring location information representing a location where the image was taken,
The image processing program according to claim 1, wherein the generation unit generates the output image data so that the location information acquired by the location information acquisition unit is included in the output image.
前記場所情報には地名情報と施設名情報とが含まれており、
前記生成手段は、
複数の前記場所情報に同一の地名情報が含まれ、且つ、互いに異なる複数の施設名情報が含まれる場合、前記同一の地名情報が1つ配置され、且つ、前記互いに異なる複数の施設名情報が配置された出力画像に対応する出力画像データを生成するものである請求項2記載の画像処理プログラム。
The location information includes location name information and facility name information,
The generating means includes
When the same place name information is included in a plurality of the place information and a plurality of different facility name information are included, one piece of the same place name information is arranged, and the plurality of different place name information is The image processing program according to claim 2, which generates output image data corresponding to the arranged output image.
前記場所情報取得手段により取得される前記場所情報に基づいて、撮影が行われた場所毎に前記画像データの数を計数する計数手段を前記コンピュータに実行させ、
前記背景画像選択手段は、
前記計数手段により計数された数に基づいて、前記背景画像に対応した画像データを選択するものである請求項2または3に記載の画像処理プログラム。
Based on the location information acquired by the location information acquisition means, causing the computer to execute counting means for counting the number of the image data for each location where photographing has been performed,
The background image selection means includes
The image processing program according to claim 2 or 3, wherein image data corresponding to the background image is selected based on the number counted by the counting means.
前記記録媒体に格納された画像データのうち、2以上の画像データについて、撮影が行われた時点を表す撮影時点情報を取得する撮影時点取得手段と、
前記撮影時点取得手段により取得された前記撮影時点情報に基づいて、前記2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報を取得する撮影期間取得手段として、前記コンピュータを機能させ、
前記生成手段は、前記撮影期間取得手段により取得された前記撮影期間情報が、前記出力画像に含まれるように、前記出力画像データを生成するものである請求項1から4のいずれかに記載の画像処理プログラム。
Shooting time acquisition means for acquiring shooting time information indicating the time when shooting was performed for two or more image data among the image data stored in the recording medium;
The computer is used as a shooting period acquisition unit that acquires shooting period information representing a shooting period including a time point at which the two or more pieces of image data are shot based on the shooting point information acquired by the shooting point acquisition unit. Make it work
The said production | generation means produces | generates the said output image data so that the said imaging | photography period information acquired by the said imaging | photography period acquisition means is included in the said output image. Image processing program.
前記記録媒体に格納された複数の画像データの各々について、人物を焦点として撮影された画像データであるか否かを判断する画像種類判断手段として、前記コンピュータを機能させ、
前記人物画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データであると判断された画像データのうち、いずれかを選択するものであり、
前記背景画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データではないと判断された画像データのうち、いずれかを選択するものである請求項1から5のいずれかに記載の画像処理プログラム。
For each of a plurality of image data stored in the recording medium, the computer functions as image type determination means for determining whether or not the image data is taken with a person as a focus.
The person image selecting means selects one of the image data determined by the image type determining means to be image data photographed with a person as a focus,
6. The background image selecting unit is for selecting any one of image data determined by the image type determining unit as not being image data photographed with a person as a focus. The image processing program described in 1.
画像処理装置であって、
記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、
前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、
前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段と
前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段とを備え、
前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、
前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものであって、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである画像処理装置。
An image processing apparatus,
A person image selecting means for selecting image data corresponding to a person image including a person as a subject among a plurality of image data stored in a recording medium;
A background image selection means for selecting image data corresponding to a background image to be arranged in the output image from the plurality of image data stored in the recording medium;
Output image data corresponding to an output image in which the person included as the subject in the person image and the background image are arranged is selected by the image data selected by the person image selection means and the background image selection means. Generating means for generating the generated image data based on the image data ;
Human recognition means for recognizing a person included as a subject in a person image corresponding to the image data,
When the plurality of image data is classified into two or more groups and stored in the recording medium, the person image selection unit selects image data corresponding to the person image for each group, The background image selection means is for selecting image data corresponding to the background image for each group,
The generating means includes the output image so that a composite image obtained by combining the person image and the background image included in the person image for each group is included in the output image for each of the two or more groups. When the same person is recognized by the person recognizing unit for generating two or more image data classified into two or more different groups, the two or more different groups are generated. An image processing apparatus for generating the output image data so that the same person is arranged in association with two or more composite images created for each of the above .
JP2010215612A 2010-09-27 2010-09-27 Image processing program and image processing apparatus Active JP5549504B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010215612A JP5549504B2 (en) 2010-09-27 2010-09-27 Image processing program and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010215612A JP5549504B2 (en) 2010-09-27 2010-09-27 Image processing program and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2012070338A JP2012070338A (en) 2012-04-05
JP5549504B2 true JP5549504B2 (en) 2014-07-16

Family

ID=46167032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010215612A Active JP5549504B2 (en) 2010-09-27 2010-09-27 Image processing program and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5549504B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7034808B2 (en) * 2018-04-03 2022-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method, information processing device and information processing system
CN109147009B (en) * 2018-08-13 2023-04-07 优视科技新加坡有限公司 Method and device for personalized operation based on image, and equipment/terminal/server

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1127609A (en) * 1997-06-30 1999-01-29 Minolta Co Ltd Image recording and reproducing system
JP4604833B2 (en) * 2005-05-19 2011-01-05 ノーリツ鋼機株式会社 Electronic album system
JP2007274102A (en) * 2006-03-30 2007-10-18 Fujifilm Corp Label image editor, label image editing/drawing system, label image editing program, and label image editing program storage medium
JP2009163691A (en) * 2008-01-10 2009-07-23 Casio Comput Co Ltd Image processor and program

Also Published As

Publication number Publication date
JP2012070338A (en) 2012-04-05

Similar Documents

Publication Publication Date Title
JP2005031830A (en) Image display method and image display program
JP2008236468A (en) Image file management device and program
JP2009237703A (en) Image output method, device and program
JP2007036406A (en) Image editing device
JP2006202295A (en) Digital photograph management device, digital photograph management method, and computer-readable recording medium storing computer program
JP2007122684A (en) Layout information generating apparatus, layout information generating method, layout information generating program, orderer apparatus, image creating system, image creating method and image creating program
JP2003111009A (en) Electronic album editing device
JP5549504B2 (en) Image processing program and image processing apparatus
US7778989B2 (en) File management apparatus
JP2007158536A (en) Method, apparatus, and program for outputting image
JP2005119083A (en) Image output device, image display method, program, and recording medium
JP2006121661A (en) Synthesized image generation method and apparatus, and program
JP2006332912A (en) Image forming apparatus, image searching method, control program, computer-readable recording medium, and image searching apparatus
JP7271987B2 (en) Information processing device and program
JP4455358B2 (en) Image processing apparatus and method
JP2007183858A (en) Image retrieval system, image retrieval device, and computer program
JP2009055272A (en) Image processing apparatus, image processing method, and image processing program
JP3903110B2 (en) Method and system for creating print with message
JP2006048245A (en) Image processor, image forming apparatus, processed document search method, processed document search program and recording medium
JP2005109760A (en) Apparatus and method of storing image
JP4239493B2 (en) Client device and still image output system
JP2013016059A (en) Image forming device
JP2004032247A (en) Composite image output apparatus
JP2007306264A (en) Method, device, and program for producing index print
JP2007334238A (en) Image processing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140422

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140505

R150 Certificate of patent or registration of utility model

Ref document number: 5549504

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150