JP5549504B2 - Image processing program and image processing apparatus - Google Patents
Image processing program and image processing apparatus Download PDFInfo
- Publication number
- JP5549504B2 JP5549504B2 JP2010215612A JP2010215612A JP5549504B2 JP 5549504 B2 JP5549504 B2 JP 5549504B2 JP 2010215612 A JP2010215612 A JP 2010215612A JP 2010215612 A JP2010215612 A JP 2010215612A JP 5549504 B2 JP5549504 B2 JP 5549504B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- person
- information
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Editing Of Facsimile Originals (AREA)
Description
本発明は、画像処理プログラムおよび画像処理装置に関するものである。 The present invention relates to an image processing program and an image processing apparatus.
特許文献1には、メディアに記憶された画像データのうち、代表的な画像データに基づく画像を、メディアのラベル面に印刷する印刷装置が記載されている。
しかしながら、上記従来の技術は、単に、代表的な画像をラベル面に印刷するだけのものであるため、その印刷結果が、ユーザにとってつまらないものになる虞があった。また、記録媒体に格納された複数の画像データを、ユーザに必ずしも的確に把握させることができない虞があった。 However, since the above conventional technique merely prints a representative image on the label surface, there is a possibility that the printing result may be boring for the user. Further, there is a possibility that the user cannot necessarily accurately grasp the plurality of image data stored in the recording medium.
本発明は、上述した問題点を解決するためになされたものであり、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができる出力画像に対応した出力画像データを生成できる画像処理プログラムおよび画像処理装置を提供することを目的とする。 The present invention has been made to solve the above-described problems, is preferable for the user, and is an output image corresponding to an output image that allows the user to grasp a plurality of pieces of image data stored in a recording medium. An object is to provide an image processing program and an image processing apparatus capable of generating data.
この目的を達成するために、本発明の画像処理プログラムは、コンピュータを、記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段と、前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段として機能させる。前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものであって、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである。 In order to achieve this object, an image processing program according to the present invention selects a human image from a plurality of image data stored in a recording medium and selects image data corresponding to a human image including a person as a subject. Means, a background image selecting means for selecting image data corresponding to a background image to be arranged in an output image among a plurality of image data stored in the recording medium, and the person included as a subject in the person image; Generation of output image data corresponding to an output image in which the background image is arranged based on the image data selected by the person image selection means and the image data selected by the background image selection means It means, in the human image corresponding to the image data, to function as a recognized person recognizing means a person included as a subject . When the plurality of image data is classified into two or more groups and stored in the recording medium, the person image selection unit selects image data corresponding to the person image for each group, The background image selection means selects image data corresponding to the background image for each group, and the generation means selects the person included in the person image as a subject and the background image from the group. The output image data is generated so that a composite image synthesized every time is included in the output image for each of the two or more groups, and is classified into each of two or more different groups. About the above image data, when the same person is recognized by the person recognition means, it is created for each of the two or more different groups. In association with the above combined image, the as same person is placed, and generates the output image data.
上記の画像処理プログラムは、前記記録媒体に格納された画像データについて、撮影が行われた場所を表す場所情報を取得する場所情報取得手段として、前記コンピュータを機能させ、前記生成手段は、前記場所情報取得手段により取得された前記場所情報が前記出力画像に含まれるように、前記出力画像データを生成するものであって良い。 The image processing program causes the computer to function as location information acquisition means for acquiring location information indicating the location where the image was taken for the image data stored in the recording medium, and the generation means includes the location The output image data may be generated so that the location information acquired by the information acquisition means is included in the output image.
なお、本発明は、画像処理装置、画像処理方法、画像処理プログラムを記録する記録媒体、画像処理装置と当該画像処理装置により生成された画像データを出力する出力装置とを含む画像処理システム等の種々の態様で構成することができる。 The present invention is an image processing apparatus, an image processing method, a recording medium for recording an image processing program, an image processing system including an image processing apparatus and an output device for outputting image data generated by the image processing apparatus, etc. It can be configured in various ways.
請求項1記載の画像処理プログラムによれば、記録媒体に格納された複数の画像データのうち、人物画像に対応した画像データと、背景画像に対応した画像データとが選択される。そして、人物画像に被写体として含まれる人物と背景画像とが配置された出力画像に対応する出力画像データが生成される。よって、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。
また、複数の画像データが2以上のグループに分類されて記録媒体に格納されている場合には、人物画像に被写体として含まれる人物と背景画像とがグループ毎に合成された合成画像が、2以上のグループの各々について、出力画像に含まれるように、出力画像データを生成できるという効果がある。
更に、互いに異なる2以上のグループに分類される2以上の画像データについて、同一の人物が認識される場合、互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が出力画像に配置されるように、出力画像データを生成できるという効果がある。
According to the image processing program of the first aspect, image data corresponding to a person image and image data corresponding to a background image are selected from among a plurality of image data stored in a recording medium. Then, output image data corresponding to an output image in which a person included in the person image as a subject and a background image are arranged is generated. Therefore, there is an effect that it is possible to generate output image data corresponding to an output image that is preferable for the user and that allows the user to grasp a plurality of image data stored in the recording medium.
In addition, when a plurality of image data is classified into two or more groups and stored in a recording medium, a composite image in which a person and a background image included as a subject in a person image are combined for each group is 2 For each of the above groups, output image data can be generated so as to be included in the output image.
Further, when the same person is recognized for two or more image data classified into two or more different groups, the two or more composite images created for each of the two or more different groups are associated with each other, The output image data can be generated so that the same person is arranged in the output image.
請求項2記載の画像処理プログラムによれば、請求項1の奏する効果に加え、画像データの撮影が行われた場所を表す場所情報が出力画像に含まれるので、記録媒体に格納された複数の画像データをより的確に把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。 According to the image processing program of the second aspect, in addition to the effect of the first aspect, the location information indicating the location where the image data was taken is included in the output image. There is an effect that it is possible to generate output image data corresponding to an output image that allows the image data to be grasped more accurately.
請求項3記載の画像処理プログラムによれば、請求項2の奏する効果に加え、地名情報および互いに異なる複数の施設名情報が見やすく配置された、出力画像に対応した出力画像データを生成できるという効果がある。
According to the image processing program of claim 3, in addition to the effect of
請求項4記載の画像処理プログラムによれば、請求項2または3の奏する効果に加え、画像データの撮影が行われた場所毎に画像データの数が計数され、計数された数に基づいて、背景画像に対応した画像データが選択されるので、適切な背景画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。
According to the image processing program of claim 4, in addition to the effect of
請求項5記載の画像処理プログラムによれば、請求項1から4のいずれかの奏する効果に加え、2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報が出力画像に含まれるように、出力画像データを生成できるという効果がある。
According to the image processing program of claim 5, in addition to the effect of any one of
請求項6記載の画像処理プログラムによれば、請求項1から5のいずれかの奏する効果に加え、人物を焦点として撮影された画像データの中から、人物画像に対応した画像データが選択され、人物を焦点として撮影された画像データではないと判断された画像データの中から、背景画像に対応した画像データが選択されるので、人物画像および背景画像ともに適切な画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。
According to the image processing program of claim 6, in addition to the effect of any one of
請求項7記載の画像処理装置によれば、請求項1記載の画像処理プログラムを実行するコンピュータと同様の作用効果を奏する。 According to the image processing apparatus of the seventh aspect, the same effect as the computer that executes the image processing program according to the first aspect is obtained.
以下、本発明の好ましい実施形態について、添付図面を参照して説明する。図1は、本発明の画像処理プログラムの一実施形態であるプリンタドライバ14aを搭載したパーソナルコンピュータ10(以下、PC10と称する)と、PC10に接続されたプリンタ20の電気的な概略構成を示すブロック図である。図1に示すように、PC10とプリンタ20とは、LAN回線4を介して接続されている。また、LAN回線4は、ルータ(図示せず)を介してインターネット8に接続されている。
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a block diagram showing an electrical schematic configuration of a personal computer 10 (hereinafter referred to as a PC 10) equipped with a printer driver 14a, which is an embodiment of an image processing program of the present invention, and a
プリンタ20は、CDやDVDなどのディスク形状の記録媒体をトレイ(図示せず)に載置可能に構成され、記録媒体のレーベル面に画像を印刷できるものである。プリンタドライバ14aは、レーベル面に印刷させるラベル画像に対応した出力画像データを生成し、プリンタ20へ供給する。特に、本実施形態のプリンタドライバ14aは、記録媒体に格納された複数の画像データを用いて出力画像データを生成するものであって、記録媒体に格納された複数の画像データをユーザに把握させることができるようなラベル画像を、プリンタ20に印刷させる。
The
PC10は、CPU11、ROM12、RAM13、ハードディスクドライブ14(以下、HDD14と称す)、光ディスクドライブ15、LANインターフェイス16(以下、LANI/F16)、入力装置17、表示装置18とを主に有し、これらはバスライン19を介して互いに接続されている。
The PC 10 mainly includes a
CPU11は、ROM12やHDD14に記憶される固定値やプログラムに従って、バスライン19により接続された各部を制御する。ROM12は、PC10の動作を制御するためのプログラムなどが格納されたメモリであり、RAM13は、CPU11の処理に必要なデータなどを一時的に記憶するための読み書き可能なメモリであり、人物テーブル13aと、背景テーブル13bとが設けられる。人物テーブル13aについては、図2(a)を参照して後述する。背景テーブル13bについては、図2(b)を参照して後述する。
The
HDD14には、プリンタドライバ14aが格納される。プリンタドライバ14aは、プリンタ20を制御するためのプログラムである。CPU11は、プリンタドライバ14aを実行することにより、後述するラベル作成処理(図4,図5)を実行する。光ディスクドライブ15は、記録媒体の一例であるCDやDVDなどの光ディスクに格納された情報を読み出す。
The
LANI/F16は、PC10をLAN回線4に接続するものである。入力装置17は、PC10に指示や情報を入力するためのものである。表示装置18は、各種のデータを表示する。
The LAN I / F 16 connects the PC 10 to the LAN line 4. The
プリンタ20は、CPU21、ROM22、RAM23、LANインターフェイス24(以下、LANI/F24)、操作キー25、LCD26、印刷部27を主に有し、これらはバスライン28を介してお互いに接続されている。
The
CPU21は、ROM22に記憶されているプログラムに従って様々な処理を実行する。ROM22は、プリンタ20の動作を制御するプログラムなどを格納するメモリである。RAM23は、CPU21の処理に必要なデータなどを一時的に記憶するためのメモリである。
The
操作キー25は、プリンタ20に指示や情報を入力するためのものである。LCD26は、様々な情報を表示することができる表示装置である。プリンタ20は、LANI/F24を介して入力される出力画像データに基づいて印刷部27を駆動し、出力画像データに基づく画像を印刷する。なお、プリンタ20はインクを吐出して画像を形成するインクジェット方式のプリンタであるものとする。
The
PC10は、記録媒体のレーベル面にラベル画像を印刷させるため、ラベル画像に対応した出力画像データを生成し、プリンタ20へ供給する。その際、PC10は、光ディスクドライブ15に装着された記録媒体から、画像データを読み出し、ラベル画像の作成に必要な情報を人物テーブル13aまたは背景テーブル13bに保存する。なお、本実施形態において、PC10の光ディスクドライブ15には、デジタルカメラで撮影されたExif(Exchangeable Image File Format)形式の画像データを格納する記録媒体が装着されているものとする。
The
図2(a)は、人物テーブル13aに格納される人物情報の構成を模式的に示す図である。人物情報は、フォルダ名情報30、撮影日情報32、ファイル名情報34、人物有無情報36を含むひとまとまりの情報である。フォルダ名情報30は、画像データを格納するフォルダ名を示す情報である。なお、本実施形態において、光ディスクドライブ15に装着された記録媒体には、2つのフォルダ(フォルダ名:AAA,BBB)が設定されており、これらのフォルダによって画像データが分類して格納されているものとする。
FIG. 2A is a diagram schematically showing the configuration of person information stored in the person table 13a. The person information is a group of information including
撮影日情報32は、画像データの撮影日を示す情報である。なお、撮影日は各画像データのヘッダから取得できる。ファイル名情報34は、画像データに付されたファイル名を示す情報である。人物有無情報36は、画像データに被写体として撮影されている人物と撮影されていない人物とを示す情報である。例えば、記録媒体に格納された複数の画像データから、被写体として認識された人物が、人物A、人物B、人物C、人物Dの4名である場合、人物有無情報36は、これら4名の人物が撮影されているか否かを、画像データ毎に示す情報である。なお、図2(a)においては、画像データに撮影されている人物の人物有無情報36に○を記している。
The
PC10は、記録媒体に格納された複数の画像データのうち、人物を焦点として撮影された画像データの各々について、人物情報を作成し、人物テーブル13aに格納する。そして、人物テーブル13aに格納された人物情報を用いて、ラベル画像の作成に利用すべき画像データを選択するのであるが、詳細は図6を参照して後述する。
The
図2(b)は、背景テーブル13bに格納される背景情報の構成を模式的に示す図である。背景情報は、フォルダ名情報40、撮影日情報42、撮影場所情報44、ファイル名情報46、枚数情報48を含むひとまとまりの情報である。フォルダ名情報40は、画像データが格納されたフォルダのフォルダ名を示す情報である。撮影日情報42は、画像データの撮影日を示す情報である。撮影場所情報44は、画像データの撮影場所を示す情報である。PC10は、画像データのヘッダから、当該画像データが撮影された地点の経度および緯度を示す位置情報を取得する。そして、当該位置情報で特定される撮影場所を、PC10にインストールされた地図アプリケーションや、インターネット8を介してアクセス可能な検索サービスを利用して取得し、撮影場所情報44として、背景テーブル13bに格納する。なお、本実施形態においては、撮影場所情報44として保存される情報には、住所および施設名が含まれるものとするが、施設名を取得できない場合には、住所のみが保存されても良い。
FIG. 2B is a diagram schematically showing the configuration of the background information stored in the background table 13b. The background information is a set of information including
ファイル名情報46は、撮影場所情報44で示される撮影場所において撮影された画像データのファイル名を示す情報である。同一の撮影場所において撮影された画像データが複数存在する場合、それら複数の画像データのファイル名がファイル名情報46として保存される。枚数情報48は、同一の撮影場所で撮影された画像データの数を示す情報である。ここで、「同一の撮影場所」とは、撮影場所情報44で示される撮影場所に、施設名が含まれる場合、同一の施設名で特定される撮影場所を意味している。また、撮影場所情報44で示される撮影場所に、施設名が含まれない場合は、同一の住所で特定される撮影場所を意味している。すなわち、ここでいう「同一の撮影場所」とは、経度・緯度を示す位置情報が完全に一致することまでは要求しない。
The
PC10は、記録媒体に格納された複数の画像データのうち、人物を焦点とせずに撮影された画像データの各々について、背景情報を作成し、背景テーブル13bに格納する。そして、背景テーブル13bに格納された背景情報を用いて、ラベル画像の作成に利用すべき画像データを選択するのであるが、詳細は図6を参照して後述する。
The
図3を参照して、PC10が実行するラベル作成処理の結果、記録媒体のレーベル面に印刷されるラベル画像について説明する。図3は、レーベル面に印刷されるラベル画像の一例を示す図である。
With reference to FIG. 3, the label image printed on the label surface of the recording medium as a result of the label creation processing executed by the
図3に示すように、ラベル画像50は、フォルダ毎に作成される複数の合成画像52を含む。各合成画像52は、画像データに撮影された人物54と背景画像56とを、フォルダ毎に合成したものである。記録媒体に2以上のフォルダが設定され、複数の画像データがフォルダによって2以上のグループに分類されている場合、別々のフォルダに格納された画像データは、それぞれ別の機会に撮影されたものである可能性が高い。よって、フォルダ毎(グループ毎)に合成画像52を作成することにより、記録媒体に格納された画像データの内容を、分かりやすくユーザに示すことができる。
As shown in FIG. 3, the
また、人物54と背景画像56との組み合わせにより、ユーザは、出来事の内容を鮮明に思い起こし、記録媒体に格納されている画像データの内容を把握できる。また、ラベル画像50には人物54が含まれるので、ユーザにとっては懐かしく、単に背景画像56のみが配置されている場合に比較して、ユーザにとって好ましいものとなる。
Further, the combination of the
さらに、各合成画像52には、撮影期間情報58と、地域情報60と、施設名情報62とが含まれる。撮影期間情報58は、各フォルダに格納された複数の画像データの撮影日を包含する期間である。例えば、1つのフォルダに、2010年1月1日に撮影された画像データと、2010年1月2日に撮影された画像データとが格納されている場合、当該フォルダに対応した合成画像52には、撮影期間情報58として、「2010/1/1−2010/1/2」と示される。地域情報60は、撮影場所の住所から抽出される県名を示す文字列である。施設名情報62は、撮影場所の施設名を示す文字列であり、撮影場所情報44に含まれる、住所以外の文字列である。
Further, each
ここで、1のフォルダから取得される複数の撮影場所情報44に、同一の地域情報60が含まれ、且つ、互いに異なる複数の施設名情報62が含まれる場合、その同一の地域情報60(例えば、京都)を1つ、合成画像52に配置し、且つ、互いに異なる複数の施設名情報62(例えば、○○寺、○○神宮・・・)を、合成画像52に配置する。このようにすれば、地名情報60と施設名情報62とを、見やすく配置できる。
Here, when the plurality of shooting
なお、図示は省略するが、1つのフォルダから取得される複数の撮影場所情報44に、複数の地域情報60(例えば、京都および奈良)が含まれる場合、複数の地域情報60を1つの合成画像52に配置し、且つ、複数の撮影場所情報44に含まれる施設名情報62を、地域情報60毎に分けて、合成画像52に配置するものとする。
In addition, although illustration is abbreviate | omitted, when several area | region information 60 (for example, Kyoto and Nara) is included in the some imaging |
ラベル画像50に含まれる、撮影期間情報58、地域情報60および施設名情報62は、記録媒体に格納された画像データをユーザに把握させるために役立つ。
The
ここで、図3に示す人物A,人物Bのように、ある人物を被写体として含む画像データが、複数のフォルダに存在する場合、当該人物の画像は、複数のフォルダに対応した合成画像52の境界64に配置される。すなわち、互いに異なる2以上のフォルダに分類される2以上の画像データにおいて、同一の人物が認識される場合、ラベル画像50においては、当該同一の人物を、2以上の合成画像52に関連付けて配置する。したがって、ユーザが、イベント毎にフォルダを作成し、各イベントに関連した画像データをフォルダによって分類して管理している場合には、複数のイベントに共通して参加した人物を、ユーザが一目で把握できるようなラベル画像50を作成できる。
Here, when image data including a certain person as a subject exists in a plurality of folders, such as the person A and the person B shown in FIG. 3, the image of the person is the
なお、記録媒体にフォルダが設定されていない場合、またはフォルダが1つのみ設定されている場合、ラベル画像50は1つの合成画像52のみを含む。
When no folder is set on the recording medium or when only one folder is set, the
図4は、PC10のCPU11によって実行されるラベル作成処理を示すフローチャートである。この処理は、ラベル画像50をプリンタ20に印刷させるための処理であって、プリンタドライバ14aに従って実行される。PC10において、ユーザが光ディスクドライブ15に記録媒体を装着し、ラベル印刷の実行を指示すると、この処理が開始される。
FIG. 4 is a flowchart showing label creation processing executed by the
まず、ステップS401(以下、ステップを省略)において、CPU11は、人物テーブル13aおよび背景テーブル13bをクリアする(S401)。次に、CPU11は、光ディスクドライブ15に装着された記録媒体に設定されたフォルダのうち、1つのフォルダを選択する(S402)。次に、CPU11は、選択されたフォルダから1つの画像データを取得する(S403)。次に、CPU11は、取得した画像データが、写真データであるか否かを判断する(S404)。具体的には、取得した画像データがが、Exif形式の画像データであるか否かを判断する。なお、フォルダから取得した画像データが写真データではない場合(S404:No)、CPU11は、S411の処理に移行する。
First, in step S401 (hereinafter step is omitted), the
一方、取得した画像データが写真データである場合(S404:Yes)、CPU11は、当該画像データが、人物を焦点として撮影された画像データであるか否かを判断する(S405)。取得した画像データが、人物を焦点として撮影された画像データであると判断される場合(S405:Yes)、CPU11は、当該画像データに対応した人物画像に、被写体として含まれる人物を認識する(S406)。なお、本実施形態においては、公知の顔認識技術を利用して、顔が認識された画像データを、人物が焦点として撮影された画像データであると判断し(S405:Yes)、その認識した顔に基づき人物を認識する(S406)。また、被写体として含まれる人物のうち、画像に占める面積が所定面積以上である人物を認識し、画像に占める面積が所定面積未満である人物については、認識しないものとする。
On the other hand, when the acquired image data is photograph data (S404: Yes), the
次に、CPU11は、S406において認識した人物の項目が、人物テーブル13aの人物有無情報36に含まれるか否かを判断する(S407)。認識した人物の項目が人物テーブル13aの人物有無情報36に含まれないと判断される場合(S407:No)、すなわち、S406において認識された人物が、記録媒体に格納された画像データを順番に処理していく上で、初めて認識された人物であると判断される場合、CPU11は、人物テーブル13aの人物有無情報36として、該当人物の項目を追加する(S408)。一方、S406において認識した人物の項目が人物有無情報36に既に含まれている場合(S407:Yes)、CPU11は、S408の処理をスキップする。
Next, the
次に、CPU11は、画像データの人物情報を作成する(S409)。具体的には、S402において選択されたフォルダのフォルダ名を示すフォルダ名情報30、S403において取得した画像データの撮影日を示す撮影日情報32、ファイル名を示すファイル名情報34を作成し、また、S406において認識された人物に基づいて、各人物の有無を示す人物有無情報36を作成する。次に、CPU11は、作成した人物情報を人物テーブル13aに保存する(S410)。
Next, the
次に、CPU11は、同じフォルダ内に別の画像データが存在するか否かを判断する(S411)。S411の判断が肯定される場合(S411:Yes)、CPU11はS403から処理を繰り返す。
Next, the
そして、取得した画像データが、人物を焦点として撮影された画像データではないと判断される場合(S405:No)、CPU11は、画像データから取得される位置情報を用いて撮影場所を取得する(S412)。次に、CPU11は、取得した撮影場所が、背景テーブル13bに既に保存されているか否かを判断する(S414)。S414の判断が否定される場合(S414:No)、CPU11は、取得した撮影場所を示す撮影場所情報44、およびフォルダ名情報40、撮影日情報42、ファイル名情報46、枚数情報48を作成し、背景テーブル13bに保存する(S416)。なお、ここで保存される枚数情報48の値は「1」とされる。次に、CPU11は、S411の処理に移行する。
If it is determined that the acquired image data is not image data shot with a person as the focus (S405: No), the
一方、取得した撮影場所が背景テーブル13bに既に保存されている場合(S414:Yes)、CPU11は、背景テーブル13bに保存されている枚数情報48のうち、取得した撮影場所を示す撮影場所情報44に対応した枚数情報48の値に、「1」を加算し、且つ、画像データのファイル名をファイル名情報46に追加する(S418)。すなわち、撮影が行われた場所毎に画像データの数を計数する。そして、CPU11は、S411の処理に移行する。
On the other hand, when the acquired shooting location is already stored in the background table 13b (S414: Yes), the
このように処理を繰り返すうちに、選択されたフォルダ内の全ての画像データを処理した場合(S411:No)、次に、CPU11は、未処理のフォルダが記録媒体に存在するか否かを判断する(S420)。S420の判断が肯定される場合(S420:Yes)、CPU11は、S402に戻り、未処理のフォルダを選択して処理を繰り返す。
When all the image data in the selected folder has been processed while the processing is repeated in this way (S411: No), the
このようにして処理を繰り返すうちに、記録媒体内の全てのフォルダについて処理を終了すると(S420:No)、CPU11は、図5に示すS422の処理に移行する。
When the processing is completed for all folders in the recording medium while the processing is repeated in this way (S420: No), the
図5は、ラベル作成処理の続きを示すフローチャートである。次に、CPU11は、人物情報または背景情報が存在するか否かを判断する(S422)。人物テーブル13aに人物情報が存在せず、且つ、背景テーブル13bに背景情報が存在しない場合(S422:No)、CPU11は、PC10にインストールされたラベル作成アプリケーション(図示せず)を起動し(S424)、処理を終了する。
FIG. 5 is a flowchart showing the continuation of the label creation process. Next, the
一方、人物情報または背景情報のうち、少なくともいずれか一方が存在する場合(S422:Yes)、CPU11は、ラベル画像50を構成する各画素の画素値を格納するためにRAM13に設けられたラベルエリアを、フォルダの数に応じて分割し、分割された各エリアに、それぞれ1つのフォルダを割り当てる(S426)。ただし、記録媒体に設定されたフォルダの数が1以下である場合、CPU11は、ラベルエリアの分割を行わない。また、写真データであると判断される画像データを格納しないフォルダが、記録媒体に設定されている場合、そのフォルダは、記録媒体に設定されたフォルダの数としてはカウントしない。すなわち、S426においては、写真データであると判断される画像データを格納したフォルダの数に応じて、ラベルエリアを分割する。
On the other hand, when at least one of the person information and the background information exists (S422: Yes), the
次に、CPU11は、人物54と背景画像56とをラベルエリアに配置する人物背景合成処理を実行する(S428)。人物背景合成処理については、図6を参照して後述する。次に、CPU11は、背景テーブル13bに保存された撮影場所情報44から、撮影場所を示す地域情報60と施設名情報62とを取得し(S429)、フォルダ毎に割り当てられたラベルエリアに配置する。すなわち、地域情報60と施設名情報62とを構成する画素の画素値をラベルエリアに書き込む(S430)。なお、フローチャートにおいて図示は省略するが、背景テーブル13bに背景情報が保存されていない場合、CPU11は、S429,S430の処理をスキップする。
Next, the
また、CPU11は、人物テーブル13aおよび背景テーブル13bに格納された撮影日情報32,42を用いて、フォルダ毎の撮影期間情報58を取得する(S432)。そして、CPU11は、取得した撮影期間情報58を、フォルダ毎に割り当てられたラベルエリアに配置する。すなわち、撮影期間情報58を構成する画素の画素値をラベルエリアに書き込む(S434)。
Further, the
次に、CPU11は、ラベルエリアに配置された画像、すなわち、ラベル画像50に対応する出力画像データを生成する(S436)。具体的には、ラベルエリアに生成された画像データに公知の色変換処理およびハーフトーン処理を施して、出力画像データに変換する。そして、生成した出力画像データをプリンタ20へ供給し(S438)、処理を終了する。
Next, the
一方、プリンタ20は、トレイ(図示せず)の所定位置に記録媒体が載置されるまで待機する。そして、ユーザが、記録媒体を光ディスクドライブ15からプリンタ20のトレイへ移動させると、プリンタ20は、PC10から受信した出力画像データを用いて、記録媒体のレーベル面にラベル画像50を印刷する。
On the other hand, the
図6は、PC10のCPU11が実行する人物背景合成処理(S428)を示すフローチャートである。まず、CPU11は、背景テーブル13bに背景情報が保存されているか否かを判断する(S602)。背景情報が保存されている場合(S602:Yes)、CPU11は、ラベル画像50に配置すべき背景画像56に対応した画像データを選択する(S604)。ここで、CPU11は、背景テーブル13bにファイル名が保存された画像データの中からいずれかを選択する。すなわち、人物を焦点とせずに撮影された画像データを選択する。よって、背景画像56を描画するために適切な画像データを選択できる。
FIG. 6 is a flowchart showing the human background composition process (S428) executed by the
なお、2以上のフォルダについて、背景情報が保存されている場合、CPU11は、背景画像56に対応した画像データを、フォルダ毎に選択する。具体的には、枚数情報48の値が最も大きい撮影場所をフォルダ毎に特定し、その撮影場所において撮影された画像データのうちいずれかを選択する。多くの画像データが撮影された場所は、その場所を訪れた人物にとって印象深かった可能性が高い。よって、枚数情報48に基づいて画像データを選択することにより、印象深い場所において撮影された背景画像56を、ラベル画像50に配置できる。
When background information is stored for two or more folders, the
次に、CPU11は、背景画像56をラベルエリアに配置する(S606)。具体的には、選択した画像データをラベル画像50のサイズに合わせた適切なサイズに拡大または縮小し、背景画像56を構成する各画素の値を、フォルダ毎に割り当てられたラベルエリアに書き込む。なお、背景テーブル13bに背景情報が保存されていない場合(S602:No)、CPU11はS604,S606の処理をスキップする。
Next, the
次に、CPU11は、人物テーブル13aに人物情報が保存されているか否かを判断する(S608)。人物情報が保存されていない場合(S608:No)、CPU11は処理を終了する。一方、人物情報が保存されている場合(S608:Yes)、CPU11は、人物を被写体として含む人物画像に対応した画像データの中から、いずれかを選択する(S610)。
Next, the
S610の処理における、画像データの選択の条件を説明する。第1に、人物テーブル13aにファイル名が保存された画像データから、いずれを選択する。すなわち、人物を焦点として撮影された画像データの中からいずれかを選択する。 The conditions for selecting image data in the processing of S610 will be described. First, any of the image data whose file names are stored in the person table 13a is selected. That is, one of image data photographed with a person as a focus is selected.
第2に、被写体として含まれる人物が最も多い画像データを、人物テーブル13aの人物有無情報36に基づいて、フォルダ毎に選択する。例えば、図2(a)に示す人物テーブル13aの例の場合、フォルダAAAについては、3名の人物が被写体として含まれる画像データ「a1.jpg」または「a9.jpg」のうち、いずれかが選択される。また、フォルダBBBについては、3名の人物が被写体として含まれる画像データ「a17.jpg」が選択される。
Second, the image data with the largest number of persons included as subjects is selected for each folder based on the person presence /
第3に、被写体として含まれる人物が画像において占める面積が所定面積以上である画像データを選択する。従って、被写体として含まれる人物が最も多い画像データであっても、人物の面積が所定面積未満である場合には、別の画像データを選択する。 Third, image data in which the area occupied by the person included as the subject in the image is greater than or equal to a predetermined area is selected. Therefore, even if the image data includes the largest number of persons included as subjects, if the area of the person is less than the predetermined area, another image data is selected.
これらの条件に基づいて、画像データが選択されると、次に、CPU11は、選択された画像データから、人物54を構成する画素のデータを抽出し(S612)、フォルダ毎に割り当てられたラベルエリアの中心付近に、人物54を配置する(S614)。
When image data is selected based on these conditions, the
次に、CPU11は、全ての人物54について、同数配置したか否かを判断する(S616)。すなわち、記録媒体に格納された画像データのうち、いずれかにおいて検出された人物(図2(a)に示す例の場合、人物A,人物B,人物C,人物D)について、その画像が同数配置されたか否かを判断する。
Next, the
各人物の配置数が異なると判断される場合(S616:No)、CPU11は、配置数が少ないと判断された人物が撮影されている画像データを選択し(S618)、選択された画像データから、該当する人物を構成する画素のデータを抽出し(S620)、フォルダ毎に割り当てられたラベルエリアに配置する(S622)。このようにすれば、人物54の配置数が不平等になることを抑制できる。なお、各人物の配置数が同数である場合(S616:Yes)、CPU11は、S618〜S622の処理をスキップし、S624の処理に移行する。
When it is determined that the number of arrangement of each person is different (S616: No), the
次に、CPU11は、互いに異なるフォルダに分類された2以上の画像データに、同一の人物が撮影されているか否かを判断する(S624)。すなわち、ある人物を撮影した画像データが、2以上のフォルダに格納されているかを判断する。S624の判断が肯定される場合(S624:Yes)、CPU11は、当該人物が撮影された画像データを選択し(S626)、選択された画像データから、該当する人物を構成する画素のデータを抽出する(S628)。そして、合成画像52の境界64に、人物54が配置されるように、抽出したデータをラベルエリアに書き込み(S630)、処理を終了する。一方、S624の判断が否定される場合(S624:No)、CPU11は、S626〜S630の処理をスキップし、処理を終了する。
Next, the
PC10によれば、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができるラベル画像50を、プリンタ20に印刷させることができる。
According to the
上記実施形態において、PC10がコンピュータおよび画像処理装置の一例に相当し、プリンタドライバ14aが画像処理プログラムの一例に相当する。また、ラベル画像50が出力画像の一例に相当する。撮影日情報32,42が撮影時点情報の一例に相当する。地名情報60および施設名情報62が場所情報の一例に相当する。
In the above embodiment, the
また、上記実施形態では、S405を実行するCPU11が画像種類判断手段の一例に相当する。S406を実行するCPU11が人物認識手段の一例に相当する。S418を実行するCPU11が計数手段の一例に相当する。S429を実行するCPU11が場所情報取得手段の一例に相当する。S432を実行するCPU11が撮影時点取得手段および撮影期間取得手段の一例に相当する。S436を実行するCPU11が生成手段の一例に相当する。S604を実行するCPU11が背景画像選択手段の一例に相当する。S610,S618,S626を実行するCPU11が人物画像選択手段の一例に相当する。
In the above embodiment, the
以上、実施形態に基づき本発明を説明したが、本発明は上述した実施形態に何ら限定されるものではなく、本発明の趣旨を逸脱しない範囲内で種々の改良変更が可能であることは容易に推察できるものである。 Although the present invention has been described based on the embodiments, the present invention is not limited to the above-described embodiments, and various improvements and modifications can be easily made without departing from the spirit of the present invention. Can be inferred.
例えば、上記実施形態では、PC10がコンピュータまたは画像処理装置の一例であり、プリンタドライバ14aが画像処理プログラムの一例であった。プリンタ20を画像処理装置の一例とし、プリンタ20にインストールされるプログラムを、画像処理プログラムの一例として、本発明を適用しても良い。
For example, in the above embodiment, the
また、画像処理プログラムは、プリンタドライバ14a以外のプログラムであっても良く、例えば、出力画像データを生成し、生成した出力画像データを、プリンタドライバ14aに出力するプログラムであっても良い。また、上記実施形態においては、画像データに、色変換処理およびハーフトーン処理を施したものを、出力画像データと称していた。しかしながら、本発明の画像処理プログラムまたは画像処理装置によって生成される出力画像データは、色変換処理およびハーフトーン処理前のデータであっても良い。 The image processing program may be a program other than the printer driver 14a. For example, the image processing program may be a program that generates output image data and outputs the generated output image data to the printer driver 14a. In the above embodiment, the image data that has been subjected to color conversion processing and halftone processing is referred to as output image data. However, the output image data generated by the image processing program or the image processing apparatus of the present invention may be data before color conversion processing and halftone processing.
また、上記実施形態では、プリンタ20は、記録媒体のレーベル面にラベル画像を印刷していたが、用紙やラベル用シールに出力画像を印刷する場合においても本発明は適用可能である。また、上記実施形態において、プリンタ20はインクジェットプリンタであったが、レーザプリンタなど他の方式のプリンタを採用する場合にも、本発明を適用可能である。
In the above embodiment, the
また、上記実施形態のラベル画像50においては、撮影場所を示す地名情報60や施設名情報62が文字列で配置されていたが、例えば撮影場所を示す地図画像が、場所情報として配置されても良い。
In the
また、上記実施形態のS604の処理では、枚数情報48の値が最も大きい撮影場所で撮影された画像データが、背景画像56に対応した画像データとして選択されていた。しかしながら、例えば、枚数情報48の値が所定値以上の画像データの中からいずれかを選択するように構成しても良い。また、枚数情報48の値が2番目に大きい撮影場所で撮影された画像データを選択するように構成しても良い。あるいは、枚数情報48の値が最も小さい撮影場所で撮影された画像データを選択するように構成しても良い。
Further, in the processing of S604 in the above embodiment, the image data shot at the shooting location where the value of the
また、上記実施形態では、位置情報から撮影場所を取得することとしていた。しかしながら、画像データに撮影されている建造物と登録されている建造物との形状や色合の類似度から、画像データの撮影場所を特定できる場合には、位置情報を使用せずに撮影場所を取得しても良い。 In the above embodiment, the shooting location is acquired from the position information. However, if the shooting location of the image data can be specified from the similarity of the shape and color of the building that is shot in the image data and the registered building, the shooting location can be determined without using position information. You may get it.
また、上記実施形態では、人物を焦点とせずに撮影された画像データが、背景画像56に対応する画像データとして選択されていた。しかしながら、例えば、人物の肌色を示す面積が所定面積以下である画像データの中から、背景画像56に対応する画像データを選択しても良い。
<その他>
<手段>
この目的を達成するために、技術的思想1記載の画像処理プログラムは、コンピュータを、記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段として機能させる。
技術的思想2記載の画像処理プログラムは、技術的思想1記載の画像処理プログラムにおいて、前記記録媒体に格納された画像データについて、撮影が行われた場所を表す場所情報を取得する場所情報取得手段として、前記コンピュータを機能させ、前記生成手段は、前記場所情報取得手段により取得された前記場所情報が前記出力画像に含まれるように、前記出力画像データを生成するものである。
技術的思想3記載の画像処理プログラムは、技術的思想2記載の画像処理プログラムにおいて、前記場所情報には地名情報と施設名情報とが含まれており、前記生成手段は、複数の前記場所情報に同一の地名情報が含まれ、且つ、互いに異なる複数の施設名情報が含まれる場合、前記同一の地名情報が1つ配置され、且つ、前記互いに異なる複数の施設名情報が配置された出力画像に対応する出力画像データを生成するものである。
技術的思想4記載の画像処理プログラムは、技術的思想2または3記載の画像処理プログラムにおいて、前記場所情報取得手段により取得される前記場所情報に基づいて、撮影が行われた場所毎に前記画像データの数を計数する計数手段を前記コンピュータに実行させ、前記背景画像選択手段は、前記計数手段により計数された数に基づいて、前記背景画像に対応した画像データを選択するものである。
技術的思想5記載の画像処理プログラムは、技術的思想1から4のいずれかに記載の画像処理プログラムにおいて、前記記録媒体に格納された画像データのうち、2以上の画像データについて、撮影が行われた時点を表す撮影時点情報を取得する撮影時点取得手段と、前記撮影時点取得手段により取得された前記撮影時点情報に基づいて、前記2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報を取得する撮影期間取得手段として、前記コンピュータを機能させ、前記生成手段は、前記撮影期間取得手段により取得された前記撮影期間情報が、前記出力画像に含まれるように、前記出力画像データを生成するものである。
技術的思想6記載の画像処理プログラムは、技術的思想1から5のいずれかに記載の画像処理プログラムにおいて、前記記録媒体に格納された複数の画像データの各々について、人物を焦点として撮影された画像データであるか否かを判断する画像種類判断手段として、前記コンピュータを機能させ、前記人物画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データであると判断された画像データのうち、いずれかを選択するものであり、前記背景画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データではないと判断された画像データのうち、いずれかを選択するものである。
技術的思想7記載の画像処理プログラムは、技術的思想1から6のいずれかに記載の画像処理プログラムにおいて、前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものである。
技術的思想8記載の画像処理プログラムは、技術的思想7に記載の画像処理プログラムにおいて、前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段を前記コンピュータに実行させ、前記生成手段は、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである。
技術的思想9記載の画像処理装置は、記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段とを備える。
<効果>
技術的思想1記載の画像処理プログラムによれば、記録媒体に格納された複数の画像データのうち、人物画像に対応した画像データと、背景画像に対応した画像データとが選択される。そして、人物画像に被写体として含まれる人物と背景画像とが配置された出力画像に対応する出力画像データが生成される。よって、ユーザにとって好ましく、且つ、記録媒体に格納された複数の画像データをユーザに把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。
技術的思想2記載の画像処理プログラムによれば、技術的思想1の奏する効果に加え、画像データの撮影が行われた場所を表す場所情報が出力画像に含まれるので、記録媒体に格納された複数の画像データをより的確に把握させることができる出力画像に対応した出力画像データを生成できるという効果がある。
技術的思想3記載の画像処理プログラムによれば、技術的思想2の奏する効果に加え、地名情報および互いに異なる複数の施設名情報が見やすく配置された、出力画像に対応した出力画像データを生成できるという効果がある。
技術的思想4記載の画像処理プログラムによれば、技術的思想2または3の奏する効果に加え、画像データの撮影が行われた場所毎に画像データの数が計数され、計数された数に基づいて、背景画像に対応した画像データが選択されるので、適切な背景画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想5記載の画像処理プログラムによれば、技術的思想1から4のいずれかの奏する効果に加え、2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報が出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想6記載の画像処理プログラムによれば、技術的思想1から5のいずれかの奏する効果に加え、人物を焦点として撮影された画像データの中から、人物画像に対応した画像データが選択され、人物を焦点として撮影された画像データではないと判断された画像データの中から、背景画像に対応した画像データが選択されるので、人物画像および背景画像ともに適切な画像が出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想7記載の画像処理プログラムによれば、技術的思想1から6のいずれかの奏する効果に加え、複数の画像データが2以上のグループに分類されて記録媒体に格納されている場合には、人物画像に被写体として含まれる人物と背景画像とがグループ毎に合成された合成画像が、2以上のグループの各々について、出力画像に含まれるように、出力画像データを生成できるという効果がある。
技術的思想8記載の画像処理プログラムによれば、技術的思想7の奏する効果に加え、互いに異なる2以上のグループに分類される2以上の画像データについて、同一の人物が認識される場合、互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が出力画像に配置されるように、出力画像データを生成できるという効果がある。
技術的思想9記載の画像処理装置によれば、技術的思想1記載の画像処理プログラムを実行するコンピュータと同様の作用効果を奏する。
In the above-described embodiment, image data captured without focusing on a person is selected as image data corresponding to the
<Others>
<Means>
In order to achieve this object, an image processing program described in the
The image processing program described in the
The image processing program described in the technical idea 3 is the image processing program described in the
The image processing program described in the technical idea 4 is the image processing program described in the
The image processing program described in the technical idea 5 is the image processing program described in any of the
The image processing program described in the technical idea 6 is the image processing program described in any of the
The image processing program according to the technical idea 7 is the image processing program according to any one of the
The image processing program described in the technical idea 8 is the image processing program described in the technical idea 7, which causes the computer to execute person recognition means for recognizing a person included as a subject in a person image corresponding to the image data. The generating means creates two or more groups different from each other when the same person is recognized by the person recognition means for two or more image data classified into two or more different groups. The output image data is generated so that the same person is arranged in association with two or more synthesized images.
The image processing apparatus described in the technical idea 9 includes a person image selection unit that selects image data corresponding to a person image including a person as a subject among a plurality of image data stored in the recording medium, and the image processing apparatus stores the image data in the recording medium. Out of the plurality of image data, background image selection means for selecting image data corresponding to the background image to be arranged in the output image, the person included as a subject in the person image, and the background image are arranged. Generating means for generating output image data corresponding to the output image based on the image data selected by the person image selecting means and the image data selected by the background image selecting means.
<Effect>
According to the image processing program described in the
According to the image processing program described in the
According to the image processing program described in the technical idea 3, in addition to the effect produced by the
According to the image processing program described in the technical idea 4, in addition to the effect produced by the
According to the image processing program described in the technical idea 5, in addition to the effect of any one of the
According to the image processing program described in the technical idea 6, in addition to the effect of any of the
According to the image processing program described in the technical idea 7, in addition to the effect of any one of the
According to the image processing program described in the technical idea 8, in addition to the effect produced by the technical idea 7, when two or more image data classified into two or more different groups are recognized, There is an effect that output image data can be generated so that the same person is arranged in the output image in association with two or more composite images created for each of two or more different groups.
According to the image processing apparatus described in the technical idea 9, the same effect as the computer that executes the image processing program described in the
10 PC(コンピュータおよび画像処理装置の一例)
14a プリンタドライバ(画像処理プログラムの一例)
50 ラベル画像
52 合成画像
54 人物
56 背景画像
10 PC (an example of a computer and an image processing apparatus)
14a Printer driver (an example of an image processing program)
50
Claims (7)
コンピュータを、
記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、
前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、
前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段と、
前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段として機能させ、
前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、
前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものであって、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである画像処理プログラム。 An image processing program,
Computer
A person image selecting means for selecting image data corresponding to a person image including a person as a subject among a plurality of image data stored in a recording medium;
A background image selection means for selecting image data corresponding to a background image to be arranged in the output image from the plurality of image data stored in the recording medium;
Output image data corresponding to an output image in which the person included as the subject in the person image and the background image are arranged is selected by the image data selected by the person image selection means and the background image selection means. Generating means for generating the generated image data based on the image data ;
In human image it is corresponding to the image data, to function as a recognized person recognizing means a person included as a subject,
When the plurality of image data is classified into two or more groups and stored in the recording medium, the person image selection unit selects image data corresponding to the person image for each group, The background image selection means is for selecting image data corresponding to the background image for each group,
The generating means includes the output image so that a composite image obtained by combining the person image and the background image included in the person image for each group is included in the output image for each of the two or more groups. When the same person is recognized by the person recognizing unit for generating two or more image data classified into two or more different groups, the two or more different groups are generated. An image processing program for generating the output image data so that the same person is arranged in association with two or more composite images created for each of the above .
前記生成手段は、前記場所情報取得手段により取得された前記場所情報が前記出力画像に含まれるように、前記出力画像データを生成するものである請求項1記載の画像処理プログラム。 For the image data stored in the recording medium, the computer is caused to function as location information acquisition means for acquiring location information representing a location where the image was taken,
The image processing program according to claim 1, wherein the generation unit generates the output image data so that the location information acquired by the location information acquisition unit is included in the output image.
前記生成手段は、
複数の前記場所情報に同一の地名情報が含まれ、且つ、互いに異なる複数の施設名情報が含まれる場合、前記同一の地名情報が1つ配置され、且つ、前記互いに異なる複数の施設名情報が配置された出力画像に対応する出力画像データを生成するものである請求項2記載の画像処理プログラム。 The location information includes location name information and facility name information,
The generating means includes
When the same place name information is included in a plurality of the place information and a plurality of different facility name information are included, one piece of the same place name information is arranged, and the plurality of different place name information is The image processing program according to claim 2, which generates output image data corresponding to the arranged output image.
前記背景画像選択手段は、
前記計数手段により計数された数に基づいて、前記背景画像に対応した画像データを選択するものである請求項2または3に記載の画像処理プログラム。 Based on the location information acquired by the location information acquisition means, causing the computer to execute counting means for counting the number of the image data for each location where photographing has been performed,
The background image selection means includes
The image processing program according to claim 2 or 3, wherein image data corresponding to the background image is selected based on the number counted by the counting means.
前記撮影時点取得手段により取得された前記撮影時点情報に基づいて、前記2以上の画像データが撮影された時点を包含する撮影期間を表す撮影期間情報を取得する撮影期間取得手段として、前記コンピュータを機能させ、
前記生成手段は、前記撮影期間取得手段により取得された前記撮影期間情報が、前記出力画像に含まれるように、前記出力画像データを生成するものである請求項1から4のいずれかに記載の画像処理プログラム。 Shooting time acquisition means for acquiring shooting time information indicating the time when shooting was performed for two or more image data among the image data stored in the recording medium;
The computer is used as a shooting period acquisition unit that acquires shooting period information representing a shooting period including a time point at which the two or more pieces of image data are shot based on the shooting point information acquired by the shooting point acquisition unit. Make it work
The said production | generation means produces | generates the said output image data so that the said imaging | photography period information acquired by the said imaging | photography period acquisition means is included in the said output image. Image processing program.
前記人物画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データであると判断された画像データのうち、いずれかを選択するものであり、
前記背景画像選択手段は、前記画像種類判断手段により、人物を焦点として撮影された画像データではないと判断された画像データのうち、いずれかを選択するものである請求項1から5のいずれかに記載の画像処理プログラム。 For each of a plurality of image data stored in the recording medium, the computer functions as image type determination means for determining whether or not the image data is taken with a person as a focus.
The person image selecting means selects one of the image data determined by the image type determining means to be image data photographed with a person as a focus,
6. The background image selecting unit is for selecting any one of image data determined by the image type determining unit as not being image data photographed with a person as a focus. The image processing program described in 1.
記録媒体に格納された複数の画像データのうち、人物を被写体として含む人物画像に対応した画像データを選択する人物画像選択手段と、
前記記録媒体に格納された複数の画像データのうち、出力画像に配置すべき背景画像に対応した画像データを選択する背景画像選択手段と、
前記人物画像に被写体として含まれる前記人物と、前記背景画像とが配置された出力画像に対応する出力画像データを、前記人物画像選択手段により選択された前記画像データ及び前記背景画像選択手段により選択された前記画像データに基づいて生成する生成手段と、
前記画像データに対応した人物画像において、被写体として含まれる人物を認識する人物認識手段とを備え、
前記複数の画像データが、2以上のグループに分類されて、前記記録媒体に格納されている場合、前記人物画像選択手段は、前記グループ毎に、前記人物画像に対応した画像データを選択し、前記背景画像選択手段は、前記グループ毎に、前記背景画像に対応した画像データを選択するものであり、
前記生成手段は、前記人物画像に被写体として含まれる前記人物と前記背景画像とを前記グループ毎に合成した合成画像が、前記2以上のグループの各々について前記出力画像に含まれるように、前記出力画像データを生成するものであって、互いに異なる2以上のグループの各々に分類される2以上の画像データについて、前記人物認識手段により同一の人物が認識される場合、前記互いに異なる2以上のグループの各々について作成される2以上の合成画像に関連付けて、前記同一の人物が配置されるように、前記出力画像データを生成するものである画像処理装置。
An image processing apparatus,
A person image selecting means for selecting image data corresponding to a person image including a person as a subject among a plurality of image data stored in a recording medium;
A background image selection means for selecting image data corresponding to a background image to be arranged in the output image from the plurality of image data stored in the recording medium;
Output image data corresponding to an output image in which the person included as the subject in the person image and the background image are arranged is selected by the image data selected by the person image selection means and the background image selection means. Generating means for generating the generated image data based on the image data ;
Human recognition means for recognizing a person included as a subject in a person image corresponding to the image data,
When the plurality of image data is classified into two or more groups and stored in the recording medium, the person image selection unit selects image data corresponding to the person image for each group, The background image selection means is for selecting image data corresponding to the background image for each group,
The generating means includes the output image so that a composite image obtained by combining the person image and the background image included in the person image for each group is included in the output image for each of the two or more groups. When the same person is recognized by the person recognizing unit for generating two or more image data classified into two or more different groups, the two or more different groups are generated. An image processing apparatus for generating the output image data so that the same person is arranged in association with two or more composite images created for each of the above .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010215612A JP5549504B2 (en) | 2010-09-27 | 2010-09-27 | Image processing program and image processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010215612A JP5549504B2 (en) | 2010-09-27 | 2010-09-27 | Image processing program and image processing apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012070338A JP2012070338A (en) | 2012-04-05 |
JP5549504B2 true JP5549504B2 (en) | 2014-07-16 |
Family
ID=46167032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010215612A Active JP5549504B2 (en) | 2010-09-27 | 2010-09-27 | Image processing program and image processing apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5549504B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7034808B2 (en) * | 2018-04-03 | 2022-03-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ | Information processing method, information processing device and information processing system |
CN109147009B (en) * | 2018-08-13 | 2023-04-07 | 优视科技新加坡有限公司 | Method and device for personalized operation based on image, and equipment/terminal/server |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1127609A (en) * | 1997-06-30 | 1999-01-29 | Minolta Co Ltd | Image recording and reproducing system |
JP4604833B2 (en) * | 2005-05-19 | 2011-01-05 | ノーリツ鋼機株式会社 | Electronic album system |
JP2007274102A (en) * | 2006-03-30 | 2007-10-18 | Fujifilm Corp | Label image editor, label image editing/drawing system, label image editing program, and label image editing program storage medium |
JP2009163691A (en) * | 2008-01-10 | 2009-07-23 | Casio Comput Co Ltd | Image processor and program |
-
2010
- 2010-09-27 JP JP2010215612A patent/JP5549504B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012070338A (en) | 2012-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005031830A (en) | Image display method and image display program | |
JP2008236468A (en) | Image file management device and program | |
JP2009237703A (en) | Image output method, device and program | |
JP2007036406A (en) | Image editing device | |
JP2006202295A (en) | Digital photograph management device, digital photograph management method, and computer-readable recording medium storing computer program | |
JP2007122684A (en) | Layout information generating apparatus, layout information generating method, layout information generating program, orderer apparatus, image creating system, image creating method and image creating program | |
JP2003111009A (en) | Electronic album editing device | |
JP5549504B2 (en) | Image processing program and image processing apparatus | |
US7778989B2 (en) | File management apparatus | |
JP2007158536A (en) | Method, apparatus, and program for outputting image | |
JP2005119083A (en) | Image output device, image display method, program, and recording medium | |
JP2006121661A (en) | Synthesized image generation method and apparatus, and program | |
JP2006332912A (en) | Image forming apparatus, image searching method, control program, computer-readable recording medium, and image searching apparatus | |
JP7271987B2 (en) | Information processing device and program | |
JP4455358B2 (en) | Image processing apparatus and method | |
JP2007183858A (en) | Image retrieval system, image retrieval device, and computer program | |
JP2009055272A (en) | Image processing apparatus, image processing method, and image processing program | |
JP3903110B2 (en) | Method and system for creating print with message | |
JP2006048245A (en) | Image processor, image forming apparatus, processed document search method, processed document search program and recording medium | |
JP2005109760A (en) | Apparatus and method of storing image | |
JP4239493B2 (en) | Client device and still image output system | |
JP2013016059A (en) | Image forming device | |
JP2004032247A (en) | Composite image output apparatus | |
JP2007306264A (en) | Method, device, and program for producing index print | |
JP2007334238A (en) | Image processing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130304 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140212 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140422 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140505 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5549504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |