JP5127554B2 - Keyword setting method, program and apparatus - Google Patents

Keyword setting method, program and apparatus Download PDF

Info

Publication number
JP5127554B2
JP5127554B2 JP2008122159A JP2008122159A JP5127554B2 JP 5127554 B2 JP5127554 B2 JP 5127554B2 JP 2008122159 A JP2008122159 A JP 2008122159A JP 2008122159 A JP2008122159 A JP 2008122159A JP 5127554 B2 JP5127554 B2 JP 5127554B2
Authority
JP
Japan
Prior art keywords
image
keyword
input
images
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008122159A
Other languages
Japanese (ja)
Other versions
JP2009271752A (en
Inventor
啓 山路
康一 渡部
雅文 友野
義弘 山口
直明 秦野
雅己 大関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008122159A priority Critical patent/JP5127554B2/en
Publication of JP2009271752A publication Critical patent/JP2009271752A/en
Application granted granted Critical
Publication of JP5127554B2 publication Critical patent/JP5127554B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像プリントに対応するメッセージ、コメント、タイトルなどの各種キーワードの設定に関する。   The present invention relates to the setting of various keywords such as messages, comments, and titles corresponding to image printing.

特許文献1では、画像を分析して、画像に関連する言葉は自動的に決定する画像分析装置を開示している。   Patent Document 1 discloses an image analysis apparatus that analyzes an image and automatically determines words related to the image.

特許文献2では、テンプレートに適した定型メッセージを表示し、選択されたメッセージの文字合成を行う。
特開2007−94679号公報 特開2001−78011号公報
In Patent Document 2, a standard message suitable for a template is displayed, and character synthesis of the selected message is performed.
JP 2007-94679 A JP 2001-78011 A

写真店の店頭などに設置されるプリント注文受付機での文字入力は、ディスプレイに表示されたソフトウェアキーボードを使用するのが一般的である。ソフトウェアキーボードでの文字入力は、いわゆる「人差し指タッチ」と呼ばれるような、人差し指だけで文字に相当するキーを逐一押していったり、一文字ごとにマウスポインタを移動させてクリックしていくような非効率的な操作が要求されるため、多数の文字や、漢字変換を要する日本語を入力するのには不便である。   Generally, a software keyboard displayed on a display is used for character input in a print order receiving machine installed at a photo shop. Character input on the software keyboard is inefficient, so-called “index finger touch”, where you press the key corresponding to the character one by one with your index finger or move the mouse pointer for each character and click This is inconvenient for inputting a large number of characters and Japanese characters that require kanji conversion.

このような不便を解消するため、定型句に対応するキーをソフトウェアキーボードに設けることも考えられるが、この場合は予め登録されたメッセージしか入力できず、そこに登録されていなければ、やはりユーザがいちいち入力していかなければならない。   In order to eliminate such inconvenience, it is conceivable to provide a key corresponding to the fixed phrase on the software keyboard. In this case, however, only a pre-registered message can be input. You have to enter each one.

本発明は、画像の内容に応じて最適なキーワードを設定し、文字あるいは文字列を素早く簡単に入力できるようにすることを目的とする。   An object of the present invention is to set an optimum keyword according to the contents of an image so that characters or character strings can be input quickly and easily.

本発明に係るキーワード設定方法は、1または複数の第1の画像に関連するキーワードを取得するステップと、第1の画像と第1の画像を除く1または複数の第2の画像の撮影日時および/または撮影位置を取得するステップと、第1の画像と第2の画像の撮影日時および/または撮影位置を比較するステップと、比較結果に応じて、第1の画像から抽出されたキーワードを第2の画像に対応する情報の入力に際してのキーワードに設定するステップと、を含む。   The keyword setting method according to the present invention includes a step of acquiring a keyword related to one or more first images, a shooting date and time of one or more second images excluding the first image and the first image, and The step of acquiring the shooting position, the step of comparing the shooting date and / or shooting position of the first image and the second image, and the keyword extracted from the first image according to the comparison result And setting a keyword when inputting information corresponding to the second image.

この発明によると、画像そのものからキーワードを取得できない場合でも、関連する他の画像から取得したキーワードを、その画像のキーワードとすることができる。   According to the present invention, even when a keyword cannot be acquired from the image itself, a keyword acquired from another related image can be used as the keyword of the image.

本発明に係るキーワード設定方法は、画像のトリミング範囲を設定するステップと、トリミング範囲内の被写体に対応する第1のキーワードおよびトリミング範囲外の被写体に対応する第2のキーワードを取得するステップと、第1のキーワードを第2のキーワードよりも優先的に画像に対応する情報の入力に際してのキーワードに設定するステップと、を含む。   The keyword setting method according to the present invention includes a step of setting a trimming range of an image, a step of acquiring a first keyword corresponding to a subject within the trimming range and a second keyword corresponding to a subject outside the trimming range, Setting the first keyword as a keyword when inputting information corresponding to the image with priority over the second keyword.

この発明によると、画像のトリミング範囲に応じた適切なキーワードを設定することができる。   According to the present invention, it is possible to set an appropriate keyword according to the trimming range of the image.

本発明に係るキーワード設定方法は、複数の画像に関連するキーワードを取得するステップと、複数の画像に関連するキーワードにおける共通のキーワードを特定するステップと、共通のキーワードを複数の画像を配置する単位に対応する情報の入力に際してのキーワードに設定するステップと、を含む。   The keyword setting method according to the present invention includes a step of acquiring a keyword related to a plurality of images, a step of specifying a common keyword in keywords related to a plurality of images, and a unit for arranging a plurality of images with a common keyword And a step of setting a keyword when inputting information corresponding to.

この発明によると、各画像に共通する利用頻度の高いキーワードを各画像を配置する単位に対応する情報の入力に際してのキーワードに設定できる。   According to the present invention, a frequently used keyword common to each image can be set as a keyword when inputting information corresponding to a unit for arranging each image.

本発明に係るキーワード設定方法は、第1の画像および第2の画像に関連するキーワードを取得するステップと、第1の画像および第2の画像のサイズを比較するステップと、比較結果に応じて、第1の画像に関連するキーワードまたは第2の画像に関連するキーワードを第1の画像および第2の画像を配置する単位に対応する情報の入力に際してのキーワードに設定するステップと、を含む。   The keyword setting method according to the present invention includes a step of acquiring a keyword related to the first image and the second image, a step of comparing the sizes of the first image and the second image, and a result of the comparison Setting a keyword related to the first image or a keyword related to the second image as a keyword when inputting information corresponding to a unit in which the first image and the second image are arranged.

この発明によると、画像のサイズの大きさに応じて画像の配置単位(ページ単体、見開きページ、アルバム)に対応する適切なキーワードを設定することができる。   According to the present invention, it is possible to set an appropriate keyword corresponding to an image arrangement unit (single page, spread page, album) according to the size of the image.

本発明に係るキーワード設定方法は、1または複数の第1の画像に関連する第1のキーワードおよび第1の画像を除く1または複数の第2の画像に関連する第2のキーワードを取得するステップと、第2のキーワードが第1の画像に対応して入力された情報である第1のキーワードと同一である場合、第2のキーワードを第2の画像に対応する情報の入力に際しての最高順位以外のキーワードに設定するステップと、を含む。   The keyword setting method according to the present invention includes a step of acquiring a first keyword related to one or more first images and a second keyword related to one or more second images excluding the first image. If the second keyword is the same as the first keyword that is information input corresponding to the first image, the second keyword is the highest priority when inputting information corresponding to the second image. And setting to keywords other than.

この発明によると、既に他の画像に用いられたキーワードをそれ以外の画像に対応する優先度の低いキーワードとすることで、使用される可能性の低いキーワードを優先する無駄を防げる。   According to the present invention, a keyword that has already been used for another image is set as a low-priority keyword corresponding to another image, so that it is possible to prevent waste of prioritizing a keyword that is unlikely to be used.

本発明に係るキーワード設定方法は、1または複数の画像に関連するキーワードを取得するステップと、画像を配置する単位に対応する情報の入力を受け付けるステップと、画像に関連するキーワードが画像を配置する単位に対応して入力された情報と同一である場合、画像に関連するキーワードを画像に対応する情報の入力に際しての最高順位以外のキーワードに設定するステップと、を含む。   The keyword setting method according to the present invention includes a step of acquiring a keyword related to one or a plurality of images, a step of receiving input of information corresponding to a unit in which the image is arranged, and a keyword related to the image arranges the image. And setting the keyword related to the image to a keyword other than the highest rank when inputting the information corresponding to the image when the information is the same as the information input corresponding to the unit.

この発明によると、既に画像の配置単位(ページなど)に用いられたキーワードを優先度のキーワードとすることで、使用される可能性の低いキーワードを優先する無駄を防げる。   According to the present invention, a keyword that has already been used for an image arrangement unit (such as a page) is set as a priority keyword, so that it is possible to prevent waste of prioritizing a keyword that is unlikely to be used.

好ましくは、情報の入力対象となる単位を定義するステップをさらに含む。   Preferably, the method further includes a step of defining a unit as an information input target.

好ましくは、情報の入力対象となる単位は、画像、ページ単体、見開きページおよびアルバムのうち少なくとも1つを含む。   Preferably, the unit for which information is input includes at least one of an image, a single page, a spread page, and an album.

このキーワード設定方法をコンピュータに実行させるプログラムも本発明に含まれる。   A program for causing a computer to execute the keyword setting method is also included in the present invention.

本発明に係るキーワード設定装置は、1または複数の第1の画像に関連するキーワードを取得する手段と、第1の画像と第1の画像を除く1または複数の第2の画像の撮影日時および/または撮影位置を取得する手段と、第1の画像と第2の画像の撮影日時および/または撮影位置を比較する手段と、比較結果に応じて、第1の画像から抽出されたキーワードを第2の画像に対応する情報の入力に際してのキーワードに設定する手段と、を含む。   The keyword setting device according to the present invention includes a means for acquiring a keyword related to one or more first images, the shooting date and time of one or more second images excluding the first image and the first image, and And / or a means for acquiring a photographing position, a means for comparing photographing dates and times and / or photographing positions of the first image and the second image, and a keyword extracted from the first image according to the comparison result. Means for setting a keyword when inputting information corresponding to the second image.

本発明に係るキーワード設定装置は、画像のトリミング範囲を設定する手段と、トリミング範囲内の被写体に対応する第1のキーワードおよびトリミング範囲外の被写体に対応する第2のキーワードを取得する手段と、第1のキーワードを第2のキーワードよりも優先的に画像に対応する情報の入力に際してのキーワードに設定する手段と、を含む。   The keyword setting device according to the present invention includes a means for setting a trimming range of an image, a first keyword corresponding to a subject within the trimming range, and a second keyword corresponding to a subject outside the trimming range; Means for setting the first keyword as a keyword when inputting information corresponding to an image with priority over the second keyword.

本発明に係るキーワード設定装置は、複数の画像に関連するキーワードを取得する手段と、複数の画像に関連するキーワードにおける共通のキーワードを特定する手段と、共通のキーワードを複数の画像を配置する単位に対応する情報の入力に際してのキーワードに設定する手段と、を含む。   The keyword setting device according to the present invention includes a means for acquiring a keyword related to a plurality of images, a means for specifying a common keyword in keywords related to a plurality of images, and a unit for arranging a plurality of images with a common keyword And means for setting a keyword when inputting information corresponding to.

本発明に係るキーワード設定装置は、第1の画像および第2の画像に関連するキーワードを取得する手段と、第1の画像および第2の画像のサイズを比較する手段と、比較結果に応じて、第1の画像に関連するキーワードまたは第2の画像に関連するキーワードを第1の画像および第2の画像を配置する単位に対応する情報の入力に際してのキーワードに設定する手段と、を含む。   The keyword setting device according to the present invention includes a means for acquiring a keyword related to the first image and the second image, a means for comparing the sizes of the first image and the second image, and depending on the comparison result Means for setting a keyword related to the first image or a keyword related to the second image as a keyword when inputting information corresponding to a unit for arranging the first image and the second image.

本発明に係るキーワード設定装置は、1または複数の第1の画像に関連する第1のキーワードおよび第1の画像を除く1または複数の第2の画像に関連する第2のキーワードを取得する手段と、第2のキーワードが第1の画像に対応して入力された情報である第1のキーワードと同一である場合、第2のキーワードを第2の画像に対応する情報の入力に際しての最高順位以外のキーワードに設定する手段と、を含む。   The keyword setting device according to the present invention acquires a first keyword related to one or more first images and a second keyword related to one or more second images excluding the first image. If the second keyword is the same as the first keyword that is information input corresponding to the first image, the second keyword is the highest priority when inputting information corresponding to the second image. Means for setting a keyword other than.

本発明に係るキーワード設定装置は、1または複数の画像に関連するキーワードを取得する手段と、画像を配置する単位に対応する情報の入力を受け付ける手段と、画像に関連するキーワードが画像を配置する単位に対応して入力された情報と同一である場合、画像に関連するキーワードを画像を配置する単位に対応する情報の入力に際しての最高順位以外のキーワードに設定する手段と、を含む。   The keyword setting device according to the present invention includes a means for acquiring a keyword related to one or a plurality of images, a means for receiving input of information corresponding to a unit for arranging the images, and a keyword related to the images arranges the images. And means for setting a keyword related to the image to a keyword other than the highest rank when inputting information corresponding to the unit in which the image is arranged when the information is the same as the information input corresponding to the unit.

この発明によると、画像そのものからキーワードを取得できない場合でも、関連する他の画像から取得したキーワードを、その画像のキーワードとすることができる。   According to the present invention, even when a keyword cannot be acquired from the image itself, a keyword acquired from another related image can be used as the keyword of the image.

また、この発明によると、画像のトリミング範囲に応じた適切なキーワードを設定することができる。   Further, according to the present invention, it is possible to set an appropriate keyword according to the image trimming range.

また、この発明によると、各画像に共通する利用頻度の高いキーワードを各画像を配置する単位に対応する情報の入力に際してのキーワードに設定できる。   In addition, according to the present invention, a frequently used keyword common to each image can be set as a keyword when inputting information corresponding to a unit for arranging each image.

また、この発明によると、画像のサイズの大きさに応じて画像の配置単位(ページ単体、見開きページ、アルバム)に対応する適切なキーワードを設定することができる。   Further, according to the present invention, it is possible to set an appropriate keyword corresponding to an image arrangement unit (single page, spread page, album) according to the size of the image.

また、この発明によると、既に他の画像に用いられたキーワードをそれ以外の画像に対応する優先度の低いキーワードとすることで、使用される可能性の低いキーワードを優先する無駄を防げる。   In addition, according to the present invention, it is possible to prevent use of a keyword that is unlikely to be used by prioritizing a keyword that is already used for another image as a low-priority keyword corresponding to another image.

また、この発明によると、既に画像の配置単位(ページなど)に用いられたキーワードを優先度の低いキーワードとすることで、使用される可能性の低いキーワードを優先する無駄を防げる。   In addition, according to the present invention, it is possible to prevent a keyword having a low possibility of being used from being given priority by setting a keyword already used in an image arrangement unit (such as a page) as a low priority keyword.

図1は、本発明を適用した画像プリント作成装置10の概略構成を示すブロック図である。画像プリント作成装置10は、例えば、CDやDVDなどの各種の記録メディア40やメモリカード42などに格納された動画データや静止画像データ(動画をキャプチャした静止画も含む)を読み込み、これを素材として画像プリント(表示装置に画像を所定のレイアウトとデザインで表示させるデータまたは所定のレイアウトとデザインで画像が印刷された紙などの印刷媒体)を作成する。この画像プリント作成装置10は、マウス、タッチパッド、トラックボールなどのポインタ(カーソル)の移動を指示可能なポインティングデバイスやタッチパネルなどの各種操作デバイスを含む操作部26によって操作される。タッチパネルはディスプレイ50に積層されており、ディスプレイ50のボタン表示部分を押下することで、その部分に対応する文字を入力できたり、各種機能を起動させることができる。   FIG. 1 is a block diagram showing a schematic configuration of an image print creation apparatus 10 to which the present invention is applied. The image print creating apparatus 10 reads, for example, moving image data and still image data (including still images obtained by capturing moving images) stored in various recording media 40 such as a CD and a DVD, a memory card 42, and the like. As an image print (data for displaying an image on a display device with a predetermined layout and design, or a print medium such as paper on which an image is printed with a predetermined layout and design). The image print creation apparatus 10 is operated by an operation unit 26 including a pointing device capable of instructing movement of a pointer (cursor) such as a mouse, a touch pad, and a trackball, and various operation devices such as a touch panel. The touch panel is stacked on the display 50, and by pressing a button display part of the display 50, it is possible to input characters corresponding to the part or activate various functions.

画像プリント作成装置10は、画像プリント作成装置10全体を制御するCPU12と、記録メディア40にデータを読み書きするドライブ11と、メモリカード42にデータを読み書きするカードスロット16と、画像プリント作成装置10を制御するプログラムや動画・静止画などが記憶されるハードディスクドライブ(記憶媒体)18(以下、HDD18と称す)と、CPU12が種々の処理を行う際に作業用メモリとして機能するRAM20と、RAM20などに格納された画像の一覧その他画像編集に関係する各種のグラフィカルユーザインターフェース、操作部26からの移動方向および移動速度の指示を含む入力操作に従って上記ウィンドウ上を移動するポインタの映像信号をディスプレイ50に出力して表示させるビデオエンコーダ22と、インターネットその他のネットワークやデジタルカメラ15などの各種電子機器に接続するための通信I/F28と、それぞれ専門の処理を受け持つデータ記録部(操作履歴記録手段)30、とから構成されている。また、これらの各部は、バス36を介してそれぞれ接続されており、CPU12は、HDD18に記憶されたオペレーションプログラムに従って、装置の各部を統括的に制御する。   The image print creating apparatus 10 includes a CPU 12 that controls the entire image print creating apparatus 10, a drive 11 that reads / writes data from / to the recording medium 40, a card slot 16 that reads / writes data from / to the memory card 42, and the image print creating apparatus 10. A hard disk drive (storage medium) 18 (hereinafter referred to as HDD 18) in which programs to be controlled, moving images and still images are stored, a RAM 20 that functions as a working memory when the CPU 12 performs various processes, a RAM 20 and the like A list of stored images and other graphical user interfaces related to image editing, and a video signal of a pointer moving on the window in accordance with an input operation including an instruction of a moving direction and a moving speed from the operation unit 26 are output to the display 50. Video display It comprises a coder 22, a communication I / F 28 for connecting to various electronic devices such as the Internet and other networks and the digital camera 15, and a data recording unit (operation history recording means) 30 each responsible for specialized processing. Yes. These units are connected to each other via a bus 36, and the CPU 12 controls the respective units of the apparatus according to an operation program stored in the HDD 18.

また、画像プリント作成装置10には、プリンタドライバ38を介して、指示された静止画像を普通紙や印画紙などの紙媒体で構成される台紙に所定の配置でプリントするプリンタ44が接続されている。あるいは所定の配置で配列された静止画像は、アドビシステムズ社の「PDF」のような電子的媒体としてディスプレイ50や記録メディア40やインターネット経由で接続されたパソコンなどに出力することもできる。要するに、作成された画像プリントの出力先は、ディスプレイ50、記録メディア40、プリンタ44、インターネットなど特定のものに限定されない。以下、説明の簡略のため、画像プリントの出力先はディスプレイ50とするが、それ以外にも出力可能であるとする。また、本願明細書では、所望の画像が所望の位置に配置されうる電子的媒体の作成フォームも台紙と呼ぶ。   The image print creating apparatus 10 is connected to a printer 44 that prints a designated still image on a mount made of a paper medium such as plain paper or photographic paper in a predetermined arrangement via a printer driver 38. Yes. Alternatively, still images arranged in a predetermined arrangement can be output as electronic media such as “PDF” of Adobe Systems Inc. to a display 50, a recording medium 40, a personal computer connected via the Internet, and the like. In short, the output destination of the created image print is not limited to a specific one such as the display 50, the recording medium 40, the printer 44, and the Internet. In the following, for the sake of simplicity, the output destination of the image print is the display 50, but it is assumed that other output is possible. Further, in this specification, an electronic medium creation form in which a desired image can be arranged at a desired position is also called a mount.

カードスロット16は、例えば、コンパクトフラッシュ(登録商標)やSDカード、及びスマートメディアなどのメモリカード42を着脱自在に保持し、これらに記録された静止画像データなどの読み込み、もしくは書き込みを行う。これにより、デジタルスチルカメラなどで撮像された静止画像データを読み込むことができる。なお、マルチドライブ11やカードスロット16の他に、例えば、USBやIEEE1394などの通信ポートを設けて、デジタルスチルカメラやPDAなどの電子機器と有線で直接通信できるようにしてもよい。   The card slot 16 detachably holds, for example, a memory card 42 such as a compact flash (registered trademark), an SD card, and smart media, and reads or writes still image data recorded on the memory card 42. Thereby, still image data captured by a digital still camera or the like can be read. In addition to the multi-drive 11 and the card slot 16, for example, a communication port such as USB or IEEE1394 may be provided so that direct communication with an electronic device such as a digital still camera or a PDA can be performed.

HDD18には、画像プリントの素材となる1または複数の静止画像データの他に、画像プリントの生成の際にこれらの静止画像データと合成される装飾画像データなどが記憶されている。装飾画像には、画像に挿入する文字(漢字、カタカナ、ひらがな、アルファベット、記号、絵文字その他の意味のある可読的な符号ないしその組合せ。以下同様)を構成するキャラクタデータおよび当該文字を包含するテキストボックス、吹き出し、立て札、掲示板その他文字を配置するのに適したオブジェクトのグラフィックデータや、対象となる画像の不要な部分を覆うマスク画像や、イラストなどである。こうした装飾画像は、素材となる静止画像の背景を飾ったり、ワンポイントの装飾を加えるなど、画像プリントに彩を与える。以下、説明の簡略のため、グラフィックデータは文字あるいはテキストボックスとするが、当然ながらそれ以外であってもよい。   In addition to one or a plurality of still image data as image print materials, the HDD 18 stores decoration image data combined with these still image data when an image print is generated. The decorative image includes character data that constitutes characters (kanji, katakana, hiragana, alphabets, symbols, pictograms, and other meaningful readable codes or combinations thereof, and the like), and text that includes the characters. These are graphic data of objects suitable for placing boxes, balloons, bills, bulletin boards and other characters, mask images covering unnecessary portions of the target image, and illustrations. These decorative images add color to the image print, such as decorating the background of the still image as the material or adding a one-point decoration. In the following, for simplicity of explanation, the graphic data is assumed to be a character or a text box, but may naturally be other than that.

また、各静止画像データは、JPEGやTIFF、及びデジタルスチルカメラ用に規格化されたEXIFなどの画像ファイルの形式でHDD18に記憶されている。これらの画像ファイルには、静止画像データを格納するデータ領域と、そのデータの内容などを示すメタデータ(典型的にはEXIFタグ情報)を格納するタグ領域とが用意されている。以下、静止画像データを単に「画像」と称す。   Each still image data is stored in the HDD 18 in the form of an image file such as JPEG, TIFF, or EXIF standardized for a digital still camera. These image files are provided with a data area for storing still image data and a tag area for storing metadata (typically EXIF tag information) indicating the contents of the data. Hereinafter, still image data is simply referred to as “image”.

動画データは、モーションJPEG、MPEG4などの圧縮記録規格に対応している。   The moving image data corresponds to a compression recording standard such as motion JPEG or MPEG4.

通信I/F28は、画像プリント作成装置10をインターネットに接続して、インターネット上のホームページをディスプレイ50に表示させたり、電子メール(以下、メールと称す)を介した画像データの送受信を行う。この通信I/F28は、ブロードバンド対応のモデムなどである。通信I/F28は、光通信ネットワークやケーブルネットワークなどを介してインターネットに接続するものでもよい。なお、画像プリント生成部34の生成した画像プリントを出力するデータをインターネット経由で特定の端末に配信することもできる。配信側の端末は、当該画像プリントをモニタやプリンタに出力して、自由にこれを利用できる。また、通信I/F28は、ネットワークアダプタに限らず、USBなどの周辺機器接続用汎用インターフェースとして利用できる。   The communication I / F 28 connects the image print creation apparatus 10 to the Internet, displays a home page on the Internet on the display 50, and transmits and receives image data via electronic mail (hereinafter referred to as mail). The communication I / F 28 is a broadband compatible modem or the like. The communication I / F 28 may be connected to the Internet via an optical communication network or a cable network. Note that the data for outputting the image print generated by the image print generation unit 34 can be distributed to a specific terminal via the Internet. The distribution-side terminal can output the image print to a monitor or printer and use it freely. The communication I / F 28 can be used not only as a network adapter but also as a general-purpose interface for connecting peripheral devices such as USB.

データ記録部30、画像プリント生成部34は、いわゆるコプロセッサであって、それぞれ専門の処理を受け持ってCPU12の処理動作を補助する。データ記録部30は、ポインタの滞留領域・滞留位置座標・滞留時間や、入力操作の時間・回数などの操作部26に対する操作入力の履歴情報を記録していく。   The data recording unit 30 and the image print generating unit 34 are so-called coprocessors, and each assists the processing operation of the CPU 12 by taking charge of specialized processing. The data recording unit 30 records history information of operation input to the operation unit 26 such as a staying area, staying position coordinates, staying time of a pointer, time and number of input operations, and the like.

画像プリント作成装置10が店頭プリント端末の場合、画像プリント生成部34が作成した画像プリントは、ディスプレイ50に出力されプレビュー表示されたものであるが、内容が確定すればユーザ指示に応じてプリンタ44により印刷媒体に出力するか、またはDVDなど当該画像プリントを映像データとして記録可能な記録メディア40に転写できる。あるいは、記録媒体や印刷媒体に出力することを前提とせず、携帯電話やデジカメなどの各種電子機器の画像プリント表示機能の一つとしてこの完成画像プリントを表示してもよい。   When the image print creation apparatus 10 is a storefront print terminal, the image print created by the image print generation unit 34 is output to the display 50 and displayed as a preview. If the content is confirmed, the printer 44 is set according to a user instruction. Can be output to a print medium, or the image print such as a DVD can be transferred to a recording medium 40 that can be recorded as video data. Alternatively, the completed image print may be displayed as one of the image print display functions of various electronic devices such as a mobile phone and a digital camera without being premised on outputting to a recording medium or a print medium.

なお、図1のシステム構成は一例であって、これと同等の構成を有する他の電子機器(例えばPDA)であれば、本発明の実施は可能である。また、図示の個々のブロックが必ずしも1つの電子機器に一体的に構成されている必要はなく、各ブロックがそれぞれ別の電子機器の構成の一部であり、なおかつネットワーク等の何らかの通信手段でそれらの電子機器相互の情報送受信が確保されていれば、本発明の実施は可能であり、特定の機器構成に依存して実施されるものではない。   Note that the system configuration in FIG. 1 is an example, and the present invention can be implemented as long as it is another electronic device (for example, a PDA) having the same configuration. Further, the individual blocks shown in the figure are not necessarily configured integrally with one electronic device, and each block is a part of the configuration of another electronic device, and they are connected by some communication means such as a network. As long as information transmission / reception between the electronic devices is ensured, the present invention can be implemented and is not performed depending on a specific device configuration.

以下、図2に従い、画像プリントの作成に必要な入力操作とその入力操作の際に表示される画面の遷移を説明する。この画面はディスプレイ50に表示され、その表示制御は画像プリント生成部34(あるいはCPU12)が行う。   Hereinafter, an input operation necessary for creating an image print and a transition of a screen displayed during the input operation will be described with reference to FIG. This screen is displayed on the display 50, and the display control is performed by the image print generation unit 34 (or the CPU 12).

S1では、図示しないサービス種類選択画面を表示し、外部から取得した画像のうち、受けたいサービスの種類(シャッフルプリント、カレンダー、フォトブックなど)と画像プリントの作成に使用したい画像を操作部26から選択させる。サービス種類選択画面には「次へ」ボタンが設けられており、これがタッチ選択されるとS2に進む。   In S1, a service type selection screen (not shown) is displayed, and among the images acquired from the outside, the type of service (shuffle print, calendar, photo book, etc.) to be received and the image to be used for creating the image print are displayed from the operation unit 26. Let them choose. A “next” button is provided on the service type selection screen, and when this is touch-selected, the process proceeds to S2.

S2では、図示しないテンプレート選択画面を表示し、画像を配置するテンプレートを選択させる。例えば、サービス種類でシャッフルプリントが選択されたのであれば、テンプレートとは、はがき、A4、四切りワイドサイズなどである。サービス種類でフォトブックが選択されたのであれば、テンプレートとは、表紙デザイン(ホワイト、ブラック、アイボリー、チェックなど)や画像の構図(縦横)などである。あるいは、サービス種類でカレンダーが選択されたのであれば、テンプレートは、壁掛け、卓上、A4シートなどである。以下、説明の簡略のため、シャッフルプリントのテンプレートが選択されたものとして説明するが、プリントへ配置する文字の入力画面で表示されるソフトウェアキーボードは、どのようなサービス種類が選択されても共通しているものとする。テンプレート選択画面には「次へ」ボタンが設けられており、これがタッチ選択されるとS3に進む。   In S2, a template selection screen (not shown) is displayed, and a template for arranging images is selected. For example, if shuffle print is selected as the service type, the template is a postcard, A4, a four-cut wide size, or the like. If a photo book is selected for the service type, the template is a cover design (white, black, ivory, check, etc.), an image composition (vertical and horizontal), and the like. Alternatively, if a calendar is selected as the service type, the template is a wall hanging, a desktop, an A4 sheet, or the like. In the following, for the sake of simplicity, it is assumed that a shuffle print template is selected. However, the software keyboard displayed on the input screen for characters to be placed on the print is the same regardless of the service type selected. It shall be. A “next” button is provided on the template selection screen, and when this is touch-selected, the process proceeds to S3.

S3では、S1で選択された画像の中から、拡大する画像を選択させる。   In S3, an image to be enlarged is selected from the images selected in S1.

S4では、不要な画像を選択させる。不要な画像として選択された画像は、画像プリントの素材から排除される。ただし、不要な画像として選択された画像を後から再び素材の画像に選択することもできる。   In S4, an unnecessary image is selected. An image selected as an unnecessary image is excluded from the material of the image print. However, an image selected as an unnecessary image can be selected again as a material image later.

S5では、レイアウトチェック画面を表示し、その中で画像プリントをプレビュー表示する。レイアウトチェック画面には、「赤目手動補正」ボタン、「色手動補正」ボタン、「次へ」ボタンが設けられており、「赤目手動補正」ボタンが選択された場合はS6、「色手動補正」ボタンが選択された場合はS7、「次へ」ボタンが選択された場合はS8へ進む。   In S5, a layout check screen is displayed, and an image print is previewed therein. The layout check screen is provided with a “red-eye manual correction” button, a “color manual correction” button, and a “next” button. When the “red-eye manual correction” button is selected, S6, “color manual correction” is selected. If the button is selected, the process proceeds to S7, and if the “next” button is selected, the process proceeds to S8.

S6では、赤目補正画面を表示し、「補正」ボタンが選択されたことに応じて選択された画像に赤目軽減処理を施す。   In S6, a red-eye correction screen is displayed, and red-eye reduction processing is performed on the image selected in response to selection of the “correction” button.

S7では、色補正画面を表示し、コントラスト、輝度、RGBの各色の強さなどの色特徴量を、レベルゲージのツマミを操作部26への操作に応じて移動させ、かつ当該操作に応じて画像の色特徴量を変化させる。   In S7, a color correction screen is displayed, and color feature quantities such as contrast, brightness, and intensity of each RGB color are moved according to the operation of the operation unit 26 and the level gauge knob is moved according to the operation. Change the color feature of the image.

S8では、タイトル編集画面を表示する。この画面には、「文字入力」ボタン、「フォント選択」ボタン、「文字調整」ボタンが設けられており、「文字入力」ボタンが選択された場合はS9、「フォント選択」ボタンが選択された場合はS13、「文字調整」ボタンが選択された場合はS14、「次へ」ボタンが選択された場合はS15へ進む。   In S8, a title edit screen is displayed. This screen is provided with a “character input” button, a “font selection” button, and a “character adjustment” button. When the “character input” button is selected, S9, the “font selection” button is selected. If the “character adjustment” button is selected, the process proceeds to S14. If the “next” button is selected, the process proceeds to S15.

S9では、文字入力画面のトップ画面であるひらがな入力画面を表示する。この画面には、ひらがなに対応する50音のボタン、拗音ボタン、記号ボタン、変換ボタン、入力ボタン、入力候補ボタン、テキストボックス、カタカナ入力タブ、英数記号入力タブが設けられており、各50音のボタンあるいは拗音ボタンを押すことで、テキストボックスへのひらがなによる文字入力が可能である。また、記号ボタンを押すことで、句読点、濁点、半濁点を入力することができる。入力候補ボタンには、固定の文字列が割り当てられており、これを押すと、割り当てられた文字列がそのままテキストボックスに入力される。入力候補ボタンは複数設けることができ、複数存在する場合、各々優先順位が付与されている。ここでは、入力候補1、入力候補2、・・の順に優先順位が付与されている。そして、左右カーソルキーの押下で優先順位の高い入力候補から順に選択でき、「入力ボタン」を押すことで選択した入力候補がテキストボックスに入る。つまり、優先順位の高い入力候補がいち早く選択できるようにしている。ここでは、入力候補は横並びに配置しているが、縦並びに配置してもよい。また、全ての入力候補を一度に一画面に配置しなくてもよく、カーソルキーの押下に応じて優先順位の高い入力候補から低い入力候補にかけて1つずつ順次表示してもよい。   In S9, the hiragana input screen which is the top screen of the character input screen is displayed. This screen has 50 sound buttons, hiragana buttons, symbol buttons, conversion buttons, input buttons, input candidate buttons, text boxes, katakana input tabs and alphanumeric symbol input tabs corresponding to hiragana. By pressing the sound button or the stuttering button, characters can be input into the text box using hiragana. In addition, by pressing the symbol button, punctuation marks, dakuten and semi-dakuten can be input. A fixed character string is assigned to the input candidate button, and when this is pressed, the assigned character string is directly input to the text box. A plurality of input candidate buttons can be provided, and when there are a plurality of input candidate buttons, each is assigned a priority. Here, priorities are given in the order of input candidate 1, input candidate 2,. By pressing the left and right cursor keys, the input candidates can be selected in descending order of priority, and the input candidates selected by pressing the “input button” enter the text box. That is, input candidates with high priority can be selected quickly. Here, the input candidates are arranged side by side, but may be arranged vertically. Further, all the input candidates may not be arranged on one screen at a time, and may be sequentially displayed one by one from an input candidate with a higher priority to an input candidate with a lower priority in response to pressing of the cursor key.

ここで、カタカナ入力タブが選択されるとS10、英数記号入力タブが選択されるとS11に進む。変換ボタンが押されると、S12に進む。入力ボタンが押されると、テキストボックスに入力された文字列が画像に対するタイトルに確定する。そして、S8に戻る。   If the katakana input tab is selected, the process proceeds to S10. If the alphanumeric symbol input tab is selected, the process proceeds to S11. When the conversion button is pressed, the process proceeds to S12. When the input button is pressed, the character string input in the text box is determined as the title for the image. Then, the process returns to S8.

S10では、カタカナ入力画面を表示する。この画面には、カタカナに対応する50音のボタン、拗音ボタン、記号ボタン、変換ボタン、入力ボタン、入力候補ボタン、テキストボックス、ひらがな入力タブ、英数記号入力タブが設けられており、各50音のボタンあるいは拗音ボタンを押すことで、テキストボックスへのカタカナによる文字入力が可能である。また、記号ボタンを押すことで、句読点、濁点、半濁点を入力することができる。入力候補ボタンには、固定の文字列が割り当てられており、これを押すと、割り当てられた文字列がそのままテキストボックスに入力される。入力候補ボタンの機能は上記と同様である。しかし、どのような文字列を割り当てるかは任意であり、割り当てられた文字列はひらがなの場合と異なってもよい。   In S10, a katakana input screen is displayed. This screen is provided with 50-sound buttons corresponding to Katakana, stuttering buttons, symbol buttons, conversion buttons, input buttons, input candidate buttons, text boxes, hiragana input tabs, alphanumeric symbol input tabs, 50 for each. By pressing the sound button or the roar button, you can enter characters in the text box using katakana. In addition, by pressing the symbol button, punctuation marks, dakuten and semi-dakuten can be input. A fixed character string is assigned to the input candidate button, and when this is pressed, the assigned character string is directly input to the text box. The function of the input candidate button is the same as described above. However, what kind of character string is assigned is arbitrary, and the assigned character string may be different from the case of hiragana.

ここで、英数記号入力タブが選択されるとS11に進み、ひらがな入力タブが選択されるとS9に戻る。変換ボタンが押されると、S12に進む。入力ボタンが押されると、テキストボックスに入力された文字列が画像に対するタイトルに確定する。そして、S8に戻る。   If the alphanumeric symbol input tab is selected, the process proceeds to S11. If the hiragana input tab is selected, the process returns to S9. When the conversion button is pressed, the process proceeds to S12. When the input button is pressed, the character string input in the text box is determined as the title for the image. Then, the process returns to S8.

S11では、英数記号入力画面を表示する。この画面には、アルファベットのボタン、記号ボタン、変換ボタン、入力ボタン、入力候補ボタン、テキストボックス、ひらがな入力タブ、カタカナ入力タブが設けられており、各アルファベットのボタンを押すことで、テキストボックスへのアルファベットによる文字入力が可能である。また、記号ボタンを押すことで、ピリオド、カンマ、アットマークなどを入力することができる。入力候補ボタンには、固定の文字列が割り当てられており、これを押すと、割り当てられた文字列がそのままテキストボックスに入力される。   In S11, an alphanumeric symbol input screen is displayed. This screen has alphabet buttons, symbol buttons, conversion buttons, input buttons, input candidate buttons, text boxes, hiragana input tabs, and katakana input tabs. By pressing each alphabet button, the text box is displayed. It is possible to input characters using the alphabet. Moreover, a period, a comma, an at sign, etc. can be input by pressing the symbol button. A fixed character string is assigned to the input candidate button, and when this is pressed, the assigned character string is directly input to the text box.

ここで、ひらがな入力タブが選択されるとS9に戻り、カタカナ入力タブが選択されるとS11に戻る。そして、S8に戻る。変換ボタンが押されると、S12に進む。入力ボタンが押されると、テキストボックスに入力された文字列が画像に対するタイトルに確定する。   If the hiragana input tab is selected, the process returns to S9. If the katakana input tab is selected, the process returns to S11. Then, the process returns to S8. When the conversion button is pressed, the process proceeds to S12. When the input button is pressed, the character string input in the text box is determined as the title for the image.

S12では、変換候補選択画面を表示し、ひらがな入力画面、カタカナ入力画面または英数入力画面のテキストボックスに入力された文字列に対応する漢字、ひらがな、カタカナ、英数文字の変換候補を表示する。例えば、ひらがな入力画面で「とうきょうと」やカタカナ入力画面で「トウキョウト」という文字列が入力された状態で変換ボタンが押されると、「東京都」、「東京と」、「とう今日と」などの変換候補を表示する。あるいは、英数入力画面で「Tokyo Metropolitan」が入力されれば、「東京都」などの変換候補を表示する。各変換候補のうち所望のものを選択すると、選択された変換候補が、ひらがな入力画面、カタカナ入力画面または英数入力画面のテキストボックスに入力される。  In S12, a conversion candidate selection screen is displayed, and kanji, hiragana, katakana, and alphanumeric character conversion candidates corresponding to the character string input in the text box on the hiragana input screen, katakana input screen, or alphanumeric input screen are displayed. . For example, if the conversion button is pressed while the character string “Tokyo” is entered on the hiragana input screen or “Tokyo” on the katakana input screen, “Tokyo”, “Tokyo”, “Today”, etc. Display conversion candidates. Alternatively, if “Tokyo Metropolitan” is entered on the alphanumeric input screen, conversion candidates such as “Tokyo” are displayed. When a desired one of the conversion candidates is selected, the selected conversion candidate is input to a text box on the hiragana input screen, katakana input screen, or alphanumeric input screen.

S13では、確定したタイトルを異なるフォントで示したフォント候補を表示し、その中から所望のフォントのタイトルを選択させる。この画面で「選択」ボタンが押された場合、選択されたフォント候補を最終的なタイトルのフォントに確定し、S8に戻る。   In S13, font candidates indicating the determined titles in different fonts are displayed, and a title of a desired font is selected from them. If the “select” button is pressed on this screen, the selected font candidate is confirmed as the final title font, and the process returns to S8.

S14では、文字調整画面を表示し、タイトル文字の色、斜体・太字、サイズその他のプロパティを選択させる。この画面で「選択」ボタンが押された場合、選択された内容でタイトルのプロパティを確定し、S8に戻る。   In S14, the character adjustment screen is displayed, and the title character color, italic / bold, size, and other properties are selected. When the “select” button is pressed on this screen, the title property is determined based on the selected contents, and the process returns to S8.

S15では、プリント枚数指定画面を表示し、プリント枚数を指定させる。「次へ」ボタンが押されると、プリント注文の内容の全てが確定する。後は、サービス提供者が確定した内容のプリントを作成し、ユーザに提供する。   In S15, a print number designation screen is displayed and the number of prints is designated. When the “Next” button is pressed, all the contents of the print order are confirmed. After that, a print of the content determined by the service provider is created and provided to the user.

上記S9のひらがな入力画面、S10のカタカナ入力画面、S11の英数入力画面その他の文字入力画面では、文字に相当するボタンを逐一押していくことで文書入力させるため、ユーザの負担が大きい。そこで、以下に説明する入力候補作成処理により得られた変換候補文字列を、ひらがな入力画面、カタカナ入力画面あるいは英数入力画面の入力候補ボタンに割り当てる。この処理で得られた入力候補は、画像と関連した内容の文章でタイトルに利用あるいは設定される可能性の高い内容である。その上で、入力候補をそのまま利用するか、あるいは一部または全部を変更するか、入力候補を全く利用せず一から文字列を入力するかはユーザの自由である。   On the Hiragana input screen at S9, the Katakana input screen at S10, the alphanumeric input screen at S11, and other character input screens, the user is burdened by pressing the buttons corresponding to the characters one by one to input the document. Therefore, the conversion candidate character string obtained by the input candidate creation process described below is assigned to the input candidate buttons on the hiragana input screen, katakana input screen, or alphanumeric input screen. The input candidates obtained by this processing are contents that are highly likely to be used or set as titles with texts related to images. In addition, it is up to the user to use the input candidates as they are, to change part or all of them, or to input a character string from scratch without using any input candidates.

以下、画像プリント生成部34(あるいはCPU12でも可。以下同様)による入力候補作成処理の内容を説明する。なお文字で示される意味の内容、吹き出しの形状は任意であり、操作部26への入力操作で文章の内容と吹き出し形状を指定できるようにしてもよい。   Hereinafter, the contents of the input candidate creation process by the image print generation unit 34 (or the CPU 12 may be used. The same applies hereinafter) will be described. The meaning content indicated by the characters and the shape of the speech balloon are arbitrary, and the content of the sentence and the speech balloon shape may be designated by an input operation to the operation unit 26.

まず、画像の解析結果あるいは画像のメタデータに基づき、画像に対応するキーワードを抽出する。これは例えば、特許文献1のように、画像の構成要素(被写体の形状、色、大きさなど)を抽出し、この構成要素に基づいて予め定義されたキーワードを検索する。あるいは、人物抽出を行い、抽出された人物特徴量に対応して予めデータベースに登録された個人情報(顔、名前、連絡先など)を検索・抽出する。あるいは、メタデータの撮影位置情報(GPS情報)を取得し、その位置情報に対応する地名をデータベースから検索・抽出する。あるいは、画像中に存在する文字列を抽出し、この文字列に関連する用語をデータベース検索・抽出する。この抽出された個人情報・地名・関連用語を全てキーワードにすることができる。要するに、キーワードは、画像と関係している内容の文字列であれば、何でもよい。   First, keywords corresponding to an image are extracted based on the analysis result of the image or the metadata of the image. For example, as disclosed in Japanese Patent Application Laid-Open No. 2004-133620, constituent elements of an image (subject shape, color, size, etc.) are extracted, and a keyword defined in advance is searched based on the constituent elements. Alternatively, person extraction is performed, and personal information (face, name, contact information, etc.) previously registered in the database corresponding to the extracted person feature amount is searched and extracted. Alternatively, photographing position information (GPS information) of metadata is acquired, and a place name corresponding to the position information is searched and extracted from the database. Alternatively, a character string existing in the image is extracted, and a term related to the character string is searched and extracted from the database. The extracted personal information, place name, and related terms can all be used as keywords. In short, the keyword may be anything as long as it is a character string having contents related to the image.

また、キーワードを抽出する対象の画像の数は、少なくとも1つあれば足りる。複数の画像からキーワードを抽出する場合は、各画像から抽出したキーワードのうち重複するものを除いて、それを改めて画像のキーワードとする。   Further, it is sufficient that the number of images from which keywords are extracted is at least one. When keywords are extracted from a plurality of images, keywords that are duplicated among the keywords extracted from each image are removed, and they are used again as image keywords.

次に、この検索されたキーワードを、ソフトウェアキーボードに設けられた入力候補ボタン(以下、単に入力候補とする)へ割り当てる。   Next, the retrieved keyword is assigned to an input candidate button (hereinafter simply referred to as an input candidate) provided on the software keyboard.

この際、ある特定の画像からキーワードを抽出できた場合、当該画像のメタデータに含まれる位置情報と同一ないし近接する位置情報の抽出された他の画像に対する文字入力画面の入力候補に、同じキーワードを割り当てる。   At this time, if a keyword can be extracted from a specific image, the same keyword is used as an input candidate on the character input screen for another image whose position information is the same as or close to the position information included in the metadata of the image. Assign.

例えば、図3(a)に示すように、画像Aからは、キーワード「海」が抽出されたとする。この場合、画像Aおよび画像A以外の画像、例えば、画像B、C、D、E、Fのメタデータから、撮影日時および/または位置情報を取得し、その近似度を判断する。画像B、C、D、E、Fから取得された撮影日時および/または位置情報が、画像Aから取得された撮影日時および/または位置情報と同一ないし近接する(例えば画像Aの位置情報の示す位置から、画像B、C、D、E、Fから取得された位置情報の示す位置が、どれも半径500m以内にあり、かつ/または、画像Aの撮影日時と画像B、C、D、E、Fの撮影日時の差が3日以内)場合、図3(b)に示すように、画像B、C、D、E、Fに対応する文字列入力画面における入力候補に、画像Aの場合と同じ「海」を割り当てる。こうすると、画像B、C、D、E、Fから「海」というキーワードが抽出されなくても、これらの画像と関係があるキーワード「海」を入力候補に割り当てることができる。無論、「海」をそのまま使う必要はないし、「海」にその他の文字を付加して「海1」、「海2」などとしてもよく、最終的にどのようなタイトルとするかはユーザの自由である。   For example, it is assumed that the keyword “sea” is extracted from the image A as shown in FIG. In this case, the shooting date and / or position information is acquired from the metadata of the image A and images other than the image A, for example, the metadata of the images B, C, D, E, and F, and the degree of approximation is determined. The shooting date and / or position information acquired from the images B, C, D, E, and F is the same as or close to the shooting date and / or position information acquired from the image A (for example, the position information of the image A indicates From the position, the positions indicated by the position information acquired from the images B, C, D, E, and F are all within a radius of 500 m and / or the shooting date and time of the image A and the images B, C, D, and E In the case of image A, the input candidates on the character string input screen corresponding to images B, C, D, E, and F are as shown in FIG. Assign the same “sea” as In this way, even if the keyword “sea” is not extracted from the images B, C, D, E, and F, the keyword “sea” related to these images can be assigned to the input candidates. Of course, it is not necessary to use “sea” as it is, and other characters may be added to “sea” to form “sea 1”, “sea 2”, etc. Be free.

撮影日時や位置情報の比較は必ずしも組み合わせて行う必要はない。例えば、撮影日時のみの比較の結果、近接した日時だが全く違う場所で撮られた画像に同じキーワードを割り当てることもできる。あるいは、位置情報のみの比較、近接した場所だが全く撮影日時の異なる画像に同じキーワード抽出を割り当てることもできる。   The comparison of the shooting date and time information and the position information is not necessarily performed in combination. For example, as a result of comparing only the shooting date and time, it is possible to assign the same keyword to images taken at a completely different place but close date and time. Alternatively, the same keyword extraction can be assigned to an image having a comparison of only position information, and a close place but a completely different shooting date and time.

あるいは、複数の画像から抽出したキーワードに基づいて新たにキーワードを作成し、これを他の画像のキーワードに割り当ててもよい。例えば、撮影日時や位置情報が近接する画像UとVからそれぞれ「海1」および「海2」というキーワードが抽出されたとする。この場合、「海1」と「海2」に共通する部分「海」を抽出し、これに重複しない連番を組み合せた「海3」、「海4」、「海5」、「海6」というキーワードを新たに作成する。そして、これらを、画像UやVと撮影日時や位置情報が近接する他の画像W、X、Y、Zの入力候補に順次割り当てる。こうすることで、他の画像の入力候補に連続性と共通性を持たせることもできる。   Alternatively, a new keyword may be created based on keywords extracted from a plurality of images and assigned to keywords of other images. For example, it is assumed that keywords “sea 1” and “sea 2” are extracted from images U and V in which shooting date and time and position information are close to each other. In this case, a portion “sea” common to “sea 1” and “sea 2” is extracted, and “sea 3”, “sea 4”, “sea 5”, “sea 6” are combined with a serial number that does not overlap with this. "Is newly created. Then, these are sequentially assigned to input candidates of other images W, X, Y, and Z in which the images U and V and the shooting date and time and position information are close to each other. In this way, input candidates for other images can be made continuous and common.

あるいは、図4に示すように、タイトルを付与したい所望の画像をディスプレイ50に表示し、操作部26への範囲選択操作を介して、その画像上に、所望のトリミング領域を設定させる。そして、設定されたトリミング領域で人物被写体のみを包含する切り出し領域が設定されているか否かを判別し、人物被写体のみを切り出している場合は、入力候補にはその人物と関連するキーワード(例えば、メタデータやデータベースに記録されている人物の名前「A氏」)とする。一方、トリミング領域に含まれなかった物体に関連するキーワード(例えば、物体の名前である「空」)を、人物と関連する入力候補よりも優先順位の低い入力候補(入力候補の配列順や出力順として最高位よりも下位の入力候補)に割り当てる。こうすると例えば、入力候補1は人物の名前「A氏」、入力候補2は「空」となる。   Alternatively, as shown in FIG. 4, a desired image to be given a title is displayed on the display 50, and a desired trimming area is set on the image through a range selection operation to the operation unit 26. Then, it is determined whether or not a cutout region including only a person subject is set in the set trimming region. When only a person subject is cut out, a keyword related to the person (for example, for example, Name of person recorded in metadata or database “Mr. A”). On the other hand, keywords related to objects that are not included in the trimming area (for example, “empty” that is the name of the object) are input candidates that are lower in priority than input candidates related to a person (the order of input candidates and the output order). The input candidates are assigned to input candidates lower than the highest order. In this case, for example, the input candidate 1 becomes the person name “Mr. A” and the input candidate 2 becomes “empty”.

なお、人物被写体のみが切り出されているか否かは、公知の顔検出その他の人物検出と物体検出などにより特定された人物被写体と人物以外の被写体とトリミング領域とを比較し、トリミング領域が実質的に人物被写体のみを含み、人物以外の被写体は含んでいないか否かで判断する。   Whether or not only a human subject is cut out is determined by comparing the human subject identified by known face detection or other human detection and object detection with a non-human subject and the trimming region. Is determined based on whether or not the subject includes only a human subject and does not include a subject other than the human subject.

さらに、図3および図4のキーワードの割り当て方法を組み合わせてもよい。例えば、画像Aにトリミング領域が設定された場合、そのトリミング領域が物体被写体「富士山」のみを含む場合は、画像Aと撮影日時や位置情報が近接する画像B、Cなどのキーワードには、画像Aのトリミング領域に含まれる物体被写体と関連するキーワード「富士山」を割り当てる。   Further, the keyword assignment methods shown in FIGS. 3 and 4 may be combined. For example, when a trimming area is set in the image A and the trimming area includes only the object subject “Mt. Fuji”, keywords such as the images B and C in which the shooting date and position information are close to the image A include the image The keyword “Mt. Fuji” related to the object subject included in the trimming area of A is assigned.

<第2実施形態>
1枚の台紙に複数の画像を配置するが、画像一枚一枚にタイトルを付与するのでなく、台紙1枚に1つのタイトルを付与する場合、各画像のキーワードのうち共通するもの、あるいは各画像のキーワードのうち出現回数が大きいものから優先的に、台紙のタイトルに対応する文字列入力画面の入力候補とする。
Second Embodiment
A plurality of images are arranged on one mount. When a title is given to each mount instead of giving a title to each image, a common keyword among each image or each Of the keywords in the image, those with the highest number of appearances are given priority as input candidates for the character string input screen corresponding to the title of the mount.

例えば、図5(a)に示すような画像A〜Hが1枚の台紙に配置され、かつ、図5(b)に示すようなキーワードが画像A〜Hから抽出されたとする。この場合、「お寺」というキーワードの出現回数が最も多いため、入力候補1には「お寺」を割り当てる。「お寺」の次には「Bさん」というキーワードの出現回数が最も多いため、入力候補2には「Bさん」を割り当てる。入力候補3以下も、出現回数の多いキーワードが順に入力候補に割り当てられる。   For example, it is assumed that images A to H as shown in FIG. 5A are arranged on one mount and keywords as shown in FIG. 5B are extracted from the images A to H. In this case, since the keyword “Tera” appears most frequently, “Tera” is assigned to the input candidate 1. After “Tera”, the keyword “Mr. B” appears most frequently, so “Mr. B” is assigned to the input candidate 2. For input candidates 3 and below, keywords having the highest number of appearances are sequentially assigned to the input candidates.

なお、出現回数で優劣がつかないキーワードがあれば、文字列数の長いものから優先的に入力候補に割り当てる。長い文章の方が入力に手間がかかるからである。あるいは、ひらがなよりも漢字の出現率の多いキーワードから優先的に入力候補に割り当てる。漢字変換のある文章の方が入力に手間がかかるからである。   If there is a keyword whose appearance count is not superior or inferior, the keywords with the longest number of character strings are preferentially assigned to input candidates. This is because longer sentences take more time to input. Alternatively, keywords that have a higher occurrence rate of kanji than hiragana are preferentially assigned to input candidates. This is because a sentence with kanji conversion takes more time to input.

あるいは、1枚の台紙に配置されている画像が複数の場合、その画像のサイズを比較し、大きいサイズの画像に対応するキーワードを、当該台紙に対するタイトルの入力候補に優先的に割り当てる。例えば図6に示すように、画像AとBが1枚の台紙に配置されており、画像Aが画像Bよりもサイズが大きい場合(例えば画像Aは、S3で所定サイズに拡大する画像として選択され、実際に拡大されたもの)、画像Aのキーワード「海」が、台紙のタイトルTXに対応する文字列入力画面の入力候補1に、画像Bのキーワード「山」が同画面の入力候補2に割り当てられ、「海」が「山」よりも優先的に入力候補に割り当てられる。図示しないが、画像が3つ以上あれば、その中で最も大きい画像のキーワードから小さい画像のキーワードまでを順次入力候補に割り当てる。   Alternatively, when there are a plurality of images arranged on one mount, the sizes of the images are compared, and a keyword corresponding to the large size image is preferentially assigned to a title input candidate for the mount. For example, as shown in FIG. 6, when images A and B are arranged on a single mount and the size of image A is larger than that of image B (for example, image A is selected as an image to be enlarged to a predetermined size in S3). The keyword “Umi” of image A is input candidate 1 of the character string input screen corresponding to the title TX of the mount, and the keyword “mountain” of image B is input candidate 2 of the same screen. “Sea” is assigned to the input candidate with priority over “Mountain”. Although not shown, if there are three or more images, the keyword of the largest image to the keyword of the smallest image are sequentially assigned to the input candidates.

あるいは、1枚の台紙に配置されている画像が複数の場合、その画像の位置を比較し、所定の位置、例えば台紙中央に最も近い位置にある画像に対応するキーワードを、当該台紙に対するタイトルの入力候補に優先的に割り当てる。画像サイズの比較で優劣がつかない場合はこの位置の比較をしてもよい。サイズおよび位置で優劣がつかなければ、あいうえお順あるいはアルファベット順などの所定の順序に沿って先頭にくるキーワードを当該台紙に対するタイトルの入力候補に優先的に割り当てる。   Alternatively, when there are a plurality of images arranged on one mount, the positions of the images are compared, and a keyword corresponding to an image at a predetermined position, for example, the position closest to the center of the mount, Assign priority to input candidates. If the image size comparison is not superior or inferior, this position may be compared. If the size and the position are not superior or inferior, the keyword that comes first in a predetermined order such as the alphabetical order or alphabetical order is preferentially assigned to the input candidate of the title for the mount.

なお、共通キーワードの抽出範囲は、台紙1枚に限る必要はなく、ユーザが任意に指定した範囲、例えば1ページ目から2ページ目の全画像などとしてもよい。   Note that the common keyword extraction range need not be limited to one mount, but may be a range arbitrarily designated by the user, for example, all images from the first page to the second page.

<第3実施形態>
各ページの台紙によって、台紙に対するタイトルを入力するか、あるいは画像1枚1枚にタイトルを入力するかが異なる場合、画像ごとにタイトルを入力する場合は上記第1実施形態を、台紙に対するタイトルを入力する場合は上記第2実施形態を適用し、ページの構成に合わせて入力候補の作成の仕方を変えることもできる。
<Third Embodiment>
When inputting a title for the mount or inputting a title for each image differs depending on the mount of each page, when inputting a title for each image, the first embodiment is used. When inputting, the second embodiment can be applied, and the method of creating input candidates can be changed in accordance with the configuration of the page.

図7はページごとにタイトルの設定対象が定義されたフォトアルバムの台紙を例示しており、図7(a)のテキストボックスTX1のタイトル設定対象は台紙であり、図7(b)のテキストボックスTX2・TX3のタイトル設定対象は台紙上の各画像I・Jとする。   FIG. 7 illustrates a photo album mount in which a title setting target is defined for each page. The title setting target of the text box TX1 in FIG. 7A is a mount, and the text box in FIG. 7B. The title setting targets of TX2 and TX3 are the images I and J on the mount.

テキストボックスTX1に対応する文字列入力画面では、第2実施形態のように、各画像A〜Hの共通キーワードから優先的に入力候補に割り当てる。   In the character string input screen corresponding to the text box TX1, the common keywords of the images A to H are preferentially assigned to input candidates as in the second embodiment.

テキストボックスTX2・TX3に対応する文字列入力画面では、第1実施形態のように、画像Iあるいは画像Jに対応するキーワードを入力候補に割り当てる。   On the character string input screen corresponding to the text boxes TX2 and TX3, keywords corresponding to the image I or the image J are assigned to input candidates as in the first embodiment.

このように、テキストボックスごとの文字列設定対象を定義しておくことで、入力候補もそれに応じたものが割り当てられる。   In this way, by defining a character string setting target for each text box, input candidates corresponding to those are assigned.

<第4実施形態>
同じページあるいは見開き内にある複数画像の各々にタイトルを付与する場合、ある画像に既に使ったタイトルを別の画像につかっても、同じタイトルが続くことになり好ましくない。これを避けるためには次のようにする。
<Fourth embodiment>
When a title is assigned to each of a plurality of images in the same page or spread, even if a title already used for one image is used for another image, the same title continues, which is not preferable. To avoid this, do the following:

例えば、図8のように1つの見開きページ(1ページ目の台紙および2ページ目の台紙からなる)に画像A〜Hが配置されており、第1実施形態のキーワード抽出などで、画像Bには「1/23」というタイトルが付与されたとする。さらに、画像C〜Fのキーワードは「1/23」であったとする。この場合、第1実施形態では画像C〜Fのそれぞれに対応するタイトルTX−C〜TX−Fの入力候補は「1/23」となるが、こうすると画像Bのタイトルと同じ入力候補が連続してしまう。そこで、キーワード「1/23」は、画像C〜Fに対応する他の入力候補(「お寺」など)よりも低い順位の入力候補に割り当てるか、画像C〜Fに対応する入力候補から外す。   For example, as shown in FIG. 8, images A to H are arranged on one spread page (consisting of the first page mount and the second page mount), and image B is extracted by keyword extraction or the like in the first embodiment. Is given the title “1/23”. Furthermore, it is assumed that the keywords of the images C to F are “1/23”. In this case, in the first embodiment, the input candidates of the titles TX-C to TX-F corresponding to the images C to F are “1/23”, but in this way, the same input candidates as the title of the image B are consecutive. Resulting in. Therefore, the keyword “1/23” is assigned to an input candidate having a lower rank than other input candidates (such as “Tera”) corresponding to the images C to F, or excluded from the input candidates corresponding to the images C to F.

このように、同じキーワードを有する画像が予め1つのグループとして同じページや見開きに連続的に配置されて、そのグループの1つの画像のタイトルやコメントやメッセージとしてそのグループに共通するキーワードが付与されていれば、同じグループの他の画像に同じキーワードを付与する必要性が低い場合、そのようなキーワードの優先順位を下げることで、他のより適切なタイトル等が素早く付与されうる。   In this way, images having the same keyword are arranged in advance continuously on the same page or spread as one group, and a keyword common to the group is assigned as a title, comment, or message of one image of the group. Then, when the necessity of assigning the same keyword to other images in the same group is low, another more appropriate title or the like can be quickly given by lowering the priority of such a keyword.

<第5実施形態>
1枚の台紙に配置された画像の各々にタイトルを付与できかつ当該台紙にもタイトルが付与できる場合、双方の重複は避ける方が好ましいため、いずれか一方に付与されたタイトルは、他方の入力候補から外すか、他の入力候補よりも優先順位を低くする。
<Fifth Embodiment>
When a title can be assigned to each image arranged on one mount and a title can also be assigned to the mount, it is preferable to avoid duplication of both, so the title assigned to one of the inputs is the other input Either remove it from the candidates, or make the priority lower than other input candidates.

例えば図9に示すように、1つの台紙に各画像A〜Dが配置されており、その各々に対応するタイトルのテキストボックスTX1〜TX4も画像近傍に配置されているとする。かつ、当該台紙のタイトルのテキストボックスTX5も、台紙下部に配置されているとする。   For example, as shown in FIG. 9, it is assumed that the images A to D are arranged on one mount and the title text boxes TX1 to TX4 corresponding to the images A to D are also arranged in the vicinity of the images. In addition, it is assumed that the text box TX5 of the title of the mount is also arranged at the bottom of the mount.

仮に、ボックスTX5に入力されたタイトルが「京都」であり、画像A〜Dから抽出されたキーワードも「京都」である場合、画像A〜Dのそれぞれに対応する入力候補に「京都」を割り当てる重要性は低い。そこで、ボックスTX5に入力されたタイトル「京都」は、画像A〜Dに対応する他の入力候補よりも優先順位を低くするか、画像A〜Dに対応する入力候補から除外する。   If the title input in the box TX5 is “Kyoto” and the keyword extracted from the images A to D is also “Kyoto”, “Kyoto” is assigned to the input candidates corresponding to each of the images A to D. Less important. Therefore, the title “Kyoto” input in the box TX5 has a lower priority than other input candidates corresponding to the images A to D, or is excluded from the input candidates corresponding to the images A to D.

こうすることで、同じ台紙内で既に使用されており重複して選択される可能性が低いか全くないキーワードを入力候補に出す無駄が省ける。   By doing so, it is possible to eliminate the waste of inputting keywords that are already used in the same mount and are unlikely to be selected twice or not at all.

逆に、テキストボックスTX1〜TX4のいずれかに入力されたタイトルが「京都」であれば、テキストボックスTX5の入力候補に「京都」を割り当てる重要性は低い。そこで、「京都」は、テキストボックスTX5の他の入力候補よりも優先順位を低くするか、入力候補から除外してもよい。   Conversely, if the title input in any of the text boxes TX1 to TX4 is “Kyoto”, the importance of assigning “Kyoto” to the input candidate of the text box TX5 is low. Therefore, “Kyoto” may have a lower priority than other input candidates of the text box TX5 or may be excluded from the input candidates.

<その他の実施形態>
上述の第1〜5実施形態において、タイトルは画像、台紙(ページ)、見開きに対応するものを説明した。この他、アルバムに対応するタイトルへの入力候補も、同様に作成できる。例えば、アルバムに配置された画像の全てから共通キーワードを抽出し、出現頻度の高いものから順にアルバムに対応するタイトルの入力候補に割り当ててもよい。あるいは、アルバムに配置された画像の中で最もサイズの大きい画像から抽出されたキーワードをアルバムのタイトルの入力候補に割り当ててもよい。
<Other embodiments>
In the first to fifth embodiments described above, the titles correspond to images, mounts (pages), and spreads. In addition, input candidates for titles corresponding to albums can be created in the same manner. For example, common keywords may be extracted from all the images arranged in the album, and assigned to title input candidates corresponding to the album in descending order of appearance frequency. Alternatively, a keyword extracted from an image having the largest size among images arranged in the album may be assigned to an input candidate for the album title.

あるいは、アルバムのタイトルにされたキーワードは、画像、台紙、見開きに対応するタイトルの入力候補から除外するか、それらに対応する他の入力候補よりも低い優先順位の入力候補としてもよい。   Alternatively, the keyword set as the title of the album may be excluded from input candidates for titles corresponding to images, mounts, and spreads, or may be input candidates with a lower priority than other input candidates corresponding to them.

逆に、画像、台紙、見開きのタイトルに設定されたキーワードは、アルバムのタイトルの入力候補から除外するか、アルバムのタイトルの他の入力候補よりも低い優先順位の入力候補としてもよい。   Conversely, keywords set for images, mounts, and spread titles may be excluded from album title input candidates or may be input candidates with a lower priority than other input candidates for album titles.

また、台紙におけるテキストボックスの対象の定義、テキストボックスの配置、画像の配置はユーザが操作部26を介して任意に指定できてもよいし、予め設けられた領域にテキストボックスと画像が配置されるようにしてもよい。   In addition, the definition of the text box target on the mount, the text box layout, and the image layout may be arbitrarily specified by the user via the operation unit 26, or the text box and the image are arranged in a predetermined area. You may make it do.

また、キーワードの割り当て対象は、ソフトウェアキーボードに限定されず、通常のボタンタイプのキーボードやその他の操作手段であってもよい。   Further, the keyword assignment target is not limited to the software keyboard, but may be a normal button type keyboard or other operation means.

さらに、入力候補を割り当てる対象は必ずしも画像プリントのタイトルやテキストボックスに限定されない。例えば、ウェブ日記(ウェブログ)の画像に付随したコメント記入欄に対する入力候補の表示機能に本願発明を適用してもよい。要するに、画像に付随する情報を入力する様々な場面において本願発明は適用できる。   Furthermore, the target to which the input candidate is assigned is not necessarily limited to the title or text box of the image print. For example, the present invention may be applied to an input candidate display function for a comment entry field attached to an image of a web diary (web log). In short, the present invention can be applied in various scenes where information accompanying an image is input.

画像プリント作成装置の構成図Configuration diagram of image print creation device プリント内容を指定する画面の遷移を示す図Diagram showing transition of screen for specifying print contents 位置情報に応じて画像に対応する入力候補が割り当てられた一例を示す図The figure which shows an example in which the input candidate corresponding to an image was allocated according to position information トリミング範囲の一例を示す図Diagram showing an example of the trimming range 1ページに対応するテキストボックスの一例を示す図The figure which shows an example of the text box corresponding to one page 1ページに配置された異なるサイズの画像の一例を示す図The figure which shows an example of the image of the different size arrange | positioned on 1 page ページごとのタイトル設定対象を定義した台紙の一例を示す図The figure which shows an example of the mount which defines the title setting object for every page 1ページに配置された複数の画像に対応するテキストボックスの一例を示す図The figure which shows an example of the text box corresponding to the several image arrange | positioned on 1 page 複数の画像に対応するテキストボックスおよび1ページに対応するテキストボックスの一例を示す図The figure which shows an example of the text box corresponding to several images and the text box corresponding to 1 page

符号の説明Explanation of symbols

10:画像プリント作成装置、18:HDD、34:画像プリント生成部 10: Image print creation device, 18: HDD, 34: Image print generation unit

Claims (9)

複数の第1の画像に関連する複数のキーワードを取得するステップと、
前記第1の画像に関連する複数のキーワードの共通部分を抽出するステップと、
前記第1の画像と前記第1の画像を除く複数の第2の画像の撮影日時および/または撮影位置を取得するステップと、
前記第1の画像と第2の画像の撮影日時および/または撮影位置を比較するステップと、
前記比較結果に応じて、前記第1の画像から抽出されたキーワードの共通部分を前記第2の画像に対応する情報の入力に際してのキーワード候補の共通部分に設定するステップと、
を含むキーワード設定方法。
Obtaining a plurality of keywords related to a plurality of first images;
Extracting a common part of a plurality of keywords related to the first image;
Acquiring a shooting date and / or shooting position of the first image and the first second image number multiple excluding the image,
Comparing the shooting date and / or shooting position of the first image and the second image;
Setting a common part of keywords extracted from the first image as a common part of keyword candidates when inputting information corresponding to the second image according to the comparison result;
Keyword setting method including.
前記情報の入力対象となる単位を定義するステップをさらに含む請求項1に記載のキーワード設定方法。   The keyword setting method according to claim 1, further comprising a step of defining a unit as an input target of the information. 前記情報の入力対象となる単位は、画像、ページ単体、見開きページおよびアルバムのうち少なくとも1つを含む請求項2に記載のキーワード設定方法。   The keyword setting method according to claim 2, wherein the unit to which the information is input includes at least one of an image, a single page, a spread page, and an album. 前記第2の画像の中の所望の画像上に、所望のトリミング領域を設定させるステップと、  Setting a desired trimming region on a desired image in the second image;
前記設定されたトリミング領域で特定の物体のみを包含する切り出し領域が設定されているか否かを判別するステップと、  Determining whether or not a cutout region including only a specific object is set in the set trimming region;
前記設定されたトリミング領域で特定の物体のみを包含する切り出し領域が設定されていると判別された場合、前記取得された第1の画像に関連するキーワードのうち、前記特定の物体と関連するキーワードを、前記所望の画像に対応する情報の入力に際してのキーワード候補に設定するステップと、  In the case where it is determined that a cutout region including only a specific object is set in the set trimming region, a keyword related to the specific object among the keywords related to the acquired first image A keyword candidate when inputting information corresponding to the desired image,
を含む請求項1〜3のいずれか1項に記載のキーワード設定方法。The keyword setting method according to claim 1, comprising:
前記取得された第1の画像に関連するキーワードのうち、前記トリミング領域に含まれなかった物体に関連するキーワードを、前記所望の画像に対応する情報の入力に際しての前記特定の物体と関連するキーワードよりも優先順位の低いキーワード候補に設定するステップを含む請求項4に記載のキーワード設定方法。  Among the keywords related to the acquired first image, keywords related to the object not included in the trimming area are keywords related to the specific object when inputting information corresponding to the desired image. The keyword setting method according to claim 4, further comprising a step of setting a keyword candidate having a lower priority order. 請求項1〜のいずれかに記載のキーワード設定方法をコンピュータに実行させるプログラム。 Program for executing a keyword setting process according to a computer in any one of claims 1-5. 複数の第1の画像に関連する複数のキーワードを取得する手段と、
前記第1の画像に関連する複数のキーワードの共通部分を抽出する手段と、
前記第1の画像と前記第1の画像を除く複数の第2の画像の撮影日時および/または撮影位置を取得する手段と、
前記第1の画像と第2の画像の撮影日時および/または撮影位置を比較する手段と、
前記比較結果に応じて、前記第1の画像から抽出されたキーワードの共通部分を前記第2の画像に対応する情報の入力に際してのキーワード候補の共通部分に設定する手段と、
を含むキーワード設定装置。
Means for acquiring a plurality of keywords related to the plurality of first images;
Means for extracting a common part of a plurality of keywords related to the first image;
Means for obtaining a shooting date and / or shooting position of the first image and the first number of the multi-image excluding the second image,
Means for comparing the shooting date and / or shooting position of the first image and the second image;
Means for setting a common part of keywords extracted from the first image as a common part of keyword candidates when inputting information corresponding to the second image according to the comparison result;
Keyword setting device including
前記第2の画像の中の所望の画像上に、所望のトリミング領域を設定させる手段と、  Means for setting a desired trimming region on a desired image in the second image;
前記設定されたトリミング領域で特定の物体のみを包含する切り出し領域が設定されているか否かを判別する手段と、  Means for determining whether or not a cutout region including only a specific object is set in the set trimming region;
前記設定されたトリミング領域で特定の物体のみを包含する切り出し領域が設定されていると判別された場合、前記取得された第1の画像に関連するキーワードのうち、前記特定の物体と関連するキーワードを、前記所望の画像に対応する情報の入力に際してのキーワード候補に設定する手段と、  In the case where it is determined that a cutout region including only a specific object is set in the set trimming region, a keyword related to the specific object among the keywords related to the acquired first image A keyword candidate when inputting information corresponding to the desired image,
を含む請求項7に記載のキーワード設定装置。  The keyword setting device according to claim 7, comprising:
前記取得された第1の画像に関連するキーワードのうち、前記トリミング領域に含まれなかった物体に関連するキーワードを、前記所望の画像に対応する情報の入力に際しての前記特定の物体と関連するキーワードよりも優先順位の低いキーワード候補に設定する手段を含む請求項8に記載のキーワード設定装置。  Among the keywords related to the acquired first image, keywords related to the object not included in the trimming area are keywords related to the specific object when inputting information corresponding to the desired image. The keyword setting device according to claim 8, further comprising means for setting a keyword candidate having a lower priority order.
JP2008122159A 2008-05-08 2008-05-08 Keyword setting method, program and apparatus Active JP5127554B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008122159A JP5127554B2 (en) 2008-05-08 2008-05-08 Keyword setting method, program and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008122159A JP5127554B2 (en) 2008-05-08 2008-05-08 Keyword setting method, program and apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012088533A Division JP5270017B2 (en) 2012-04-09 2012-04-09 Keyword setting method, program and apparatus

Publications (2)

Publication Number Publication Date
JP2009271752A JP2009271752A (en) 2009-11-19
JP5127554B2 true JP5127554B2 (en) 2013-01-23

Family

ID=41438241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008122159A Active JP5127554B2 (en) 2008-05-08 2008-05-08 Keyword setting method, program and apparatus

Country Status (1)

Country Link
JP (1) JP5127554B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6031924B2 (en) 2012-09-28 2016-11-24 オムロン株式会社 Image search apparatus, image search method, control program, and recording medium
JP6011335B2 (en) * 2012-12-28 2016-10-19 株式会社バッファロー Photo image processing apparatus and program
WO2023188606A1 (en) * 2022-03-30 2023-10-05 富士フイルム株式会社 Recording method, recording device, and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006004157A (en) * 2004-06-17 2006-01-05 Olympus Corp Image retrieval program, image retrieval method, image retrieval device, and storage medium
JP4478513B2 (en) * 2004-06-10 2010-06-09 キヤノン株式会社 Digital camera, digital camera control method, program, and recording medium storing the same

Also Published As

Publication number Publication date
JP2009271752A (en) 2009-11-19

Similar Documents

Publication Publication Date Title
EP3024213B1 (en) Image scanning apparatus and method for controlling the same
US7610274B2 (en) Method, apparatus, and program for retrieving data
US20140325348A1 (en) Conversion of a document of captured images into a format for optimized display on a mobile device
JP2008234658A (en) Course-to-fine navigation through whole paginated documents retrieved by text search engine
US8134739B2 (en) Information processing device for outputting reduced-size pages
JP2009237703A (en) Image output method, device and program
JP2006065524A (en) Document processing apparatus and method
JP5127554B2 (en) Keyword setting method, program and apparatus
US8345299B2 (en) Image forming apparatus and method for printing index sheets by selecting image files stored in a plurality of directories
US8804181B2 (en) Image forming apparatus with index printing and direct search functionalities
US8804170B2 (en) Printing system, print data generating device, multi-function device, and non-transitory recording medium
JP4955596B2 (en) Image output method, apparatus and program
JP6007270B2 (en) Keyword setting method, program and apparatus
JP6368343B2 (en) Keyword setting method, program and apparatus
KR100785083B1 (en) Method for controlling Image Forming Apparatus
JP5680692B2 (en) Keyword setting method, program and apparatus
JP5270017B2 (en) Keyword setting method, program and apparatus
US10853000B2 (en) Image processing apparatus and storage medium
JP2015097113A (en) Keyword-setting method, program and device
JP2014170562A (en) Keyword-setting method, program and device
JP4827519B2 (en) Image processing apparatus, image processing method, and program
JP2006252525A (en) Document file management device, document file management method, and document file management program
JP5010520B2 (en) Trimming range optimization method, apparatus and program
JP6457249B2 (en) Electronic document management apparatus, electronic document management system, and electronic document management program
JP7314627B2 (en) CONTROL DEVICE, IMAGE FORMING APPARATUS, CONTROL METHOD AND CONTROL PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121030

R150 Certificate of patent or registration of utility model

Ref document number: 5127554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250