JP2010033363A - Object operation device, method and program - Google Patents

Object operation device, method and program Download PDF

Info

Publication number
JP2010033363A
JP2010033363A JP2008195272A JP2008195272A JP2010033363A JP 2010033363 A JP2010033363 A JP 2010033363A JP 2008195272 A JP2008195272 A JP 2008195272A JP 2008195272 A JP2008195272 A JP 2008195272A JP 2010033363 A JP2010033363 A JP 2010033363A
Authority
JP
Japan
Prior art keywords
user
image
selection
sub
identification information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008195272A
Other languages
Japanese (ja)
Inventor
Hiroshi Yamaji
啓 山路
Ichigaku Mino
一学 三野
Masashi Norimatsu
正志 乗松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008195272A priority Critical patent/JP2010033363A/en
Publication of JP2010033363A publication Critical patent/JP2010033363A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Circuits (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To properly process processing instruction operation of one or more users to the same object without contradiction, and to efficiently and properly reflect an operation result thereof in processing contents of the object. <P>SOLUTION: In this object operation device, a selection user in each candidate image put up as a candidate to be applied with various kinds of processing by each user and a selection user in each processing target image selected as a target to be actually applied with the processing from the candidate images by each user are differentiated, setting of a processing parameter is permitted only when two sides accord, and the setting of the processing parameter is restricted when they do not accord. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、表示装置に表示されたオブジェクトを、複数のユーザが順次または同時に操作して所望の処理を実施するための装置、方法およびプログラムに関する。   The present invention relates to an apparatus, method, and program for performing desired processing by sequentially or simultaneously operating objects displayed on a display device.

特許文献1では、ゲーム装置は少なくとも2点の指示位置を同時に検出可能なタッチパネルを含む。プレイヤがタッチパネルを操作することで検出された2点の座標値が検出され、2点間の距離および2点を結ぶ線の角度の少なくとも一方が算出される。また、2点間の距離および角度の変化量が算出される。算出された距離および角度の少なくとも一方に基づいてキャラクタのたとえば移動速度および旋回角度のような動作パラメータが設定され、この動作パラメータに基づいてキャラクタのたとえば移動および旋回のような動作が制御される。また、2点の指示に変化があったときには、変化量に基づいて動作パラメータが変化され、この動作パラメータに基づいてキャラクタの動作が制御される。   In Patent Document 1, the game apparatus includes a touch panel that can simultaneously detect at least two designated positions. The coordinate values of the two points detected by the player operating the touch panel are detected, and at least one of the distance between the two points and the angle of the line connecting the two points is calculated. Also, the amount of change in the distance and angle between the two points is calculated. Based on at least one of the calculated distance and angle, a motion parameter such as a moving speed and a turning angle of the character is set. Based on the motion parameter, a motion of the character such as moving and turning is controlled. Further, when there is a change in the instruction at two points, the motion parameter is changed based on the change amount, and the character's motion is controlled based on the motion parameter.

特許文献2では、第1の利用者は操作パネル13−1を、第2の利用者は操作パネル13−2をそれぞれ使用する。CCDカメラが撮影した画像が操作パネル13−1および13−2に表示されるため、それぞれの利用者は、自分が使用している操作パネルに表示される操作ボタンを、タッチペン14−1または14−2で操作することにより好みの画像を選択し、落書きなどの画像編集を入力する。   In Patent Document 2, the first user uses the operation panel 13-1, and the second user uses the operation panel 13-2. Since images taken by the CCD camera are displayed on the operation panels 13-1 and 13-2, each user can use an operation button displayed on the operation panel used by the user with the touch pen 14-1 or 14 -2 is used to select a favorite image and input image editing such as graffiti.

特許文献3は、編集対象となる画像を表示するメイン画面31に対し、2本のタッチペン41、51を用いて2人が同時に書き込みを行うことのできる写真シール払出装置である。第1のタッチペン41の描画パターンは、利用者がメイン画面31の左に配置されたサブ操作パネル42に触れることで設定される。一方、第2のタッチペン42の描画パターンは、メイン画面31の右に配置されたサブ操作パネル52を用いて設定される。そのため、メイン画面31全体に画像を表示できるとともに、各パネルへの入力操作を並列処理することができるので、短時間で、しかも快適に編集作業を行うことができる。   Patent Document 3 is a photo sticker dispensing apparatus that allows two people to write simultaneously on a main screen 31 that displays an image to be edited using two touch pens 41 and 51. The drawing pattern of the first touch pen 41 is set when the user touches the sub operation panel 42 arranged on the left side of the main screen 31. On the other hand, the drawing pattern of the second touch pen 42 is set using the sub operation panel 52 arranged on the right side of the main screen 31. Therefore, an image can be displayed on the entire main screen 31 and input operations to the panels can be processed in parallel, so that editing can be performed in a short time and comfortably.

非特許文献1では、複数ユーザを識別するマルチタッチユーザインタフェースを開示している。
特開2006−34754号公報 特開2002−77782号公報 特開2003−125348号公報 「三菱がマルチタッチスクリーン・ウォークラフトIIIをデモ」、2008年6月10日検索、インターネットURL[http://japanese.engadget.com/2006/03/28/mitsubishi-wc/ ]
Non-Patent Document 1 discloses a multi-touch user interface for identifying a plurality of users.
JP 2006-34754 A JP 2002-77782 A JP 2003-125348 A "Mitsubishi Demonstration of Multi-Touch Screen Warcraft III", Search June 10, 2008, Internet URL [http://english.engadget.com/2006/03/28/mitsubishi-wc/]

店頭プリント注文受付端末においてあるいはインターネット経由で提供されたプリント注文画面において、フレームプリントやアルバムプリントのように背景画像を選んで1枚の台紙上に複数画像を合成する場合や、テレビゲームで同一のキャラクタを複数のプレーヤが同時に扱う場合など、同一のオブジェクトに対する複数人での同時作業を効率よく進めたいというニーズがある。   When selecting a background image such as frame print or album print on a print order screen provided at a storefront print order reception terminal or via the Internet and combining multiple images on a single mount, There is a need to efficiently advance simultaneous work by a plurality of people on the same object, such as when a character handles a plurality of players simultaneously.

従来の店頭プリント注文受付端末は、1人での操作が前提であり、複数人で画面を見ることができるが操作できるのは1人だけである。よって、複数人が同時に同じ画面を見ながら同一のオブジェクトに対して編集操作を行うのは困難である。あるいは、1ユーザだけの操作のみを許容したとしても、ユーザそのものを識別していないため、あるユーザが入力した画像を他のユーザが勝手に編集操作したりプリントしてしまう可能性もあるが、そのような不正な編集操作を防ぐことはできない。   A conventional storefront print order receiving terminal is premised on operation by one person, and a plurality of persons can view the screen, but only one person can operate. Therefore, it is difficult for a plurality of people to perform an editing operation on the same object while simultaneously viewing the same screen. Alternatively, even if only one user's operation is allowed, since the user itself is not identified, there is a possibility that an image input by one user may be edited or printed by another user without permission. Such an illegal editing operation cannot be prevented.

一方、特許文献2または3のように、編集操作用の画面を2つ以上準備すれば、複数ユーザでの同時操作も対応可能だが、大きな設置スペースが必要である。またこの場合、ある特定の画像に対して各ユーザが矛盾する操作、例えば一方の操作者は画像を明るく補正、他方の操作者は画像を暗く補正する操作をした場合、同一のオブジェクトに対する矛盾した操作のどちらに処理を合わせればよいか処理装置側で判断できない。   On the other hand, if two or more editing operation screens are prepared as in Patent Document 2 or 3, simultaneous operation by a plurality of users can be handled, but a large installation space is required. Also, in this case, when each user makes an inconsistent operation on a specific image, for example, when one operator corrects an image brightly and the other operator performs an operation to correct an image darkly, the same object is inconsistent. The processing apparatus cannot determine which operation should be matched with the operation.

本発明の目的は、同一のオブジェクトに対する1または複数のユーザの処理指示操作を矛盾なく適正に処理し、その操作結果をオブジェクトの処理内容に効率よく的確に反映することにある。   An object of the present invention is to appropriately process one or a plurality of users' processing instruction operations on the same object without contradiction, and to efficiently and accurately reflect the operation result in the processing contents of the object.

本発明に係るオブジェクト操作装置は、オブジェクトを表示装置に表示するための表示データを作成し、表示データを表示装置に出力する表示制御部と、1または複数のユーザによる、表示装置に表示されたオブジェクトのうち所望のオブジェクトの選択操作および所望のオブジェクトに関する編集の属性の設定操作を受け付ける操作受付部と、操作受付部が受け付けた所望のオブジェクトの選択操作および所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を出力するユーザ識別部と、操作受付部が受け付けた編集の属性の設定操作に基づいてオブジェクトの編集の属性を設定する属性設定部と、ユーザ識別部が出力した、所望のオブジェクトの選択操作を行ったユーザの識別情報および所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を記憶する記憶部と、を備える。   An object operating device according to the present invention is a display control unit that creates display data for displaying an object on a display device, and outputs the display data to the display device, and is displayed on the display device by one or more users. An operation receiving unit that receives a selection operation of a desired object among the objects and an editing attribute setting operation related to the desired object, and a selection operation of the desired object received by the operation receiving unit and an editing attribute setting operation related to the desired object The user identification unit that outputs the identification information of the user who performed, the attribute setting unit that sets the editing attribute of the object based on the editing attribute setting operation received by the operation reception unit, and the user identification unit output, The identification information of the user who performed the selection operation of the desired object and the desired object Comprising a storage unit, a storing identification information of the user performing the setting operation of the editing of the attribute.

記憶部に記憶された所望のオブジェクトの選択操作を行ったユーザの識別情報と所望のオブジェクトに関する設定操作を行ったユーザの識別情報とが一致するか否かを判断し、両者が一致しない場合、所望のオブジェクトに関する編集の設定操作のうち所定の設定操作の受け付けを制限する操作制御部を備える。   When it is determined whether the identification information of the user who performed the selection operation of the desired object stored in the storage unit matches the identification information of the user who performed the setting operation regarding the desired object. An operation control unit is provided that limits acceptance of a predetermined setting operation among editing setting operations related to a desired object.

操作受付部は、表示制御部に表示されたオブジェクトのうち特定の編集の属性を付与すべきメインオブジェクトの選択操作を受け付け、ユーザ識別部は、メインオブジェクトの選択操作を行ったユーザであるメインオブジェクト選択ユーザの識別情報およびメインオブジェクト以外のオブジェクトであるサブオブジェクトの選択操作を行ったユーザであるサブオブジェクト選択ユーザの識別情報を出力し、操作制御部は、ユーザ識別部がメインオブジェクト選択ユーザの識別情報およびサブオブジェクト選択ユーザの識別情報を出力した場合、メインオブジェクト選択ユーザの識別情報とサブオブジェクト選択ユーザの識別情報とが一致するか否かを判断し、両者が一致しない場合、操作受付部が受け付けたメインオブジェクト選択ユーザからのメインオブジェクトに関する設定操作の内容に応じて、サブオブジェクト選択ユーザからのサブオブジェクトに関する編集の属性の設定操作の受け付けを制限する。   The operation accepting unit accepts a selection operation of a main object to be given a specific editing attribute among the objects displayed on the display control unit, and the user identification unit is a main object that is a user who performed the selection operation of the main object The identification information of the selected user and the identification information of the sub-object selection user who is the user who performed the selection operation of the sub-object that is an object other than the main object are output. The operation control unit identifies the main object selection user. When the information and the identification information of the sub-object selection user are output, it is determined whether or not the identification information of the main object selection user and the identification information of the sub-object selection user match. Accepted main object selection user Depending on the contents of the setting operation related to the main object, to limit the acceptance of the setting operation of the attributes of the editing on the sub-object from the sub-object selection user.

操作制御部は、メインオブジェクト選択ユーザからのメインオブジェクトに関する編集の属性の設定操作とメインオブジェクト選択ユーザの選択したサブオブジェクトである第1サブオブジェクトに関する編集の属性の設定操作が共通するか否かを判断し、両者が共通する場合、第1サブオブジェクト以外のサブオブジェクトである第2サブオブジェクトを選択したサブオブジェクト選択ユーザである第2サブオブジェクト選択ユーザからの第2サブオブジェクトに関する編集の属性の設定操作の受け付けを制限する。   The operation control unit determines whether the editing attribute setting operation related to the main object from the main object selection user and the editing attribute setting operation related to the first sub-object selected by the main object selection user are common. If both are determined and the two are common, the editing attribute setting for the second sub-object from the second sub-object selection user who has selected the second sub-object other than the first sub-object is selected. Limit acceptance of operations.

操作制御部は、メインオブジェクト選択ユーザからのメインオブジェクトに関する編集の属性の設定操作と第1サブオブジェクトに関する編集の属性の設定操作が共通するか否かを判断し、両者が共通しない場合、操作受付部が受け付けたメインオブジェクト選択ユーザからのメインオブジェクトに関する編集の属性の設定操作の内容およびメインオブジェクト選択ユーザからの第1サブオブジェクトに関する編集の属性の設定操作の内容に応じて、第2サブオブジェクト選択ユーザからの第2サブオブジェクトに関する編集の属性の設定操作の受け付けを制限する。   The operation control unit determines whether the editing attribute setting operation related to the main object from the main object selection user and the editing attribute setting operation related to the first sub-object are common. The second sub-object selection according to the content of the editing attribute setting operation related to the main object from the main object selection user accepted by the department and the content of the editing attribute setting operation related to the first sub-object from the main object selection user Limiting acceptance of editing attribute setting operations related to the second sub-object from the user.

操作制御部は、ユーザ識別部が識別情報を出力した異なるユーザが共通した選択操作を行ったオブジェクトをメインオブジェクトとし、ユーザ識別部が識別情報を出力した異なるユーザが共通しない選択操作を行ったメインオブジェクト以外のオブジェクトをサブオブジェクトとする。   The operation control unit sets the main object as an object that has been subjected to a selection operation shared by different users whose identification information has been output by the user identification unit, and has performed a selection operation that is not common to different users whose identification information has been output by the user identification unit. An object other than an object is a sub-object.

メインオブジェクトに付与すべき特定の編集の属性は、所定の台紙における占有面積の割り当てを最大にすることを含む。   Specific editing attributes to be assigned to the main object include maximizing the allocation of the occupied area on a given mount.

オブジェクトは画像を含み、オブジェクトの編集の属性は、色、トリミング範囲、輝度および所定の台紙における配置位置もしくはサイズのうち少なくとも1つを含む。   The object includes an image, and the editing attribute of the object includes at least one of a color, a trimming range, luminance, and an arrangement position or size on a predetermined mount.

表示制御部は、属性設定部の設定したオブジェクトの編集の属性に応じてオブジェクトの表示データを作成する。   The display control unit creates display data of the object according to the editing attribute of the object set by the attribute setting unit.

操作制御部は、所望のオブジェクトの選択操作を行ったユーザの識別情報と所望のオブジェクトに関する設定操作を行ったユーザの識別情報とが一致するか否かを判断し、両者が一致しない場合、所望のオブジェクトに関する全ての設定操作の受け付けを制限する。   The operation control unit determines whether or not the identification information of the user who performed the selection operation of the desired object matches the identification information of the user who performed the setting operation related to the desired object. Restricts acceptance of all setting operations related to the object.

操作制御部は、所望のオブジェクトに関する設定操作を行ったユーザの識別情報が複数出力された場合、所望のオブジェクトに関する設定操作を行ったユーザのうち、所望のオブジェクトの選択操作を行ったユーザからの設定操作を優先して受け付ける。   When a plurality of pieces of identification information of the user who performed the setting operation related to the desired object are output, the operation control unit receives the information from the user who performed the selection operation of the desired object among the users who performed the setting operation related to the desired object. Accept setting operations with priority.

本発明に係るオブジェクト操作方法は、オブジェクトを表示装置に表示するための表示データを作成し、表示データを表示装置に出力するステップと、1または複数のユーザによる、表示装置に表示されたオブジェクトのうち所望のオブジェクトの選択操作および所望のオブジェクトに関する編集の属性の設定操作を受け付けるステップと、受け付けた所望のオブジェクトの選択操作および所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を出力するステップと、受け付けた編集の属性の設定操作に基づいてオブジェクトの編集の属性を設定するステップと、所望のオブジェクトの選択操作を行ったユーザの識別情報および所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を記憶するステップと、をコンピュータに実行させる。   An object operation method according to the present invention includes a step of creating display data for displaying an object on a display device, outputting the display data to the display device, and an object displayed on the display device by one or more users. The step of receiving a selection operation of a desired object and a setting operation of an editing attribute related to the desired object, and identification information of the user who performed the selection operation of the received desired object and a setting operation of the editing attribute related to the desired object An output step; an object editing attribute setting step based on the accepted editing attribute setting operation; identification information of a user who has performed a desired object selection operation; and an editing attribute setting relating to the desired object Store the identification information of the user who performed the operation To execute the steps, to the computer.

このオブジェクト操作方法をコンピュータに実行させるためのオブジェクト操作プログラムも本発明に含まれる。   An object operation program for causing a computer to execute this object operation method is also included in the present invention.

この発明によると、所望のオブジェクトを選択しなかったユーザによる当該所望のオブジェクトに対する設定操作が制限されるから、所望のオブジェクトを選択したユーザによる設定操作が優先され、ユーザ間での設定操作の矛盾抵触や無権限のユーザによる不正なオブジェクト編集操作を回避できる。   According to the present invention, since the setting operation for the desired object by a user who has not selected the desired object is limited, the setting operation by the user who has selected the desired object is given priority, and the setting operation inconsistency among the users. It is possible to avoid conflicting and unauthorized object editing operations by unauthorized users.

図1は、本発明を適用した画像プリント作成装置10の概略構成を示すブロック図である。画像プリント作成装置10は、例えば、CDやDVDなどの各種の記録メディア40やメモリカード42などに格納された動画データや静止画像データ(動画をキャプチャした静止画も含む)を読み込んでHDD18に保存し、これを素材として画像プリント(表示装置に画像を所定のレイアウトとデザインで表示させるデータまたは所定のレイアウトとデザインで画像が印刷された紙などの印刷媒体)を作成する。この画像プリント作成装置10は、マウス、タッチパッド、トラックボールなどのポインタ(カーソル)の移動を指示可能なポインティングデバイスやタッチパネルなどの各種操作デバイスを含む操作部26によって操作される。タッチパネルはディスプレイ50に積層されており、ディスプレイ50のボタン表示部分を押下することで、その部分に対応する文字を入力できたり、各種機能を起動させることができる。   FIG. 1 is a block diagram showing a schematic configuration of an image print creation apparatus 10 to which the present invention is applied. The image print creating apparatus 10 reads, for example, moving image data and still image data (including still images obtained by capturing moving images) stored in various recording media 40 such as a CD and a DVD and a memory card 42 and stores them in the HDD 18. Then, an image print (data for displaying the image on the display device with a predetermined layout and design or a print medium such as paper on which the image is printed with the predetermined layout and design) is created using this as a material. The image print creation apparatus 10 is operated by an operation unit 26 including a pointing device capable of instructing movement of a pointer (cursor) such as a mouse, a touch pad, and a trackball, and various operation devices such as a touch panel. The touch panel is stacked on the display 50, and by pressing a button display part of the display 50, it is possible to input characters corresponding to the part or activate various functions.

画像プリント作成装置10は、画像プリント作成装置10全体を制御するCPU12と、記録メディア40にデータを読み書きするドライブ11と、メモリカード42にデータを読み書きするカードスロット16と、画像プリント作成装置10を制御するプログラムや動画・静止画などが記憶されるハードディスクドライブ(記憶媒体)18(以下、HDD18と称す)と、CPU12が種々の処理を行う際に作業用メモリとして機能するRAM20と、RAM20などに格納された画像の一覧その他画像編集に関係する各種のグラフィカルユーザインターフェース、操作部26からの移動方向および移動速度の指示を含む入力操作に従って上記ウィンドウ上を移動するポインタの映像信号をディスプレイ50に出力して表示させるビデオエンコーダ22と、インターネットその他のネットワークやデジタルカメラ15などの各種電子機器に接続するための通信I/F28と、それぞれ専門の処理を受け持つデータ記録部(操作履歴記録手段)30と、操作部26を操作する複数のユーザを撮像する撮像部120から構成されている。また、これらの各部は、バス36を介してそれぞれ接続されており、CPU12は、HDD18に記憶されたオペレーションプログラムに従って、装置の各部を統括的に制御する。   The image print creating apparatus 10 includes a CPU 12 that controls the entire image print creating apparatus 10, a drive 11 that reads / writes data from / to the recording medium 40, a card slot 16 that reads / writes data from / to the memory card 42, and the image print creating apparatus 10. A hard disk drive (storage medium) 18 (hereinafter referred to as HDD 18) in which programs to be controlled, moving images and still images are stored, a RAM 20 that functions as a working memory when the CPU 12 performs various processes, a RAM 20 and the like A list of stored images and other graphical user interfaces related to image editing, and a video signal of a pointer moving on the window in accordance with an input operation including an instruction of a moving direction and a moving speed from the operation unit 26 are output to the display 50. Video display A coder 22, a communication I / F 28 for connecting to various electronic devices such as the Internet and other networks and the digital camera 15, a data recording unit (operation history recording unit) 30, which is responsible for specialized processing, and an operation unit 26. It is comprised from the imaging part 120 which images the several user who operates. These units are connected to each other via a bus 36, and the CPU 12 controls the respective units of the apparatus according to an operation program stored in the HDD 18.

また、画像プリント作成装置10には、プリンタドライバ38を介して、指示された静止画像を普通紙や印画紙などの紙媒体で構成される台紙に所定の配置でプリントするプリンタ44が接続されている。あるいは所定の配置で配列された静止画像は、アドビシステムズ社の「PDF」のような電子的媒体としてディスプレイ50や記録メディア40やインターネット経由で接続されたパソコンなどに出力することもできる。要するに、作成された画像プリントの出力先は、ディスプレイ50、記録メディア40、プリンタ44、インターネットなど特定のものに限定されない。以下、説明の簡略のため、画像プリントの出力先はディスプレイ50とするが、それ以外にも出力可能であるとする。また、本願明細書では、所望の画像が所望の位置に配置されうる電子的媒体の作成フォームも台紙と呼ぶ。   The image print creating apparatus 10 is connected to a printer 44 that prints a designated still image on a mount made of a paper medium such as plain paper or photographic paper in a predetermined arrangement via a printer driver 38. Yes. Alternatively, still images arranged in a predetermined arrangement can be output as electronic media such as “PDF” of Adobe Systems Inc. to a display 50, a recording medium 40, a personal computer connected via the Internet, and the like. In short, the output destination of the created image print is not limited to a specific one such as the display 50, the recording medium 40, the printer 44, and the Internet. In the following, for the sake of simplicity, the output destination of the image print is the display 50, but it is assumed that other output is possible. Further, in this specification, an electronic medium creation form in which a desired image can be arranged at a desired position is also called a mount.

カードスロット16は、例えば、コンパクトフラッシュ(登録商標)やSDカード、及びスマートメディアなどのメモリカード42を着脱自在に保持し、これらに記録された静止画像データなどの読み込み、もしくは書き込みを行う。これにより、デジタルスチルカメラなどで撮像された静止画像データを読み込むことができる。なお、マルチドライブ11やカードスロット16の他に、例えば、USBやIEEE1394などの通信ポートを設けて、デジタルスチルカメラやPDAなどの電子機器と有線で直接通信できるようにしてもよい。   The card slot 16 detachably holds, for example, a memory card 42 such as a compact flash (registered trademark), an SD card, and smart media, and reads or writes still image data recorded on the memory card 42. Thereby, still image data captured by a digital still camera or the like can be read. In addition to the multi-drive 11 and the card slot 16, for example, a communication port such as USB or IEEE1394 may be provided so that direct communication with an electronic device such as a digital still camera or a PDA can be performed.

HDD18には、画像プリントの素材となる1または複数の静止画像データの他に、画像プリントの生成の際にこれらの静止画像データと合成される装飾画像データなどが記憶されている。装飾画像には、画像内またはその周辺に挿入する文字(漢字、カタカナ、ひらがな、アルファベット、記号、絵文字その他の意味のある可読的な符号ないしその組合せ。以下同様)を構成するキャラクタデータおよび当該文字を包含するテキストボックス、吹き出し、立て札、掲示板その他文字を配置するのに適したオブジェクトのグラフィックデータや、対象となる画像の不要な部分を覆うマスク画像や、イラストなどである。こうした装飾画像は、素材となる静止画像の背景を飾ったり、ワンポイントの装飾を加えるなど、画像プリントに彩を与える。以下、説明の簡略のため、グラフィックデータは文字あるいはテキストボックスとするが、当然ながらそれ以外であってもよい。   In addition to one or a plurality of still image data as image print materials, the HDD 18 stores decoration image data combined with these still image data when an image print is generated. The decorative image includes character data constituting characters (kanji, katakana, hiragana, alphabets, symbols, pictograms or other meaningful readable codes or combinations thereof, and so on) inserted in or around the image and the characters. Graphic data of objects suitable for placing text boxes, balloons, billboards, bulletin boards and other characters, mask images covering unnecessary portions of the target image, and illustrations. These decorative images add color to the image print, such as decorating the background of the still image as the material or adding a one-point decoration. In the following, for simplicity of explanation, the graphic data is assumed to be a character or a text box, but may naturally be other than that.

また、各静止画像データは、JPEGやTIFF、及びデジタルスチルカメラ用に規格化されたEXIFなどの画像ファイルの形式でHDD18に記憶されている。これらの画像ファイルには、静止画像データを格納するデータ領域と、そのデータの内容などを示すメタデータ(典型的にはEXIFタグ情報)を格納するタグ領域とが用意されている。以下、静止画像データを単に「画像」と称す。   Each still image data is stored in the HDD 18 in the form of an image file such as JPEG, TIFF, or EXIF standardized for a digital still camera. These image files are provided with a data area for storing still image data and a tag area for storing metadata (typically EXIF tag information) indicating the contents of the data. Hereinafter, still image data is simply referred to as “image”.

動画データは、モーションJPEG、MPEG4などの圧縮記録規格に対応している。   The moving image data corresponds to a compression recording standard such as motion JPEG or MPEG4.

通信I/F28は、画像プリント作成装置10をインターネットに接続して、インターネット上のホームページをディスプレイ50に表示させたり、電子メール(以下、メールと称す)を介した画像データの送受信を行う。この通信I/F28は、ブロードバンド対応のモデムなどである。通信I/F28は、光通信ネットワークやケーブルネットワークなどを介してインターネットに接続するものでもよい。なお、画像プリント生成部34の生成した画像プリントを出力するデータをインターネット経由で特定の端末に配信することもできる。配信側の端末は、当該画像プリントをモニタやプリンタに出力して、自由にこれを利用できる。また、通信I/F28は、ネットワークアダプタに限らず、USBなどの周辺機器接続用汎用インターフェースとして利用できる。   The communication I / F 28 connects the image print creation apparatus 10 to the Internet, displays a home page on the Internet on the display 50, and transmits and receives image data via electronic mail (hereinafter referred to as mail). The communication I / F 28 is a broadband compatible modem or the like. The communication I / F 28 may be connected to the Internet via an optical communication network or a cable network. Note that the data for outputting the image print generated by the image print generation unit 34 can be distributed to a specific terminal via the Internet. The distribution-side terminal can output the image print to a monitor or printer and use it freely. The communication I / F 28 can be used not only as a network adapter but also as a general-purpose interface for connecting peripheral devices such as USB.

データ記録部30、画像プリント生成部34は、いわゆるコプロセッサであって、それぞれ専門の処理を受け持ってCPU12の処理動作を補助する。データ記録部30は、ポインタの滞留領域・滞留位置座標・滞留時間や、入力操作の時間・回数などの操作部26に対する操作入力の履歴情報を記録していく。   The data recording unit 30 and the image print generating unit 34 are so-called coprocessors, and each assists the processing operation of the CPU 12 by taking charge of specialized processing. The data recording unit 30 records history information of operation input to the operation unit 26 such as a staying area, staying position coordinates, staying time of a pointer, time and number of input operations, and the like.

撮像部120は、撮像レンズ、CCDその他の撮像素子、A/D変換器、画像処理回路などを含み、操作部26を操作するユーザの被写体像を定期的に撮像する。CPU12は、その撮像の結果得られた画像データに基づいて操作を個々の操作を行っているユーザを判別する。これは例えば、予めユーザごとの顔画像の特徴量(顔領域内における目、口、鼻の位置など)とユーザの氏名を対応づけたユーザ識別情報としてHDD18に保存しておき、ある特定の操作が操作部26に入力された時点で撮像部120から得られた画像データから顔画像の特徴量を抽出して、これをユーザ識別情報と照合して、画像データから顔画像の特徴量と一致する特徴量に対応するユーザの氏名を特定することで、各操作を入力したユーザを特定する。撮像部120は、ユーザの数に合わせて複数設置してもよい。撮像部120からの画像内に複数のユーザが存在していれば、画像内における各ユーザの位置により、両者を区別する。   The imaging unit 120 includes an imaging lens, a CCD or other imaging device, an A / D converter, an image processing circuit, and the like, and periodically captures a subject image of a user who operates the operation unit 26. CPU12 discriminate | determines the user who is performing each operation based on the image data obtained as a result of the imaging. This is, for example, stored in advance in the HDD 18 as user identification information in which the feature amount of the face image for each user (the position of the eyes, mouth, nose, etc. in the face area) is associated with the user's name, and a specific operation Is extracted from the image data obtained from the image capturing unit 120 at the time when the image is input to the operation unit 26, and is compared with the user identification information to match the feature amount of the face image from the image data. The user who inputs each operation is specified by specifying the name of the user corresponding to the feature amount. A plurality of imaging units 120 may be installed according to the number of users. If there are a plurality of users in the image from the imaging unit 120, the two are distinguished according to the position of each user in the image.

また、異なるユーザからの異なる操作が同時に入力された場合は、入力された時間だけでは操作ユーザを区別できないため、予めユーザごとに異なる操作部26を設けておき(例えばディスプレイ50に積層されたタッチパネル上で左右にあるいは上下に分割された領域や、単一のゲーム機の2プレイ用コントローラや、ネットワーク経由で画像プリント作成装置10に接続された異なるテレビゲーム機に備えられた各コントローラ)、各ユーザには自分に割り当てられた操作部26の利用を遵守させれば、どの時点でどの操作部26が操作されたかを識別することで各操作をしたユーザが識別できる。この場合撮像部120がなくても各ユーザの各入力操作を識別できる。   In addition, when different operations from different users are input at the same time, the operation users cannot be distinguished only by the input time, and therefore different operation units 26 are provided for each user in advance (for example, a touch panel stacked on the display 50). Area divided into left and right or up and down, a controller for two-playing of a single game machine, and each controller provided in different video game machines connected to the image print creation device 10 via a network), If the user observes the use of the operation unit 26 assigned to the user, the user who performed each operation can be identified by identifying which operation unit 26 is operated at which point. In this case, each input operation of each user can be identified without the imaging unit 120.

画像プリント作成装置10が店頭プリント端末の場合、画像プリント生成部34が作成した画像プリントは、ディスプレイ50に出力されプレビュー表示されたものであるが、内容が確定すればユーザ指示に応じてプリンタ44により印刷媒体に出力するか、またはDVDなど当該画像プリントを映像データとして記録可能な記録メディア40に転写できる。あるいは、記録媒体や印刷媒体に出力することを前提とせず、携帯電話やデジカメなどの各種電子機器の画像プリント表示機能の一つとしてこの完成画像プリントを表示してもよい。   When the image print creation apparatus 10 is a storefront print terminal, the image print created by the image print generation unit 34 is output to the display 50 and displayed as a preview. If the content is confirmed, the printer 44 is set according to a user instruction. Can be output to a print medium, or the image print such as a DVD can be transferred to a recording medium 40 that can be recorded as video data. Alternatively, the completed image print may be displayed as one of the image print display functions of various electronic devices such as a mobile phone and a digital camera without being premised on outputting to a recording medium or a print medium.

なお、図1のシステム構成は一例であって、これと同等の構成を有する他の電子機器(例えばPDA)であれば、本発明の実施は可能である。また、図示の個々のブロックが必ずしも1つの電子機器に一体的に構成されている必要はなく、各ブロックがそれぞれ別の電子機器の構成の一部であり、なおかつネットワーク等の何らかの通信手段でそれらの電子機器相互の情報送受信が確保されていれば、本発明の実施は可能であり、特定の機器構成に依存して実施されるものではない。例えば、複数のユーザが、ネットワーク経由で画像プリント作成装置10に接続された複数の端末(ゲーム機など)の各々の操作手段から、HDD18に保存された画像の他、画像に対する装飾やレイアウトを任意に選択して、1つのアルバムプリントやフレームプリントを共同して作成することもできる。この場合、画像プリント作成装置10は複数ユーザに共通のプリント注文・作成サイトの役割を果たす。あるいは、複数のユーザが、ディスプレイ50の面前に立ち、ディスプレイ50に積層されたタッチパネルを操作して、1つのアルバムプリントやフレームプリントを共同して作成することもできる。   Note that the system configuration in FIG. 1 is an example, and the present invention can be implemented as long as it is another electronic device (for example, a PDA) having the same configuration. Further, the individual blocks shown in the figure are not necessarily configured integrally with one electronic device, and each block is a part of the configuration of another electronic device, and they are connected by some communication means such as a network. As long as information transmission / reception between the electronic devices is ensured, the present invention can be implemented and is not performed depending on a specific device configuration. For example, in addition to images stored in the HDD 18, decorations and layouts for images can be arbitrarily selected by a plurality of users from the operation means of a plurality of terminals (game machines, etc.) connected to the image print creation apparatus 10 via a network. It is also possible to create a single album print or frame print jointly. In this case, the image print creation apparatus 10 serves as a print order / creation site common to a plurality of users. Alternatively, a plurality of users can stand in front of the display 50 and operate a touch panel stacked on the display 50 to jointly create one album print or frame print.

図2はCPU12の実行するプログラムで実現される機能をブロックで模式的に示している。CPU12の有する機能は、画像入力手段101、画像表示手段102、操作受付手段103、操作内容記憶手段104、補正内容制御手段105、画像補正手段106がある。無論、個々の機能を別個のハードウェア(ワンチップマイコンなど)で実現してもよい。   FIG. 2 schematically shows functions implemented by programs executed by the CPU 12 in blocks. The functions of the CPU 12 include an image input unit 101, an image display unit 102, an operation reception unit 103, an operation content storage unit 104, a correction content control unit 105, and an image correction unit 106. Of course, each function may be realized by separate hardware (such as a one-chip microcomputer).

画像入力手段101は、ドライブ11に挿入された記録メディア40、通信I/F28を介して接続された特定の通信機器(携帯電話やパソコンなど)の中から所望の画像入力源を選択し、選択された画像入力源から出力された画像の入力を受け付ける。画像入力手段101が画像入力源から受け付けた画像は、HDD18に一時的に保存される。   The image input means 101 selects and selects a desired image input source from a recording medium 40 inserted into the drive 11 and a specific communication device (such as a mobile phone or a personal computer) connected via the communication I / F 28. The input of the image output from the input image input source is received. The image received by the image input unit 101 from the image input source is temporarily stored in the HDD 18.

画像表示手段102は、HDD18に保存された画像をディスプレイ50に表示させる表示データを作成してビデオエンコーダ22に出力し、ディスプレイ50に操作対象画像を表示させる。あるいは、通信I/F28を介して接続された特定の通信機器の表示装置にて操作対象画像を表示させる表示データ(Webページ、MPEG4ストリーミング配信データなど)を作成し、特定の通信機器に送信する。これは例えば、操作部26がネットワーク経由で接続した個々のゲーム機のコントローラの場合、当該表示データを個々のゲーム機に送信し、そのゲーム機に接続されたテレビにて画像を再生表示させる。   The image display unit 102 creates display data for displaying the image stored in the HDD 18 on the display 50, outputs the display data to the video encoder 22, and displays the operation target image on the display 50. Alternatively, display data (Web page, MPEG4 streaming distribution data, etc.) for displaying an operation target image on a display device of a specific communication device connected via the communication I / F 28 is generated and transmitted to the specific communication device. . For example, when the operation unit 26 is a controller of an individual game machine connected via a network, the display data is transmitted to the individual game machine, and an image is reproduced and displayed on a television connected to the game machine.

操作受付手段103は、操作部26に対するユーザの操作によって操作部26の出力した電気信号を受け付け、操作内容を解釈する。例えば、操作受付手段103は、キーボードドライバやマウスドライバに相当する。操作部26の各々が各ユーザに割り当てられていれば、この操作内容には、個々の操作を行ったユーザ(操作者)の識別情報またはその等価物(ゲーム機の固体番号、携帯電話の電話番号など)を含めることができる。   The operation accepting unit 103 accepts an electrical signal output from the operation unit 26 by a user operation on the operation unit 26 and interprets the operation content. For example, the operation reception unit 103 corresponds to a keyboard driver or a mouse driver. If each of the operation units 26 is assigned to each user, this operation content includes identification information of the user (operator) who performed the individual operation or an equivalent thereof (the individual number of the game machine, the phone of the mobile phone) Number).

操作内容記憶手段104は、データ記録部30に対し、操作受付手段103の解釈した操作内容と操作者の識別情報(もしくはその等価物)とを対応づけて操作履歴情報として記憶させるよう指示する。   The operation content storage unit 104 instructs the data recording unit 30 to store the operation content interpreted by the operation receiving unit 103 and the identification information (or equivalent) of the operator as operation history information in association with each other.

補正内容制御手段105は、操作受付手段103の解釈した操作内容に基づいて、画像補正処理の対象となる画像の候補(候補画像)の選択、特定の画像処理を施す候補画像(処理対象画像)の選択、特定の画像処理の内容を決めるパラメータの選択をする。特定の画像補正処理とは、例えば、トリミング、色補正、シャープネス補正、明度補正、コントラスト補正などの処理の種類を含む。特定の画像処理の内容を決めるパラメータとは、例えばトリミングであればトリミング範囲の設定、色補正であればRGBの各色のレベル、シャープネス補正であれば適用量、明度補正なら明るさレベル、コントラスト補正ならコントラストレベル、文字入力ならば文字の種類と文字の挿入位置がある。   The correction content control unit 105 selects an image candidate (candidate image) to be subjected to image correction processing based on the operation content interpreted by the operation accepting unit 103, and a candidate image (processing target image) to be subjected to specific image processing. And a parameter for determining the contents of specific image processing. The specific image correction processing includes, for example, processing types such as trimming, color correction, sharpness correction, brightness correction, and contrast correction. The parameters that determine the content of specific image processing are, for example, setting of the trimming range for trimming, level of each color of RGB for color correction, applied amount for sharpness correction, brightness level for brightness correction, and contrast correction If there is a contrast level, if there is a character input, there is a character type and a character insertion position.

具体的な候補画像および処理対象画像の選択操作の入力方法は任意であり、公知のものが採用できる。例えば、HDD18に保存されディスプレイ50に表示されたオリジナル画像のうち、各ユーザ(ユーザA、ユーザBなど)ごとに個別にディスプレイ50に表示された候補画像表示領域にドラッグアンドドロップされた画像を、当該ユーザに対応した候補画像に選択する。あるいは、処理対象画像の選択は、各ユーザごとの候補画像表示領域に表示された画像のうち、各ユーザごとにディスプレイ50に表示された特定の画像補正処理ごとに個別に設けられたウィンドウにドラッグアンドドロップされた画像を、当該ユーザに対応した処理対象画像に選択する。そして、各処理対象画像を選択した各ユーザごとに、各処理対象画像に対する処理内容の選択指示を受け付ける。また、アルバムプリントの場合は、台紙の選択、テンプレートの選択を受け付ける。これは誰が選択してもよいが、競合する場合は、警告を出したり、各ユーザが選択したテンプレートを並べて表示し、各ユーザが競合解消のためテンプレート選択を再考できるようにする。   The input method of the selection operation of specific candidate images and processing target images is arbitrary, and publicly known ones can be adopted. For example, among the original images stored in the HDD 18 and displayed on the display 50, an image dragged and dropped on the candidate image display area displayed on the display 50 for each user (user A, user B, etc.) A candidate image corresponding to the user is selected. Alternatively, the processing target image can be selected by dragging to a window provided for each specific image correction process displayed on the display 50 for each user among the images displayed in the candidate image display area for each user. The dropped image is selected as a processing target image corresponding to the user. Then, for each user who has selected each processing target image, an instruction to select processing contents for each processing target image is accepted. In the case of album printing, selection of a mount and selection of a template are accepted. Anyone can select this, but if there is a conflict, a warning is given or the templates selected by each user are displayed side by side so that each user can reconsider the template selection to resolve the conflict.

補正手段106は、補正内容制御手段105の決定した内容の画像補正処理を実施する。   The correction unit 106 performs image correction processing of the content determined by the correction content control unit 105.

画像表示手段102は、画像補正手段106により補正された操作対象画像を表示させる映像信号を生成し、これをビデオエンコーダ22に出力する。   The image display unit 102 generates a video signal for displaying the operation target image corrected by the image correction unit 106, and outputs this to the video encoder 22.

例えば、画像表示手段102は、図3に示すような「画像選択画面」に、HDD18の画像から各ユーザの選んだ画像の全部または一部を表示する。ここでは、ユーザAが画像I1およびI3を候補画像に選択しており、ユーザBが画像I2を候補画像に選択しているが、これらの候補画像のうち、ユーザAあるいはユーザBによって、画像I1が操作対象画像として「選択画像(編集候補)」ウィンドウから「補正」ウィンドウにドラッグアンドドロップされている。異なるユーザが同じ画像を重複して操作対象画像に選択することはできず、一番最初に選択画像を「補正」ウィンドウにドラッグアンドドロップしたユーザが操作対象画像を選択したユーザとなる。画面に全ての操作対象画像が収まらない場合は、スクロール操作にて順次表示する操作対象画像を切り替えることができるようにしてもよい。後述するが、ユーザAは操作対象画像I1に対する補正パラメータを自由に設定できるが、ユーザBによる操作対象画像I1に対する補正パラメータの設定は制限される。   For example, the image display unit 102 displays all or part of the images selected by each user from the images on the HDD 18 on an “image selection screen” as shown in FIG. Here, user A has selected images I1 and I3 as candidate images, and user B has selected image I2 as a candidate image. Of these candidate images, user A or user B selects image I1. Are dragged and dropped from the “Selected Image (Editing Candidate)” window to the “Correction” window as the operation target image. Different users cannot select the same image as the operation target image, and the user who first dragged and dropped the selected image to the “correction” window becomes the user who selected the operation target image. When all the operation target images do not fit on the screen, the operation target images to be sequentially displayed may be switched by scroll operation. As will be described later, the user A can freely set the correction parameter for the operation target image I1, but the setting of the correction parameter for the operation target image I1 by the user B is limited.

なお、画像I1〜I3以外のオリジナル画像、例えば、画像I4は、どのユーザからも候補画像として選択されていない帰属未定画像である。そのオリジナル画像をいちはやく候補画像に選択した特定のユーザが、候補画像の選択者となる。本実施形態では、一旦候補画像の選択者が決まると、その候補画像は他のユーザが重複して候補画像に選択することはできないものとする。また、その候補画像の選択者自身が候補画像の選択をキャンセルしない限り、候補画像は帰属未定画像に復帰しない。   Note that an original image other than the images I1 to I3, for example, the image I4, is an attribution undecided image that has not been selected as a candidate image by any user. A specific user who first selects the original image as a candidate image becomes a candidate image selector. In this embodiment, once a candidate for selecting a candidate image is determined, the candidate image cannot be selected as a candidate image by another user. In addition, the candidate image does not return to the undetermined image unless the candidate image selector cancels the selection of the candidate image.

もっとも、候補画像の選択を特定のユーザに独占排他的にさせる必然性はない。候補画像の選択は、ある特定のユーザが選択した候補画像を画像処理の対象にする可能性を示すにすぎず、異なるユーザが同じ候補画像を同時に処理対象画像に選択し、かつ実際に処理を施さない限り、異なるユーザ間での処理の競合は生じないからである。換言すると、候補画像の選択は、選択者に優先権を付与する指標にすぎず、候補画像を選択しなかった他のユーザによる当該候補画像の画像処理を一律絶対的に排除する趣旨ではない。   However, there is no necessity to make the selection of candidate images exclusive to a specific user. The selection of the candidate image only indicates the possibility that the candidate image selected by a specific user is the target of image processing, and different users select the same candidate image as the processing target image at the same time, and actually perform the processing. This is because there is no processing conflict between different users unless it is applied. In other words, selection of a candidate image is merely an index for giving priority to a selector, and does not mean that image processing of the candidate image by another user who has not selected a candidate image is uniformly excluded.

図3では異なる選択者の候補画像が混合して一覧表示されているが、選択者ごとに候補画像を区分けして一覧表示してもよい。また、補正ウィンドウも候補画像の選択者ごとに個別に設けてもよい(後述の図5参照)。   In FIG. 3, candidate images of different selectors are mixed and displayed as a list, but the candidate images may be classified and displayed for each selector. Also, a correction window may be provided for each candidate image candidate (see FIG. 5 described later).

なお、複数のユーザが同じ画像に対して異なる補正処理を指示した場合、これらを順次あるいは一覧表示して、各ユーザの指示に従った補正の良否を比較できるようにしてもよい。   When a plurality of users instruct different correction processes for the same image, they may be displayed sequentially or in a list so that the quality of correction according to each user's instruction can be compared.

以下、図4のフローチャートに従い、プリント作成処理の概略を説明する。この処理はCPU12によって制御される。また、この処理を規定するプログラムはHDD18に記録されており、操作部26からのプリント処理開始指示の入力に応じて、CPU12がRAM20にロードして実行する。   The outline of the print creation process will be described below with reference to the flowchart of FIG. This process is controlled by the CPU 12. A program for defining this process is recorded in the HDD 18 and is loaded into the RAM 20 and executed by the CPU 12 in response to an input of a print process start instruction from the operation unit 26.

S1では、画像入力手段101は、所望の画像入力源からオリジナル画像の入力を受け付ける。   In S <b> 1, the image input unit 101 receives an input of an original image from a desired image input source.

S2では、画像表示手段102は、入力されたオリジナル画像をディスプレイ50に表示させる。   In S <b> 2, the image display unit 102 displays the input original image on the display 50.

S3では、操作受付手段103は、操作部26に入力された、オリジナル画像に対する選択操作を解釈する。補正内容制御手段105は、操作受付手段103の解釈した操作内容に基づいて、候補画像を選択する。   In S <b> 3, the operation reception unit 103 interprets the selection operation for the original image input to the operation unit 26. The correction content control unit 105 selects a candidate image based on the operation content interpreted by the operation reception unit 103.

S4では、操作受付手段103は、操作部26に入力された、候補画像に対する選択操作を解釈する。補正内容制御手段105は、操作受付手段103の解釈した操作内容に基づいて、処理対象画像を選択する。   In S <b> 4, the operation accepting unit 103 interprets the selection operation for the candidate image input to the operation unit 26. The correction content control unit 105 selects a processing target image based on the operation content interpreted by the operation reception unit 103.

S5では、補正内容制御手段105は、候補画像を選択する操作を入力したユーザと、処理対象画像を選択したユーザとが同一であるか否かを判断する。同一である場合はS6、異なる場合はS7に進む。   In S5, the correction content control means 105 determines whether or not the user who has input an operation for selecting a candidate image is the same as the user who has selected the processing target image. If they are the same, the process proceeds to S6, and if they are different, the process proceeds to S7.

S6では、補正内容制御手段105は、処理対象画像を選択したユーザからの処理対象画像に設定する全ての補正処理の内容指定操作を許可する。操作受付手段103は、操作部26に入力された、処理対象画像に対する特定の画像処理に関する処理パラメータの選択操作・設定操作を解釈する。そして、補正内容制御手段105は、操作受付手段103の解釈した操作内容に基づいて、処理対象画像に対する処理パラメータを設定し、設定されたパラメータに適合する画像処理を処理対象画像に実施する。   In S <b> 6, the correction content control unit 105 permits the content specifying operation of all correction processes to be set to the processing target image from the user who has selected the processing target image. The operation accepting unit 103 interprets a process parameter selection operation / setting operation related to specific image processing for the processing target image, which is input to the operation unit 26. Then, the correction content control unit 105 sets a processing parameter for the processing target image based on the operation content interpreted by the operation receiving unit 103, and performs image processing conforming to the set parameter on the processing target image.

S7では、補正内容制御手段105は、処理対象画像を選択したユーザからの処理対象画像に設定する一部の補正処理の内容指定操作を許可する。操作受付手段103は、操作部26に入力された、処理対象画像に対する特定の画像処理に関する処理パラメータの選択操作・設定操作を解釈する。そして、補正内容制御手段105は、操作受付手段103の解釈した操作内容が許可した範囲内であれば、その操作内容に基づいて、処理対象画像に対する処理パラメータを設定し、設定されたパラメータに適合する画像処理を処理対象画像に実施する。操作受付手段103の解釈した操作内容が許可した範囲内でなければ、当該操作内容に応じたパラメータ設定も画像処理も行わず、無視する。同時に、操作入力のあった時点で、操作内容が許可した範囲内でない旨の警告を表示するよう、画像表示手段102に通知してもよい。   In S <b> 7, the correction content control unit 105 permits a content specifying operation for some correction processing to be set to the processing target image from the user who has selected the processing target image. The operation accepting unit 103 interprets a process parameter selection operation / setting operation related to specific image processing for the processing target image, which is input to the operation unit 26. Then, if the operation content interpreted by the operation accepting unit 103 is within the permitted range, the correction content control unit 105 sets a processing parameter for the processing target image based on the operation content, and conforms to the set parameter. The image processing to be performed is performed on the processing target image. If the operation content interpreted by the operation accepting unit 103 is not within the permitted range, the parameter setting and image processing corresponding to the operation content are not performed and ignored. At the same time, the image display unit 102 may be notified to display a warning that the operation content is not within the permitted range at the time of operation input.

なお、後述の第2実施形態で説明するが、S5で、当該候補画像を選択したユーザと処理対象画像を選択したユーザが同じと判断されても、当該処理対象画像がサブ画像として選択されていれば、S7に進み、そのサブ画像の補正処理内容はメイン画像の処理内容に応じて制限される。   As will be described in the second embodiment described later, even if it is determined in S5 that the user who selected the candidate image and the user who selected the processing target image are the same, the processing target image is selected as a sub image. If so, the process proceeds to S7, and the correction processing content of the sub-image is limited according to the processing content of the main image.

次に、S5−7の処理(補正内容制限処理)の詳細について説明する。このサブルーチンには、各種の態様が採用される。   Next, details of the processing of S5-7 (correction content restriction processing) will be described. Various modes are adopted for this subroutine.

まず、1つ目の態様として、候補画像ごとの選択ユーザと、処理対象画像ごとの選択ユーザを識別し、両者が一致した場合にのみ全面的な補正処理パラメータの設定を許可し、両者が一致しない場合は補正処理パラメータの設定を部分的あるいは全面的に制限する。   First, as a first aspect, a selection user for each candidate image and a selection user for each processing target image are identified, and only when both match, the setting of full correction processing parameters is permitted, and both match. If not, the setting of correction processing parameters is limited partially or completely.

例えば、データ記録部30の操作履歴情報が、ユーザAが候補画像Xを選択し、かつユーザAが候補画像Xを「トリミング」という補正処理の処理対象画像に選択したことを示しているとする。この場合、補正内容制御手段105は、当該操作履歴情報をデータ記録部30から読み出して、画像Xを候補画像に選択したユーザ(候補画像選択者)と処理対象画像に選択したユーザ(処理対象画像選択者)との一致不一致を判断する。ここでは候補画像選択者、処理対象画像選択者ともにユーザAであるから、両者は一致していると判断し、処理対象画像Xを選択したユーザAからのトリミング範囲指定操作を許可する。   For example, it is assumed that the operation history information of the data recording unit 30 indicates that the user A has selected the candidate image X and the user A has selected the candidate image X as a processing target image for the correction process “trimming”. . In this case, the correction content control unit 105 reads the operation history information from the data recording unit 30, and selects the image X as a candidate image (candidate image selector) and the user selected as the processing target image (processing target image). Judge whether there is a match with the (selector). Here, since both the candidate image selector and the processing target image selector are the user A, it is determined that both match, and the trimming range designation operation from the user A who has selected the processing target image X is permitted.

あるいは、操作履歴情報が、ユーザAが候補画像Xを選択し、かつユーザAが候補画像Xを「色補正」、「シャープネス補正」、「明度補正」、「コントラスト補正」などの補正処理の処理対象画像に選択したことを示しているとする。この場合、補正内容制御手段105は、候補画像選択者、処理対象画像選択者ともにユーザAであるから、両者は一致していると判断し、処理対象画像Xを選択したユーザAからのパラメータの設定操作、例えばトリミングであればトリミング範囲の設定、色補正であればRGBの各色のレベル、シャープネス補正であれば適用量、明度補正なら明るさレベル、コントラスト補正ならコントラストレベルの指定操作を許可する。   Alternatively, the operation history information indicates that the user A selects the candidate image X and the user A processes the correction process such as “color correction”, “sharpness correction”, “brightness correction”, “contrast correction”, etc. It is assumed that the target image is selected. In this case, since both the candidate image selector and the processing target image selector are the user A, the correction content control unit 105 determines that both match and sets the parameter from the user A who selected the processing target image X. Setting operation, for example, trimming range setting for trimming, RGB color level for color correction, application amount for sharpness correction, brightness level for brightness correction, and contrast level specification operation for contrast correction are permitted. .

一方、操作履歴情報が、ユーザAが候補画像Xを選択し、ユーザBが候補画像Xを「トリミング」、「色補正」、「シャープネス補正」、「明度補正」、「コントラスト補正」などの補正処理の処理対象画像に選択したことを示しているとする。この場合、補正内容制御手段105は、候補画像選択者と処理対象画像選択者とが不一致と判断する。そして、候補画像Xを処理対象画像選択者として選択したユーザBからの設定操作、例えばトリミングであればトリミング範囲の設定、色補正であればRGBの各色のレベル、シャープネス補正であれば適用量、明度補正なら明るさレベル、コントラスト補正ならコントラストレベルの指定操作を制限する。指定操作を制限するとは、ユーザBからの処理内容指定操作の受け付けを拒否するか、受け付けても無視したり無効化したりする。   On the other hand, for operation history information, user A selects candidate image X, and user B corrects candidate image X such as “trimming”, “color correction”, “sharpness correction”, “brightness correction”, “contrast correction”, and the like. It is assumed that the image to be processed is selected. In this case, the correction content control means 105 determines that the candidate image selector and the processing target image selector do not match. Then, a setting operation from the user B who has selected the candidate image X as a processing target image selector, for example, setting of a trimming range if trimming, level of each color of RGB if color correction, application amount if sharpness correction, For brightness correction, the operation for specifying the brightness level is limited. For contrast correction, the operation for specifying the contrast level is limited. The restriction of the designation operation means that the acceptance of the processing content designation operation from the user B is refused, or even if accepted, it is ignored or invalidated.

操作者ごとの操作を識別するには、ディスプレイ50上に、操作者ごとに割り当てられた画面を表示し、各操作者の操作は、その操作者の画面内でのみ有効であるようにする。   In order to identify an operation for each operator, a screen assigned to each operator is displayed on the display 50 so that each operator's operation is valid only within the screen of the operator.

例えば、ディスプレイ50は二つの異なる表示装置から構成する。これは、1つのパソコンンに2つの映像出力系統を備えたグラフィックボードを搭載することで実現できる。なお、画面を右側面(運転者側)からあるいは左側面(助手席側)から見た場合に、それぞれ異なる映像を視覚させるデュアルディスプレイ機能付きカーナビゲーションシステムもよく知られており、画面に相対する位置の異なるユーザへの個別画面表示をする際には、この機構を採用することもできる。あるいは、ディスプレイ50として、非特許文献1のように複数ユーザが同時に操作可能なマルチタッチディスプレイを採用する。この際、操作したユーザを識別するため、ディスプレイ50上で区分された複数領域を各ユーザに割り当て、操作のあった領域と操作者とを対応づける。すなわち、ディスプレイ50には、ユーザごとに割り当てられた表示領域があり、対応するユーザが自分に割り当てられた表示領域の中でのみ操作を行わせる。また、各ユーザが自分の割り当て領域の範囲内で操作を行っていること、自分の領域を超えて他人の領域で操作を行ったことを検出する操作ユーザ識別手段も設ける。   For example, the display 50 is composed of two different display devices. This can be realized by installing a graphic board having two video output systems in one personal computer. A car navigation system with a dual display function is also well-known that allows different images to be seen when the screen is viewed from the right side (driver side) or from the left side (passenger side). This mechanism can also be adopted when displaying individual screens to users at different positions. Alternatively, as the display 50, a multi-touch display that can be operated simultaneously by a plurality of users as in Non-Patent Document 1 is adopted. At this time, in order to identify the operated user, a plurality of areas divided on the display 50 are assigned to each user, and the operated area is associated with the operator. That is, the display 50 has a display area assigned to each user, and the corresponding user performs an operation only in the display area assigned to the user. Also provided is an operation user identification means for detecting that each user is performing an operation within the range of his / her assigned area, and performing an operation in the area of another person beyond his / her area.

例えば、図5のディスプレイ50の画面のうち左側半分の領域R1がユーザAの割り当て領域、右側半分の領域R2がユーザBの割り当て領域とする。ディスプレイ50がデュアルディスプレイであれば、領域を半分に区切ることはできないから、別途ユーザごとの操作部26を設ける必要があろう。ディスプレイ50に積層されたタッチパネルのうち領域R1に相当する領域で押圧操作が入力された場合、操作受付手段103は、その操作はユーザAから入力されたと判断し、その操作に対応する操作者はユーザAとして履歴情報に記録する。あるいは、ディスプレイ50に積層されたタッチパネルのうち領域R1に相当する領域で押圧操作が入力された場合、操作受付手段103は、その操作はユーザAから入力されたと判断し、その操作に対応する操作者はユーザAとして操作履歴情報に記録する。   For example, the left half area R1 of the screen of the display 50 in FIG. 5 is the user A allocation area, and the right half area R2 is the user B allocation area. If the display 50 is a dual display, the area cannot be divided in half, and it will be necessary to provide a separate operation unit 26 for each user. When a pressing operation is input in an area corresponding to the area R1 in the touch panel stacked on the display 50, the operation receiving unit 103 determines that the operation is input from the user A, and the operator corresponding to the operation is Recorded in the history information as user A. Alternatively, when a pressing operation is input in an area corresponding to the area R1 in the touch panel stacked on the display 50, the operation receiving unit 103 determines that the operation is input from the user A, and an operation corresponding to the operation The person records the operation history information as the user A.

例えば、補正内容制御手段105は、割り当て領域R1内に表示された候補画像の一覧X−1から所望の処理対象画像G1を選択する操作がユーザAから入力されたものであるか否かを、当該操作が入力された時点で撮像部120から出力された画像データ(操作者画像)に基づいて判断する。これは予め、HDD18にユーザAの顔画像を登録しておき、これを操作者画像と照合して、両者が一致すればその操作者画像の取得された時点で入力された操作はユーザAが入力したものと判断できる。   For example, the correction content control unit 105 determines whether or not an operation for selecting a desired processing target image G1 from the list X-1 of candidate images displayed in the allocation region R1 is input from the user A. The determination is made based on the image data (operator image) output from the imaging unit 120 when the operation is input. The user A's face image is registered in the HDD 18 in advance, and this is compared with the operator image. If the two match, the operation input at the time when the operator image is acquired is performed by the user A. It can be determined that it has been entered.

そして、処理対象画像G1を選択する操作が、当該画像G1を候補画像に選択する操作を入力したユーザAから入力されたものである場合に限り、選択された処理対象画像G1を画像補正ウィンドウY−1に表示し、続いて、画像補正のパラメータ設定操作の受け付けとそのパラメータに従った補正処理を実行する。割り当て領域R1内に表示された候補画像の一覧X−1から所望の処理対象画像G1を選択する操作がユーザAから入力されていない場合、選択された処理対象画像は画像補正ウィンドウY−1に表示されず、パラメータ設定も処理の実行もできない。これは、ユーザBが候補画像の一覧X−1から勝手にウィンドウY−1に画像をドラッグアンドドロップして画像を選択して画像処理を行うことを防ぎ、ユーザAに属する仕事へのユーザBの介入を防ぐ。   Only when the operation for selecting the processing target image G1 is input from the user A who has input the operation for selecting the image G1 as a candidate image, the selected processing target image G1 is displayed in the image correction window Y. −1, and subsequently accepting an image correction parameter setting operation and executing a correction process according to the parameter. When an operation for selecting a desired processing target image G1 from the candidate image list X-1 displayed in the allocation region R1 is not input from the user A, the selected processing target image is displayed in the image correction window Y-1. It is not displayed and parameter setting and processing cannot be executed. This prevents the user B from dragging and dropping an image from the candidate image list X-1 onto the window Y-1 to select an image and performing image processing, and the user B to the job belonging to the user A is prevented. Prevent intervention.

同様に、補正内容制御手段105は、割り当て領域R2内に表示された候補画像の一覧X−2から所望の処理対象画像G2を選択する操作が、画像G2を候補画像として選択入力したユーザBから入力されたものである場合に限り、選択された処理対象画像G2を画像補正ウィンドウY−2に表示させ、続いて、画像補正のパラメータ設定の受け付けとそのパラメータに従った補正処理を実行する。   Similarly, the correction content control unit 105 performs an operation of selecting a desired processing target image G2 from the candidate image list X-2 displayed in the allocation region R2 from the user B who has selected and input the image G2 as a candidate image. Only when the image is input, the selected processing target image G2 is displayed on the image correction window Y-2, and subsequently, acceptance of image correction parameter setting and correction processing according to the parameter are executed.

これは予め、HDD18にユーザBの顔画像を登録しておき、これを候補画像の一覧X−2から画像が選ばれた時点で撮像したユーザの顔画像と照合して、両者が一致すればその一覧X−2からの画像選択操作は、ユーザBが入力したものと判断できる。割り当て領域R2内に表示された候補画像の一覧X−2から所望の処理対象画像G2を選択する操作がユーザBから入力されたものでない場合、選択された処理対象画像G2は画像補正ウィンドウY−2に表示されず、パラメータ設定も処理の実行もできない。これによりユーザBに属する仕事へのユーザAの介入を防ぐ。   If the face image of the user B is registered in the HDD 18 in advance and this is compared with the face image of the user captured when the image is selected from the list X-2 of candidate images, It can be determined that the image selection operation from the list X-2 is input by the user B. When the operation for selecting a desired processing target image G2 from the candidate image list X-2 displayed in the allocation area R2 is not input from the user B, the selected processing target image G2 is displayed in the image correction window Y−. 2 is not displayed and parameter setting and processing cannot be executed. This prevents user A from intervening in work belonging to user B.

なお、一覧X−1および一覧X−2に表示される画像は、いずれもオリジナル画像からユーザAあるいはユーザBが候補画像として選択したものだけを表示する。ここでは、一覧X−1はユーザAが選択した候補画像のみ、一覧X−2はユーザBが選択した候補画像のみが表示される。   It should be noted that the images displayed in the list X-1 and the list X-2 are only images selected by the user A or the user B as candidate images from the original image. Here, the list X-1 displays only candidate images selected by the user A, and the list X-2 displays only candidate images selected by the user B.

あるいは、一覧X−1および一覧X−2に表示される画像は、オリジナル画像全てを含んでもよいが、どちらか一方の一覧で既に選択された画像は、他方の一覧から消失し、二重に選択できないようにしてもよい。ただし、こうすると異なるユーザが同じ画像に異なる処理を同時に施す余地がそもそもなくなる。   Alternatively, the images displayed in the list X-1 and the list X-2 may include all of the original images, but the images already selected in one of the lists disappear from the other list and are duplicated. You may make it impossible to select. However, in this way, there is no room for different users to simultaneously perform different processes on the same image.

あるいは、操作部26がタッチパネルでなく光仮想キーボード(キーボードのキーを模した像をテーブルなどに投影し、そのキー投影光にユーザが触れることで各キーに対応する投影光の反射を光センサで検知し、各キーに対応する操作入力を行うもの)がなくても、ディスプレイ50の上に、ユーザの被写体像を定期的に撮像して画像データに変換して出力する撮像部120を設け、どのユーザがどのキー投影光を反射したかを識別し、操作入力のあったキーとそのキー投影光を反射したと識別されたユーザとを対応づけて操作履歴情報として記録してもよい。   Alternatively, instead of the touch panel, the operation unit 26 projects an optical virtual keyboard (an image imitating a keyboard key onto a table or the like, and the user touches the key projection light to reflect the projection light corresponding to each key with an optical sensor. An imaging unit 120 that periodically captures a user's subject image, converts it into image data, and outputs the image on the display 50 even if there is no operation input corresponding to each key. It is also possible to identify which user reflected which key projection light, and to record the operation history information by associating the key with the operation input with the user identified as reflecting the key projection light.

2つ目の態様として、候補画像ごとの選択ユーザと、処理対象画像ごとの選択ユーザを識別し、両者が一致した場合にはいかなるパラメータ設定も許容して補正処理を実施する。両者が一致しない場合は、パラメータ設定範囲を制限するが、補正処理の実施は許容する。要するに、候補画像を選択しなかった他のユーザによる補正処理のパラメータ設定を条件付きで許容する。   As a second mode, the selection user for each candidate image and the selection user for each processing target image are identified, and if both match, any parameter setting is allowed and correction processing is performed. If they do not match, the parameter setting range is limited, but the correction process is allowed. In short, parameter setting for correction processing by other users who have not selected a candidate image is allowed under certain conditions.

図6の画面例でいうと、1つ目の態様と異なり、一覧Lには、ユーザAおよびユーザBが候補画像として選択した画像全てを混合して表示する。つまり、ユーザAがユーザBの選択した候補画像を処理対象画像に選択でき、その逆もできる。1つ目の態様では、候補画像からの処理対象画像の選択は最先の候補画像選択者が独占排他的に行うことができたが、2つ目の態様ではそうではない。   In the screen example of FIG. 6, unlike the first mode, the list L displays a mixture of all images selected by the user A and the user B as candidate images. That is, user A can select a candidate image selected by user B as a processing target image, and vice versa. In the first mode, the selection of the processing target image from the candidate images can be performed exclusively by the first candidate image selector, but this is not the case in the second mode.

ここで、元々はユーザBが候補画像として画像G2を選択しており、ユーザAは画像G2を候補画像に選択しなかったが、処理対象画像として選択したとする。これらの選択操作は操作履歴情報としてデータ記録部30に記録されている。補正内容制御手段105は、当該操作履歴情報をデータ記録部30から読み出して、画像G2を候補画像に選択したユーザ(候補画像選択者)と処理対象画像に選択したユーザ(処理対象画像選択者)との一致不一致を判断する。   Here, it is assumed that the user B originally selected the image G2 as the candidate image, and the user A did not select the image G2 as the candidate image, but selected it as the processing target image. These selection operations are recorded in the data recording unit 30 as operation history information. The correction content control means 105 reads the operation history information from the data recording unit 30, and selects the image G2 as a candidate image (candidate image selector) and the user who selects the processing target image (processing target image selector). It is determined whether or not it matches.

ここでは、処理対象画像を選択したユーザAは候補画像を選択したユーザBと異なる。補正内容制御手段105は、候補画像選択者と処理対象画像選択者とが異なる場合、処理対象画像選択者による画像補正処理のパラメータ設定範囲を、候補画像選択者によるパラメータ設定範囲よりも小さく制限する。   Here, the user A who has selected the processing target image is different from the user B who has selected the candidate image. When the candidate image selector and the processing target image selector are different, the correction content control unit 105 limits the parameter setting range of the image correction processing by the processing target image selector to be smaller than the parameter setting range by the candidate image selector. .

例えば、明るさ補正の場合、候補画像選択者であるユーザBは±10のパラメータ設定範囲内で自由に明るさのレベルを設定できるが、処理対象画像選択者であるユーザAは、±10のパラメータ設定範囲よりも狭い範囲、例えば±3のパラメータ設定範囲内で画像G2の明るさのレベルを設定できる。あるいは、補正処理がトリミング範囲設定の場合、ユーザBは、トリミング範囲として画像の1〜99%の面積をカバーできる範囲を設定できるが、ユーザBは、それよりも狭い画像の1〜80%の面積をカバーする範囲を設定できる(すなわち切り出し最大範囲が小さく制限される)などとしてもよい。   For example, in the case of brightness correction, a user B who is a candidate image selector can freely set a brightness level within a parameter setting range of ± 10, but a user A who is a processing target image selector has a value of ± 10. The brightness level of the image G2 can be set within a range narrower than the parameter setting range, for example, a parameter setting range of ± 3. Alternatively, when the correction process is trimming range setting, the user B can set a range that can cover an area of 1 to 99% of the image as the trimming range, but the user B can set 1 to 80% of the narrower image. A range that covers the area may be set (that is, the maximum cut-out range is limited to be small).

さらに、ユーザAだけでなくユーザBもが、画像G2を処理対象画像として選択したとする。この場合、ユーザBは制限のない場合は±10のパラメータ設定範囲内で自由に明るさのレベルを設定できるが、ユーザAは、±3のパラメータ設定範囲内で画像G2の明るさのレベルを設定できるから、両者が一致するパラメータを設定する場合もあるし、一致しないパラメータを設定する場合もある。両者が一致するパラメータを設定した場合は、そのパラメータを最終的なパラメータに設定するが、両者が一致するパラメータを設定した場合は、処理対象画像G2を候補画像として選択したユーザBの設定したパラメータを最終的なパラメータに設定する。結果的には、候補画像選択者であるユーザBの後からした設定が優先され、先のユーザAの設定は無効化される。   Furthermore, it is assumed that not only the user A but also the user B selects the image G2 as the processing target image. In this case, the user B can freely set the brightness level within the parameter setting range of ± 10 if there is no limit, but the user A can set the brightness level of the image G2 within the parameter setting range of ± 3. Since they can be set, a parameter that matches both may be set, or a parameter that does not match may be set. When a parameter that matches both is set, the parameter is set as a final parameter. When a parameter that matches both is set, the parameter set by the user B who selects the processing target image G2 as a candidate image is set. To the final parameter. As a result, the setting made after the user B who is the candidate image selector is prioritized, and the setting of the previous user A is invalidated.

<第2実施形態>
第1実施形態の画像プリント作成装置10においてフレームプリントやアルバムプリントを作成する場合、色や明るさや切り出し範囲など画像そのものの属性を変更する補正だけでなく、背景画像の選択、画像を挿入する位置の選択、挿入文字の選択と配置など、画像に対する各種の編集の属性に関する設定操作にも、複数ユーザによる操作を可能にし、フレームプリントやアルバムプリント作成の作業手順を効率よく分担できれば便宜である。
<Second Embodiment>
When creating a frame print or album print in the image print creation apparatus 10 of the first embodiment, not only correction for changing attributes of the image itself such as color, brightness, and clipping range, but also the selection of the background image and the position to insert the image. It is convenient if a plurality of users can also perform setting operations related to various editing attributes for an image, such as selection of images, selection and arrangement of inserted characters, and work procedures for creating frame prints and album prints can be efficiently shared.

図7は、第2実施形態に係るプリント作成処理の要部を示すフローチャートである。この処理はCPU12によって制御される。また、この処理を規定するプログラムはHDD18に記録されており、操作部26からのプリント処理開始指示の入力に応じて、CPU12がRAM20にロードして実行する。なお、第1実施形態のS4の代わりに、下記のS12−S14を実行することもできる。   FIG. 7 is a flowchart showing a main part of print creation processing according to the second embodiment. This process is controlled by the CPU 12. A program for defining this process is recorded in the HDD 18 and is loaded into the RAM 20 and executed by the CPU 12 in response to an input of a print process start instruction from the operation unit 26. In addition, instead of S4 of the first embodiment, the following S12 to S14 can be executed.

S11では、操作受付手段103は、候補画像の選択および処理対象画像の選択を受け付ける。第1実施形態と同様に、この画像選択は複数ユーザによって行うことができる。   In S11, the operation reception unit 103 receives selection of a candidate image and selection of a processing target image. Similar to the first embodiment, this image selection can be performed by a plurality of users.

S12では、操作受付手段103は、候補画像から選択した画像(処理対象画像)に合成するテンプレート画像の選択を受け付ける。テンプレート画像は背景画像を含み、処理対象画像と合成されて台紙に配置される。   In S12, the operation accepting unit 103 accepts selection of a template image to be combined with an image selected from the candidate images (processing target image). The template image includes a background image, is combined with the processing target image, and is arranged on the mount.

S13では、操作受付手段103は、処理対象画像を配置すべき台紙上の任意の位置と配置サイズを指定する操作を受け付け、画像表示手段102は、台紙上で指定された位置に選択した処理対象画像を指定されたサイズで挿入し表示する。なお、配置位置およびサイズの指定は、台紙上に所望の範囲を指定することで行える。   In S13, the operation accepting unit 103 accepts an operation for designating an arbitrary position and arrangement size on the mount on which the processing target image should be arranged, and the image display unit 102 selects the processing target selected at the designated position on the mount. Insert and display the image at the specified size. The arrangement position and size can be specified by specifying a desired range on the mount.

S14では、操作受付手段103は、レイアウト調整操作を受け付ける。例えば、第1実施形態の補正処理の他、選択されたテンプレート画像の台紙上の合成位置、台紙上の挿入文字の選択と挿入位置の指定がレイアウト調整操作に含まれる。   In S14, the operation accepting unit 103 accepts a layout adjustment operation. For example, in addition to the correction processing of the first embodiment, the layout adjustment operation includes a synthesis position on the mount of the selected template image, selection of an insertion character on the mount, and designation of the insertion position.

S15では、画像表示手段102は、レイアウト調整操作に従って台紙上に文字やテンプレート画像を合成し、処理対象画像、文字、テンプレート画像の配置された台紙をプレビュー表示する。台紙上画像補正手段106は、操作受付手段103が受け付けたレイアウト調整操作に従って、台紙上の指定位置に文字やテンプレート画像を合成し、処理対象画像、文字、テンプレート画像の配置された台紙をプリント出力するデータを作成し、プリンタ44に出力する。なおアルバムプリントの場合は、S11−S14をページごとに実施する。   In S15, the image display unit 102 combines characters and template images on the mount according to the layout adjustment operation, and previews the mount on which the processing target image, characters, and template image are arranged. The on-board image correcting unit 106 synthesizes a character or a template image at a designated position on the mount in accordance with the layout adjustment operation received by the operation receiving unit 103, and prints out the mount on which the processing target image, the character, and the template image are arranged. Data to be generated is output to the printer 44. In the case of album printing, S11 to S14 are performed for each page.

ここで、フレームプリントやアルバムプリントは、通常の画像一枚一枚の個別プリント(デジカメプリント)と比較すると以下のような違いがある。    Here, frame prints and album prints have the following differences as compared with normal individual prints (digital camera prints).

(1)画像レイアウト:デジカメプリントはどの画像も同じようにプリントされるが、アルバムの場合にはページ中の画像配置や表示サイズによって優先順位がある。例えば、アルバムでは、お気に入りの画像はページ中の目立つ位置に大きく配置される。すなわち、レイアウト上、主要な存在にしたい画像(メイン画像)と、メイン画像に対して従属的な存在にしたい画像(サブ画像)が区別されている。   (1) Image layout: Every image is printed in the same way in the digital camera print, but in the case of an album, priority is given depending on the image arrangement and display size in the page. For example, in an album, a favorite image is largely arranged at a prominent position on the page. That is, in the layout, an image that is desired to be main (main image) and an image that is desired to be subordinate to the main image (sub-image) are distinguished.

(2)台紙(ページ)と画像の統一感:アルバムプリントでは、台紙の上に画像を配置するため、台紙の背景画像と合成する画像の特徴(色、明るさなど)があまりに異なっていると見栄えがよくない。フレームプリントでも、背景画像と合成する画像の特徴(色、明るさなど)があまりに異なっていると見栄えがよくない。一方、デジカメプリントでは台紙はなく、画像だけがプリントされるためそのような問題はない。   (2) Mount (page) and image unity: In album print, images are placed on the mount, so the background image on the mount and the characteristics of the image (color, brightness, etc.) are too different It doesn't look good. Even frame prints do not look good if the characteristics (color, brightness, etc.) of the image to be combined with the background image are too different. On the other hand, digital camera printing does not have such a problem because there is no mount and only an image is printed.

(3)同一の台紙上の画像同士の統一感:アルバムプリントでは、1枚の台紙に複数画像を合成する場合、それらの画像の補正は統一されなければ見栄えがよくない。ある画像のみ青色に補正をして、残り全ての画像が赤系に補正されていると、同じページ上である画像が青っぽく、別の画像は赤っぽくなり、色の統一感がない。   (3) A sense of unity between images on the same mount: In the album print, when a plurality of images are combined on one mount, the appearance of the images is not good unless the correction of the images is unified. If only one image is corrected to blue and all the remaining images are corrected to red, the image on the same page is bluish, the other image is reddish, and there is no color uniformity.

(4)アルバム全体の統一感:個々の台紙の中で画像同士あるいは画像と台紙の統一感が保たれていても、異なるページ同士の間での統一感がないと、アルバムの商品価値が下がる。例えば、台紙(ページ)ごとに、台紙を構成する特徴(色、明るさ、挿入する画像のレイアウトなど)がばらばらだと、アルバム全体としての見栄えがよくない。   (4) A sense of unity of the whole album: Even if the unity of images or the unity of images and mounts is maintained in individual mounts, the product value of the album is reduced if there is no unity between different pages. . For example, if the features (color, brightness, layout of inserted images, etc.) constituting the mount are different for each mount (page), the overall appearance of the album is not good.

しかも、異なるユーザが各画像の配置や補正を好き勝手に設定すると、上記のような統一感を与えられない可能性が高い。   In addition, if different users arbitrarily set the arrangement and correction of each image, there is a high possibility that the above-mentioned sense of unity will not be given.

そこで、各々のユーザからの自由な操作指示によるアルバム・フレームプリントを作成するに際し、レイアウトの統一感を出すために、次のようにする。   Therefore, in order to create a sense of unity when creating an album / frame print by a free operation instruction from each user, the following is performed.

1つ目の態様として、まず、各々のユーザから選択された処理対象画像が同一か否かに応じて、その処理対象画像をメイン画像かサブ画像に区分けする。   As a first aspect, first, the processing target image is divided into a main image or a sub image depending on whether or not the processing target images selected by the respective users are the same.

例えば、図8に示すようなアルバム1ページ分の台紙Tに、1枚のメイン画像、2枚のサブ画像を配置するとし、ユーザAおよびユーザBが、候補画像から所望の画像を1枚のメイン画像、2枚のサブ画像に選択する操作を入力するものとする。   For example, assuming that one main image and two sub-images are arranged on a mount T for one page of an album as shown in FIG. 8, the user A and the user B select a desired image from the candidate images. It is assumed that an operation for selecting a main image and two sub-images is input.

図9に示すように、ユーザAが候補画像の一覧L(図6の一覧Lと同様、ユーザAとユーザBの候補画像が混合されたもの)中から、メイン画像、サブ画像を選択したとする。また、ユーザBも、同じ候補画像の一覧Lの中から、メイン画像、サブ画像を選択したとする。ユーザAのメイン画像・サブ画像の選択、ユーザBのメイン画像・サブ画像の選択操作は、互いに独立して操作受付手段103に入力されている。   As shown in FIG. 9, it is assumed that the user A has selected the main image and the sub image from the list L of candidate images (similar to the list L in FIG. 6, a mixture of candidate images of the user A and the user B). To do. Further, it is assumed that the user B also selects the main image and the sub image from the same candidate image list L. User A's main image / sub-image selection and user B's main image / sub-image selection operations are input to the operation receiving means 103 independently of each other.

アルバムに掲載する総画像数は制限されており、その範囲内で各ユーザが選択可能な個数が割り当てられているものとする。例えば、アルバム掲載画像数は40枚、ユーザA・ユーザBのメイン画像・サブ画像の選択数はそれぞれ10枚ずつとする。なお、ユーザが1人の場合、1人のユーザがアルバム掲載画像数40枚の全てを選択可能としもよいが、全てを選択させる必然性はない。例えば、アルバム掲載画像数40枚のうち、1人のユーザが選択可能なユーザ割当枚数は20枚であり、CPU12がHDD18に保存された素材画像の中からランダムに、あるいは所定の規則に従って(例えば、素材画像に付帯する撮影日時情報の新しいものから、画質のよいものから、特定の顔領域が検出されたものから)、残り20枚を選択してもよい。こうすると多量の画像を1人のユーザが逐一選択する負担が軽減される。ユーザが選択した画像数がユーザ割当数に満たない場合でも、ユーザの選択画像数を含めた画像総数がアルバム掲載画像数と一致するように、CPU12が残り全ての画像をHDD18から自動で選択してもよい。   It is assumed that the total number of images to be posted on the album is limited, and the number that can be selected by each user is allocated within the range. For example, the number of album published images is 40, and the number of selected main images and sub-images of user A and user B is 10 each. When there is one user, one user may be able to select all 40 album published images, but there is no necessity to select all. For example, out of 40 album images, the number of user assignments that can be selected by one user is 20, and the CPU 12 randomly selects from material images stored in the HDD 18 or according to a predetermined rule (for example, The remaining 20 images may be selected from the newest shooting date / time information attached to the material image, from the one with good image quality, from the one with a specific face area detected). This reduces the burden of one user selecting a large number of images one by one. Even when the number of images selected by the user is less than the user-allocated number, the CPU 12 automatically selects all the remaining images from the HDD 18 so that the total number of images including the number of images selected by the user matches the number of images on the album. May be.

同一の1ページの台紙に配置可能なメイン画像の数は、特に規制しなくてもよいが、説明の簡略のため、ここでは1ページの台紙におけるメイン画像の数は1枚、サブ画像は2枚であるとする。同一の台紙における占有面積においてメイン画像はサブ画像よりも大きい。台紙上にメイン画像の割り当て領域、2枚のサブ画像のそれぞれに対する割り当て領域が、台紙テンプレート画像の付帯情報として予め記録されているとする。   The number of main images that can be placed on the same mount of one page is not particularly limited. However, for the sake of simplicity of explanation, here, the number of main images on the mount of one page is one, and the number of sub-images is two. Suppose that it is a sheet. The main image is larger than the sub image in the occupied area on the same mount. Assume that an allocation area for the main image and an allocation area for each of the two sub-images are recorded in advance as supplementary information of the mount template image on the mount.

ここで、メイン画像とサブ画像の選択は、操作部26に対する操作回数によって区別する。例えば、ユーザAがサブ画像にしたい候補画像上にマウスカーソルを移動し、マウスボタンを1回クリックした場合、操作受付手段103は、当該マウスカーソルが存在する候補画像をサブ画像に選択する操作がユーザAから入力されたと認識する。あるいは、ユーザAが候補画像上にマウスカーソルを移動し、マウスボタンを2回クリックした場合、操作受付手段103は、当該マウスカーソルが存在する候補画像をメイン画像に選択する操作がユーザAから入力されたと認識する。さらにユーザAが候補画像上にマウスカーソルを移動し、マウスボタンを3回クリックした場合、操作受付手段103は、当該マウスカーソルが存在する候補画像をメイン画像あるいはサブ画像に選択する操作を解除する操作がユーザAから入力されたと認識する。   Here, the selection of the main image and the sub image is distinguished by the number of operations on the operation unit 26. For example, when the user A moves the mouse cursor over the candidate image that the user wants to make a sub image and clicks the mouse button once, the operation accepting unit 103 performs an operation of selecting the candidate image in which the mouse cursor exists as the sub image. It is recognized that the user A input. Alternatively, when the user A moves the mouse cursor over the candidate image and clicks the mouse button twice, the operation accepting unit 103 inputs an operation from the user A to select the candidate image in which the mouse cursor is present as the main image. Recognize that Further, when the user A moves the mouse cursor over the candidate image and clicks the mouse button three times, the operation accepting unit 103 cancels the operation of selecting the candidate image in which the mouse cursor exists as the main image or the sub image. It is recognized that the operation is input from the user A.

操作部26がタッチパネルであれば、押圧の検知された領域の数で、タッチした指の数を判断し、その指の数に応じてメイン画像の選択とサブ画像の選択を区別する。例えば、ある候補画像の表示部分に相当するタッチパネル領域を指1本でタッチした場合はサブ画像の選択、指2本でタッチした場合はメイン画像の選択が入力されたと認識する。   If the operation unit 26 is a touch panel, the number of touched fingers is determined based on the number of areas where pressing is detected, and the selection of the main image and the selection of the sub image are distinguished according to the number of fingers. For example, when a touch panel area corresponding to a display portion of a candidate image is touched with one finger, it is recognized that selection of a sub image is input, and when touching with two fingers, selection of a main image is input.

また、ディスプレイ50に表示された候補画像のうち、ユーザAが選択したメイン画像・サブ画像と、ユーザBが選択したメイン画像・サブ画像とは、色分けを施して視覚的に区別できるようにする。なお、どのユーザが選択操作を入力したかは、第1実施形態と同様、撮像部120の画像データを基に判断すればよい。   Further, among the candidate images displayed on the display 50, the main image / sub-image selected by the user A and the main image / sub-image selected by the user B are color-coded so as to be visually distinguishable. . Note that which user inputs the selection operation may be determined based on the image data of the imaging unit 120, as in the first embodiment.

ここで、図10に示すように、補正内容制御手段105は、ユーザAとユーザBが共通してメイン画像に選択した候補画像Cを台紙Tのメイン画像に選択する。   Here, as illustrated in FIG. 10, the correction content control unit 105 selects the candidate image C selected as the main image in common by the user A and the user B as the main image on the mount T.

2つ目の態様として、各ユーザが独立して選択したメイン画像およびサブ画像に対する画像補正の内容を、メイン画像に対する画像補正の内容で統一する。   As a second aspect, the content of image correction for the main image and the sub image independently selected by each user is unified with the content of image correction for the main image.

例えば、ユーザAが画像1および画像2を候補画像から処理対象画像に選択した上、画像1をメイン画像に選択しかつ画像2をサブ画像に選択した上、画像1に対する青系の色のレベルを高める色補正および処理対象画像2に対する青系の色のレベルを高める色補正を選択したとする。また、ユーザBが画像3を候補画像から処理対象画像に選択し、画像3に対する赤系の色のレベルを高める色補正を選択したとする。   For example, the user A selects the image 1 and the image 2 from the candidate images as the processing target images, selects the image 1 as the main image and the image 2 as the sub image, and then selects the level of the blue color with respect to the image 1 And color correction for increasing the level of blue color for the processing target image 2 is selected. Further, it is assumed that the user B selects the image 3 from the candidate images as the processing target image, and selects the color correction that increases the level of the red color with respect to the image 3.

この場合、ユーザBからの画像3に対するRGBの各色の補正レベル選択は無視し、画像1をメイン画像を選択したユーザAの色補正レベル選択に合わせ、画像1〜3の色補正を実施する。これにより、異なるユーザがそれぞれ指定したメイン画像に対する色補正の内容とサブ画像に対する色補正の内容が統一される。   In this case, the correction level selection of each color of RGB for the image 3 from the user B is ignored, and the color correction of the images 1 to 3 is performed in accordance with the selection of the color correction level of the user A who selected the main image for the image 1. As a result, the content of color correction for the main image and the content of color correction for the sub image specified by different users are unified.

あるいは、ユーザBからの画像3に対するRGBの各色の補正レベル選択は無視しないが、その後でメイン画像を選択したユーザAが、自分の選択していないサブ画像3に対する色補正レベルを選択できてもよい。こうすると、メイン画像を選択したユーザの補正の意向をサブ画像にも反映できるし、メイン画像を選択していないユーザの補正の意向をそのまま生かすこともできる。   Alternatively, the correction level selection of each color of RGB for the image 3 from the user B is not ignored, but the user A who selects the main image after that can select the color correction level for the sub-image 3 not selected by himself / herself. Good. In this way, the correction intention of the user who has selected the main image can be reflected in the sub-image, and the correction intention of the user who has not selected the main image can be utilized as it is.

あるいは、メイン画像1を選択したユーザAによるメイン画像1への色補正の内容選択が確定した場合、メイン画像1を選択していないユーザBによるサブ画像3への色補正の内容は、ユーザAによるメイン画像1への色補正の内容として色レベルが変更された色と同一の色の色レベルのみの変更が可能であるとしてもよい。   Alternatively, when the user A who has selected the main image 1 has confirmed the selection of the content of color correction to the main image 1, the content of the color correction to the sub image 3 by the user B who has not selected the main image 1 is It is possible that only the color level of the same color as the color whose color level has been changed can be changed as the content of the color correction to the main image 1 by.

例えば、図11に示すように、メイン画像1に対する色補正レベル調整ウィンドウで、メイン画像1を候補画像に選択したユーザであるユーザAが緑(G)に対応する補正レベルのみを変え、赤(R)、青(B)の補正レベルを変えなかった操作履歴情報が記録されたとする。この場合、図12に示すように、補正内容制御手段105は、当該操作履歴情報を参照した上、ユーザBはサブ画像3に対する色補正レベル調整ウィンドウで、緑(G)に対応する補正レベルのみを変えることができる許可を画像補正手段106に与えるが、赤(R)、青(B)の補正レベル調整ツマミをロックし、画像補正手段106がユーザBからの操作に基づいて赤と青のレベルを補正することができないようにする。なお、ユーザBによる画像3への色補正以外の補正、例えば輝度補正、トリミング、画像回転などにおける補正パラメータ設定は、ユーザAによるメイン画像1への色補正の内容とは無関係に自由に行える。   For example, as shown in FIG. 11, in the color correction level adjustment window for the main image 1, the user A who has selected the main image 1 as a candidate image changes only the correction level corresponding to green (G) and changes the red ( Assume that operation history information in which the correction levels of R) and blue (B) are not changed is recorded. In this case, as shown in FIG. 12, the correction content control means 105 refers to the operation history information, and the user B is only the correction level corresponding to green (G) in the color correction level adjustment window for the sub image 3. The image correction means 106 is permitted to change the red (R) and blue (B) correction level adjustment knobs, and the image correction means 106 controls the red and blue colors based on the operation from the user B. The level cannot be corrected. It should be noted that correction parameters other than color correction to the image 3 by the user B, such as brightness correction, trimming, and image rotation, can be freely set regardless of the content of color correction to the main image 1 by the user A.

また、メイン画像選択ユーザの操作履歴に応じてその他のユーザの操作ツマミを完全にロックするのではなく、メイン画像1を選択したユーザAの補正内容に合わせて、サブ画像3に対するレベル選択ツマミのデフォルト位置を変えてもよい。例えば、サブ画像3に対する色補正のデフォルト位置は、メイン画像1でのレベル選択ツマミの最終選択位置と同じとする。ユーザAが緑(G)に対応する補正レベルのみを「0」から「2」に変えれば、サブ画像3に対する色補正の緑(G)に対応するデフォルト補正レベルは「0」でなく「2」となる。   In addition, the operation knobs of other users are not completely locked according to the operation history of the main image selection user, but the level selection knob for the sub image 3 is adjusted according to the correction contents of the user A who selected the main image 1. The default position may be changed. For example, the default position of color correction for the sub image 3 is the same as the final selection position of the level selection knob in the main image 1. If the user A changes only the correction level corresponding to green (G) from “0” to “2”, the default correction level corresponding to green (G) of the color correction for the sub-image 3 is not “0” but “2”. "

同様の発想は、輝度調整など色補正以外の補正にも応用できる。例えば、図13に示すように、メイン画像選択ユーザユーザAによりメイン画像1に対する輝度が「明るい」方へ移動する補正が選択されたとする。この場合、図14に示すように、ユーザBによるメイン画像3に対する輝度補正は「明るい」方へ移動する補正のみ受け付けられ、「暗い」方への補正はロックされる。なお、ユーザBによる画像3への輝度補正以外の補正、例えば色補正、トリミング、画像回転などにおける補正パラメータ設定は、ユーザAによるメイン画像1への輝度補正の内容とは無関係に自由に行える。   The same idea can be applied to corrections other than color correction such as brightness adjustment. For example, as shown in FIG. 13, it is assumed that the main image selection user user A selects a correction for moving the luminance with respect to the main image 1 toward “bright”. In this case, as shown in FIG. 14, the luminance correction for the main image 3 by the user B is accepted only for the correction moving to the “bright” direction, and the correction to the “dark” direction is locked. It should be noted that correction parameters other than the brightness correction to the image 3 by the user B, such as color correction, trimming, and image rotation, can be freely set regardless of the content of the brightness correction to the main image 1 by the user A.

こうすると、メイン画像の補正内容に関係のない補正は他のユーザに行わせたくないというメイン画像選択ユーザの意図を、他のユーザによるサブ画像の補正内容の選択時に反映できる。   In this way, the intention of the main image selection user that he / she does not want other users to perform corrections unrelated to the correction contents of the main image can be reflected when the correction contents of the sub image are selected by the other users.

なお、ユーザAによるメイン画像1に対する補正内容の選択が確定しない間のユーザBによるサブ画像3に対する補正内容の選択にも制限をかけてもよい。例えば、ユーザAによるメイン画像1に対する補正内容の選択が確定するまで、ユーザBによるサブ画像3に対する補正内容の選択が全くできないようにする。あるいは、ユーザAによるメイン画像1に対する補正内容の選択が確定するまで、ユーザBによるサブ画像3に対する補正内容の選択は可能であるが、その後メイン画像1に対する補正内容の選択が確定した場合、両者の補正内容を比較する。比較の結果、両者が一致せず、かつその不一致が所定の範囲を超える場合(例えば輝度レベルあるいは色補正レベルのレベル選択ゲージ目盛り1つ分)、ユーザBによるサブ画像3に対する補正内容の選択を取り消すか、あるいはユーザBに割り当てられた画面に警告を出し、再設定を促す。   Note that the selection of the correction content for the sub-image 3 by the user B while the selection of the correction content for the main image 1 by the user A is not fixed may be limited. For example, until the selection of the correction content for the main image 1 by the user A is confirmed, the correction content for the sub-image 3 by the user B cannot be selected at all. Alternatively, the user B can select the correction content for the sub image 3 until the selection of the correction content for the main image 1 by the user A is confirmed. Compare the correction details. As a result of the comparison, if the two do not match and the mismatch exceeds a predetermined range (for example, one level selection gauge scale for the brightness level or the color correction level), the user B selects the correction content for the sub-image 3. Cancel or issue a warning on the screen assigned to user B to prompt resetting.

3つ目の態様として、あるユーザが選択したメイン画像および特定のサブ画像に対する画像補正の内容に基づいて、当該特定のサブ画像以外のサブ画像に対する画像補正の内容を決定する。   As a third aspect, the content of image correction for sub-images other than the specific sub-image is determined based on the content of image correction for the main image selected by a certain user and the specific sub-image.

例えば、図15に示すようなメイン画像1、サブ画像2およびサブ画像3からなるアルバム中の1ページにおいて、メイン画像1はユーザA、サブ画像2はユーザA、サブ画像3はユーザBが選択したものとする。そして、ユーザAはメイン画像1に対する色補正について青系が増すように、またサブ画像2に対する色補正は赤系が増すように色レベルを選択したとする。この場合、メイン画像1を選択したユーザA自身が、メイン画像1とは異なる補正内容をサブ画像2について選択しているから、サブ画像3の補正内容をメイン画像1のみに合わせる必要性は乏しい。   For example, in one page in an album consisting of main image 1, sub image 2 and sub image 3 as shown in FIG. 15, main image 1 is selected by user A, sub image 2 is selected by user A, and sub image 3 is selected by user B. Shall be. Then, it is assumed that the user A selects the color level so that the blue system increases for the color correction for the main image 1 and the color correction for the sub-image 2 increases so that the red system increases. In this case, since the user A himself who selected the main image 1 has selected the correction content different from the main image 1 for the sub image 2, it is not necessary to match the correction content of the sub image 3 only to the main image 1. .

そこで、メイン画像1およびサブ画像2を選択したユーザAによるメイン画像1およびサブ画像2の補正内容に応じて、ユーザBによるサブ画像3の補正選択範囲を制限する。   Therefore, the correction selection range of the sub image 3 by the user B is limited according to the correction contents of the main image 1 and the sub image 2 by the user A who has selected the main image 1 and the sub image 2.

例えば、メイン画像1についてレベル1だけ青系が増す選択、サブ画像2についてレベル10だけ赤系が増す選択がされたとする。   For example, it is assumed that the main image 1 is selected to increase the blue system by level 1, and the sub image 2 is selected to increase the red system by level 10.

この場合、ユーザBの選択したサブ画像3の選択レベルLV=メイン画像1の選択レベル×α+サブ画像2の選択レベル×βとする。α、βは重みであり、α+β=1であればどのような値でもよい。例えば、α=β=0.5とすると、サブ画像3に対する青の選択レベルLV(B)は0.5、赤の選択レベル(R)は5になる。この値をそのままサブ画像3の色補正パラメータにしてもよいが、例えば小数点以下は切捨て、LV(B)=0としてもよい。この場合、サブ画像3の赤系色が増加し、サブ画像2と同様な色補正がされる。   In this case, the selection level LV of the sub image 3 selected by the user B = the selection level of the main image 1 × α + the selection level of the sub image 2 × β. α and β are weights and may be any values as long as α + β = 1. For example, if α = β = 0.5, the blue selection level LV (B) for the sub-image 3 is 0.5, and the red selection level (R) is 5. This value may be used as the color correction parameter of the sub-image 3 as it is, but for example, the decimal part may be discarded and LV (B) = 0 may be set. In this case, the red color of the sub image 3 is increased, and the same color correction as that of the sub image 2 is performed.

メイン画像を選択したユーザAが補正内容を設定したサブ画像は、2つ以上でもよい。例えば9個のサブ画像X1〜X9のすべてに対して、赤系が増す選択をしたとする。   There may be two or more sub-images for which the user A who has selected the main image sets the correction contents. For example, it is assumed that the red system is selected to increase for all nine sub-images X1 to X9.

この場合、ユーザBの選択したサブ画像3の選択レベル=メイン画像1の選択レベル×α+Σ(i=1〜9)サブ画像Xiの選択レベル×βiとする。α、βiは重みであり、α+Σβi=1であればどのような値でもよい。例えば、α=βi=0.1とする。   In this case, the selection level of the sub-image 3 selected by the user B = the selection level of the main image 1 × α + Σ (i = 1 to 9), the selection level of the sub-image Xi × βi. α and βi are weights and may be any values as long as α + Σβi = 1. For example, α = βi = 0.1.

こうすると、いずれも赤系の補正をした多数のサブ画像の各々の選択レベルが、青系の補正をした単一のメイン画像の選択レベルよりも優勢になり、サブ画像3の選択レベルは赤系が特に増す。   In this way, the selection level of each of the multiple sub-images corrected in red is superior to the selection level of the single main image corrected in blue, and the selection level of sub-image 3 is red. The system especially increases.

以上の説明は、プリント注文における選択操作を念頭に置いていたが、複数ユーザが独立して同一のオブジェクトに対する各種の設定・選択操作を入力する各種の電子機器についても同様な処理が可能である。プリント注文以外の用途としては、テレビゲームで同一のオブジェクトを複数のプレーヤが同時に扱う場合が考えられる。   The above description has been made with the selection operation in the print order in mind, but the same processing is also possible for various electronic devices in which a plurality of users independently input various setting / selection operations for the same object. . As a use other than the print order, a case where a plurality of players simultaneously handle the same object in a video game can be considered.

例えば、オンラインで接続された複数のプレーヤ、あるいは単体のゲーム機に備えられた複数のコントローラを把持した複数のプレーヤが、予め決まった手順で材料を調理し、1つの料理を作成するようなゲームの場合、例えばプレーヤAが、ある調味料を示すキャラクタを鍋に規定量投入するような動作指示を操作入力していた場合は、その後は別のプレーヤBやCがその調味料を投入する操作を規制し、それができないようにする。   For example, a game in which a plurality of players connected online or a plurality of players holding a plurality of controllers provided in a single game machine cook ingredients in a predetermined procedure to create one dish In this case, for example, when the player A has input an operation instruction to input a specified amount of a character indicating a seasoning into the pan, an operation for another player B or C to input the seasoning thereafter. Regulate and make it impossible.

あるいは、単一のタッチパネル画面上で、複数のユーザが絵画を描いていくような場合、画面に最も大きなオブジェクトO1を描いたユーザAと異なるユーザBが、別のオブジェクトO2を描いた場合、オブジェクトO2の着色は、オブジェクトO1の着色と同じとし、異なる系統の着色を規制する。逆に、同じ系統の着色を規制してもよい。   Alternatively, when a plurality of users draw a picture on a single touch panel screen, a user B different from the user A who draws the largest object O1 on the screen draws another object O2, The coloring of O2 is the same as the coloring of the object O1, and the coloring of different systems is restricted. Conversely, coloring of the same system may be restricted.

画像プリント作成装置の概略構成を示すブロック図Block diagram showing schematic configuration of image print creation device CPUの実行するプログラムで実現される機能をブロックで模式的に示した図The figure which showed the function which is actualized with the program which CPU executes with the block 画像選択画面の一例を示す図The figure which shows an example of an image selection screen 第1実施形態に係るプリント作成処理のフローチャートFlowchart of print creation processing according to the first embodiment 処理対象画像選択画面の一例を示す図The figure which shows an example of a process target image selection screen 処理対象画像選択画面の他の一例を示す図The figure which shows another example of a process target image selection screen 第2実施形態に係るプリント作成処理のフローチャートFlowchart of print creation processing according to the second embodiment アルバム1ページ分の台紙に配置されたメイン画像およびサブ画像の一例を示す図The figure which shows an example of the main image arrange | positioned on the mount for 1 page of an album, and a sub image メイン画像/サブ画像の選択画面の一例を示す図The figure which shows an example of the selection screen of a main image / sub image ユーザAとユーザBが共通してメイン画像に選択した候補画像Cを台紙Tのメイン画像に選択した様子を模式的に示した図The figure which showed typically a mode that the user A and the user B selected the candidate image C selected as the main image in common as the main image of the mount T メイン画像選択者によるRGB色補正レベルゲージで設定された補正レベルの一例を示す図The figure which shows an example of the correction level set with the RGB color correction level gauge by the main image selector サブ画像選択者によるRGB色補正レベルゲージで設定された補正レベルの一例を示す図The figure which shows an example of the correction level set with the RGB color correction level gauge by the sub image selection person メイン画像選択者による明るさ補正レベルゲージで設定された補正レベルの一例を示す図The figure which shows an example of the correction level set with the brightness correction level gauge by the main image selector サブ画像選択者による明るさ補正レベルゲージで設定された補正レベルの一例を示す図The figure which shows an example of the correction level set with the brightness correction level gauge by the sub image selection person メイン画像選択者がメイン画像とサブ画像に異なる色補正を施した場合の一例を示す図The figure which shows an example when the main image selector performs different color correction to the main image and the sub image

符号の説明Explanation of symbols

10:画像プリント作成装置、18:HDD、34:画像プリント生成部 10: Image print creation device, 18: HDD, 34: Image print generation unit

Claims (13)

オブジェクトを表示装置に表示するための表示データを作成し、前記表示データを前記表示装置に出力する表示制御部と、
1または複数のユーザによる、前記表示装置に表示されたオブジェクトのうち所望のオブジェクトの選択操作および前記所望のオブジェクトに関する編集の属性の設定操作を受け付ける操作受付部と、
前記操作受付部が受け付けた前記所望のオブジェクトの選択操作および前記所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を出力するユーザ識別部と、
前記操作受付部が受け付けた編集の属性の設定操作に基づいて前記オブジェクトの編集の属性を設定する属性設定部と、
前記ユーザ識別部が出力した、前記所望のオブジェクトの選択操作を行ったユーザの識別情報および前記所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を記憶する記憶部と、
を備えるオブジェクト操作装置。
A display controller for creating display data for displaying an object on a display device, and outputting the display data to the display device;
An operation receiving unit that receives a selection operation of a desired object among objects displayed on the display device by one or a plurality of users and an editing attribute setting operation related to the desired object;
A user identification unit that outputs identification information of a user who has performed a selection operation of the desired object received by the operation reception unit and an editing attribute setting operation related to the desired object;
An attribute setting unit configured to set an editing attribute of the object based on an editing attribute setting operation received by the operation receiving unit;
A storage unit for storing the identification information of the user who performed the selection operation of the desired object and the identification information of the user who performed the editing attribute setting operation related to the desired object, which is output by the user identification unit;
An object operation device comprising:
前記記憶部に記憶された前記所望のオブジェクトの選択操作を行ったユーザの識別情報と前記所望のオブジェクトに関する設定操作を行ったユーザの識別情報とが一致するか否かを判断し、両者が一致しない場合、前記所望のオブジェクトに関する編集の設定操作のうち所定の設定操作の受け付けを制限する操作制御部を備える請求項1に記載のオブジェクト操作装置。   It is determined whether or not the identification information of the user who performed the selection operation of the desired object stored in the storage unit matches the identification information of the user who performed the setting operation related to the desired object. 2. The object operation device according to claim 1, further comprising an operation control unit that restricts acceptance of a predetermined setting operation among the editing setting operations related to the desired object. 前記操作受付部は、前記表示制御部に表示されたオブジェクトのうち特定の編集の属性を付与すべきメインオブジェクトの選択操作を受け付け、
前記ユーザ識別部は、前記メインオブジェクトの選択操作を行ったユーザであるメインオブジェクト選択ユーザの識別情報および前記メインオブジェクト以外のオブジェクトであるサブオブジェクトの選択操作を行ったユーザであるサブオブジェクト選択ユーザの識別情報を出力し、
前記操作制御部は、前記ユーザ識別部が前記メインオブジェクト選択ユーザの識別情報および前記サブオブジェクト選択ユーザの識別情報を出力した場合、前記メインオブジェクト選択ユーザの識別情報と前記サブオブジェクト選択ユーザの識別情報とが一致するか否かを判断し、両者が一致しない場合、前記操作受付部が受け付けた前記メインオブジェクト選択ユーザからの前記メインオブジェクトに関する設定操作の内容に応じて、前記サブオブジェクト選択ユーザからの前記サブオブジェクトに関する編集の属性の設定操作の受け付けを制限する請求項2に記載のオブジェクト操作装置。
The operation accepting unit accepts a selection operation of a main object to be given a specific editing attribute among objects displayed on the display control unit,
The user identification unit includes identification information of a main object selection user who is a user who performs a selection operation of the main object and a sub object selection user who is a user who performs a selection operation of a sub object which is an object other than the main object. Output identification information,
The operation control unit, when the user identification unit outputs the identification information of the main object selection user and the identification information of the sub object selection user, the identification information of the main object selection user and the identification information of the sub object selection user If the two do not match, according to the content of the setting operation related to the main object from the main object selection user received by the operation reception unit, the sub object selection user The object operation device according to claim 2, wherein reception of an edit attribute setting operation related to the sub-object is restricted.
前記操作制御部は、前記メインオブジェクト選択ユーザからの前記メインオブジェクトに関する編集の属性の設定操作と前記メインオブジェクト選択ユーザの選択したサブオブジェクトである第1サブオブジェクトに関する編集の属性の設定操作が共通するか否かを判断し、両者が共通する場合、前記第1サブオブジェクト以外のサブオブジェクトである第2サブオブジェクトを選択したサブオブジェクト選択ユーザである第2サブオブジェクト選択ユーザからの前記第2サブオブジェクトに関する編集の属性の設定操作の受け付けを制限する請求項3に記載のオブジェクト操作装置。   In the operation control unit, an editing attribute setting operation related to the main object from the main object selecting user and an editing attribute setting operation related to the first sub-object selected by the main object selecting user are common. The second sub-object from the second sub-object selection user who is the sub-object selection user who has selected the second sub-object that is a sub-object other than the first sub-object. The object operation device according to claim 3, wherein reception of an editing attribute setting operation related to the operation is restricted. 前記操作制御部は、前記メインオブジェクト選択ユーザからの前記メインオブジェクトに関する編集の属性の設定操作と前記第1サブオブジェクトに関する編集の属性の設定操作が共通するか否かを判断し、両者が共通しない場合、前記操作受付部が受け付けた前記メインオブジェクト選択ユーザからの前記メインオブジェクトに関する編集の属性の設定操作の内容および前記メインオブジェクト選択ユーザからの前記第1サブオブジェクトに関する編集の属性の設定操作の内容に応じて、前記第2サブオブジェクト選択ユーザからの前記第2サブオブジェクトに関する編集の属性の設定操作の受け付けを制限する請求項4に記載のオブジェクト操作装置。   The operation control unit determines whether an editing attribute setting operation related to the main object from the main object selection user is common to an editing attribute setting operation related to the first sub-object, and both are not common Content of the editing attribute setting operation related to the main object from the main object selection user received by the operation receiving unit and content of the editing attribute setting operation related to the first sub-object from the main object selection user The object operation device according to claim 4, wherein reception of an editing attribute setting operation related to the second sub-object from the second sub-object selection user is limited according to the user. 前記操作制御部は、前記ユーザ識別部が識別情報を出力した異なるユーザが共通した選択操作を行ったオブジェクトをメインオブジェクトとし、前記ユーザ識別部が識別情報を出力した異なるユーザが共通しない選択操作を行ったメインオブジェクト以外のオブジェクトをサブオブジェクトとする請求項2〜5のいずれかに記載のオブジェクト操作装置。   The operation control unit sets a main object as an object that has been subjected to a common selection operation by different users whose identification information is output by the user identification unit, and performs a selection operation that is not common to different users whose identification information has been output by the user identification unit. The object operating device according to any one of claims 2 to 5, wherein an object other than the performed main object is a sub-object. 前記メインオブジェクトに付与すべき特定の編集の属性は、所定の台紙における占有面積の割り当てを最大にすることを含む請求項3〜6のいずれかに記載のオブジェクト操作装置。   The object operation device according to claim 3, wherein the specific editing attribute to be given to the main object includes maximizing allocation of an occupied area on a predetermined mount. 前記オブジェクトは画像を含み、前記オブジェクトの編集の属性は、色、トリミング範囲、輝度および所定の台紙における配置位置もしくはサイズのうち少なくとも1つを含む請求項1〜7のいずれかに記載のオブジェクト操作装置。   The object operation according to claim 1, wherein the object includes an image, and the editing attribute of the object includes at least one of a color, a trimming range, a luminance, and an arrangement position or size on a predetermined mount. apparatus. 前記表示制御部は、前記属性設定部の設定したオブジェクトの編集の属性に応じて前記オブジェクトの表示データを作成する請求項1〜8のいずれかに記載のオブジェクト操作装置。   The object operation device according to claim 1, wherein the display control unit creates display data of the object according to an editing attribute of the object set by the attribute setting unit. 前記操作制御部は、前記所望のオブジェクトの選択操作を行ったユーザの識別情報と前記所望のオブジェクトに関する設定操作を行ったユーザの識別情報とが一致するか否かを判断し、両者が一致しない場合、前記所望のオブジェクトに関する全ての設定操作の受け付けを制限する請求項2〜9のいずれかに記載のオブジェクト操作装置。   The operation control unit determines whether or not the identification information of the user who performed the selection operation of the desired object matches the identification information of the user who performed the setting operation related to the desired object, and the two do not match The object operation device according to claim 2, wherein reception of all setting operations related to the desired object is restricted. 前記操作制御部は、前記所望のオブジェクトに関する設定操作を行ったユーザの識別情報が複数出力された場合、前記所望のオブジェクトに関する設定操作を行ったユーザのうち、前記所望のオブジェクトの選択操作を行ったユーザからの設定操作を優先して受け付ける請求項2〜9のいずれかに記載のオブジェクト操作装置。   The operation control unit performs the selection operation of the desired object among the users who performed the setting operation regarding the desired object when a plurality of identification information of the user who performed the setting operation regarding the desired object is output. The object operation device according to claim 2, wherein a setting operation from a user is preferentially received. オブジェクトを表示装置に表示するための表示データを作成し、前記表示データを前記表示装置に出力するステップと、
1または複数のユーザによる、前記表示装置に表示されたオブジェクトのうち所望のオブジェクトの選択操作および前記所望のオブジェクトに関する編集の属性の設定操作を受け付けるステップと、
前記受け付けた前記所望のオブジェクトの選択操作および前記所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を出力するステップと、
前記受け付けた編集の属性の設定操作に基づいて前記オブジェクトの編集の属性を設定するステップと、
前記所望のオブジェクトの選択操作を行ったユーザの識別情報および前記所望のオブジェクトに関する編集の属性の設定操作を行ったユーザの識別情報を記憶するステップと、
をコンピュータに実行させるオブジェクト操作方法。
Creating display data for displaying an object on a display device, and outputting the display data to the display device;
Receiving a selection operation of a desired object among objects displayed on the display device by one or a plurality of users and an operation for setting an editing attribute related to the desired object;
Outputting the identification information of the user who has performed the selection operation of the received desired object and the editing attribute setting operation related to the desired object;
Setting the editing attribute of the object based on the accepted editing attribute setting operation;
Storing the identification information of the user who performed the selection operation of the desired object and the identification information of the user who performed the editing attribute setting operation regarding the desired object;
Object operation method that causes a computer to execute
請求項12に記載のオブジェクト操作方法をコンピュータに実行させるためのオブジェクト操作プログラム。   An object operation program for causing a computer to execute the object operation method according to claim 12.
JP2008195272A 2008-07-29 2008-07-29 Object operation device, method and program Pending JP2010033363A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008195272A JP2010033363A (en) 2008-07-29 2008-07-29 Object operation device, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008195272A JP2010033363A (en) 2008-07-29 2008-07-29 Object operation device, method and program

Publications (1)

Publication Number Publication Date
JP2010033363A true JP2010033363A (en) 2010-02-12

Family

ID=41737746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008195272A Pending JP2010033363A (en) 2008-07-29 2008-07-29 Object operation device, method and program

Country Status (1)

Country Link
JP (1) JP2010033363A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150608A (en) * 2011-01-18 2012-08-09 Kyocera Corp Portable electronic device
EP2741203A2 (en) 2012-12-06 2014-06-11 Konica Minolta, Inc. Object operation apparatus and non-transitory computer-readable storage medium
JPWO2017038321A1 (en) * 2015-09-03 2018-06-14 オリンパス株式会社 Endoscope apparatus and display change control method for endoscope apparatus
US10885366B2 (en) 2018-02-20 2021-01-05 Fujitsu Limited Input information management apparatus and input information management method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012150608A (en) * 2011-01-18 2012-08-09 Kyocera Corp Portable electronic device
EP2741203A2 (en) 2012-12-06 2014-06-11 Konica Minolta, Inc. Object operation apparatus and non-transitory computer-readable storage medium
JPWO2017038321A1 (en) * 2015-09-03 2018-06-14 オリンパス株式会社 Endoscope apparatus and display change control method for endoscope apparatus
US10885366B2 (en) 2018-02-20 2021-01-05 Fujitsu Limited Input information management apparatus and input information management method

Similar Documents

Publication Publication Date Title
US9081432B2 (en) Display device with touch panel
JP4991614B2 (en) Layout determining method, program and apparatus
US8601369B2 (en) Image processing apparatus, image processing method, and image processing program
US8305626B2 (en) Computer readable storage medium with printer driver stored therein for effecting a setting change
US9325868B2 (en) Image processor displaying plural function keys in scrollable state
US8413076B2 (en) Information processing apparatus and method
JP6702900B2 (en) Information processing apparatus, display control method, and program
US20140149904A1 (en) Information processing apparatus, method for controlling the same, and storage medium
US20100251110A1 (en) Document processing apparatus, control method therefor, and computer-readable storage medium storing program for the control method
JP7024308B2 (en) Display device, display method and display program
US20100026706A1 (en) Object processing apparatus, method, program, and recording medium for the program
JP6723966B2 (en) Information processing apparatus, display control method, and program
JP6808330B2 (en) Information processing equipment, information processing methods, and programs
EP3196702B1 (en) Printing apparatus, image reading apparatus, control program of printing apparatus, and control program of image reading apparatus
JP2009237703A (en) Image output method, device and program
JP6887816B2 (en) Image processing equipment, control methods, and programs
JP6723938B2 (en) Information processing apparatus, display control method, and program
JP2010033363A (en) Object operation device, method and program
US8941875B2 (en) Image processing system, image processing method, and computer readable recording medium storing program thereof
JP7034819B2 (en) Image processing equipment, image processing methods, and programs
JP2013162299A (en) Image processing apparatus, and control method and control program of the same
JP2017039258A (en) Image forming device, image forming method, and program
US20130268898A1 (en) Image Folder Transmission/Playing Device and Image Folder Transmission/Playing Program
US20210386178A1 (en) Storage medium, computer control method, and information processing apparatus
JP3927453B2 (en) Automatic photo creation method and automatic photo creation device