JP5597069B2 - Image editing apparatus, control method thereof, and program - Google Patents

Image editing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP5597069B2
JP5597069B2 JP2010195058A JP2010195058A JP5597069B2 JP 5597069 B2 JP5597069 B2 JP 5597069B2 JP 2010195058 A JP2010195058 A JP 2010195058A JP 2010195058 A JP2010195058 A JP 2010195058A JP 5597069 B2 JP5597069 B2 JP 5597069B2
Authority
JP
Japan
Prior art keywords
editing
image
determined
determining
objects
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010195058A
Other languages
Japanese (ja)
Other versions
JP2012053623A (en
Inventor
大己 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010195058A priority Critical patent/JP5597069B2/en
Publication of JP2012053623A publication Critical patent/JP2012053623A/en
Application granted granted Critical
Publication of JP5597069B2 publication Critical patent/JP5597069B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像の編集技術に関するものである。   The present invention relates to an image editing technique.

一度の撮影で、映像がユーザの所望の構図または効果の映像となっていることは難しい。そのため撮影後に、構図や効果を変更したいというニーズがある。具体的には、被写体の位置や大きさを変更することにより構図を変更したい、または背景領域のみにズームブラーを付与し躍動感を持たせたいなどがあげられる。   It is difficult for the video to be a video having a composition or effect desired by the user by one shooting. Therefore, there is a need to change the composition and effect after shooting. Specifically, it is desired to change the composition by changing the position and size of the subject, or to add a zoom blur to the background area only to give a feeling of dynamism.

実際にこれらを行うためには、例えばADOBE社のPHOTOSHOPでは、画像を領域ごとにレイヤーにわける。レイヤーごとに、付与する画像処理を選択し、各画像処理のパラメータを一つ一つ設定していき、レイヤーを重ねて合成を行う。例えば、被写体の位置や大きさを変更するためには、被写体領域の位置のx、y座標を、大きさの倍率を指定する必要がある。また、ズームブラーの場合は、ズームブラーの方向と強度と中心位置のx、y座標を指定する必要がある。(非特許文献1)
また、タッチパネル上の操作に応じて、ズーム、パン、回転などの処理をすることは行われている。(特許文献1)
In order to actually perform these, for example, in PHOTOSHOP of ADOBE, an image is divided into layers for each region. For each layer, the image processing to be applied is selected, the parameters of each image processing are set one by one, and the layers are overlapped for synthesis. For example, in order to change the position and size of the subject, it is necessary to specify the magnification of the size of the x and y coordinates of the position of the subject area. In the case of zoom blur, it is necessary to specify the direction and intensity of the zoom blur and the x and y coordinates of the center position. (Non-Patent Document 1)
In addition, processing such as zooming, panning, and rotation is performed in accordance with operations on the touch panel. (Patent Document 1)

特表2008−508601号公報Special table 2008-508601 gazette

米国アドビシステムズ「ADOBE PHOTOSHOP CS4 ユーザーガイド」<http://help.adobe.com/ja_JP/Photoshop/11.0/photoshop_cs4_help.pdf>United States Adobe Systems "Adobe Photoshop CS4 User Guide" <http://help.adobe.com/en_US/Photoshop/11.0/photoshop_cs4_help.pdf>

映像の構図の変更や効果的なエフェクトを付与する際、正確なパラメータを指定した画像処理を行う必要がある。しかし、上記従来技術では、各画像処理のパラメータを一つ一つ正確に設定する必要があり手間がかかる。   When changing the composition of a video or applying an effective effect, it is necessary to perform image processing with accurate parameters specified. However, in the above prior art, it is necessary to set each image processing parameter accurately one by one, which is troublesome.

本発明は、上記問題に鑑みなされたものであり、複数のオブジェクトを含む画像中の、意図するオブジェクトに対して、直感的に効果的な画像編集を行える技術を提供しようとするものである。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of intuitively and effectively performing image editing on an intended object in an image including a plurality of objects.

この課題を解決するため、例えば本発明の画像編集装置は以下の構成を備える。すなわち、
複数のオブジェクトが混在した画像を編集する画像編集装置であって、
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え
前記編集手段は、検出するジェスチャーが2箇所の指示位置の並行移動を行う操作であった場合、編集の種類がモーションブラーであるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の並行移動量を、モーションブラーのパラメータとして利用することを特徴とする
In order to solve this problem, for example, an image editing apparatus of the present invention has the following configuration. That is,
An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
An instruction position referred to when determining the object by the determination means, in accordance with the variation of the gesture and the indicated position represented by the indicated position detected by subsequently continuously according to the indicated position, the edit type and edit Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters ,
The editing means determines that the type of editing is motion blur when the gesture to be detected is an operation for performing parallel movement of two designated positions, and performs parallel movement when the gesture for the initial stage of the gesture is performed. The quantity is used as a motion blur parameter .

本発明によれば、複数のオブジェクトを含む画像中の、意図するオブジェクトに対して、直感的に効果的な画像編集を行えるようになる。   According to the present invention, intuitive and effective image editing can be performed on an intended object in an image including a plurality of objects.

実施形態における画像編集装置のブロック構成図。1 is a block configuration diagram of an image editing apparatus according to an embodiment. 第1の実施形態の閲覧モードと編集モードの遷移とそれぞれのモードにおける操作例を示す図。The figure which shows the example of operation in each mode in transition of the browsing mode of 1st Embodiment, and edit mode. 第1の実施形態における閲覧モード時の処理を示すフローチャート。The flowchart which shows the process at the time of the browsing mode in 1st Embodiment. 第1の実施形態における編集例を示す図。The figure which shows the example of an edit in 1st Embodiment. 第1の実施形態における編集モードの処理を示すフローチャート。6 is a flowchart illustrating processing in an edit mode according to the first embodiment. 第2の実施形態における編集例を示す図。The figure which shows the example of an edit in 2nd Embodiment. 第2の実施形態における編集モードの処理を示すフローチャート。10 is a flowchart illustrating processing in an edit mode according to the second embodiment. 第3の実施形態における編集例を示す図。The figure which shows the example of an edit in 3rd Embodiment. 第3の実施形態における編集モードの処理を示すフローチャート。10 is a flowchart illustrating processing in an edit mode according to the third embodiment. 第4の実施形態における編集例を示す図。The figure which shows the example of an edit in 4th Embodiment. 第4の実施形態における編集モードの処理を示すフローチャート。10 is a flowchart illustrating processing in an edit mode according to the fourth embodiment. 第5の実施形態における編集例を示す図。The figure which shows the example of an edit in 5th Embodiment. 第5の実施形態における編集モードの処理を示すフローチャート。10 is a flowchart illustrating processing in an edit mode according to the fifth embodiment. 第5の実施形態におけるパラメータ決定のフローチャート。The flowchart of the parameter determination in 5th Embodiment. 第6の実施形態における編集例を示す図。The figure which shows the example of an edit in 6th Embodiment. 第6の実施形態における編集モードの処理を示すフローチャート。10 is a flowchart illustrating processing in an edit mode according to the sixth embodiment. 第8の実施形態における編集例を示す図。The figure which shows the example of an edit in 8th Embodiment. 第8の実施形態における編集モードの処理を示すフローチャート。The flowchart which shows the process of the edit mode in 8th Embodiment. 第7の実施形態における編集モードの処理を示すフローチャート。10 is a flowchart illustrating processing in an edit mode according to the seventh embodiment.

以下添付図面に従って本発明に係る実施形態を詳細に説明する。   Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings.

[第1の実施形態]
図1は、本実施形態を実現する画像編集装置のブロック構成図である。図示の如く、本装置は、装置全体の制御を司るCPU101、CPU101が実行するプログラムや利用するデータを予め格納しているROM102、CPU101のワークエリアとして使用するRAM103を有する。また、本装置は、画像ファイルを記憶保持する記憶装置104、CPU101の制御下で、液晶等のディスプレイ105に表示する画像を展開したり、描画処理を行う表示制御部106を有する。更に本装置は、ディスプレイ105の表示画面の前面に設けられた透明なタッチパネル107に対する操作者のタッチの有無、並びに、タッチ位置を検出する位置検出部108、更に、外部装置と通信するためのインタフェース109を有する。なお、実施形態のタッチパネル107及び位置検出部108で表わされる座標入力装置は、その種類を問わないが、少なくとも複数のタッチ位置を検出可能であるものとする。
[First Embodiment]
FIG. 1 is a block diagram of an image editing apparatus that implements the present embodiment. As shown in the figure, this apparatus includes a CPU 101 that controls the entire apparatus, a ROM 102 that stores programs executed by the CPU 101 and data to be used in advance, and a RAM 103 that is used as a work area for the CPU 101. In addition, the apparatus includes a storage device 104 that stores and holds image files, and a display control unit 106 that expands an image to be displayed on a display 105 such as a liquid crystal or performs a drawing process under the control of the CPU 101. Furthermore, the present apparatus includes a position detection unit 108 that detects whether or not the operator touches the transparent touch panel 107 provided on the front surface of the display screen of the display 105, a touch position, and an interface for communicating with an external device. 109. Note that the coordinate input device represented by the touch panel 107 and the position detection unit 108 according to the embodiment can detect at least a plurality of touch positions, regardless of the type.

本実施形態では、上記画像編集装置の一形態としてフォトフレームを例にとって説明する。また、記憶装置104には、複数の画像ファイルが既に格納されているものとして説明する。更に記憶装置104に格納されている画像ファイルは、前景オブジェクト、背景オブジェクト等、複数のオブジェクトが混在し、それぞれについて奥行き(レイヤ)や位置が独立して定義できる形式のファイルであるものとする。かかるファイル形式の代表的なものとして、ADOBE社のPHOTOSHOPが作成するPSDファイル(拡張子が「psd」のファイル)があるが、ファイル種類はこれに限らない。   In the present embodiment, a photo frame will be described as an example of the image editing apparatus. In the following description, it is assumed that a plurality of image files are already stored in the storage device 104. Furthermore, it is assumed that the image file stored in the storage device 104 is a file having a format in which a plurality of objects such as a foreground object and a background object are mixed, and the depth (layer) and position can be independently defined for each object. A representative example of such a file format is a PSD file (file with extension “psd”) created by PHOTOSHOP of ADOBE, but the file type is not limited to this.

さて、不図示のスイッチを操作して、本実施形態の装置の電源がONになると、CPU100はROM102に格納されたプログラムを実行することで、本装置を先に説明したフォトフレームとして機能させることになる。   When a switch (not shown) is operated to turn on the power of the apparatus according to the present embodiment, the CPU 100 executes the program stored in the ROM 102 so that the apparatus functions as the photo frame described above. become.

本実施形態で行うUIの一連の流れを、ディスプレイ105のスクリーンショットを用いて説明する。なお、操作者はディスプレイをタッチするのではなく、厳密にはその前面のタッチパネル107をタッチするものであるが、以下では、便宜的にディスプレイ105面にタッチする、と言う。   A series of UI flows performed in this embodiment will be described using screen shots of the display 105. Although the operator does not touch the display but strictly touches the touch panel 107 on the front surface, it is hereinafter referred to as touching the display 105 for convenience.

図2(a)に閲覧モード時のスクリーンショットを示す。閲覧モードとは、フォトフレーム内の記憶装置104に記憶された画像を閲覧していくモードである。301は、閲覧モード時のスクリーンショットである。記憶装置104に記憶されている画像が1枚表示される。ディスプレイ105上でフリック操作302を行うと記憶装置104に記憶されている次の画像が表示される。また、図2(b)に示すように、ディスプレイ105上でダブルタップ操作303を行うと、閲覧モードから編集モード画面304へ画面遷移する。画面の黒い枠が表示されるのは、現在は編集モードにあることを示すものである。換言すれば、黒枠が表示されないとき、閲覧モードを意味する。なお、フリック操作とは、指をディスプレイ105にタッチし、そのタッチ状態を維持したまま移動させる操作を言う。また、ダブルタップ操作とは、同じ位置を、ある程度短い期間無いに2回タッチする操作を言う。   FIG. 2A shows a screen shot in the browsing mode. The browsing mode is a mode in which an image stored in the storage device 104 in the photo frame is browsed. 301 is a screen shot in the browsing mode. One image stored in the storage device 104 is displayed. When the flick operation 302 is performed on the display 105, the next image stored in the storage device 104 is displayed. Also, as shown in FIG. 2B, when a double tap operation 303 is performed on the display 105, the screen transitions from the browsing mode to the editing mode screen 304. A black frame on the screen indicates that you are currently in edit mode. In other words, when the black frame is not displayed, it means the browsing mode. Note that the flick operation refers to an operation in which a finger is touched on the display 105 and moved while the touch state is maintained. In addition, the double tap operation refers to an operation of touching the same position twice without any short period.

図2(c)に編集モード時の被写体移動の画像処理を行った際のスクリーンショットを示す。編集モードでは、その特に表示された画像の各オブジェクトが、レイヤに管理される状態となる。従って、前景と背景のレイヤで構成される画像の場合、前景のみを切り出したアルファマットを保持する画像の前景領域と前景を切り出した画像とは異なる画像を背景領域として重ねあわせて表示する。ユーザ操作に応じて、表示されている各画像に画像処理を施す。   FIG. 2C shows a screen shot when image processing for subject movement in the edit mode is performed. In the edit mode, each object of the displayed image is managed by the layer. Accordingly, in the case of an image composed of the foreground and background layers, an image having a foreground area in which only the foreground is cut out and holding the alpha matte and an image different from the image in which the foreground is cut out are superimposed and displayed as a background area. Image processing is performed on each displayed image in accordance with a user operation.

尚、本実施形態では、予め用意していた前景領域が映っていない背景領域のみの画像との差分をとることにより前景背景の領域の分離している。しかし、これは一例であり、これに限るものではない。例えば、特開2009−059060号公報のように動体を前景とし分離しても良いし、ユーザが前景と背景の領域を指定することにより行っても良い。また、本実施形態では、編集対象が前景と背景の二つの領域を持っているが、これは一例でありこれに限るものではない。例えば、さらに複数の領域を持っていても良いし、一つの領域のみ持っていても良い。   In this embodiment, the foreground / background region is separated by taking a difference from an image of only a background region that does not show a foreground region prepared in advance. However, this is an example, and the present invention is not limited to this. For example, as in Japanese Patent Application Laid-Open No. 2009-059060, the moving object may be separated as the foreground, or the user may specify the foreground and background areas. In the present embodiment, the editing target has two areas, the foreground and the background, but this is an example and the present invention is not limited to this. For example, it may have a plurality of regions or only one region.

また、本実施形態では、前景領域と背景領域が異なる画像から生成しているが、これは一例でありこれに限るものではない。例えば同一の画像から、前景を切り出し前景領域とし、前傾領域以外の領域を背景領域として生成しても良い。   In this embodiment, the foreground area and the background area are generated from different images. However, this is an example and the present invention is not limited to this. For example, from the same image, the foreground may be cut out and used as a foreground area, and an area other than the forward tilt area may be generated as a background area.

図2(c)に示された表示画像は、前景領域401、及び、背景領域402を有することを示している。操作者が、ディスプレイ201上の前景領域401をタッチし、ドラッグ操作403を行うと、ドラッグ操作403に応じて前景領域401の表示位置が変化し前景領域404となる。また、図2(d)に示すように、ディスプレイ105上でダブルタップ操作を行うと、閲覧モード画面301へ移行し、移動処理を行った前景領域404と背景領域402を合成した合成画像を表示する。このとき、CPU101は、編集内容を反映させるため、オリジナルの画像ファイルを更新する。具体的には、オリジナル画像ファイル内の前景オブジェクトの位置情報を更新することになる。尚、ここで前景領域404を移動対象としているが、背景領域402を移動させても良い。   The display image shown in FIG. 2C has a foreground area 401 and a background area 402. When the operator touches the foreground area 401 on the display 201 and performs a drag operation 403, the display position of the foreground area 401 changes according to the drag operation 403 to become the foreground area 404. Also, as shown in FIG. 2D, when a double tap operation is performed on the display 105, the view mode screen 301 is displayed, and a composite image in which the foreground area 404 and the background area 402 subjected to the moving process are combined is displayed. To do. At this time, the CPU 101 updates the original image file to reflect the edited content. Specifically, the position information of the foreground object in the original image file is updated. Here, the foreground area 404 is the movement target, but the background area 402 may be moved.

図3のフローチャートに従い、CPU101が実行する処理を説明する。電源がONになり、フォトフレームとして起動するとブラウズモード画面301が表示される(S501)。次いで、電源がオフされたか否かを判定する(S502)。電源オフではないと判定された場合、ディスプレイ105へのタッチ(タッチの有無、及び、タッチされた場合にはその座標位置)を検出する(S503)。入力座標の変化から入力のジェスチャーがダブルタップか否かを判定する(S504)。ダブルタップと判定された場合(S504)、表示中の画像の前景と背景を別レイヤとしてRAM103に格納し、編集モード処理へ移行する(S505)。編集モード処理終了後、電源オフ判定(S502)へ移行する。編集モード処理(S505)の詳細は後で説明する。   Processing executed by the CPU 101 will be described with reference to the flowchart of FIG. When the power is turned on and activated as a photo frame, a browse mode screen 301 is displayed (S501). Next, it is determined whether or not the power is turned off (S502). If it is determined that the power is not turned off, the touch on the display 105 (the presence or absence of touch and the coordinate position when touched) is detected (S503). It is determined whether or not the input gesture is a double tap from the change of the input coordinates (S504). If it is determined to be a double tap (S504), the foreground and background of the image being displayed are stored as separate layers in the RAM 103, and the process proceeds to edit mode processing (S505). After the edit mode processing is completed, the process proceeds to power-off determination (S502). Details of the edit mode process (S505) will be described later.

ダブルタップ操作と判定されなかった場合(S504)、入力座標の変化から入力のジェスチャーがフリック操作か否かを判定する(S506)。フリックと判定された場合(S506)、現在表示している画像の次の画像を記憶媒体104から読み出し、ディスプレイ201へ表示し(S507)、電源オフ判定(S502)へ移行する。フリック操作でもないと判定された場合(S506)、電源オフ判定(S502)へ移行する。電源がオフされたと判定された場合(S503)、終了する。   If it is not determined that the operation is a double tap operation (S504), it is determined whether or not the input gesture is a flick operation from a change in input coordinates (S506). If it is determined that a flick has occurred (S506), the next image after the currently displayed image is read from the storage medium 104, displayed on the display 201 (S507), and the process proceeds to power-off determination (S502). When it is determined that the operation is not a flick operation (S506), the process proceeds to power-off determination (S502). If it is determined that the power has been turned off (S503), the process ends.

図4を用いて、本実施形態における編集モード時のオブジェクト移動処理の操作について説明する。オブジェクト移動処理は、オブジェクト領域のドラッグによって行う。601はドラッグの開始時の入力座標である。本実施形態では、タッチされたのが1箇所であり、そのタッチされた入力座標601が含まれ、一番手前に位置するレイヤに割り当てられた領域602が移動対象となる。603はドラッグ操作中の入力検出位置である。604はドラッグの移動量となる。移動量604を対象移動処理の移動量とし、移動対象領域602を、605の位置まで移動させる処理を行う。なお、ドラッグ操作は、タッチ状態を維持しつつ、そのタッチ位置を変更する操作であり、先に説明したフリック操作と同義語であり、CPU101から見た場合の違いはない。しかし、一般に、ドラッグ操作は、非タッチ状態にした位置に意味があり、タッチしてから非タッチ状態になるまでにかかる時間に制限はない。一方、フリック操作では、指を払う操作であって、どちらの方向にタッチ位置が変化したかが重要であり、且つ、ドラッグ操作と比較して、タッチ状態になってから非タッチ状態になるまでは比較的短い期間を言う。本実施形態でも、技術内容を理解しやすくするやめ、フリック操作、ドラッグ操作を上記のような意味で説明することとする。   With reference to FIG. 4, the operation of the object moving process in the edit mode in the present embodiment will be described. The object moving process is performed by dragging the object area. Reference numeral 601 denotes input coordinates at the start of dragging. In the present embodiment, the touched is one place, the touched input coordinate 601 is included, and the area 602 assigned to the layer located at the foremost is a movement target. Reference numeral 603 denotes an input detection position during the drag operation. Reference numeral 604 denotes a drag movement amount. The movement amount 604 is set as the movement amount of the target movement process, and processing for moving the movement target area 602 to the position 605 is performed. The drag operation is an operation for changing the touch position while maintaining the touch state, and is synonymous with the flick operation described above, and there is no difference when viewed from the CPU 101. However, in general, the drag operation has a meaning in the position in the non-touch state, and there is no limitation on the time taken from the touch to the non-touch state. On the other hand, in the flick operation, it is an operation to pay a finger, and it is important in which direction the touch position has changed, and compared with the drag operation, from the touch state to the non-touch state Says a relatively short period. Also in this embodiment, the flick operation and the drag operation will be described in the above meaning, in order to facilitate understanding of the technical contents.

図5(a)に本実施形態における編集モード時の処理のフローチャートを示す。編集モードが開始すると、ディスプレイ105への入力座標を検出する(S701)。入力座標の変化から入力のジェスチャーがダブルタップか否かを判定する(S702)。ダブルタップではないと判定された場合(S702)、入力座標の変化から入力のジェスチャーがドラッグか否かを判定する(S703)。ドラッグ操作と判定された場合(S703)、対象移動処理(S704)を行い、入力位置検出(S701)へ移行する。対象移動処理については、後で詳細を説明する。また、ドラッグ操作ではないと判定された場合(S703)、入力位置検出(S701)へ移行する。ダブルタップと判定された場合(S702)、行った画像処理を元に合成を行い、合成した画像を記憶媒体104へ記憶し、編集モードを終了する。   FIG. 5A shows a flowchart of processing in the editing mode in the present embodiment. When the edit mode is started, input coordinates to the display 105 are detected (S701). It is determined from the change of the input coordinates whether or not the input gesture is a double tap (S702). If it is determined that it is not a double tap (S702), it is determined from the change of the input coordinates whether or not the input gesture is a drag (S703). When it is determined that the operation is a drag operation (S703), a target movement process (S704) is performed, and the process proceeds to input position detection (S701). Details of the target movement process will be described later. When it is determined that the operation is not a drag operation (S703), the process proceeds to input position detection (S701). If it is determined to be a double tap (S702), composition is performed based on the performed image processing, the synthesized image is stored in the storage medium 104, and the editing mode ends.

図5(b)に本実施形態におけるオブジェクト移動処理のフローチャートを示す。   FIG. 5B shows a flowchart of object movement processing in the present embodiment.

オブジェクト移動処理が開始されると、ドラッグ操作開始時の入力座標が含まれる領域のオブジェクトを、画像処理を施す対象画像とする(S801)。ディスプレイ105への入力座標を検出する(S802)。入力のジェスチャーがドラッグ操作か判定する(S803)。ドラッグ操作と判定された場合、(S803)ドラッグの移動量を検出する(S804)。検出した移動量を対象移動処理の移動量と決定する(S805)。決定したオブジェクト画像を、決定した移動量(ドラッグ操作の開始位置と終了位置との距離)に基づき移動処理を行う(S806)。そして、再び、入力座標の検出処理(S802)に戻る。なお、この段階で、オリジナル画像ファイルの移動対象となったオブジェクトの座標位置情報も更新する。そして。ドラッグと判定されなかった場合(S803)、対象移動処理を終了する。   When the object movement process is started, the object in the region including the input coordinates at the start of the drag operation is set as a target image to be subjected to image processing (S801). Input coordinates to the display 105 are detected (S802). It is determined whether the input gesture is a drag operation (S803). If it is determined that the operation is a drag operation (S803), a drag movement amount is detected (S804). The detected movement amount is determined as the movement amount of the target movement process (S805). A movement process is performed on the determined object image based on the determined movement amount (distance between the start position and end position of the drag operation) (S806). Then, the process returns to the input coordinate detection process (S802) again. At this stage, the coordinate position information of the object to be moved of the original image file is also updated. And then. If it is not determined to be a drag (S803), the target movement process is terminated.

尚、本実施形態では、前景領域と背景領域が別の画像のため、各領域が移動しても空白箇所が発生しないが、前景領域と背景領域が同じ画像から生成した場合、対象が移動したことにより空白箇所が発生する。発生した空白箇所は、特開2004−104232号公報のように近傍の画像データを用いて補完処理を行う。または、特開2010−20581号公報のように、別の画像から空白の箇所が映っている箇所を検出し、その部分を用いて補完処理を行ってもよい。このように構成し処理することにより、直感的に対象の移動を行うことができ、ユーザが所望の画像を生成することが可能となる。   In this embodiment, since the foreground area and the background area are separate images, no blank space is generated even if each area is moved. However, if the foreground area and the background area are generated from the same image, the object has moved. This creates a blank space. The generated blank portion is complemented by using neighboring image data as disclosed in Japanese Patent Application Laid-Open No. 2004-104232. Alternatively, as in Japanese Patent Application Laid-Open No. 2010-20581, a part where a blank part appears in another image may be detected, and the complementary process may be performed using that part. By configuring and processing in this way, the target can be moved intuitively, and the user can generate a desired image.

[第2の実施形態]
第2の実施形態を説明する。本第2の実施形態における装置構成は図1と同じであるものとし、その説明は省略する。なお、閲覧モードと編集モードとの切り替えは、第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Second Embodiment]
A second embodiment will be described. The apparatus configuration in the second embodiment is assumed to be the same as that in FIG. Note that switching between the viewing mode and the editing mode is the same as in the first embodiment, and description of the viewing mode is omitted.

図6(a),(b)を用いて、本第2の実施形態における編集モード時の拡大縮小処理の操作について説明する。拡大縮小操作は、タッチ位置が2箇所であり、その2箇所(2点)の入力の間隔を広げたり縮めたりするピンチイン・ピンチアウト操作を、拡大、縮小しようとオブジェクト上で行う。図6(a)における、901はピンチイン・アウト開始時の入力位置である。902は入力位置901の中間点である。本実施形態では、中間点902が含み、もっとも手前のレイヤで管理されているオブジェクト903を、画像処理を付与する対象領域とする。図6(b)において、904はピンチイン・アウト中の入力位置である。開始時の入力位置間の距離905と、操作中の入力位置間の距離906との変化量から、拡大縮小率(倍率)を決定する。中間点902を拡大縮小処理の中心とし、拡大縮小処理を行う。尚、本実施形態では、中間点902を中心とし拡大縮小処理を行っているが、これは一例でありこれに限るものではない。例えば、対象領域ごとにあらかじめ決められた点を中心に拡大縮小処理を行っても良いし、対象領域の重心を中心に拡大縮小処理を行っても良い。   The operation of the enlargement / reduction process in the editing mode in the second embodiment will be described with reference to FIGS. 6 (a) and 6 (b). The enlargement / reduction operation has two touch positions, and a pinch-in / pinch-out operation for expanding or reducing the input interval between the two locations (two points) is performed on the object to enlarge or reduce. In FIG. 6A, reference numeral 901 denotes an input position at the start of pinch-in / out. Reference numeral 902 denotes an intermediate point of the input position 901. In the present embodiment, an object 903 that is included in the midpoint 902 and managed in the foremost layer is set as a target area to which image processing is applied. In FIG. 6B, reference numeral 904 denotes an input position during pinch-in / out. The enlargement / reduction ratio (magnification) is determined from the amount of change between the distance 905 between the input positions at the start and the distance 906 between the input positions being operated. Enlargement / reduction processing is performed with the intermediate point 902 as the center of enlargement / reduction processing. In the present embodiment, the enlargement / reduction processing is performed with the intermediate point 902 as the center, but this is an example and the present invention is not limited to this. For example, the enlargement / reduction process may be performed around a predetermined point for each target area, or the enlargement / reduction process may be performed around the center of gravity of the target area.

図7(a)に本実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。入力のジェスチャーがピンチイン・アウトか否かを判定する(S1001)。ピンチイン・アウトと判定された場合(S1001)、拡大縮小処理を行う(S1002)。このとき、オリジナル画像ファイルも拡大後のオブジェクトに従って更新する。この後、入力位置検出(S701)へ移行する。拡大縮小処理については、後で詳細を説明する。ピンチイン・アウトではないと判定された場合(S1001)、入力位置検出(S701)へ移行する。   FIG. 7A shows a flowchart of processing in the editing mode in the present embodiment. The description of the same parts as in FIG. It is determined whether or not the input gesture is pinch-in / out (S1001). When it is determined that the pinch-in / out is performed (S1001), enlargement / reduction processing is performed (S1002). At this time, the original image file is also updated according to the enlarged object. Thereafter, the process proceeds to input position detection (S701). Details of the enlargement / reduction processing will be described later. When it is determined that it is not pinch-in / out (S1001), the process proceeds to input position detection (S701).

図7(b)に本実施形態における拡大縮小処理のフローチャートを示す。図5(b)と同様の箇所については説明を割愛する。   FIG. 7B shows a flowchart of the enlargement / reduction processing in this embodiment. The description of the same parts as in FIG. 5B is omitted.

ピンチイン・アウトの入力位置の中間点902が含まれる領域の画像を、画像処理を施す対象画像とする(S1101)。入力のジェスチャーがピンチイン・アウトか否かを判定する(S1102)。ピンチイン・アウトと判定された場合(S1102)、開始時と操作中の二点の入力位置間距離905と906の比を算出する(S1103)。算出した比を拡大率、中間点902を拡大縮小処理の中心点とする(S1104)。決定したパラメータに基づき、アフィン変換を用いて拡大処理を行う(S1105)。ピンチイン・アウトではないと判定した場合(S1102)、拡大縮小処理を終了する。   An image in an area including the intermediate point 902 of the pinch-in / out input position is set as a target image to be subjected to image processing (S1101). It is determined whether or not the input gesture is pinch-in / out (S1102). When it is determined that pinch-in / out is performed (S1102), the ratio of the distances 905 and 906 between the two input positions at the start and during operation is calculated (S1103). The calculated ratio is set as the enlargement ratio, and the intermediate point 902 is set as the center point of the enlargement / reduction process (S1104). Based on the determined parameters, enlargement processing is performed using affine transformation (S1105). If it is determined that it is not pinch-in / out (S1102), the enlargement / reduction process is terminated.

尚、本実施形態では拡大縮小処理の中心点を中間点902としたが、これは一例でありこれに限るものではない。例えば、開始時の二点の入力位置のどちらか一方を拡大縮小処理の中心点としても良いし、予め領域ごとに拡大縮小処理の中心点を決定していてもよい。また、本実施形態ではアフィン変換を用いて拡大縮小処理を行っているが、これは一例でありこれに限るものではない。例えば、アフィン変換処理後にバイキュービック法などで補完処理を行ってもよい。このように構成し処理することにより、直感的に対象の拡大・縮小を行うことができ、ユーザが所望の画像を生成することが可能となる。   In the present embodiment, the center point of the enlargement / reduction processing is set to the intermediate point 902. However, this is an example and the present invention is not limited to this. For example, one of the two input positions at the start may be used as the center point of the enlargement / reduction process, or the center point of the enlargement / reduction process may be determined for each region in advance. In this embodiment, the enlargement / reduction processing is performed using affine transformation, but this is only an example and the present invention is not limited to this. For example, complement processing may be performed by a bicubic method or the like after affine transformation processing. By configuring and processing in this way, the target can be intuitively enlarged / reduced, and the user can generate a desired image.

[第3の実施形態]
本第3の実施形態では、編集モード時における画像(オブジェクト)の回転処理について説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Third Embodiment]
In the third embodiment, an image (object) rotation process in the edit mode will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.

図8(a)、(b)を用いて、本第3の実施形態における編集モード時の対象回転処理の操作について説明する。回転処理操作は、回転対象上での二点の入力位置を回転移動させる回転操作によって行う。図8(a)における1201は回転操作開始時の入力位置である。1202は入力位置1201の中間点である。本実施形態では、中間点1202が含まれ、且つ、一番手前に位置するレイヤで管理されているオブジェクトの領域1203を、画像処理を付与する対象の領域とする。1204は、回転操作中の入力位置である。開始時の図8(a)における入力位置を結ぶ直線1205の傾きと、回転操作中の図8(b)の入力位置を結ぶ直線1206の傾きの変化量から、回転角を決定し、中間点1202を中心に、対象として決定されたオブジェクトの回転処理を行う。   With reference to FIGS. 8A and 8B, the operation of the target rotation process in the edit mode in the third embodiment will be described. The rotation processing operation is performed by a rotation operation that rotates and moves two input positions on the rotation target. Reference numeral 1201 in FIG. 8A denotes an input position at the start of the rotation operation. Reference numeral 1202 denotes an intermediate point of the input position 1201. In the present embodiment, an object area 1203 that includes the midpoint 1202 and is managed by the layer located at the forefront is set as an area to be subjected to image processing. Reference numeral 1204 denotes an input position during the rotation operation. The rotation angle is determined from the amount of change in the inclination of the straight line 1205 connecting the input positions in FIG. 8A at the start and the inclination of the straight line 1206 connecting the input positions in FIG. The object determined as a target is rotated around 1202.

図9(a)に本第3の実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。   FIG. 9A shows a flowchart of processing in the edit mode in the third embodiment. The description of the same parts as in FIG.

CPU101、入力のジェスチャーが回転操作か否かを判定する(S1301)。回転操作と判定された場合(S1301)、回転処理を行う(S1302)。このとき、オリジナルの画像ファイルの更新処理も行う。この後、入力位置検出処理(S701)に戻る。回転処理については後で詳細を説明する。回転操作と判定されなかった場合(S1301)、入力位置検出(S701)へ移行する。   The CPU 101 determines whether or not the input gesture is a rotation operation (S1301). When it is determined that the operation is a rotation operation (S1301), a rotation process is performed (S1302). At this time, the original image file is also updated. Thereafter, the process returns to the input position detection process (S701). Details of the rotation processing will be described later. If it is not determined to be a rotation operation (S1301), the process proceeds to input position detection (S701).

図9(b)に本第3の実施形態における回転処理のフローチャートを示す。図5(b)よび図7(b)と同様の箇所については説明を割愛する。   FIG. 9B shows a flowchart of the rotation process in the third embodiment. The description of the same parts as in FIG. 5B and FIG. 7B is omitted.

CPU101は、入力のジェスチャーが回転操作か否か判定する(S1401)。回転操作と判定された場合(S1401)、二本の指を結ぶ直線1205と1206の傾きの変化量を算出する(S1402)。算出した変化量を回転量、中間点1202を回転の中心とする(S1403)。決定したパラメータにもとづき、アフィン変換を用いて回転処理を行う(S1404)。また、回転操作と判定されなかった場合(S1401)、回転処理を終了する。   The CPU 101 determines whether or not the input gesture is a rotation operation (S1401). If it is determined that the operation is a rotation operation (S1401), the amount of change in the inclination of the straight lines 1205 and 1206 connecting the two fingers is calculated (S1402). The calculated change amount is set as the rotation amount, and the intermediate point 1202 is set as the rotation center (S1403). Based on the determined parameters, rotation processing is performed using affine transformation (S1404). If the rotation operation is not determined (S1401), the rotation process ends.

尚、本実施形態では中間点1202を回転の中心としたが、これは一例でありこれにかぎるものではない。例えば、領域ごとに予め定めた点を回転の中心としても良いし、どちらかの入力検出位置を回転の中心としても良い。
また、本実施形態ではアフィン変換を用いて回転処理を行っているが、これは一例でありこれに限るものではない。例えば、アフィン変換処理後にバイキュービック法などで補完処理を行ってもよい。このように構成し処理することにより、直感的に対象の回転を行うことができ、ユーザが所望の画像を生成することが可能となる。
In the present embodiment, the intermediate point 1202 is the center of rotation, but this is only an example and is not limited to this. For example, a predetermined point for each region may be used as the center of rotation, and one of the input detection positions may be used as the center of rotation.
In the present embodiment, the rotation processing is performed using affine transformation, but this is an example and the present invention is not limited to this. For example, complement processing may be performed by a bicubic method or the like after affine transformation processing. By configuring and processing in this way, the target can be intuitively rotated, and the user can generate a desired image.

[第4の実施形態]
本第4の実施形態では、選択したオブジェクトにモーションブラーを付与する例を説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Fourth Embodiment]
In the fourth embodiment, an example in which motion blur is given to a selected object will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.

図10を用いて、本第4の実施形態における編集モード時のモーションブラー処理の操作について説明する。モーションブラー処理は、モーションブラー付与対象オブジェクト上での2点をタッチし、そのままタッチした2点を並行移動する、いわゆるダブルドラッグによって行う。1501はダブルドラッグ開始時の入力位置である。1502は、入力位置1501の中間点であり、この中間位置を含み、もっと手前のレイヤに管理されているオブジェクトが処理対象として決定される。図示の場合、中間点1501は背景画像であるので、背景領域を、画像処理を付与する領域とする。1503は、ダブルドラッグ中の入力位置である。1504は、入力位置1503の中間点である。1505は、開始時と操作中の操作位置の中間点1502と1504との並行移動量である。並行移動量1505の向きからモーションブラーの向きを、移動量1505の長さからモーションブラーの強度を決定し、背景領域にモーションブラーを付与する。   The operation of the motion blur processing in the edit mode in the fourth embodiment will be described with reference to FIG. The motion blur processing is performed by so-called double drag, in which two points on the motion blur object are touched and the two touched points are moved in parallel. Reference numeral 1501 denotes an input position at the start of double dragging. Reference numeral 1502 denotes an intermediate point of the input position 1501. An object that includes this intermediate position and is managed in a layer in the nearer side is determined as a processing target. In the illustrated case, since the intermediate point 1501 is a background image, the background area is an area to which image processing is applied. Reference numeral 1503 denotes an input position during double dragging. Reference numeral 1504 denotes an intermediate point of the input position 1503. Reference numeral 1505 denotes a parallel movement amount between the intermediate points 1502 and 1504 of the operation position at the start and during the operation. The direction of the motion blur is determined from the direction of the parallel movement amount 1505, the strength of the motion blur is determined from the length of the movement amount 1505, and the motion blur is given to the background area.

図11(a)に本第4の実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。   FIG. 11A shows a flowchart of processing in the edit mode in the fourth embodiment. The description of the same parts as in FIG.

CPU101は、入力のジェスチャーがダブルドラッグか否かを判定する(S1601)。ダブルドラッグと判定された場合(S1601)、モーションブラー処理を行う(S1602)。モーションブラー処理については後で詳細を説明する。ダブルドラッグと判定されなかった場合(S1601)、入力位置検出(S701)へ移行する。   The CPU 101 determines whether or not the input gesture is a double drag (S1601). If it is determined to be double drag (S1601), motion blur processing is performed (S1602). Details of the motion blur processing will be described later. If it is not determined to be a double drag (S1601), the process proceeds to input position detection (S701).

図11(b)に本第4の実施形態におけるモーションブラー処理のフローチャートを示す。図5(b)および図7(b)と同様の箇所については説明を割愛する。   FIG. 11B shows a flowchart of motion blur processing in the fourth embodiment. The description of the same parts as those in FIGS. 5B and 7B is omitted.

CPU101は、ダブルドラッグか否か判定する(S1701)。ダブルドラッグと判定された場合(S1701)、中間点1502と1505の移動量1505を算出する(S1702)。算出した移動量1505の向きをモーションブラーの向き、長さをモーションブラーの強度とする(S1703)。対象領域と同じ画像に透過度を持たせ、指定方向へかつ指定強度に応じた距離まで一定間隔でずらしながら、対象領域と合成することによって、モーションブラーを付与する(S1704)。このとき、オリジナル画ファイルの更新処理も行う。ダブルドラッグ操作が継続されていると判定されなかった場合(S1701)、モーションブラー処理を終了する。   The CPU 101 determines whether or not it is a double drag (S1701). When it is determined that the drag is a double drag (S1701), the movement amount 1505 of the intermediate points 1502 and 1505 is calculated (S1702). The direction of the calculated movement amount 1505 is set as the direction of the motion blur, and the length is set as the strength of the motion blur (S1703). The same image as the target region is given transparency, and motion blur is given by synthesizing the target region while shifting the image in the specified direction at a predetermined interval up to a distance corresponding to the specified intensity (S1704). At this time, the original image file is updated. If it is not determined that the double drag operation is continued (S1701), the motion blur process is terminated.

尚、本実施形態ではモーションブラーを元画像に透過度を持たせずらしながら合成することにより行っているが、これは一例でありこれに限るものではない。例えば、指定方向、指定強度に応じた範囲のガウシアンブラーを付与することによって行っても良い。このように構成し処理することにより、直感的に効果的なモーションブラーを付与することができ、ユーザが所望の画像を生成することが可能となる。   In this embodiment, the motion blur is performed by synthesizing the original image while maintaining the transparency, but this is an example and the present invention is not limited to this. For example, it may be performed by giving a Gaussian blur in a range corresponding to the designated direction and the designated intensity. By configuring and processing in this way, an effective motion blur can be intuitively provided, and a user can generate a desired image.

[第5の実施形態]
第5の実施形態では、選択したオブジェクトにズームブラーを付与する例を説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Fifth Embodiment]
In the fifth embodiment, an example in which zoom blur is applied to a selected object will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.

図12を用いて、本第5の実施形態における編集モード時のズームブラー処理の操作について説明する。ズームブラー処理は、ズームブラー付与対象領域上での二本の指でのタッチを一組としたとき、二組のダブルドラッグによって行う。図示の1801と1802は、ダブルドラッグ開始時のダブルドラッグ各組の入力位置である。1803と1804は、入力位置1801と1802の中間点である。本実施形態では、中間点1803および1804を含み、最も奥のレイヤである背景領域を、画像処理を付与する領域とする。ただし、中間点1803と1804が異なる領域に含まれる場合は、両方の領域を、画像処理を付与する領域とする。   An operation of zoom blur processing in the edit mode in the fifth embodiment will be described with reference to FIG. The zoom blur process is performed by two sets of double drags when a pair of touches with two fingers on the zoom blur application target area is taken as one set. 1801 and 1802 shown in the figure are input positions of each group of double drags at the start of double dragging. Reference numerals 1803 and 1804 denote intermediate points between the input positions 1801 and 1802. In the present embodiment, the background area that includes the midpoints 1803 and 1804 and is the innermost layer is an area to which image processing is applied. However, if the midpoints 1803 and 1804 are included in different areas, both areas are areas to which image processing is applied.

尚、本実施形態では中間点1803と1804が異なる領域に含まれる場合、両方の領域を、画像処理を付与する対象としたが、これは一例でありこれに限るものではない。例えば、先に検出した中間点が含まれる方のみを画像処理を付与する領域としても良い。   In the present embodiment, when the midpoints 1803 and 1804 are included in different areas, both areas are targets for image processing. However, this is only an example, and the present invention is not limited to this. For example, only a region including the previously detected intermediate point may be set as an area to which image processing is applied.

1805と1806は、ダブルドラッグ中のダブルドラッグ各組の入力位置である。1807と1808は、入力位置1805と1806の中間点である。1803と1807を結んだベクトル1809と、1804と1808を結んだベクトル1810を算出する。1803と1807を結んだ直線と、1804と1808を結んだ直線との交点1811を算出する。算出したベクトル1809と1810の長さの平均をズームブラーの強度とし、ベクトル1809と1810の交点1811に対する向きをズームブラーの向きとする。算出した交点1811をおおよその消失点とし、ズームブラーの中心を決定する。決定したパラメータに基づき、背景領域にズームブラーを付与する。   Reference numerals 1805 and 1806 denote input positions of each group of double drags during double drag. Reference numerals 1807 and 1808 are intermediate points between the input positions 1805 and 1806. A vector 1809 connecting 1803 and 1807 and a vector 1810 connecting 1804 and 1808 are calculated. An intersection point 1811 between a straight line connecting 1803 and 1807 and a straight line connecting 1804 and 1808 is calculated. The average length of the calculated vectors 1809 and 1810 is set as the zoom blur intensity, and the direction of the vectors 1809 and 1810 with respect to the intersection 1811 is set as the zoom blur direction. The calculated intersection 1811 is set as an approximate vanishing point, and the center of the zoom blur is determined. Based on the determined parameter, zoom blur is added to the background area.

図13(a)に本実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。   FIG. 13A shows a flowchart of processing in the edit mode in the present embodiment. The description of the same parts as in FIG.

CPU101は、入力が二組のダブルドラッグか否かを判定する(S1901)。二組のダブルドラッグと判定された場合(S1901)、ズームブラー処理を行う(S1902)。このとき、編集結果を反映させるため、オリジナル画像ファイルも更新する。ズームブラー処理については、後で詳細を説明する。また、二組のダブルドラッグと判定されなかった場合(S1901)、入力位置検出(S701)へ移行する。   The CPU 101 determines whether or not the input is two sets of double drag (S1901). If it is determined that there are two sets of double drags (S1901), zoom blur processing is performed (S1902). At this time, the original image file is also updated to reflect the editing result. Details of the zoom blur processing will be described later. If it is not determined that the two sets of double drags (S1901), the process proceeds to input position detection (S701).

図13(b)に本実施形態におけるズームブラー処理のフローチャートを示す。図5(b)と同様の箇所については説明を割愛する。   FIG. 13B shows a flowchart of zoom blur processing in the present embodiment. The description of the same parts as in FIG. 5B is omitted.

CPU101は、中間点1803と1804が含まれる領域の画像を、画像処理を施す対象画像とする。各中間点が異なる領域に含まれる場合は、両方の画像を、画像処理を施す対象画像とする(S2001)。そして、二組のダブルドラッグか否か判定する(S2002)。二組のダブルドラッグと判定された場合(S2002)、開始時と操作中の中間点1803と1807および1804と1808を結ぶベクトル1809と1810を算出する。開始時と操作中の中間点1803と1807および1804と1808を結ぶ直線の交点1811を算出する(S2003)。算出した操作変化量に基づきパラメータを決定する(S2004)。パラメータ決定については、後で詳細を説明する。決定した向きと強度に応じて拡大率を算出する。透過度を持たせた対象領域と同じ画像を、決定した拡大率まで徐々に拡大率を変更していきながら、算出した中心位置を中心に拡大縮小処理を行い、対象領域に合成していく(S2005)。尚、本実施形態では、基画像に透明度を持たせ、決定したパラメータに基づき、拡大縮小し、基画像に合成することによってズームブラーを付与しているが、これは一例でありこれに限るものではない。   The CPU 101 sets an image in an area including the intermediate points 1803 and 1804 as a target image to be subjected to image processing. When each intermediate point is included in a different area, both images are set as target images to be subjected to image processing (S2001). Then, it is determined whether or not there are two sets of double drags (S2002). When it is determined that two sets of double drags have been made (S2002), vectors 1809 and 1810 connecting intermediate points 1803 and 1807 and 1804 and 1808 at the start and during operation are calculated. An intersection 1811 of straight lines connecting the intermediate points 1803 and 1807 and 1804 and 1808 at the start and in operation is calculated (S2003). A parameter is determined based on the calculated operation change amount (S2004). Details of parameter determination will be described later. The enlargement ratio is calculated according to the determined direction and strength. The same image as the target area with transparency is gradually changed to the determined enlargement ratio, and the enlargement / reduction process is performed around the calculated center position to compose the target area ( S2005). In the present embodiment, the base image is given transparency, and the zoom blur is given by enlarging / reducing and synthesizing the base image based on the determined parameters. However, this is only an example, and the present invention is not limited to this. is not.

図14(a)に本第5の実施形態におけるパラメータ決定のフローチャートを示す。   FIG. 14A shows a flowchart of parameter determination in the fifth embodiment.

CPU101は、ベクトル1809と1810の長さの平均値に比例するようにズームブラーの強度を決定する(S2101)。尚本実施形態ではベクトル1809と1810の長さの平均値を用いているが、これは一例でありこれに限るものではない。例えば、長いまたは短い方の値を用いてもよい。ベクトル1809と1810の交点1811への向きによって、ズームブラーの方向を算出する。ただしベクトルの方向が異なる場合は、長い方のベクトルの向きによってズームブラーの方向を決定する(S2102)。交点1811から中心点を決定し(S2103)、パラメータ決定を終了する。中心点決定については、後で詳細を説明する。   The CPU 101 determines the zoom blur intensity so as to be proportional to the average value of the lengths of the vectors 1809 and 1810 (S2101). In this embodiment, the average value of the lengths of the vectors 1809 and 1810 is used, but this is an example and the present invention is not limited to this. For example, the longer or shorter value may be used. The direction of zoom blur is calculated based on the direction of the vectors 1809 and 1810 toward the intersection 1811. However, if the vector directions are different, the zoom blur direction is determined by the direction of the longer vector (S2102). A center point is determined from the intersection point 1811 (S2103), and parameter determination is terminated. Details of the center point determination will be described later.

図14(b)に本第5の実施形態における中心点決定処理のフローチャートを示す。   FIG. 14B shows a flowchart of the center point determination process in the fifth embodiment.

CPU101は、キャニー法を用いて画像のエッジを検出する(S2201)。交点1811から任意の距離内を消失点候補範囲とする(S2202)。ハフ変換を用いて消失点候補範囲を通過する直線のみ検出する(S2203)。消失点候補範囲を通過する直線のみ検出することにより、消失点に収束しない直線の検出を抑えられ消失点の誤認識をさけ、かつ無駄な直線検出処理を省くことができるので処理を軽減することが可能となる。検出した直線がもっとも収束している点を検出し、消失点とし、ズームブラーの中心点とする(S2204)。   The CPU 101 detects the edge of the image using the Canny method (S2201). An arbitrary distance from the intersection 1811 is set as a vanishing point candidate range (S2202). Only a straight line passing through the vanishing point candidate range is detected using the Hough transform (S2203). By detecting only the straight line that passes through the vanishing point candidate range, the detection of the straight line that does not converge to the vanishing point can be suppressed, the misrecognition of the vanishing point can be avoided, and unnecessary line detection processing can be omitted, thereby reducing the processing. Is possible. The point at which the detected straight line is most converged is detected and set as the vanishing point, which is the center point of the zoom blur (S2204).

尚、本実施形態では、キャニー法を用いて画像のエッジを検出しているが、これは一例でありこれに限るものではない。例えば、ロバートクロス法などを用いても良い。
また、本実施形態では、直線の検出にハフ変換を用いているが、これは一例でありこれに限るものではない。また、本実施形態では、交点1811の情報を用いて消失点を検出しズームブラーの中心としているが、これは一例でありこれに限るものではない。例えば、交点1811をズームブラーの中心としてもよい。また、本実施形態では、ズームブラー処理をしているが、これは一例でありこれに限るものではない。例えば、指定した中心に近いほど、彩度が落ちるような処理を施しても良い。このように構成し処理することにより、複数の領域に分離した画像であっても、直感的にズームブラーを付与することができ、ユーザが所望の画像を生成することが可能となる。
In this embodiment, the edge of the image is detected by using the Canny method, but this is an example and the present invention is not limited to this. For example, the Robert cross method may be used.
In this embodiment, the Hough transform is used for detecting a straight line, but this is an example and the present invention is not limited to this. In the present embodiment, the vanishing point is detected using the information of the intersection 1811 and is used as the center of the zoom blur. However, this is an example and the present invention is not limited to this. For example, the intersection 1811 may be the center of the zoom blur. In the present embodiment, zoom blur processing is performed, but this is an example and the present invention is not limited to this. For example, processing may be performed such that the closer the specified center is, the lower the saturation is. By configuring and processing in this way, zoom blur can be intuitively applied even to an image separated into a plurality of regions, and a user can generate a desired image.

[第6の実施形態]
第6の実施形態では、選択したオブジェクトに対して、フォーカス変更処理を行う例を説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Sixth Embodiment]
In the sixth embodiment, an example in which focus change processing is performed on a selected object will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.

図15(a),(b)を用いて、本第6の実施形態における編集モード時のフォーカス変更処理の操作について説明する。フォーカス変更処理は、フォーカスを合わせる対象のオブジェクト上でのタップで行う。図15(a)における2301は背景領域で、2302は前景領域である。タップ前は、前景領域2302のみがボケ、背景領域にフォーカスがあった映像になっている。タップ操作が行われると、図15(b)の入力位置2303の領域を含まない背景領域2301のみがボケ、前景領域2302にフォーカスが合った映像となる。つまり、タップするごとに、フォーカス対象を交互に切り替えることとなる。   With reference to FIGS. 15A and 15B, the focus change processing operation in the edit mode according to the sixth embodiment will be described. The focus change process is performed by tapping on the object to be focused. In FIG. 15A, reference numeral 2301 denotes a background area, and 2302 denotes a foreground area. Before the tap, only the foreground area 2302 is blurred and the background area is focused. When the tap operation is performed, only the background area 2301 that does not include the area of the input position 2303 in FIG. 15B is blurred and the foreground area 2302 is in focus. That is, the focus target is alternately switched every time the tap is performed.

図16(a)に本第6の実施形態における編集モードのフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。   FIG. 16A shows a flowchart of the edit mode in the sixth embodiment. The description of the same parts as in FIG.

CPU101は、入力のジェスチャーがタップか否かを判定する(S2401)。タップと判定された場合(S2401)、フォーカス変更処理を行う(S2402)。フォーカス変更処理については、後で詳細を説明する。タップと判定されなかった場合(S2401)、入力位置検出(S701)へ移行する。   The CPU 101 determines whether or not the input gesture is a tap (S2401). When the tap is determined (S2401), focus change processing is performed (S2402). Details of the focus change process will be described later. When it is not determined as a tap (S2401), the process proceeds to input position detection (S701).

図16(b)に本第6の実施形態におけるフォーカス変更処理のフローチャートを示す。   FIG. 16B shows a flowchart of the focus change process in the sixth embodiment.

タップの入力位置2303が含まれない領域の画像を、画像処理を施す対象画像とする(S2501)。決定した対象画像に、あらかじめ定めた強度のガウシアンブラーを付与する(S2502)。   An image in an area not including the tap input position 2303 is set as a target image to be subjected to image processing (S2501). A Gaussian blur having a predetermined intensity is applied to the determined target image (S2502).

尚、本実施形態では、ブラーの強度を予め定めた値にしているが、これは一例でありこれに限るものではない。例えば、タップの継続時間に応じてブラーの強度を決定しても良い。また、本実施形態では、ガウシアンブラーによってブラーを付与しているが、これは一例でありこれに限るものではない。このように構成し処理することにより、直感的にフォーカス変更処理を行うことができ、ユーザが所望の画像を生成することが可能となる。   In this embodiment, the blur strength is set to a predetermined value. However, this is an example, and the present invention is not limited to this. For example, the strength of the blur may be determined according to the duration of the tap. In this embodiment, the blur is given by the Gaussian blur, but this is an example and the present invention is not limited to this. By configuring and processing in this way, the focus change process can be performed intuitively, and the user can generate a desired image.

[第7の実施形態]
上記第1乃至第6の実施形態では、操作者によるディスプレイ105に対するジェスチャーに応じた処理を説明したが、これらの機能を1つの編集装置に搭載するようにしても良い。この場合の例を第7の実施形態として説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Seventh Embodiment]
In the first to sixth embodiments, the processing according to the gesture performed by the operator on the display 105 has been described. However, these functions may be installed in one editing apparatus. An example of this case will be described as a seventh embodiment. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.

図19は、本第7の実施形態における編集モードにおける処理手順のフローチャートである。   FIG. 19 is a flowchart of a processing procedure in the edit mode according to the seventh embodiment.

CPU101は、S3001にて、ディスプレイ105に対する非タッチ状態からタッチ状態になったことを検出する。タッチ入力を検出すると、処理をS3002に進め、タッチの個数、各タッチ位置に従い、操作者の意図した画面上の座標位置を算出する。タッチ箇所が1つの場合には、タッチ位置と操作者の意図した画面上の位置は一致する。しかし、例えばタッチ箇所が2箇所の場合、先に説明したように、操作者の操作はピンチイン・アウト操作を行うための初期段階であると判定できる。従って、後者の場合、その中央の位置が操作者の意図した座標位置として判定する。そして、決定した操作者の意図した座標位置を内包し、且つ、最も手前のレイヤに管理されているオブジェクトを、編集対象のオブジェクトとして決定する。次いで、後続して入力されるタッチ位置の変化から、操作者のジェスチャーの種類を判別する。そして、その判別したジェスチャーに応じた処理をS3003乃至S3008で行う。このS3003乃至3008は、上記第1乃至第6の実施形態に対応するので、その内容は上記各実施形態を参照されたい。   In step S <b> 3001, the CPU 101 detects that the display 105 has changed from a non-touch state to a touch state. If a touch input is detected, the process proceeds to S3002, and the coordinate position on the screen intended by the operator is calculated according to the number of touches and each touch position. When there is one touch location, the touch position matches the position on the screen intended by the operator. However, for example, when there are two touch locations, as described above, it can be determined that the operation of the operator is an initial stage for performing a pinch-in / out operation. Therefore, in the latter case, the central position is determined as the coordinate position intended by the operator. Then, an object that includes the coordinate position intended by the determined operator and that is managed in the foremost layer is determined as an object to be edited. Next, the type of gesture of the operator is determined from the change in the touch position that is subsequently input. Then, processing according to the determined gesture is performed in S3003 to S3008. Since S3003 to S3008 correspond to the first to sixth embodiments, refer to the above embodiments for the contents thereof.

この後、S3009に進み、ダブルタップが入力されたか否かを判定し、否の場合にはS3001以降の処理を繰り返す。また、ダブルタップの入力がされた場合、S3009に進んで、編集後の画像を合成処理し、編集モードを終了し、閲覧モードに移行する。   Thereafter, the process proceeds to S3009, where it is determined whether or not a double tap has been input. If not, the processes after S3001 are repeated. If a double-tap input has been made, the process advances to step S3009 to synthesize the edited image, end the editing mode, and shift to the viewing mode.

なお、先に説めいた第1乃至第6の実施形態では、各編集処理を行う度に、オリジナルの画像ファイルを更新するものとして説明したが、編集モードを終了する際に、オリジナル画像ファイルを更新するようにしても良い。   In the first to sixth embodiments described above, it is described that the original image file is updated each time each editing process is performed. However, when the editing mode is ended, the original image file is updated. You may make it update.

[第8の実施形態]
上記実施形態では、編集対象の画像データが静止画を前提にして説明したが、動画像について編集する例、具体的には、画像処理としてタイムシフト処理を行う例を第8の実施形態として説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Eighth Embodiment]
In the above embodiment, the description has been made on the assumption that the image data to be edited is a still image. However, an example of editing a moving image, specifically, an example of performing time shift processing as image processing will be described as an eighth embodiment. To do. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.

ここでタイムシフト処理とは、動画の連続したフレームから同オブジェクトを切り出し、切り出したオブジェクトを1フレームの画像上に設置していき、動体の軌跡を表すものである。   Here, the time shift processing represents the trajectory of a moving object by cutting out the same object from successive frames of a moving image and placing the cut out object on an image of one frame.

図17(a),(b)を用いて、本第8の実施形態における編集モード時のタイムシフト操作について説明する。タイムシフト操作は、3点(3箇所のタッチ)の入力位置を回転させる三点回転操作によって行う。図17(a)の2601は、動画の或るフレーム画像である。2602、2603、2604は三点回転操作開始時の入力位置である。2605は、入力位置2602、2603、2604を結ぶ円である。2606は、円2605の中心である。2607は、入力位置2603と中心2606を結ぶ線分である。図17(b)の2608、2609、2610は、操作中の入力検出位置で、それぞれ2602、2603、2604が移動したものである。2611は、操作入力位置2608、2609、2610を結ぶ円である。2612は、円2611の中心である。2613は、操作入力位置2609と中心2612を結ぶ線分である。2614は、タイムシフト操作によって設置された画像である。   With reference to FIGS. 17A and 17B, the time shift operation in the edit mode in the eighth embodiment will be described. The time shift operation is performed by a three-point rotation operation that rotates an input position of three points (three touches). Reference numeral 2601 in FIG. 17A denotes a certain frame image of the moving image. Reference numerals 2602, 2603, and 2604 denote input positions at the start of the three-point rotation operation. Reference numeral 2605 denotes a circle connecting the input positions 2602, 2603, and 2604. 2606 is the center of the circle 2605. Reference numeral 2607 denotes a line segment connecting the input position 2603 and the center 2606. Reference numerals 2608, 2609, and 2610 in FIG. 17B are input detection positions during operation, and 2602, 2603, and 2604 are moved, respectively. Reference numeral 2611 denotes a circle that connects the operation input positions 2608, 2609, and 2610. 2612 is the center of the circle 2611. Reference numeral 2613 denotes a line segment connecting the operation input position 2609 and the center 2612. Reference numeral 2614 denotes an image set by a time shift operation.

中心点2606を含まない領域を切り出し対象とする。線分2607と線分2613の成す回動角(角度)を算出する。算出した回動角から、領域を切り出すフレームの時間範囲を決定する。決定した時間範囲内のフレームから対象領域を切り出し、切り出した同位置に設置する。   A region that does not include the center point 2606 is set as a cutout target. A rotation angle (angle) formed by the line segment 2607 and the line segment 2613 is calculated. From the calculated rotation angle, the time range of the frame for cutting out the region is determined. The target area is cut out from the frame within the determined time range, and is set at the same position.

図18(a)に本第8の実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。   FIG. 18A shows a flowchart of processing in the edit mode in the eighth embodiment. The description of the same parts as in FIG.

CPU101は、入力のジェスチャーが三点回転操作か否かを判定する(S2701)。三点回転操作と判定された場合(S2701)、タイムシフト処理を行う(S2702)。タイムシフト処理については、後で詳細を説明する。三点回転操作と判定されなかった場合(S2701)、入力検出(S701)へ移行する。   The CPU 101 determines whether or not the input gesture is a three-point rotation operation (S2701). When it is determined that the operation is a three-point rotation operation (S2701), a time shift process is performed (S2702). Details of the time shift processing will be described later. If it is not determined that the operation is a three-point rotation operation (S2701), the process proceeds to input detection (S701).

図18(b)に本第8の実施形態におけるタイムシフト処理のフローチャートを示す。図5(b)と同様の箇所については説明を割愛する。   FIG. 18B shows a flowchart of the time shift process in the eighth embodiment. The description of the same parts as in FIG. 5B is omitted.

CPU101は、3点の入位置を結ぶ円の中心2606を算出する。算出した中心2606が含まれない領域の画像を、画像処理を施す対象画像とする(S2801)。入力のジェスチャーが三点回転操作か否かを判定する(S2802)。S2802において三点回転操作と判定された場合、操作中の3点の入力位置を結ぶ円の中心206を算出する。開始時の入力位置2603と開始時の円の中心2606を結ぶ線分2607と、操作中の入力位置2609と操作中の円の中心2612を結ぶ線分2613の成す角度を算出する(S2803)。算出した角度から、対象領域を切り出すフレームの時間範囲を決定する(S2804)。決定した時間範囲内の任意の間隔のフレームから対象領域を切り出し、切り出した位置に設置する(S2805)。S2802において三点回転操作ではないと判定された場合、タイムシフト処理を終了する。   The CPU 101 calculates the center 2606 of a circle connecting the three entry positions. An image of a region not including the calculated center 2606 is set as a target image to be subjected to image processing (S2801). It is determined whether or not the input gesture is a three-point rotation operation (S2802). If it is determined in S2802 that the operation is a three-point rotation operation, the center 206 of the circle connecting the input positions of the three points being operated is calculated. An angle formed by a line segment 2607 connecting the input position 2603 at the start and the center 2606 of the circle at the start and a line segment 2613 connecting the input position 2609 during the operation and the center 2612 of the operated circle is calculated (S2803). From the calculated angle, the time range of the frame for cutting out the target area is determined (S2804). A target area is cut out from frames at arbitrary intervals within the determined time range, and placed at the cut out position (S2805). If it is determined in S2802 that the operation is not a three-point rotation operation, the time shift process is terminated.

尚、本実施形態では、3点の入力検出位置を結ぶ円の中心が含まれない領域を対象領域としたが、これは一例でありこれに限るものではない。例えば、中心位置が含まれる領域を対象領域としてもよい。また、本実施形態では、入力検出位置と円の中心を結ぶ直線の成す各を操作変化量と算出しているが、これは一例でありこれに限るものではない。例えば、線分の傾きの変化量を算出しても良い。また、本実施形態では、三点回転操作に応じてタイムシフト処理を行っているが、これは一例でありこれに限るものではない。例えば、三点回転操作に応じて、動画の再生速度を制御してもよい。このように構成し処理を行うことにより、直感的にタイムシフト処理を行うことが可能となり、ユーザが所望の画像を生成することがかのうとなる。   In the present embodiment, the region that does not include the center of the circle connecting the three input detection positions is the target region. However, this is an example and the present invention is not limited to this. For example, an area including the center position may be set as the target area. In the present embodiment, each of the straight lines connecting the input detection position and the center of the circle is calculated as the operation change amount, but this is an example and the present invention is not limited to this. For example, the amount of change in the slope of the line segment may be calculated. In this embodiment, the time shift process is performed according to the three-point rotation operation, but this is an example and the present invention is not limited to this. For example, the moving image playback speed may be controlled in accordance with a three-point rotation operation. By configuring and processing in this way, it becomes possible to perform time shift processing intuitively, and the user can generate a desired image.

Claims (9)

複数のオブジェクトが混在した画像を編集する画像編集装置であって、
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが2箇所の指示位置の並行移動を行う操作であった場合、編集の種類がモーションブラーであるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の並行移動量を、モーションブラーのパラメータとして利用することを特徴とする像編集装置。
An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
The editing means determines that the type of editing is motion blur when the gesture to be detected is an operation for performing parallel movement of two designated positions, and performs parallel movement when the gesture for the initial stage of the gesture is performed. amounts, images editing apparatus characterized by utilizing as a parameter for motion blur.
複数のオブジェクトが混在した画像を編集する画像編集装置であって、
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、2箇所の指示を一組とした場合、検出するジェスチャーが二組のドラッグ操作であった場合、編集の種類がズームブラーであるとして決定し、各組の移動した向きの交点をズームブラーの中心点とし、各組の移動量の平均値をズームブラーの強度のパラメータとして利用することを特徴とする像編集装置。
An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
The editing means decides that the type of editing is zoom blur when the gestures to be detected are two sets of drag operations when the instructions at two places are set as one set, and the intersection of the moving directions of each set. was the center point of the zoom blur images editing apparatus characterized by using the average of each set of the movement amount as a parameter of the intensity of zoom blur.
複数のオブジェクトが混在した画像を編集する画像編集装置であって、
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが1箇所のタップ操作であった場合、編集の種類がぼかし処理であるとして決定し、タップ操作が行われる度に、タップした位置を含み最も奥に位置するオブジェクト、最も手前に位置するオブジェクトを交互にぼかし対象を切り替え、指示している時間をぼかし強度のパラメータとして利用することを特徴とする像編集装置。
An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
When the gesture to be detected is a tap operation at one location, the editing means determines that the type of editing is blurring processing, and each time the tap operation is performed, the object located at the farthest position including the tapped position , foremost objects located switches the blur target alternately, images editing apparatus characterized by the use as a parameter of the intensity blur time instructs.
複数のオブジェクトが混在した画像を編集する画像編集装置であって、
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが3箇所の指示位置の回動の操作であった場合、編集の種類がタイムシフト処理であるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の回動角を、動画像から切り出す時間範囲のパラメータとして決定することを特徴とする像編集装置。
An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
The editing means determines that the type of editing is time shift processing when the gesture to be detected is a rotation operation of three designated positions, and rotates when the gesture is performed with respect to the initial stage of the gesture images editing apparatus characterized by determining a corner, as a parameter of the time range to be cut out from the moving image.
コンピュータに読み込ませ実行させることで、前記コンピュータに請求項1乃至のいずれか1項に記載の画像編集装置の手段として機能させるためのプログラム。 By executing read into a computer program to function as the means of the image editing apparatus according to any one of claims 1 to 4 to the computer. 画像を表示する表示手段と、前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段とを有し、複数のオブジェクトが混在した画像を編集する画像編集装置の制御方法であって、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、
前記編集工程では、検出するジェスチャーが2箇所の指示位置の並行移動を行う操作であった場合、編集の種類がモーションブラーであるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の並行移動量を、モーションブラーのパラメータとして利用することを特徴とする像編集装置の制御方法。
Display means for displaying an image, on the display screen of said display means includes the presence or absence of an instruction by the operator, as well, and a detecting means for detecting a pointing position, image editing for editing an image in which a plurality of objects are mixed An apparatus control method comprising:
In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
In the editing step, when the gesture to be detected is an operation for performing parallel movement of two designated positions, it is determined that the type of editing is motion blur, and parallel movement is performed when the gesture is performed for the initial stage of the gesture. the amount of the control method of the image picture editing apparatus characterized by utilizing as a parameter for motion blur.
画像を表示する表示手段と、前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段とを有し、複数のオブジェクトが混在した画像を編集する画像編集装置の制御方法であって、Image editing for editing an image in which a plurality of objects are mixed, including display means for displaying an image, and detection means for detecting the presence / absence of an instruction and an indication position on the display screen of the display means An apparatus control method comprising:
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
前記編集工程では、2箇所の指示を一組とした場合、検出するジェスチャーが二組のドラッグ操作であった場合、編集の種類がズームブラーであるとして決定し、各組の移動した向きの交点をズームブラーの中心点とし、各組の移動量の平均値をズームブラーの強度のパラメータとして利用することを特徴とする画像編集装置の制御方法。In the editing step, when two directions are set as one set, when the gesture to be detected is two sets of drag operations, it is determined that the type of editing is zoom blur, and the intersection of the moving directions of each set is determined. Is the center point of the zoom blur, and the average value of the moving amounts of each set is used as a zoom blur intensity parameter.
画像を表示する表示手段と、前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段とを有し、複数のオブジェクトが混在した画像を編集する画像編集装置の制御方法であって、Image editing for editing an image in which a plurality of objects are mixed, including display means for displaying an image, and detection means for detecting the presence / absence of an instruction and an indication position on the display screen of the display means An apparatus control method comprising:
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
前記編集工程では、検出するジェスチャーが1箇所のタップ操作であった場合、編集の種類がぼかし処理であるとして決定し、タップ操作が行われる度に、タップした位置を含み最も奥に位置するオブジェクト、最も手前に位置するオブジェクトを交互にぼかし対象を切り替え、指示している時間をぼかし強度のパラメータとして利用することを特徴とする画像編集装置の制御方法。In the editing step, if the gesture to be detected is a single tap operation, it is determined that the type of editing is blurring processing, and the object that is located at the farthest position including the tapped position is determined each time the tap operation is performed. A method for controlling an image editing apparatus, characterized in that the object to be blurred is alternately switched as a blurring target, and the designated time is used as a blurring intensity parameter.
画像を表示する表示手段と、前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段とを有し、複数のオブジェクトが混在した画像を編集する画像編集装置の制御方法であって、Image editing for editing an image in which a plurality of objects are mixed, including display means for displaying an image, and detection means for detecting the presence / absence of an instruction and an indication position on the display screen of the display means An apparatus control method comprising:
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
前記編集工程では、検出するジェスチャーが3箇所の指示位置の回動の操作であった場合、編集の種類がタイムシフト処理であるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の回動角を、動画像から切り出す時間範囲のパラメータとして決定することを特徴とする画像編集装置の制御方法。In the editing process, when the gesture to be detected is a rotation operation of three designated positions, the editing type is determined to be a time shift process, and the rotation when the gesture is performed with respect to the initial stage of the gesture is performed. A method of controlling an image editing apparatus, wherein a corner is determined as a parameter of a time range cut out from a moving image.
JP2010195058A 2010-08-31 2010-08-31 Image editing apparatus, control method thereof, and program Active JP5597069B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010195058A JP5597069B2 (en) 2010-08-31 2010-08-31 Image editing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010195058A JP5597069B2 (en) 2010-08-31 2010-08-31 Image editing apparatus, control method thereof, and program

Publications (2)

Publication Number Publication Date
JP2012053623A JP2012053623A (en) 2012-03-15
JP5597069B2 true JP5597069B2 (en) 2014-10-01

Family

ID=45906880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010195058A Active JP5597069B2 (en) 2010-08-31 2010-08-31 Image editing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP5597069B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
JP6021460B2 (en) * 2012-06-20 2016-11-09 株式会社セルシス Drawing method, program, and apparatus
JP5975794B2 (en) 2012-08-29 2016-08-23 キヤノン株式会社 Display control apparatus, display control method, program, and storage medium
EP2963530A4 (en) * 2013-02-27 2016-10-26 Alps Electric Co Ltd Operation detection device
JP6198459B2 (en) * 2013-05-21 2017-09-20 キヤノン株式会社 Display control device, display control device control method, program, and storage medium
JP6492830B2 (en) * 2015-03-20 2019-04-03 カシオ計算機株式会社 Handwriting input device, handwriting input method, and program
JP6715361B2 (en) * 2019-02-07 2020-07-01 株式会社スクウェア・エニックス Information processing device, information processing method, and game device
CN112415991A (en) * 2020-11-30 2021-02-26 Oppo广东移动通信有限公司 Control method and device, and storage medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5164675B2 (en) * 2008-06-04 2013-03-21 キヤノン株式会社 User interface control method, information processing apparatus, and program

Also Published As

Publication number Publication date
JP2012053623A (en) 2012-03-15

Similar Documents

Publication Publication Date Title
JP5597069B2 (en) Image editing apparatus, control method thereof, and program
KR101482080B1 (en) Method for providing GUI and multimedia device using the same
AU2019213341B2 (en) User interface for camera effects
US9122388B2 (en) Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same
DK179757B1 (en) User Interface for Camera Effects
US7415676B2 (en) Visual field changing method
JP5860835B2 (en) Method for controlling vehicle image display using touch panel and vehicle image system thereof
US9489040B2 (en) Interactive input system having a 3D input space
US9313406B2 (en) Display control apparatus having touch panel function, display control method, and storage medium
TWI450180B (en) Display control device, display control method, program
KR20130138104A (en) Portable apparatus with a gui
WO2014061098A1 (en) Information display device and display information operation method
DK201670755A9 (en) User Interface for Camera Effects
KR20160065020A (en) Image display apparatus and image display method
EP3842909A1 (en) Book display program and book display device
JP2008071279A (en) Information processor and control method therefor
JP3256994B2 (en) Display target movement method by touch input
JP2012108800A (en) Display device, control method for display device and program
JP2012014559A (en) Display control apparatus and display control method
US20200341607A1 (en) Scrolling interface control for computer display
Binder et al. Design of user interfaces for selective editing of digital photos on touchscreen devices
JP2011090468A (en) Information processing apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140711

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140808

R151 Written notification of patent or utility model registration

Ref document number: 5597069

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151