JP5597069B2 - Image editing apparatus, control method thereof, and program - Google Patents
Image editing apparatus, control method thereof, and program Download PDFInfo
- Publication number
- JP5597069B2 JP5597069B2 JP2010195058A JP2010195058A JP5597069B2 JP 5597069 B2 JP5597069 B2 JP 5597069B2 JP 2010195058 A JP2010195058 A JP 2010195058A JP 2010195058 A JP2010195058 A JP 2010195058A JP 5597069 B2 JP5597069 B2 JP 5597069B2
- Authority
- JP
- Japan
- Prior art keywords
- editing
- image
- determined
- determining
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像の編集技術に関するものである。 The present invention relates to an image editing technique.
一度の撮影で、映像がユーザの所望の構図または効果の映像となっていることは難しい。そのため撮影後に、構図や効果を変更したいというニーズがある。具体的には、被写体の位置や大きさを変更することにより構図を変更したい、または背景領域のみにズームブラーを付与し躍動感を持たせたいなどがあげられる。 It is difficult for the video to be a video having a composition or effect desired by the user by one shooting. Therefore, there is a need to change the composition and effect after shooting. Specifically, it is desired to change the composition by changing the position and size of the subject, or to add a zoom blur to the background area only to give a feeling of dynamism.
実際にこれらを行うためには、例えばADOBE社のPHOTOSHOPでは、画像を領域ごとにレイヤーにわける。レイヤーごとに、付与する画像処理を選択し、各画像処理のパラメータを一つ一つ設定していき、レイヤーを重ねて合成を行う。例えば、被写体の位置や大きさを変更するためには、被写体領域の位置のx、y座標を、大きさの倍率を指定する必要がある。また、ズームブラーの場合は、ズームブラーの方向と強度と中心位置のx、y座標を指定する必要がある。(非特許文献1)
また、タッチパネル上の操作に応じて、ズーム、パン、回転などの処理をすることは行われている。(特許文献1)
In order to actually perform these, for example, in PHOTOSHOP of ADOBE, an image is divided into layers for each region. For each layer, the image processing to be applied is selected, the parameters of each image processing are set one by one, and the layers are overlapped for synthesis. For example, in order to change the position and size of the subject, it is necessary to specify the magnification of the size of the x and y coordinates of the position of the subject area. In the case of zoom blur, it is necessary to specify the direction and intensity of the zoom blur and the x and y coordinates of the center position. (Non-Patent Document 1)
In addition, processing such as zooming, panning, and rotation is performed in accordance with operations on the touch panel. (Patent Document 1)
映像の構図の変更や効果的なエフェクトを付与する際、正確なパラメータを指定した画像処理を行う必要がある。しかし、上記従来技術では、各画像処理のパラメータを一つ一つ正確に設定する必要があり手間がかかる。 When changing the composition of a video or applying an effective effect, it is necessary to perform image processing with accurate parameters specified. However, in the above prior art, it is necessary to set each image processing parameter accurately one by one, which is troublesome.
本発明は、上記問題に鑑みなされたものであり、複数のオブジェクトを含む画像中の、意図するオブジェクトに対して、直感的に効果的な画像編集を行える技術を提供しようとするものである。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique capable of intuitively and effectively performing image editing on an intended object in an image including a plurality of objects.
この課題を解決するため、例えば本発明の画像編集装置は以下の構成を備える。すなわち、
複数のオブジェクトが混在した画像を編集する画像編集装置であって、
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが2箇所の指示位置の並行移動を行う操作であった場合、編集の種類がモーションブラーであるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の並行移動量を、モーションブラーのパラメータとして利用することを特徴とする。
In order to solve this problem, for example, an image editing apparatus of the present invention has the following configuration. That is,
An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
An instruction position referred to when determining the object by the determination means, in accordance with the variation of the gesture and the indicated position represented by the indicated position detected by subsequently continuously according to the indicated position, the edit type and edit Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters ,
The editing means determines that the type of editing is motion blur when the gesture to be detected is an operation for performing parallel movement of two designated positions, and performs parallel movement when the gesture for the initial stage of the gesture is performed. The quantity is used as a motion blur parameter .
本発明によれば、複数のオブジェクトを含む画像中の、意図するオブジェクトに対して、直感的に効果的な画像編集を行えるようになる。 According to the present invention, intuitive and effective image editing can be performed on an intended object in an image including a plurality of objects.
以下添付図面に従って本発明に係る実施形態を詳細に説明する。 Embodiments according to the present invention will be described below in detail with reference to the accompanying drawings.
[第1の実施形態]
図1は、本実施形態を実現する画像編集装置のブロック構成図である。図示の如く、本装置は、装置全体の制御を司るCPU101、CPU101が実行するプログラムや利用するデータを予め格納しているROM102、CPU101のワークエリアとして使用するRAM103を有する。また、本装置は、画像ファイルを記憶保持する記憶装置104、CPU101の制御下で、液晶等のディスプレイ105に表示する画像を展開したり、描画処理を行う表示制御部106を有する。更に本装置は、ディスプレイ105の表示画面の前面に設けられた透明なタッチパネル107に対する操作者のタッチの有無、並びに、タッチ位置を検出する位置検出部108、更に、外部装置と通信するためのインタフェース109を有する。なお、実施形態のタッチパネル107及び位置検出部108で表わされる座標入力装置は、その種類を問わないが、少なくとも複数のタッチ位置を検出可能であるものとする。
[First Embodiment]
FIG. 1 is a block diagram of an image editing apparatus that implements the present embodiment. As shown in the figure, this apparatus includes a
本実施形態では、上記画像編集装置の一形態としてフォトフレームを例にとって説明する。また、記憶装置104には、複数の画像ファイルが既に格納されているものとして説明する。更に記憶装置104に格納されている画像ファイルは、前景オブジェクト、背景オブジェクト等、複数のオブジェクトが混在し、それぞれについて奥行き(レイヤ)や位置が独立して定義できる形式のファイルであるものとする。かかるファイル形式の代表的なものとして、ADOBE社のPHOTOSHOPが作成するPSDファイル(拡張子が「psd」のファイル)があるが、ファイル種類はこれに限らない。
In the present embodiment, a photo frame will be described as an example of the image editing apparatus. In the following description, it is assumed that a plurality of image files are already stored in the
さて、不図示のスイッチを操作して、本実施形態の装置の電源がONになると、CPU100はROM102に格納されたプログラムを実行することで、本装置を先に説明したフォトフレームとして機能させることになる。
When a switch (not shown) is operated to turn on the power of the apparatus according to the present embodiment, the CPU 100 executes the program stored in the
本実施形態で行うUIの一連の流れを、ディスプレイ105のスクリーンショットを用いて説明する。なお、操作者はディスプレイをタッチするのではなく、厳密にはその前面のタッチパネル107をタッチするものであるが、以下では、便宜的にディスプレイ105面にタッチする、と言う。
A series of UI flows performed in this embodiment will be described using screen shots of the
図2(a)に閲覧モード時のスクリーンショットを示す。閲覧モードとは、フォトフレーム内の記憶装置104に記憶された画像を閲覧していくモードである。301は、閲覧モード時のスクリーンショットである。記憶装置104に記憶されている画像が1枚表示される。ディスプレイ105上でフリック操作302を行うと記憶装置104に記憶されている次の画像が表示される。また、図2(b)に示すように、ディスプレイ105上でダブルタップ操作303を行うと、閲覧モードから編集モード画面304へ画面遷移する。画面の黒い枠が表示されるのは、現在は編集モードにあることを示すものである。換言すれば、黒枠が表示されないとき、閲覧モードを意味する。なお、フリック操作とは、指をディスプレイ105にタッチし、そのタッチ状態を維持したまま移動させる操作を言う。また、ダブルタップ操作とは、同じ位置を、ある程度短い期間無いに2回タッチする操作を言う。
FIG. 2A shows a screen shot in the browsing mode. The browsing mode is a mode in which an image stored in the
図2(c)に編集モード時の被写体移動の画像処理を行った際のスクリーンショットを示す。編集モードでは、その特に表示された画像の各オブジェクトが、レイヤに管理される状態となる。従って、前景と背景のレイヤで構成される画像の場合、前景のみを切り出したアルファマットを保持する画像の前景領域と前景を切り出した画像とは異なる画像を背景領域として重ねあわせて表示する。ユーザ操作に応じて、表示されている各画像に画像処理を施す。 FIG. 2C shows a screen shot when image processing for subject movement in the edit mode is performed. In the edit mode, each object of the displayed image is managed by the layer. Accordingly, in the case of an image composed of the foreground and background layers, an image having a foreground area in which only the foreground is cut out and holding the alpha matte and an image different from the image in which the foreground is cut out are superimposed and displayed as a background area. Image processing is performed on each displayed image in accordance with a user operation.
尚、本実施形態では、予め用意していた前景領域が映っていない背景領域のみの画像との差分をとることにより前景背景の領域の分離している。しかし、これは一例であり、これに限るものではない。例えば、特開2009−059060号公報のように動体を前景とし分離しても良いし、ユーザが前景と背景の領域を指定することにより行っても良い。また、本実施形態では、編集対象が前景と背景の二つの領域を持っているが、これは一例でありこれに限るものではない。例えば、さらに複数の領域を持っていても良いし、一つの領域のみ持っていても良い。 In this embodiment, the foreground / background region is separated by taking a difference from an image of only a background region that does not show a foreground region prepared in advance. However, this is an example, and the present invention is not limited to this. For example, as in Japanese Patent Application Laid-Open No. 2009-059060, the moving object may be separated as the foreground, or the user may specify the foreground and background areas. In the present embodiment, the editing target has two areas, the foreground and the background, but this is an example and the present invention is not limited to this. For example, it may have a plurality of regions or only one region.
また、本実施形態では、前景領域と背景領域が異なる画像から生成しているが、これは一例でありこれに限るものではない。例えば同一の画像から、前景を切り出し前景領域とし、前傾領域以外の領域を背景領域として生成しても良い。 In this embodiment, the foreground area and the background area are generated from different images. However, this is an example and the present invention is not limited to this. For example, from the same image, the foreground may be cut out and used as a foreground area, and an area other than the forward tilt area may be generated as a background area.
図2(c)に示された表示画像は、前景領域401、及び、背景領域402を有することを示している。操作者が、ディスプレイ201上の前景領域401をタッチし、ドラッグ操作403を行うと、ドラッグ操作403に応じて前景領域401の表示位置が変化し前景領域404となる。また、図2(d)に示すように、ディスプレイ105上でダブルタップ操作を行うと、閲覧モード画面301へ移行し、移動処理を行った前景領域404と背景領域402を合成した合成画像を表示する。このとき、CPU101は、編集内容を反映させるため、オリジナルの画像ファイルを更新する。具体的には、オリジナル画像ファイル内の前景オブジェクトの位置情報を更新することになる。尚、ここで前景領域404を移動対象としているが、背景領域402を移動させても良い。
The display image shown in FIG. 2C has a
図3のフローチャートに従い、CPU101が実行する処理を説明する。電源がONになり、フォトフレームとして起動するとブラウズモード画面301が表示される(S501)。次いで、電源がオフされたか否かを判定する(S502)。電源オフではないと判定された場合、ディスプレイ105へのタッチ(タッチの有無、及び、タッチされた場合にはその座標位置)を検出する(S503)。入力座標の変化から入力のジェスチャーがダブルタップか否かを判定する(S504)。ダブルタップと判定された場合(S504)、表示中の画像の前景と背景を別レイヤとしてRAM103に格納し、編集モード処理へ移行する(S505)。編集モード処理終了後、電源オフ判定(S502)へ移行する。編集モード処理(S505)の詳細は後で説明する。
Processing executed by the
ダブルタップ操作と判定されなかった場合(S504)、入力座標の変化から入力のジェスチャーがフリック操作か否かを判定する(S506)。フリックと判定された場合(S506)、現在表示している画像の次の画像を記憶媒体104から読み出し、ディスプレイ201へ表示し(S507)、電源オフ判定(S502)へ移行する。フリック操作でもないと判定された場合(S506)、電源オフ判定(S502)へ移行する。電源がオフされたと判定された場合(S503)、終了する。
If it is not determined that the operation is a double tap operation (S504), it is determined whether or not the input gesture is a flick operation from a change in input coordinates (S506). If it is determined that a flick has occurred (S506), the next image after the currently displayed image is read from the
図4を用いて、本実施形態における編集モード時のオブジェクト移動処理の操作について説明する。オブジェクト移動処理は、オブジェクト領域のドラッグによって行う。601はドラッグの開始時の入力座標である。本実施形態では、タッチされたのが1箇所であり、そのタッチされた入力座標601が含まれ、一番手前に位置するレイヤに割り当てられた領域602が移動対象となる。603はドラッグ操作中の入力検出位置である。604はドラッグの移動量となる。移動量604を対象移動処理の移動量とし、移動対象領域602を、605の位置まで移動させる処理を行う。なお、ドラッグ操作は、タッチ状態を維持しつつ、そのタッチ位置を変更する操作であり、先に説明したフリック操作と同義語であり、CPU101から見た場合の違いはない。しかし、一般に、ドラッグ操作は、非タッチ状態にした位置に意味があり、タッチしてから非タッチ状態になるまでにかかる時間に制限はない。一方、フリック操作では、指を払う操作であって、どちらの方向にタッチ位置が変化したかが重要であり、且つ、ドラッグ操作と比較して、タッチ状態になってから非タッチ状態になるまでは比較的短い期間を言う。本実施形態でも、技術内容を理解しやすくするやめ、フリック操作、ドラッグ操作を上記のような意味で説明することとする。
With reference to FIG. 4, the operation of the object moving process in the edit mode in the present embodiment will be described. The object moving process is performed by dragging the object area.
図5(a)に本実施形態における編集モード時の処理のフローチャートを示す。編集モードが開始すると、ディスプレイ105への入力座標を検出する(S701)。入力座標の変化から入力のジェスチャーがダブルタップか否かを判定する(S702)。ダブルタップではないと判定された場合(S702)、入力座標の変化から入力のジェスチャーがドラッグか否かを判定する(S703)。ドラッグ操作と判定された場合(S703)、対象移動処理(S704)を行い、入力位置検出(S701)へ移行する。対象移動処理については、後で詳細を説明する。また、ドラッグ操作ではないと判定された場合(S703)、入力位置検出(S701)へ移行する。ダブルタップと判定された場合(S702)、行った画像処理を元に合成を行い、合成した画像を記憶媒体104へ記憶し、編集モードを終了する。
FIG. 5A shows a flowchart of processing in the editing mode in the present embodiment. When the edit mode is started, input coordinates to the
図5(b)に本実施形態におけるオブジェクト移動処理のフローチャートを示す。 FIG. 5B shows a flowchart of object movement processing in the present embodiment.
オブジェクト移動処理が開始されると、ドラッグ操作開始時の入力座標が含まれる領域のオブジェクトを、画像処理を施す対象画像とする(S801)。ディスプレイ105への入力座標を検出する(S802)。入力のジェスチャーがドラッグ操作か判定する(S803)。ドラッグ操作と判定された場合、(S803)ドラッグの移動量を検出する(S804)。検出した移動量を対象移動処理の移動量と決定する(S805)。決定したオブジェクト画像を、決定した移動量(ドラッグ操作の開始位置と終了位置との距離)に基づき移動処理を行う(S806)。そして、再び、入力座標の検出処理(S802)に戻る。なお、この段階で、オリジナル画像ファイルの移動対象となったオブジェクトの座標位置情報も更新する。そして。ドラッグと判定されなかった場合(S803)、対象移動処理を終了する。
When the object movement process is started, the object in the region including the input coordinates at the start of the drag operation is set as a target image to be subjected to image processing (S801). Input coordinates to the
尚、本実施形態では、前景領域と背景領域が別の画像のため、各領域が移動しても空白箇所が発生しないが、前景領域と背景領域が同じ画像から生成した場合、対象が移動したことにより空白箇所が発生する。発生した空白箇所は、特開2004−104232号公報のように近傍の画像データを用いて補完処理を行う。または、特開2010−20581号公報のように、別の画像から空白の箇所が映っている箇所を検出し、その部分を用いて補完処理を行ってもよい。このように構成し処理することにより、直感的に対象の移動を行うことができ、ユーザが所望の画像を生成することが可能となる。 In this embodiment, since the foreground area and the background area are separate images, no blank space is generated even if each area is moved. However, if the foreground area and the background area are generated from the same image, the object has moved. This creates a blank space. The generated blank portion is complemented by using neighboring image data as disclosed in Japanese Patent Application Laid-Open No. 2004-104232. Alternatively, as in Japanese Patent Application Laid-Open No. 2010-20581, a part where a blank part appears in another image may be detected, and the complementary process may be performed using that part. By configuring and processing in this way, the target can be moved intuitively, and the user can generate a desired image.
[第2の実施形態]
第2の実施形態を説明する。本第2の実施形態における装置構成は図1と同じであるものとし、その説明は省略する。なお、閲覧モードと編集モードとの切り替えは、第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Second Embodiment]
A second embodiment will be described. The apparatus configuration in the second embodiment is assumed to be the same as that in FIG. Note that switching between the viewing mode and the editing mode is the same as in the first embodiment, and description of the viewing mode is omitted.
図6(a),(b)を用いて、本第2の実施形態における編集モード時の拡大縮小処理の操作について説明する。拡大縮小操作は、タッチ位置が2箇所であり、その2箇所(2点)の入力の間隔を広げたり縮めたりするピンチイン・ピンチアウト操作を、拡大、縮小しようとオブジェクト上で行う。図6(a)における、901はピンチイン・アウト開始時の入力位置である。902は入力位置901の中間点である。本実施形態では、中間点902が含み、もっとも手前のレイヤで管理されているオブジェクト903を、画像処理を付与する対象領域とする。図6(b)において、904はピンチイン・アウト中の入力位置である。開始時の入力位置間の距離905と、操作中の入力位置間の距離906との変化量から、拡大縮小率(倍率)を決定する。中間点902を拡大縮小処理の中心とし、拡大縮小処理を行う。尚、本実施形態では、中間点902を中心とし拡大縮小処理を行っているが、これは一例でありこれに限るものではない。例えば、対象領域ごとにあらかじめ決められた点を中心に拡大縮小処理を行っても良いし、対象領域の重心を中心に拡大縮小処理を行っても良い。
The operation of the enlargement / reduction process in the editing mode in the second embodiment will be described with reference to FIGS. 6 (a) and 6 (b). The enlargement / reduction operation has two touch positions, and a pinch-in / pinch-out operation for expanding or reducing the input interval between the two locations (two points) is performed on the object to enlarge or reduce. In FIG. 6A,
図7(a)に本実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。入力のジェスチャーがピンチイン・アウトか否かを判定する(S1001)。ピンチイン・アウトと判定された場合(S1001)、拡大縮小処理を行う(S1002)。このとき、オリジナル画像ファイルも拡大後のオブジェクトに従って更新する。この後、入力位置検出(S701)へ移行する。拡大縮小処理については、後で詳細を説明する。ピンチイン・アウトではないと判定された場合(S1001)、入力位置検出(S701)へ移行する。 FIG. 7A shows a flowchart of processing in the editing mode in the present embodiment. The description of the same parts as in FIG. It is determined whether or not the input gesture is pinch-in / out (S1001). When it is determined that the pinch-in / out is performed (S1001), enlargement / reduction processing is performed (S1002). At this time, the original image file is also updated according to the enlarged object. Thereafter, the process proceeds to input position detection (S701). Details of the enlargement / reduction processing will be described later. When it is determined that it is not pinch-in / out (S1001), the process proceeds to input position detection (S701).
図7(b)に本実施形態における拡大縮小処理のフローチャートを示す。図5(b)と同様の箇所については説明を割愛する。 FIG. 7B shows a flowchart of the enlargement / reduction processing in this embodiment. The description of the same parts as in FIG. 5B is omitted.
ピンチイン・アウトの入力位置の中間点902が含まれる領域の画像を、画像処理を施す対象画像とする(S1101)。入力のジェスチャーがピンチイン・アウトか否かを判定する(S1102)。ピンチイン・アウトと判定された場合(S1102)、開始時と操作中の二点の入力位置間距離905と906の比を算出する(S1103)。算出した比を拡大率、中間点902を拡大縮小処理の中心点とする(S1104)。決定したパラメータに基づき、アフィン変換を用いて拡大処理を行う(S1105)。ピンチイン・アウトではないと判定した場合(S1102)、拡大縮小処理を終了する。
An image in an area including the
尚、本実施形態では拡大縮小処理の中心点を中間点902としたが、これは一例でありこれに限るものではない。例えば、開始時の二点の入力位置のどちらか一方を拡大縮小処理の中心点としても良いし、予め領域ごとに拡大縮小処理の中心点を決定していてもよい。また、本実施形態ではアフィン変換を用いて拡大縮小処理を行っているが、これは一例でありこれに限るものではない。例えば、アフィン変換処理後にバイキュービック法などで補完処理を行ってもよい。このように構成し処理することにより、直感的に対象の拡大・縮小を行うことができ、ユーザが所望の画像を生成することが可能となる。
In the present embodiment, the center point of the enlargement / reduction processing is set to the
[第3の実施形態]
本第3の実施形態では、編集モード時における画像(オブジェクト)の回転処理について説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Third Embodiment]
In the third embodiment, an image (object) rotation process in the edit mode will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.
図8(a)、(b)を用いて、本第3の実施形態における編集モード時の対象回転処理の操作について説明する。回転処理操作は、回転対象上での二点の入力位置を回転移動させる回転操作によって行う。図8(a)における1201は回転操作開始時の入力位置である。1202は入力位置1201の中間点である。本実施形態では、中間点1202が含まれ、且つ、一番手前に位置するレイヤで管理されているオブジェクトの領域1203を、画像処理を付与する対象の領域とする。1204は、回転操作中の入力位置である。開始時の図8(a)における入力位置を結ぶ直線1205の傾きと、回転操作中の図8(b)の入力位置を結ぶ直線1206の傾きの変化量から、回転角を決定し、中間点1202を中心に、対象として決定されたオブジェクトの回転処理を行う。
With reference to FIGS. 8A and 8B, the operation of the target rotation process in the edit mode in the third embodiment will be described. The rotation processing operation is performed by a rotation operation that rotates and moves two input positions on the rotation target.
図9(a)に本第3の実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。 FIG. 9A shows a flowchart of processing in the edit mode in the third embodiment. The description of the same parts as in FIG.
CPU101、入力のジェスチャーが回転操作か否かを判定する(S1301)。回転操作と判定された場合(S1301)、回転処理を行う(S1302)。このとき、オリジナルの画像ファイルの更新処理も行う。この後、入力位置検出処理(S701)に戻る。回転処理については後で詳細を説明する。回転操作と判定されなかった場合(S1301)、入力位置検出(S701)へ移行する。
The
図9(b)に本第3の実施形態における回転処理のフローチャートを示す。図5(b)よび図7(b)と同様の箇所については説明を割愛する。 FIG. 9B shows a flowchart of the rotation process in the third embodiment. The description of the same parts as in FIG. 5B and FIG. 7B is omitted.
CPU101は、入力のジェスチャーが回転操作か否か判定する(S1401)。回転操作と判定された場合(S1401)、二本の指を結ぶ直線1205と1206の傾きの変化量を算出する(S1402)。算出した変化量を回転量、中間点1202を回転の中心とする(S1403)。決定したパラメータにもとづき、アフィン変換を用いて回転処理を行う(S1404)。また、回転操作と判定されなかった場合(S1401)、回転処理を終了する。
The
尚、本実施形態では中間点1202を回転の中心としたが、これは一例でありこれにかぎるものではない。例えば、領域ごとに予め定めた点を回転の中心としても良いし、どちらかの入力検出位置を回転の中心としても良い。
また、本実施形態ではアフィン変換を用いて回転処理を行っているが、これは一例でありこれに限るものではない。例えば、アフィン変換処理後にバイキュービック法などで補完処理を行ってもよい。このように構成し処理することにより、直感的に対象の回転を行うことができ、ユーザが所望の画像を生成することが可能となる。
In the present embodiment, the
In the present embodiment, the rotation processing is performed using affine transformation, but this is an example and the present invention is not limited to this. For example, complement processing may be performed by a bicubic method or the like after affine transformation processing. By configuring and processing in this way, the target can be intuitively rotated, and the user can generate a desired image.
[第4の実施形態]
本第4の実施形態では、選択したオブジェクトにモーションブラーを付与する例を説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Fourth Embodiment]
In the fourth embodiment, an example in which motion blur is given to a selected object will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.
図10を用いて、本第4の実施形態における編集モード時のモーションブラー処理の操作について説明する。モーションブラー処理は、モーションブラー付与対象オブジェクト上での2点をタッチし、そのままタッチした2点を並行移動する、いわゆるダブルドラッグによって行う。1501はダブルドラッグ開始時の入力位置である。1502は、入力位置1501の中間点であり、この中間位置を含み、もっと手前のレイヤに管理されているオブジェクトが処理対象として決定される。図示の場合、中間点1501は背景画像であるので、背景領域を、画像処理を付与する領域とする。1503は、ダブルドラッグ中の入力位置である。1504は、入力位置1503の中間点である。1505は、開始時と操作中の操作位置の中間点1502と1504との並行移動量である。並行移動量1505の向きからモーションブラーの向きを、移動量1505の長さからモーションブラーの強度を決定し、背景領域にモーションブラーを付与する。
The operation of the motion blur processing in the edit mode in the fourth embodiment will be described with reference to FIG. The motion blur processing is performed by so-called double drag, in which two points on the motion blur object are touched and the two touched points are moved in parallel.
図11(a)に本第4の実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。 FIG. 11A shows a flowchart of processing in the edit mode in the fourth embodiment. The description of the same parts as in FIG.
CPU101は、入力のジェスチャーがダブルドラッグか否かを判定する(S1601)。ダブルドラッグと判定された場合(S1601)、モーションブラー処理を行う(S1602)。モーションブラー処理については後で詳細を説明する。ダブルドラッグと判定されなかった場合(S1601)、入力位置検出(S701)へ移行する。
The
図11(b)に本第4の実施形態におけるモーションブラー処理のフローチャートを示す。図5(b)および図7(b)と同様の箇所については説明を割愛する。 FIG. 11B shows a flowchart of motion blur processing in the fourth embodiment. The description of the same parts as those in FIGS. 5B and 7B is omitted.
CPU101は、ダブルドラッグか否か判定する(S1701)。ダブルドラッグと判定された場合(S1701)、中間点1502と1505の移動量1505を算出する(S1702)。算出した移動量1505の向きをモーションブラーの向き、長さをモーションブラーの強度とする(S1703)。対象領域と同じ画像に透過度を持たせ、指定方向へかつ指定強度に応じた距離まで一定間隔でずらしながら、対象領域と合成することによって、モーションブラーを付与する(S1704)。このとき、オリジナル画ファイルの更新処理も行う。ダブルドラッグ操作が継続されていると判定されなかった場合(S1701)、モーションブラー処理を終了する。
The
尚、本実施形態ではモーションブラーを元画像に透過度を持たせずらしながら合成することにより行っているが、これは一例でありこれに限るものではない。例えば、指定方向、指定強度に応じた範囲のガウシアンブラーを付与することによって行っても良い。このように構成し処理することにより、直感的に効果的なモーションブラーを付与することができ、ユーザが所望の画像を生成することが可能となる。 In this embodiment, the motion blur is performed by synthesizing the original image while maintaining the transparency, but this is an example and the present invention is not limited to this. For example, it may be performed by giving a Gaussian blur in a range corresponding to the designated direction and the designated intensity. By configuring and processing in this way, an effective motion blur can be intuitively provided, and a user can generate a desired image.
[第5の実施形態]
第5の実施形態では、選択したオブジェクトにズームブラーを付与する例を説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Fifth Embodiment]
In the fifth embodiment, an example in which zoom blur is applied to a selected object will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.
図12を用いて、本第5の実施形態における編集モード時のズームブラー処理の操作について説明する。ズームブラー処理は、ズームブラー付与対象領域上での二本の指でのタッチを一組としたとき、二組のダブルドラッグによって行う。図示の1801と1802は、ダブルドラッグ開始時のダブルドラッグ各組の入力位置である。1803と1804は、入力位置1801と1802の中間点である。本実施形態では、中間点1803および1804を含み、最も奥のレイヤである背景領域を、画像処理を付与する領域とする。ただし、中間点1803と1804が異なる領域に含まれる場合は、両方の領域を、画像処理を付与する領域とする。
An operation of zoom blur processing in the edit mode in the fifth embodiment will be described with reference to FIG. The zoom blur process is performed by two sets of double drags when a pair of touches with two fingers on the zoom blur application target area is taken as one set. 1801 and 1802 shown in the figure are input positions of each group of double drags at the start of double dragging.
尚、本実施形態では中間点1803と1804が異なる領域に含まれる場合、両方の領域を、画像処理を付与する対象としたが、これは一例でありこれに限るものではない。例えば、先に検出した中間点が含まれる方のみを画像処理を付与する領域としても良い。
In the present embodiment, when the
1805と1806は、ダブルドラッグ中のダブルドラッグ各組の入力位置である。1807と1808は、入力位置1805と1806の中間点である。1803と1807を結んだベクトル1809と、1804と1808を結んだベクトル1810を算出する。1803と1807を結んだ直線と、1804と1808を結んだ直線との交点1811を算出する。算出したベクトル1809と1810の長さの平均をズームブラーの強度とし、ベクトル1809と1810の交点1811に対する向きをズームブラーの向きとする。算出した交点1811をおおよその消失点とし、ズームブラーの中心を決定する。決定したパラメータに基づき、背景領域にズームブラーを付与する。
図13(a)に本実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。 FIG. 13A shows a flowchart of processing in the edit mode in the present embodiment. The description of the same parts as in FIG.
CPU101は、入力が二組のダブルドラッグか否かを判定する(S1901)。二組のダブルドラッグと判定された場合(S1901)、ズームブラー処理を行う(S1902)。このとき、編集結果を反映させるため、オリジナル画像ファイルも更新する。ズームブラー処理については、後で詳細を説明する。また、二組のダブルドラッグと判定されなかった場合(S1901)、入力位置検出(S701)へ移行する。
The
図13(b)に本実施形態におけるズームブラー処理のフローチャートを示す。図5(b)と同様の箇所については説明を割愛する。 FIG. 13B shows a flowchart of zoom blur processing in the present embodiment. The description of the same parts as in FIG. 5B is omitted.
CPU101は、中間点1803と1804が含まれる領域の画像を、画像処理を施す対象画像とする。各中間点が異なる領域に含まれる場合は、両方の画像を、画像処理を施す対象画像とする(S2001)。そして、二組のダブルドラッグか否か判定する(S2002)。二組のダブルドラッグと判定された場合(S2002)、開始時と操作中の中間点1803と1807および1804と1808を結ぶベクトル1809と1810を算出する。開始時と操作中の中間点1803と1807および1804と1808を結ぶ直線の交点1811を算出する(S2003)。算出した操作変化量に基づきパラメータを決定する(S2004)。パラメータ決定については、後で詳細を説明する。決定した向きと強度に応じて拡大率を算出する。透過度を持たせた対象領域と同じ画像を、決定した拡大率まで徐々に拡大率を変更していきながら、算出した中心位置を中心に拡大縮小処理を行い、対象領域に合成していく(S2005)。尚、本実施形態では、基画像に透明度を持たせ、決定したパラメータに基づき、拡大縮小し、基画像に合成することによってズームブラーを付与しているが、これは一例でありこれに限るものではない。
The
図14(a)に本第5の実施形態におけるパラメータ決定のフローチャートを示す。 FIG. 14A shows a flowchart of parameter determination in the fifth embodiment.
CPU101は、ベクトル1809と1810の長さの平均値に比例するようにズームブラーの強度を決定する(S2101)。尚本実施形態ではベクトル1809と1810の長さの平均値を用いているが、これは一例でありこれに限るものではない。例えば、長いまたは短い方の値を用いてもよい。ベクトル1809と1810の交点1811への向きによって、ズームブラーの方向を算出する。ただしベクトルの方向が異なる場合は、長い方のベクトルの向きによってズームブラーの方向を決定する(S2102)。交点1811から中心点を決定し(S2103)、パラメータ決定を終了する。中心点決定については、後で詳細を説明する。
The
図14(b)に本第5の実施形態における中心点決定処理のフローチャートを示す。 FIG. 14B shows a flowchart of the center point determination process in the fifth embodiment.
CPU101は、キャニー法を用いて画像のエッジを検出する(S2201)。交点1811から任意の距離内を消失点候補範囲とする(S2202)。ハフ変換を用いて消失点候補範囲を通過する直線のみ検出する(S2203)。消失点候補範囲を通過する直線のみ検出することにより、消失点に収束しない直線の検出を抑えられ消失点の誤認識をさけ、かつ無駄な直線検出処理を省くことができるので処理を軽減することが可能となる。検出した直線がもっとも収束している点を検出し、消失点とし、ズームブラーの中心点とする(S2204)。
The
尚、本実施形態では、キャニー法を用いて画像のエッジを検出しているが、これは一例でありこれに限るものではない。例えば、ロバートクロス法などを用いても良い。
また、本実施形態では、直線の検出にハフ変換を用いているが、これは一例でありこれに限るものではない。また、本実施形態では、交点1811の情報を用いて消失点を検出しズームブラーの中心としているが、これは一例でありこれに限るものではない。例えば、交点1811をズームブラーの中心としてもよい。また、本実施形態では、ズームブラー処理をしているが、これは一例でありこれに限るものではない。例えば、指定した中心に近いほど、彩度が落ちるような処理を施しても良い。このように構成し処理することにより、複数の領域に分離した画像であっても、直感的にズームブラーを付与することができ、ユーザが所望の画像を生成することが可能となる。
In this embodiment, the edge of the image is detected by using the Canny method, but this is an example and the present invention is not limited to this. For example, the Robert cross method may be used.
In this embodiment, the Hough transform is used for detecting a straight line, but this is an example and the present invention is not limited to this. In the present embodiment, the vanishing point is detected using the information of the
[第6の実施形態]
第6の実施形態では、選択したオブジェクトに対して、フォーカス変更処理を行う例を説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Sixth Embodiment]
In the sixth embodiment, an example in which focus change processing is performed on a selected object will be described. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.
図15(a),(b)を用いて、本第6の実施形態における編集モード時のフォーカス変更処理の操作について説明する。フォーカス変更処理は、フォーカスを合わせる対象のオブジェクト上でのタップで行う。図15(a)における2301は背景領域で、2302は前景領域である。タップ前は、前景領域2302のみがボケ、背景領域にフォーカスがあった映像になっている。タップ操作が行われると、図15(b)の入力位置2303の領域を含まない背景領域2301のみがボケ、前景領域2302にフォーカスが合った映像となる。つまり、タップするごとに、フォーカス対象を交互に切り替えることとなる。
With reference to FIGS. 15A and 15B, the focus change processing operation in the edit mode according to the sixth embodiment will be described. The focus change process is performed by tapping on the object to be focused. In FIG. 15A,
図16(a)に本第6の実施形態における編集モードのフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。 FIG. 16A shows a flowchart of the edit mode in the sixth embodiment. The description of the same parts as in FIG.
CPU101は、入力のジェスチャーがタップか否かを判定する(S2401)。タップと判定された場合(S2401)、フォーカス変更処理を行う(S2402)。フォーカス変更処理については、後で詳細を説明する。タップと判定されなかった場合(S2401)、入力位置検出(S701)へ移行する。
The
図16(b)に本第6の実施形態におけるフォーカス変更処理のフローチャートを示す。 FIG. 16B shows a flowchart of the focus change process in the sixth embodiment.
タップの入力位置2303が含まれない領域の画像を、画像処理を施す対象画像とする(S2501)。決定した対象画像に、あらかじめ定めた強度のガウシアンブラーを付与する(S2502)。 An image in an area not including the tap input position 2303 is set as a target image to be subjected to image processing (S2501). A Gaussian blur having a predetermined intensity is applied to the determined target image (S2502).
尚、本実施形態では、ブラーの強度を予め定めた値にしているが、これは一例でありこれに限るものではない。例えば、タップの継続時間に応じてブラーの強度を決定しても良い。また、本実施形態では、ガウシアンブラーによってブラーを付与しているが、これは一例でありこれに限るものではない。このように構成し処理することにより、直感的にフォーカス変更処理を行うことができ、ユーザが所望の画像を生成することが可能となる。 In this embodiment, the blur strength is set to a predetermined value. However, this is an example, and the present invention is not limited to this. For example, the strength of the blur may be determined according to the duration of the tap. In this embodiment, the blur is given by the Gaussian blur, but this is an example and the present invention is not limited to this. By configuring and processing in this way, the focus change process can be performed intuitively, and the user can generate a desired image.
[第7の実施形態]
上記第1乃至第6の実施形態では、操作者によるディスプレイ105に対するジェスチャーに応じた処理を説明したが、これらの機能を1つの編集装置に搭載するようにしても良い。この場合の例を第7の実施形態として説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Seventh Embodiment]
In the first to sixth embodiments, the processing according to the gesture performed by the operator on the
図19は、本第7の実施形態における編集モードにおける処理手順のフローチャートである。 FIG. 19 is a flowchart of a processing procedure in the edit mode according to the seventh embodiment.
CPU101は、S3001にて、ディスプレイ105に対する非タッチ状態からタッチ状態になったことを検出する。タッチ入力を検出すると、処理をS3002に進め、タッチの個数、各タッチ位置に従い、操作者の意図した画面上の座標位置を算出する。タッチ箇所が1つの場合には、タッチ位置と操作者の意図した画面上の位置は一致する。しかし、例えばタッチ箇所が2箇所の場合、先に説明したように、操作者の操作はピンチイン・アウト操作を行うための初期段階であると判定できる。従って、後者の場合、その中央の位置が操作者の意図した座標位置として判定する。そして、決定した操作者の意図した座標位置を内包し、且つ、最も手前のレイヤに管理されているオブジェクトを、編集対象のオブジェクトとして決定する。次いで、後続して入力されるタッチ位置の変化から、操作者のジェスチャーの種類を判別する。そして、その判別したジェスチャーに応じた処理をS3003乃至S3008で行う。このS3003乃至3008は、上記第1乃至第6の実施形態に対応するので、その内容は上記各実施形態を参照されたい。
In step S <b> 3001, the
この後、S3009に進み、ダブルタップが入力されたか否かを判定し、否の場合にはS3001以降の処理を繰り返す。また、ダブルタップの入力がされた場合、S3009に進んで、編集後の画像を合成処理し、編集モードを終了し、閲覧モードに移行する。 Thereafter, the process proceeds to S3009, where it is determined whether or not a double tap has been input. If not, the processes after S3001 are repeated. If a double-tap input has been made, the process advances to step S3009 to synthesize the edited image, end the editing mode, and shift to the viewing mode.
なお、先に説めいた第1乃至第6の実施形態では、各編集処理を行う度に、オリジナルの画像ファイルを更新するものとして説明したが、編集モードを終了する際に、オリジナル画像ファイルを更新するようにしても良い。 In the first to sixth embodiments described above, it is described that the original image file is updated each time each editing process is performed. However, when the editing mode is ended, the original image file is updated. You may make it update.
[第8の実施形態]
上記実施形態では、編集対象の画像データが静止画を前提にして説明したが、動画像について編集する例、具体的には、画像処理としてタイムシフト処理を行う例を第8の実施形態として説明する。なお、装置構成は、図1と同じとする。また、閲覧モードと編集モードとの切り替えは第1の実施形態と同じとし、閲覧モードについての説明は省略する。
[Eighth Embodiment]
In the above embodiment, the description has been made on the assumption that the image data to be edited is a still image. However, an example of editing a moving image, specifically, an example of performing time shift processing as image processing will be described as an eighth embodiment. To do. The apparatus configuration is the same as in FIG. The switching between the browsing mode and the editing mode is the same as that in the first embodiment, and the description of the browsing mode is omitted.
ここでタイムシフト処理とは、動画の連続したフレームから同オブジェクトを切り出し、切り出したオブジェクトを1フレームの画像上に設置していき、動体の軌跡を表すものである。 Here, the time shift processing represents the trajectory of a moving object by cutting out the same object from successive frames of a moving image and placing the cut out object on an image of one frame.
図17(a),(b)を用いて、本第8の実施形態における編集モード時のタイムシフト操作について説明する。タイムシフト操作は、3点(3箇所のタッチ)の入力位置を回転させる三点回転操作によって行う。図17(a)の2601は、動画の或るフレーム画像である。2602、2603、2604は三点回転操作開始時の入力位置である。2605は、入力位置2602、2603、2604を結ぶ円である。2606は、円2605の中心である。2607は、入力位置2603と中心2606を結ぶ線分である。図17(b)の2608、2609、2610は、操作中の入力検出位置で、それぞれ2602、2603、2604が移動したものである。2611は、操作入力位置2608、2609、2610を結ぶ円である。2612は、円2611の中心である。2613は、操作入力位置2609と中心2612を結ぶ線分である。2614は、タイムシフト操作によって設置された画像である。
With reference to FIGS. 17A and 17B, the time shift operation in the edit mode in the eighth embodiment will be described. The time shift operation is performed by a three-point rotation operation that rotates an input position of three points (three touches).
中心点2606を含まない領域を切り出し対象とする。線分2607と線分2613の成す回動角(角度)を算出する。算出した回動角から、領域を切り出すフレームの時間範囲を決定する。決定した時間範囲内のフレームから対象領域を切り出し、切り出した同位置に設置する。
A region that does not include the
図18(a)に本第8の実施形態における編集モード時の処理のフローチャートを示す。図5(a)と同様の箇所については説明を割愛する。 FIG. 18A shows a flowchart of processing in the edit mode in the eighth embodiment. The description of the same parts as in FIG.
CPU101は、入力のジェスチャーが三点回転操作か否かを判定する(S2701)。三点回転操作と判定された場合(S2701)、タイムシフト処理を行う(S2702)。タイムシフト処理については、後で詳細を説明する。三点回転操作と判定されなかった場合(S2701)、入力検出(S701)へ移行する。
The
図18(b)に本第8の実施形態におけるタイムシフト処理のフローチャートを示す。図5(b)と同様の箇所については説明を割愛する。 FIG. 18B shows a flowchart of the time shift process in the eighth embodiment. The description of the same parts as in FIG. 5B is omitted.
CPU101は、3点の入位置を結ぶ円の中心2606を算出する。算出した中心2606が含まれない領域の画像を、画像処理を施す対象画像とする(S2801)。入力のジェスチャーが三点回転操作か否かを判定する(S2802)。S2802において三点回転操作と判定された場合、操作中の3点の入力位置を結ぶ円の中心206を算出する。開始時の入力位置2603と開始時の円の中心2606を結ぶ線分2607と、操作中の入力位置2609と操作中の円の中心2612を結ぶ線分2613の成す角度を算出する(S2803)。算出した角度から、対象領域を切り出すフレームの時間範囲を決定する(S2804)。決定した時間範囲内の任意の間隔のフレームから対象領域を切り出し、切り出した位置に設置する(S2805)。S2802において三点回転操作ではないと判定された場合、タイムシフト処理を終了する。
The
尚、本実施形態では、3点の入力検出位置を結ぶ円の中心が含まれない領域を対象領域としたが、これは一例でありこれに限るものではない。例えば、中心位置が含まれる領域を対象領域としてもよい。また、本実施形態では、入力検出位置と円の中心を結ぶ直線の成す各を操作変化量と算出しているが、これは一例でありこれに限るものではない。例えば、線分の傾きの変化量を算出しても良い。また、本実施形態では、三点回転操作に応じてタイムシフト処理を行っているが、これは一例でありこれに限るものではない。例えば、三点回転操作に応じて、動画の再生速度を制御してもよい。このように構成し処理を行うことにより、直感的にタイムシフト処理を行うことが可能となり、ユーザが所望の画像を生成することがかのうとなる。 In the present embodiment, the region that does not include the center of the circle connecting the three input detection positions is the target region. However, this is an example and the present invention is not limited to this. For example, an area including the center position may be set as the target area. In the present embodiment, each of the straight lines connecting the input detection position and the center of the circle is calculated as the operation change amount, but this is an example and the present invention is not limited to this. For example, the amount of change in the slope of the line segment may be calculated. In this embodiment, the time shift process is performed according to the three-point rotation operation, but this is an example and the present invention is not limited to this. For example, the moving image playback speed may be controlled in accordance with a three-point rotation operation. By configuring and processing in this way, it becomes possible to perform time shift processing intuitively, and the user can generate a desired image.
Claims (9)
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが2箇所の指示位置の並行移動を行う操作であった場合、編集の種類がモーションブラーであるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の並行移動量を、モーションブラーのパラメータとして利用することを特徴とする画像編集装置。 An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
The editing means determines that the type of editing is motion blur when the gesture to be detected is an operation for performing parallel movement of two designated positions, and performs parallel movement when the gesture for the initial stage of the gesture is performed. amounts, images editing apparatus characterized by utilizing as a parameter for motion blur.
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、2箇所の指示を一組とした場合、検出するジェスチャーが二組のドラッグ操作であった場合、編集の種類がズームブラーであるとして決定し、各組の移動した向きの交点をズームブラーの中心点とし、各組の移動量の平均値をズームブラーの強度のパラメータとして利用することを特徴とする画像編集装置。 An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
The editing means decides that the type of editing is zoom blur when the gestures to be detected are two sets of drag operations when the instructions at two places are set as one set, and the intersection of the moving directions of each set. was the center point of the zoom blur images editing apparatus characterized by using the average of each set of the movement amount as a parameter of the intensity of zoom blur.
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが1箇所のタップ操作であった場合、編集の種類がぼかし処理であるとして決定し、タップ操作が行われる度に、タップした位置を含み最も奥に位置するオブジェクト、最も手前に位置するオブジェクトを交互にぼかし対象を切り替え、指示している時間をぼかし強度のパラメータとして利用することを特徴とする画像編集装置。 An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
When the gesture to be detected is a tap operation at one location, the editing means determines that the type of editing is blurring processing, and each time the tap operation is performed, the object located at the farthest position including the tapped position , foremost objects located switches the blur target alternately, images editing apparatus characterized by the use as a parameter of the intensity blur time instructs.
画像を表示する表示手段と、
前記表示手段が有する表示画面に対する、操作者による指示の有無、並びに、指示位置を検出する検出手段と、
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定手段と、
前記決定手段でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集手段とを備え、
前記編集手段は、検出するジェスチャーが3箇所の指示位置の回動の操作であった場合、編集の種類がタイムシフト処理であるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の回動角を、動画像から切り出す時間範囲のパラメータとして決定することを特徴とする画像編集装置。 An image editing apparatus for editing an image in which a plurality of objects are mixed,
Display means for displaying an image;
Presence / absence of an instruction by an operator on the display screen of the display means, and detection means for detecting an indicated position;
In a state where an image having a plurality of objects is displayed on the display screen of the display unit, when the detection unit detects an instruction to the display screen by the operator, the plurality of objects are determined from the coordinate position of the instruction. Determining means for determining which of the processing targets,
The type of editing and the editing position are determined in accordance with the pointing position referred to when the object is determined by the determining means, the gesture represented by the pointing position detected successively and continuously with respect to the pointing position, and the amount of change in the pointing position. Editing means for determining parameters for editing, and editing the determined object according to the determined editing type and parameters,
The editing means determines that the type of editing is time shift processing when the gesture to be detected is a rotation operation of three designated positions, and rotates when the gesture is performed with respect to the initial stage of the gesture images editing apparatus characterized by determining a corner, as a parameter of the time range to be cut out from the moving image.
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、
前記編集工程では、検出するジェスチャーが2箇所の指示位置の並行移動を行う操作であった場合、編集の種類がモーションブラーであるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の並行移動量を、モーションブラーのパラメータとして利用することを特徴とする画像編集装置の制御方法。 Display means for displaying an image, on the display screen of said display means includes the presence or absence of an instruction by the operator, as well, and a detecting means for detecting a pointing position, image editing for editing an image in which a plurality of objects are mixed An apparatus control method comprising:
In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
In the editing step, when the gesture to be detected is an operation for performing parallel movement of two designated positions, it is determined that the type of editing is motion blur, and parallel movement is performed when the gesture is performed for the initial stage of the gesture. the amount of the control method of the image picture editing apparatus characterized by utilizing as a parameter for motion blur.
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
前記編集工程では、2箇所の指示を一組とした場合、検出するジェスチャーが二組のドラッグ操作であった場合、編集の種類がズームブラーであるとして決定し、各組の移動した向きの交点をズームブラーの中心点とし、各組の移動量の平均値をズームブラーの強度のパラメータとして利用することを特徴とする画像編集装置の制御方法。In the editing step, when two directions are set as one set, when the gesture to be detected is two sets of drag operations, it is determined that the type of editing is zoom blur, and the intersection of the moving directions of each set is determined. Is the center point of the zoom blur, and the average value of the moving amounts of each set is used as a zoom blur intensity parameter.
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
前記編集工程では、検出するジェスチャーが1箇所のタップ操作であった場合、編集の種類がぼかし処理であるとして決定し、タップ操作が行われる度に、タップした位置を含み最も奥に位置するオブジェクト、最も手前に位置するオブジェクトを交互にぼかし対象を切り替え、指示している時間をぼかし強度のパラメータとして利用することを特徴とする画像編集装置の制御方法。In the editing step, if the gesture to be detected is a single tap operation, it is determined that the type of editing is blurring processing, and the object that is located at the farthest position including the tapped position is determined each time the tap operation is performed. A method for controlling an image editing apparatus, characterized in that the object to be blurred is alternately switched as a blurring target, and the designated time is used as a blurring intensity parameter.
複数のオブジェクトを有する画像を前記表示手段の表示画面に表示している状態で、前記検出手段で操作者による前記表示画面への指示を検出したとき、決定手段が、当該指示の座標位置から、前記複数のオブジェクトのいずれを処理対象とするかを決定する決定工程と、In a state in which an image having a plurality of objects is displayed on the display screen of the display means, when the detection means detects an instruction to the display screen by the operator, the determination means determines from the coordinate position of the instruction, A determination step of determining which of the plurality of objects is to be processed;
編集手段が、前記決定工程でオブジェクトを決定した際に参照した指示位置と、当該指示位置に対して後続し連続して検出される指示位置で表わされるジェスチャーと指示位置の変化量に従い、編集の種類と編集のためのパラメータを決定し、当該決定した編集の種類とパラメータに従って前記決定したオブジェクトに対して編集を行う編集工程とを有し、The editing means performs the editing according to the pointing position referred to when the object is determined in the determining step, the gesture represented by the pointing position continuously detected after the pointing position and the change amount of the pointing position. An editing step for determining a type and a parameter for editing, and editing the determined object according to the determined editing type and parameter;
前記編集工程では、検出するジェスチャーが3箇所の指示位置の回動の操作であった場合、編集の種類がタイムシフト処理であるとして決定し、ジェスチャーの初期に対するジェスチャーを行っている場合の回動角を、動画像から切り出す時間範囲のパラメータとして決定することを特徴とする画像編集装置の制御方法。In the editing process, when the gesture to be detected is a rotation operation of three designated positions, the editing type is determined to be a time shift process, and the rotation when the gesture is performed with respect to the initial stage of the gesture is performed. A method of controlling an image editing apparatus, wherein a corner is determined as a parameter of a time range cut out from a moving image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010195058A JP5597069B2 (en) | 2010-08-31 | 2010-08-31 | Image editing apparatus, control method thereof, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010195058A JP5597069B2 (en) | 2010-08-31 | 2010-08-31 | Image editing apparatus, control method thereof, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012053623A JP2012053623A (en) | 2012-03-15 |
JP5597069B2 true JP5597069B2 (en) | 2014-10-01 |
Family
ID=45906880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010195058A Active JP5597069B2 (en) | 2010-08-31 | 2010-08-31 | Image editing apparatus, control method thereof, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5597069B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8548778B1 (en) | 2012-05-14 | 2013-10-01 | Heartflow, Inc. | Method and system for providing information from a patient-specific model of blood flow |
JP6021460B2 (en) * | 2012-06-20 | 2016-11-09 | 株式会社セルシス | Drawing method, program, and apparatus |
JP5975794B2 (en) | 2012-08-29 | 2016-08-23 | キヤノン株式会社 | Display control apparatus, display control method, program, and storage medium |
EP2963530A4 (en) * | 2013-02-27 | 2016-10-26 | Alps Electric Co Ltd | Operation detection device |
JP6198459B2 (en) * | 2013-05-21 | 2017-09-20 | キヤノン株式会社 | Display control device, display control device control method, program, and storage medium |
JP6492830B2 (en) * | 2015-03-20 | 2019-04-03 | カシオ計算機株式会社 | Handwriting input device, handwriting input method, and program |
JP6715361B2 (en) * | 2019-02-07 | 2020-07-01 | 株式会社スクウェア・エニックス | Information processing device, information processing method, and game device |
CN112415991A (en) * | 2020-11-30 | 2021-02-26 | Oppo广东移动通信有限公司 | Control method and device, and storage medium |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5164675B2 (en) * | 2008-06-04 | 2013-03-21 | キヤノン株式会社 | User interface control method, information processing apparatus, and program |
-
2010
- 2010-08-31 JP JP2010195058A patent/JP5597069B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012053623A (en) | 2012-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5597069B2 (en) | Image editing apparatus, control method thereof, and program | |
KR101482080B1 (en) | Method for providing GUI and multimedia device using the same | |
AU2019213341B2 (en) | User interface for camera effects | |
US9122388B2 (en) | Method and apparatus for controlling touch screen using timeline bar, recording medium with program for the same recorded therein, and user terminal having the same | |
DK179757B1 (en) | User Interface for Camera Effects | |
US7415676B2 (en) | Visual field changing method | |
JP5860835B2 (en) | Method for controlling vehicle image display using touch panel and vehicle image system thereof | |
US9489040B2 (en) | Interactive input system having a 3D input space | |
US9313406B2 (en) | Display control apparatus having touch panel function, display control method, and storage medium | |
TWI450180B (en) | Display control device, display control method, program | |
KR20130138104A (en) | Portable apparatus with a gui | |
WO2014061098A1 (en) | Information display device and display information operation method | |
DK201670755A9 (en) | User Interface for Camera Effects | |
KR20160065020A (en) | Image display apparatus and image display method | |
EP3842909A1 (en) | Book display program and book display device | |
JP2008071279A (en) | Information processor and control method therefor | |
JP3256994B2 (en) | Display target movement method by touch input | |
JP2012108800A (en) | Display device, control method for display device and program | |
JP2012014559A (en) | Display control apparatus and display control method | |
US20200341607A1 (en) | Scrolling interface control for computer display | |
Binder et al. | Design of user interfaces for selective editing of digital photos on touchscreen devices | |
JP2011090468A (en) | Information processing apparatus and control method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140523 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140711 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140808 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5597069 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |