JP2013008326A - Image processing device and control method therefor - Google Patents

Image processing device and control method therefor Download PDF

Info

Publication number
JP2013008326A
JP2013008326A JP2011142244A JP2011142244A JP2013008326A JP 2013008326 A JP2013008326 A JP 2013008326A JP 2011142244 A JP2011142244 A JP 2011142244A JP 2011142244 A JP2011142244 A JP 2011142244A JP 2013008326 A JP2013008326 A JP 2013008326A
Authority
JP
Japan
Prior art keywords
image processing
touch
image
type
display screen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011142244A
Other languages
Japanese (ja)
Other versions
JP2013008326A5 (en
JP5769516B2 (en
Inventor
Wataru Kako
亘 加来
Nobuo Oshimoto
信夫 押本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011142244A priority Critical patent/JP5769516B2/en
Publication of JP2013008326A publication Critical patent/JP2013008326A/en
Publication of JP2013008326A5 publication Critical patent/JP2013008326A5/ja
Application granted granted Critical
Publication of JP5769516B2 publication Critical patent/JP5769516B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability in selection of a type of image processing and adjustment of a processing amount by a multi-touch operation.SOLUTION: Two touches on a display screen are recognized, a type of image processing is selected on the basis of a distance between the two recognized touches, a rotation angle obtained through movement of one touch of the two touches with the other touch as the center of rotation is acquired, a processing amount is calculated from the rotation angle, and image processing is performed on an image displayed on the display screen on the basis of the type of image processing and the processing amount.

Description

本発明は、マルチタッチ操作により、入力操作を行う画像処理に関する。   The present invention relates to image processing for performing an input operation by a multi-touch operation.

近年、表示画面と一体に構成したタッチパネルを操作入力部とし、画面上に表示したグラフィカルユーザーインターフェース(GUI)部材をタッチ操作させる情報処理装置が普及している。特に、デジタルカメラや携帯電話等の小型の情報処理装置はハード操作部材を配置するエリアが限られるため、GUI部材の表示切り替えによって多くの操作項目に対応できるタッチパネルが多く利用されている。
近年ではマルチタッチ操作可能な機器が増加し、特許文献1で提案されているようなタッチパネルを複数の指でタッチした状態での回転操作により、地図を回転させる操作がある。具体的には検出したユーザーによる回転操作の回転角度で地図を回転することで実現している。
2. Description of the Related Art In recent years, information processing apparatuses that use a touch panel configured integrally with a display screen as an operation input unit and perform a touch operation on a graphical user interface (GUI) member displayed on the screen have become widespread. In particular, since a small information processing apparatus such as a digital camera or a mobile phone has a limited area for placing hardware operation members, a touch panel that can handle many operation items by switching display of GUI members is often used.
In recent years, devices capable of multi-touch operation have increased, and there is an operation of rotating a map by a rotation operation in a state where a touch panel as proposed in Patent Document 1 is touched with a plurality of fingers. Specifically, this is realized by rotating the map at the detected rotation angle of the rotation operation by the user.

特開2008−158842号公報JP 2008-158842 A

一方、画像処理により所望の画像を得るためには、画像処理の内容を画面上で確認しながら、画像処理の種類の選択・処理量の調整を、所望の領域に対して一連の操作で簡便に行う必要がある。
しかしながら、従来技術では、画像処理の種類の選択と処理量の調整を一連の操作で行うことができないという課題があった。
本発明は上記課題を鑑みてなされたものであり、マルチタッチ操作により、画像処理の種類の選択と処理量の調整の操作性を向上させることを目的とする。
On the other hand, in order to obtain a desired image by image processing, it is easy to select the type of image processing and adjust the processing amount with a series of operations on the desired area while checking the contents of the image processing on the screen. Need to be done.
However, the conventional technique has a problem in that selection of the type of image processing and adjustment of the processing amount cannot be performed by a series of operations.
The present invention has been made in view of the above problems, and an object of the present invention is to improve the operability of selecting the type of image processing and adjusting the processing amount by a multi-touch operation.

上記の目的を達成する、本発明の画像処理装置は、表示画面上の2点のタッチを認識する認識手段と、前記認識した2点のタッチの距離に基づいて、画像処理の種類を選択する選択手段と、前記2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる回転角度を取得し、前記回転角度より、処理量を算出する算出手段と、前記画像処理の種類と前記処理量に基づいて、前記表示画面上に表示されている画像に対して、画像処理を行う画像処理手段を有することを特徴とする。   An image processing apparatus according to the present invention that achieves the above object selects a type of image processing based on a recognition means for recognizing two touches on a display screen and a distance between the two touches recognized. Selecting means; and calculating means for obtaining a rotation angle obtained by moving one touch of the two touches and moving the other touch, and calculating a processing amount from the rotation angle; And image processing means for performing image processing on the image displayed on the display screen based on the type of image processing and the processing amount.

本発明によれば、マルチタッチ操作により、画像処理の種類の選択と処理量の調整の操作性が向上する。   According to the present invention, the multi-touch operation improves the operability of selecting the type of image processing and adjusting the processing amount.

画像処理装置100のブロック図。1 is a block diagram of an image processing apparatus 100. FIG. 変形例におけるS403の詳細フローチャート。The detailed flowchart of S403 in a modification. 補助表示例を示す図。The figure which shows the example of an auxiliary | assistant display. 2点間距離と画像処理の種類の対応表。A correspondence table between the distance between two points and the type of image processing. 画像処理装置100におけるフローチャート。5 is a flowchart in the image processing apparatus 100. 回転操作の説明図。Explanatory drawing of rotation operation. なぞり操作で領域を分割する例の説明図。Explanatory drawing of the example which divides | segments an area | region by a tracing operation.

<実施形態1>
以下、図面を参照して、本発明の実施形態を説明する。
<Embodiment 1>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本実施形態における画像処理装置100のブロック図である。画像処理装置100は、表示部11、タッチパネル部12、表示制御部13、保持部14、算出部15、操作認識部16、画像処理部17有する。   FIG. 1 is a block diagram of an image processing apparatus 100 in the present embodiment. The image processing apparatus 100 includes a display unit 11, a touch panel unit 12, a display control unit 13, a holding unit 14, a calculation unit 15, an operation recognition unit 16, and an image processing unit 17.

表示制御部13は、画像処理部17で画像処理が行われた画像や、保持部14で保持している画像を、表示部11へ表示制御を行う。操作認識部16は、タッチパネル部12上で操作されたタッチや回転操作などの認識を行う。算出部15は、操作認識部16で認識した第一のタッチと第二のタッチとの間の距離の算出を行う。ここで、操作認識部16が、最初にタッチを検出した点を、第一のタッチ点とし、2番目にタッチを検出した点を、第二のタッチ点とする。また、算出部15は、操作認識部16で認識した回転操作の回転角度を算出する。画像処理部17は、表示部11に表示された画像を領域ごとに分割したり、距離に基づいて画像処理の種類を特定したり、回転操作の角度に基づいて画像処理を行ったりする。保持部14は、画像や、後述する対応表などを保持している。   The display control unit 13 controls the display unit 11 to display the image that has been subjected to image processing by the image processing unit 17 and the image that is held by the holding unit 14. The operation recognition unit 16 recognizes touches and rotation operations operated on the touch panel unit 12. The calculation unit 15 calculates the distance between the first touch and the second touch recognized by the operation recognition unit 16. Here, a point at which the operation recognition unit 16 first detects a touch is a first touch point, and a point at which a second touch is detected is a second touch point. Further, the calculation unit 15 calculates the rotation angle of the rotation operation recognized by the operation recognition unit 16. The image processing unit 17 divides the image displayed on the display unit 11 for each region, specifies the type of image processing based on the distance, and performs image processing based on the angle of the rotation operation. The holding unit 14 holds an image, a correspondence table described later, and the like.

本実施形態では、表示部11とタッチパネル部12は、タッチパネルディスプレイとして一体に構成される。また、タッチパネル部12は、マルチタッチが可能なパネルであるとする。   In the present embodiment, the display unit 11 and the touch panel unit 12 are integrally configured as a touch panel display. In addition, it is assumed that the touch panel unit 12 is a panel capable of multi-touch.

図5は、画像処理装置100におけるフローチャートである。   FIG. 5 is a flowchart in the image processing apparatus 100.

ステップS502において、表示制御部13は、保持部14より画像データを読み出し、表示部11上に表示する。ステップS503において、操作認識部16が、ユーザーによる第一のタッチを認識する。ステップS504において、画像処理部17が、表示画面上に表示されている画像データを2以上の領域に分割する。ステップS505において、画像処理部17は、ステップS504で分割された領域のうち、第一のタッチ点が含まれる領域を、画像処理を実施する領域として設定する。ステップS506において、表示制御部13がユーザーによる第一のタッチが含まれる領域と含まれない領域をユーザーが識別可能となるように表示制御を行う。ステップS507において、操作認識部16が、ユーザーによる第二のタッチを認識する。このとき、ユーザーによる第一のタッチがなされたままの状態で、第二のタッチがなされた場合に、第二のタッチが認識されたとする。   In step S <b> 502, the display control unit 13 reads the image data from the holding unit 14 and displays it on the display unit 11. In step S503, the operation recognition unit 16 recognizes the first touch by the user. In step S504, the image processing unit 17 divides the image data displayed on the display screen into two or more areas. In step S505, the image processing unit 17 sets a region including the first touch point among the regions divided in step S504 as a region for performing image processing. In step S <b> 506, the display control unit 13 performs display control so that the user can identify an area that includes the first touch by the user and an area that does not include the first touch. In step S507, the operation recognition unit 16 recognizes the second touch by the user. At this time, it is assumed that the second touch is recognized when the second touch is made while the first touch is made by the user.

ステップS508において、算出部15が、第一のタッチ点と第二のタッチ点との距離を算出する。ステップS509において、画像処理部17は、2点間距離と後述する対応表に基づき、画像処理の種類を選択する。   In step S508, the calculation unit 15 calculates the distance between the first touch point and the second touch point. In step S509, the image processing unit 17 selects the type of image processing based on the distance between two points and a correspondence table described later.

図4は、2点間距離と選択する画像処理の種類の対応表である。本実施形態では、画像処理の種類として、色調調整で扱う色成分を例として、説明する。また、2点間距離とは、第一のタッチの点Aと第二のタッチの点Bとの距離である。図4の対応表により、画像処理部17は、2点間距離ABが0<AB≦3cmのときは青色成分(B)、3<AB≦6cmのときは緑色成分(G)、6cm<ABのときは赤色成分(R)を画像処理の種類として選択する。2点間距離の小さい方から青色成分(B)、緑色成分(G)、赤色成分(R)が割りあてられており、可視光線の波長域が短い方から青色成分(B)、緑色成分(G)、赤色成分(R)という順序と一致している。そのため、ユーザーは赤色成分(R)の色調調整を行う場合は、2点間距離を大きくすれば良いと類推しやすく、直感的に機能を使い分けることが可能である。   FIG. 4 is a correspondence table between the distance between two points and the type of image processing to be selected. In the present embodiment, a color component handled in color tone adjustment will be described as an example of the type of image processing. The distance between two points is the distance between the point A of the first touch and the point B of the second touch. According to the correspondence table of FIG. 4, the image processing unit 17 determines that the blue component (B) when the distance AB between two points is 0 <AB ≦ 3 cm, the green component (G) when 3 <AB ≦ 6 cm, and 6 cm <AB. In this case, the red component (R) is selected as the type of image processing. The blue component (B), the green component (G), and the red component (R) are assigned from the smaller distance between the two points, and the blue component (B) and the green component ( G) and the order of red component (R). For this reason, when the user adjusts the color tone of the red component (R), it is easy to analogize that the distance between the two points should be increased, and the functions can be used in an intuitive manner.

ステップS510において、操作認識部16が、ユーザーによる回転操作を認識する。回転操作を認識した場合は、ステップS511において、算出部15が、回転操作の回転角度を算出して、取得する。回転角度とは、2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる角度である。   In step S510, the operation recognition unit 16 recognizes a rotation operation by the user. When the rotation operation is recognized, in step S511, the calculation unit 15 calculates and acquires the rotation angle of the rotation operation. The rotation angle is an angle obtained by moving the other touch with the one touch out of the two touches.

ステップS512において、画像処理部17は、回転角度から、画像処理の処理量を求め、ステップS509で選択した画像処理を、実行する。このとき、ステップS505で設定された領域に対して、求めた処理量、画像処理を行う。ここで、画像処理を実行する際の処理量は、「回転角度×1度あたりの処理量」で求める。また、右回りへの回転の場合は、プラスに画像処理を施し、左回りへの回転の場合は、マイナスに画像処理を施す。尚、1度あたりの処理量は、保持部14に保持されている。   In step S512, the image processing unit 17 obtains the processing amount of the image processing from the rotation angle, and executes the image processing selected in step S509. At this time, the obtained processing amount and image processing are performed on the region set in step S505. Here, the processing amount when executing the image processing is obtained by “the processing amount per rotation angle × 1 degree”. Further, in the case of the clockwise rotation, the image processing is applied to the plus, and in the case of the rotation to the counterclockwise, the image processing is applied to the minus. Note that the processing amount per degree is held in the holding unit 14.

ステップS513において、表示制御部13は、画像処理実施後の画像を表示部11上に表示する。ステップS514において、画像処理部17は、ユーザーによる第一のタッチ、第二のタッチが略同時に解消されてから一定時間経過するなどの所定の終了条件を充足するか判定する。終了条件を充足すると判定された場合は、ステップS515において、画像処理部17は、画像処理実施後の画像を保持部14に記憶し、フローを終了する。   In step S513, the display control unit 13 displays the image after the image processing on the display unit 11. In step S <b> 514, the image processing unit 17 determines whether a predetermined end condition is satisfied such that a predetermined time elapses after the first touch and the second touch by the user are canceled substantially simultaneously. If it is determined that the end condition is satisfied, in step S515, the image processing unit 17 stores the image after the image processing is performed in the holding unit 14, and ends the flow.

図6は、回転操作の説明図である。ここでは、第一のタッチ点を、親指でタッチされる点とし、第二のタッチ点を、人差し指でタッチされる点とする例を説明する。   FIG. 6 is an explanatory diagram of the rotation operation. Here, an example will be described in which the first touch point is a point touched with a thumb and the second touch point is a point touched with an index finger.

図6(a)は、表示部11の画面上に画像6001が表示された状態を示す。図6(b)は、ユーザーが画像6001のオブジェクト6002に、親指6012でタッチする様子を示す。親指6012とタッチパネル部12との接触点を点Aとする。図6(b)において、操作認識部16が、ユーザーの親指6012によるタッチパネル12上の第一のタッチを認識すると、画像処理部17が画面上に表示されている画像6001を領域6021と領域6022に分割する。   FIG. 6A shows a state in which an image 6001 is displayed on the screen of the display unit 11. FIG. 6B shows a state where the user touches the object 6002 of the image 6001 with the thumb 6012. A contact point between the thumb 6012 and the touch panel unit 12 is a point A. In FIG. 6B, when the operation recognition unit 16 recognizes the first touch on the touch panel 12 by the user's thumb 6012, the image processing unit 17 displays an image 6001 displayed on the screen as regions 6021 and 6022. Divide into

本実施形態において、画像処理部17は、画素値の変化を分析することにより境界を検出し、画像を2以上の領域に分割する。撮像装置により撮影された写真画像の場合、主被写体は合焦しているため、他の領域より細部が明細となり、輝度周波数の高周波成分が分布する。一方、主被写体以外の部分はレンズ特性により、ぼかされて撮影されるため、高周波成分が存在しないことになる。また、主被写体と背景などを隔てる境界線は、一般に、隣接する画素間の輝度または彩度若しくは色調が、所定の値を超えて変化することに構成される。そこで、境界線で分割された部分ごとに輝度周波数の分布を測定し、高周波成分がまとまっている部分を他の部分より分割すれば、その部分を主被写体領域として分割することが可能である。   In the present embodiment, the image processing unit 17 detects a boundary by analyzing a change in pixel value, and divides the image into two or more regions. In the case of a photographic image taken by an imaging device, the main subject is in focus, so the details are more detailed than the other areas, and high frequency components of the luminance frequency are distributed. On the other hand, since portions other than the main subject are blurred and photographed due to lens characteristics, there is no high frequency component. In addition, the boundary line that separates the main subject from the background or the like is generally configured so that the luminance, saturation, or color tone between adjacent pixels changes beyond a predetermined value. Therefore, if the distribution of the luminance frequency is measured for each part divided by the boundary line, and the part where the high-frequency components are gathered is divided from the other parts, the part can be divided as the main subject area.

図6(c)は、第一のタッチ点を含まない領域6022にハッチングを施す例である。これにより、画像が領域分割されている状態であることをユーザーが識別可能とするだけでなく、どの領域が選択されているかを示すことができる。   FIG. 6C shows an example in which a region 6022 not including the first touch point is hatched. This not only allows the user to identify that the image is divided into regions, but also indicates which region is selected.

図6(d)は、ユーザーが親指6012をタッチしたまま、人差し指6013をタッチする様子を示す。人差し指6013とタッチパネル部12の接触点を点Bとする。親指6012による第一のタッチが継続されたまま、人差し指6013による第二のタッチを操作認識部16が認識すると、算出部15は点Aと点Bを結ぶ線分ABの距離を算出する。画像処理部17は、この線分ABの距離に応じて、選択された領域6021に対して行う画像処理の種類を選択する。   FIG. 6D shows a state where the user touches the index finger 6013 while touching the thumb 6012. A contact point between the index finger 6013 and the touch panel unit 12 is a point B. When the operation recognition unit 16 recognizes the second touch by the index finger 6013 while the first touch by the thumb 6012 is continued, the calculation unit 15 calculates the distance of the line segment AB connecting the point A and the point B. The image processing unit 17 selects the type of image processing to be performed on the selected region 6021 according to the distance of the line segment AB.

図6(d)において、2点間距離である線分ABの距離が4.5cmである場合は、対応表に基づいて、画像処理部17は色調調整で扱う色成分(画像処理の種類)を緑色成分(G)と選択する。   In FIG. 6D, when the distance of the line segment AB, which is the distance between two points, is 4.5 cm, based on the correspondence table, the color component (type of image processing) handled by the image processing unit 17 in color tone adjustment. Is selected as the green component (G).

図6(e)は、ユーザーが点Aを中心とした回転操作を行った図である。回転操作後、2本指での回転操作の回転角度に応じて色調調整が行われる。ここでは、回転操作は、親指6012(第一のタッチ)を中心に、人差し指6013(第二のタッチ)で円弧を描くように操作を行う場合を例に説明する。   FIG. 6E is a diagram in which the user performs a rotation operation around the point A. FIG. After the rotation operation, the color tone is adjusted according to the rotation angle of the rotation operation with two fingers. Here, the rotation operation will be described by taking as an example a case where an operation is performed so as to draw an arc with the index finger 6013 (second touch) around the thumb 6012 (first touch).

図6(f)は、回転角度を説明する図である。操作認識部16がユーザーによる2本指での回転操作を認識すると、算出部15は回転角度を算出する。回転操作の終点の人差し指6013のタッチ位置を点B’とすると、回転操作の回転角度は∠BAB’として算出される。本実施形態では、右回転は対象パラメータの増加、左回転は対象パラメータの減少に相当する入力操作として操作認識部16は認識する。   FIG. 6F is a diagram for explaining the rotation angle. When the operation recognition unit 16 recognizes the rotation operation with two fingers by the user, the calculation unit 15 calculates the rotation angle. When the touch position of the index finger 6013 at the end point of the rotation operation is a point B ′, the rotation angle of the rotation operation is calculated as ∠BAB ′. In the present embodiment, the operation recognizing unit 16 recognizes the right rotation as an input operation corresponding to an increase in the target parameter and the left rotation as an input operation corresponding to a decrease in the target parameter.

画像6001は、256階調のRGB値で表される色成分データを有するため、各色成分の値を増加・減少することで色調を調整することが可能である。   Since the image 6001 has color component data represented by RGB values of 256 gradations, it is possible to adjust the color tone by increasing / decreasing the value of each color component.

本実施形態では、選択する画像処理の種類として、色調調整の色成分を例に説明したが、これに限定されない。画像処理の種類としては、明るさ、コントラスト、彩度、グラデーション、ダイナミックレンジ、ぼかし量などの調整にも適用することができる。また、画像処理の種類は、画像データの数値を忠実に調整するものに限定されず、フィルター効果等の調整にも適用することができる。フィルター効果とは、画像に特殊な効果を加える機能であり、例えば、トイカメラ風、ジオラマ風といった画像を特殊レンズや画像加工ソフトでの複雑な作業を要さずに得られるものである。   In this embodiment, the color component for color tone adjustment has been described as an example of the type of image processing to be selected. However, the present invention is not limited to this. The types of image processing can be applied to adjustments such as brightness, contrast, saturation, gradation, dynamic range, and blurring amount. The type of image processing is not limited to the one that faithfully adjusts the numerical value of the image data, and can also be applied to adjustments such as a filter effect. The filter effect is a function for adding a special effect to an image. For example, an image such as a toy camera style or a diorama style can be obtained without requiring complicated work with a special lens or image processing software.

以上に説明したとおり、第一のタッチで画像処理を行う領域を指定し、第二のタッチの第一のタッチとの間隔を変化させることで、画像処理の種類を選択し、回転操作の回転角度で処理量をコントロールすることが可能となる。
画像処理装置100は、2点間距離による画像処理種類の選択、回転操作の回転角度によるパラメータ調整の操作の際に、補助表示を行うことが可能である。図3は、画像処理装置100が表示する補助表示例を示す図である。
As described above, the area for image processing is designated by the first touch, the interval between the second touch and the first touch is changed, the type of image processing is selected, and the rotation operation is rotated. The amount of processing can be controlled by the angle.
The image processing apparatus 100 can perform auxiliary display when selecting an image processing type based on a distance between two points and performing a parameter adjustment operation based on a rotation angle of a rotation operation. FIG. 3 is a diagram illustrating an auxiliary display example displayed by the image processing apparatus 100.

図3(a)は、2点間距離により画像処理種類の選択を行う際に表示する補助表示である。図3において、親指9012、人差し指9013の2点のタッチを操作認識部16が認識すると、算出部15が算出する線分ABの距離情報に基づき、表示制御部13が線分ABに沿って補助表示9031を表示するよう制御する。図3においては、線分ABが7cmであり、図4の対応表によれば、選択される画像処理の内容は赤色成分(R)であるため、補助表示9031の該当する部分が反転表示されている。ユーザーは補助表示を見ることで、現在どの画像処理の種類が選択されているかだけでなく、どれくらい指の間隔を変化させると、他の画像処理の種類に選択を変更できるかを知ることができる。   FIG. 3A is an auxiliary display displayed when selecting an image processing type based on a distance between two points. In FIG. 3, when the operation recognition unit 16 recognizes two touches of the thumb 9012 and the index finger 9013, the display control unit 13 assists along the line segment AB based on the distance information of the line segment AB calculated by the calculation unit 15. The display 9031 is controlled to be displayed. In FIG. 3, the line segment AB is 7 cm, and according to the correspondence table of FIG. 4, the content of the selected image processing is the red component (R), so that the corresponding portion of the auxiliary display 9031 is highlighted. ing. By viewing the auxiliary display, the user can see not only what image processing type is currently selected, but also how much the finger spacing can be changed to change the selection to another image processing type. .

図3(b)は、回転操作の回転角度によるパラメータ調整の操作の際に表示する補助表示である。図3(a)の状態から、操作認識部16が2点での回転操作を認識すると、算出部15が算出した線分ABの距離情報に基づき、表示制御部13が線分ABを直径とする円形の補助表示9032を表示するよう制御する。補助表示9032の表示については、回転操作によって調整される画像処理の種類に応じて変更するものとする。本実施形態では画像処理の種類として色調調整を例に説明を行っており、回転操作により色成分の数値の増減が調整される。補助表示9032のうち、回転操作の起点である点B近傍に現在の数値9101を表示する。さらに、左回転の操作を行うと数値を減少させる操作であることを示す数値9102、右回転の操作を行うと数値を増加させる操作であることを示す数値9103も表示する。これらの補助表示によって、ユーザーは操作方法を直感的に理解しやすい。扱う画像処理の種類によっては、回転操作の起点の近傍に現在の設定を表示し、その左右に操作によって調整される値を表示するように変更することも可能である。   FIG. 3B is an auxiliary display that is displayed in the parameter adjustment operation based on the rotation angle of the rotation operation. When the operation recognition unit 16 recognizes the rotation operation at two points from the state of FIG. 3A, the display control unit 13 sets the line segment AB as the diameter based on the distance information of the line segment AB calculated by the calculation unit 15. Control to display a circular auxiliary display 9032. The display of the auxiliary display 9032 is changed according to the type of image processing adjusted by the rotation operation. In this embodiment, color tone adjustment is described as an example of the type of image processing, and the increase / decrease in the numerical value of the color component is adjusted by a rotation operation. In the auxiliary display 9032, the current numerical value 9101 is displayed in the vicinity of the point B that is the starting point of the rotation operation. Further, a numerical value 9102 indicating that the operation is to decrease the numerical value when the left rotation operation is performed, and a numerical value 9103 that is an operation to increase the numerical value are displayed when the right rotation operation is performed. With these auxiliary displays, the user can easily understand the operation method intuitively. Depending on the type of image processing to be handled, the current setting can be displayed in the vicinity of the starting point of the rotation operation, and the value adjusted by the operation can be displayed on the left and right.

このように、ユーザーが行わなければならない操作方法を類推しやすい補助表示を行うことで、画像処理装置の操作方法をより直感的に行う事が可能となる。   In this way, by performing the auxiliary display that makes it easy to infer the operation method that the user must perform, the operation method of the image processing apparatus can be performed more intuitively.

<変形例>
実施形態1では、画像中の領域分割を境界検出により行ったが、ユーザーの任意操作によって指定することも可能である。例えば、ユーザーがタッチパネル12上で被写体の縁を囲むようになぞり操作した軌跡を操作認識部16が認識し、画像処理部17が該軌跡の内側と外側の領域に画像を分割するよう制御することができる。ここで、なぞり操作とは、タッチしながら、タッチしている点を動かす操作である。
<Modification>
In the first embodiment, the region division in the image is performed by the boundary detection. However, it is possible to designate the region by an arbitrary operation by the user. For example, the operation recognition unit 16 recognizes a trajectory that the user performs a tracing operation on the touch panel 12 so as to surround the edge of the subject, and the image processing unit 17 performs control so as to divide the image into regions inside and outside the trajectory. Can do. Here, the tracing operation is an operation of moving the touched point while touching.

図7は、なぞり操作で領域を分割する例の説明図である。画像7001のうち、オブジェクト7002の外周を境に領域を分割する場合、図7(a)のように、ユーザーは人差し指7013でオブジェクト7002の外周をなぞり操作により領域を指定する。図7(b)のように、軌跡が閉じた図形として認識されると、画像処理部17は軌跡7031を境界とし、軌跡の内側と外側の領域に分割を行う。閉じた図形の認識には、なぞり操作の起点と終点が一致する、タッチ点が軌跡と交差する等、各種条件を設定することができる。また、閉じた図形の認識に、表示画面の枠を用いてもよい。   FIG. 7 is an explanatory diagram of an example of dividing an area by a tracing operation. In the case where an area of the image 7001 is divided from the outer periphery of the object 7002, the user designates the area by tracing the outer periphery of the object 7002 with the index finger 7013 as shown in FIG. As shown in FIG. 7B, when the trajectory is recognized as a closed figure, the image processing unit 17 divides the trajectory 7031 into a region inside and outside the trajectory. Various conditions can be set for recognizing a closed figure, for example, the start point and end point of the tracing operation coincide with each other, and the touch point intersects the locus. Further, a frame of the display screen may be used for recognizing a closed figure.

図7(c)は、なぞり操作により分割した領域に対し、第一のタッチ点Aを選択した際の図である。図7(c)は、図6(c)と同様、選択されなかった領域に、ハッチング処理を行っている。   FIG. 7C is a diagram when the first touch point A is selected for the region divided by the tracing operation. In FIG. 7C, as in FIG. 6C, the hatching process is performed on the unselected region.

図2は、なぞり操作により分割する領域を決定する際のS504の詳細フローチャートである。   FIG. 2 is a detailed flowchart of S504 when determining a region to be divided by the tracing operation.

S801において、操作認識部16が、画像7001を表示中にユーザーのなぞり操作を検出すると、操作認識部16は軌跡を記憶する。S802において、操作認識部16は該軌跡が閉じた図形であるかを判定する。該軌跡が閉じた図形と判定された場合はS803において、画像処理部17が該軌跡を境界とした領域の分割を行う。S803において閉じた図形でないと判定された場合は、S804において操作認識部16が、なぞり操作の始点と終点を結ぶ線分と軌跡7031で構成される線を領域分割の境界と認識する。   In step S <b> 801, when the operation recognition unit 16 detects a user's tracing operation while displaying the image 7001, the operation recognition unit 16 stores a trajectory. In step S802, the operation recognition unit 16 determines whether the locus is a closed figure. If it is determined that the locus is a closed figure, in step S803, the image processing unit 17 divides the region with the locus as a boundary. If it is determined in step S803 that the figure is not a closed figure, in step S804, the operation recognition unit 16 recognizes a line composed of a line segment connecting the start point and end point of the tracing operation and the locus 7031 as a boundary of region division.

図7(d)は、被写体が画像中に収まっておらず、ユーザーが点Cを始点、点Dを終点とする軌跡7032を描いた場合の例である。閉じた図形の認識に、表示画面の枠も用いた場合は、軌跡7032と線分CDで構成される線を領域分割の境界と認識することができる。   FIG. 7D shows an example where the subject is not in the image and the user has drawn a locus 7032 starting from point C and ending with point D. When the frame of the display screen is also used for recognizing the closed figure, a line composed of the locus 7032 and the line segment CD can be recognized as the boundary of the area division.

このように、ユーザーの任意操作により分割する領域を指定することで、境界検出で領域分割を行うことが難しい画像や、特定の領域のみに画像処理を行いたい場合などに対応することが可能となる。   In this way, by specifying the area to be divided by the user's arbitrary operation, it is possible to deal with images that are difficult to divide by boundary detection or when you want to perform image processing only on specific areas Become.

以上説明したように、本実施形態は、画像処理の内容を確認しながら、画像処理の種類の選択と処理量の調整を所望の領域に対して一連の操作で簡便に行うことができる。   As described above, according to the present embodiment, the type of image processing and the adjustment of the processing amount can be easily performed by performing a series of operations on a desired region while confirming the contents of the image processing.

なお、上述した実施の形態の処理は、各機能を具現化したソフトウェアのプログラムコードを記録した記憶媒体をシステム或いは装置に提供してもよい。そして、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによって、前述した実施形態の機能を実現することができる。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。このようなプログラムコードを供給するための記憶媒体としては、例えば、ハードディスク、光ディスク、光磁気ディスクなどを用いることができる。或いは、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることもできる。   Note that the processing of the above-described embodiment may provide a system or apparatus with a storage medium that records software program codes that embody each function. The functions of the above-described embodiments can be realized by the computer (or CPU or MPU) of the system or apparatus reading out and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. As a storage medium for supplying such a program code, for example, a hard disk, an optical disk, a magneto-optical disk, or the like can be used. Alternatively, a CD-ROM, CD-R, magnetic tape, nonvolatile memory card, ROM, or the like can be used.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した各実施の形態の機能が実現されるだけではない。そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部又は全部を行い、その処理によって前述した各実施形態の機能が実現される場合も含まれている。   The functions of the above-described embodiments are not only realized by executing the program code read by the computer. Including the case where the OS (operating system) running on the computer performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. It is.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれてもよい。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によって前述した各実施の形態の機能が実現される場合も含むものである。   Further, the program code read from the storage medium may be written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. After that, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code, and the functions of the above-described embodiments are realized by the processing. Is also included.

Claims (8)

表示画面上の2点のタッチを認識する認識手段と、
前記認識した2点のタッチの距離に基づいて、画像処理の種類を選択する選択手段と、
前記2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる回転角度を取得し、前記回転角度より、処理量を算出する算出手段と、
前記画像処理の種類と前記処理量に基づいて、前記表示画面上に表示されている画像に対して、画像処理を行う画像処理手段を有することを特徴とする画像処理装置。
Recognition means for recognizing two touch points on the display screen;
Selection means for selecting the type of image processing based on the recognized distance of the two touch points;
Calculating means for obtaining a rotation angle obtained by moving one touch of the two touches and moving the other touch, and calculating a processing amount from the rotation angle;
An image processing apparatus comprising image processing means for performing image processing on an image displayed on the display screen based on the type of image processing and the processing amount.
前記2点のタッチのうち、最初にタッチされたタッチを第一のタッチとし、
前記画像処理手段は、表示画面上に表示されている画像を、複数の領域に分割し、前記複数の領域のうち、前記第一のタッチが含まれる領域に対して、画像処理を行うことを特徴とする請求項1に記載の画像処理装置。
Of the two touches, the first touch is the first touch,
The image processing means divides an image displayed on a display screen into a plurality of regions, and performs image processing on a region including the first touch among the plurality of regions. The image processing apparatus according to claim 1, wherein:
さらに、表示画面上に、前記画像処理の種類に関する情報を表示する表示制御手段を有することを特徴とする請求項1又は請求項2に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising display control means for displaying information on the type of image processing on a display screen. 前記表示制御手段は、さらに、前記処理量に関する情報を表示することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the display control unit further displays information on the processing amount. 認識手段が、表示画面上の2点のタッチを認識する認識工程と、
選択手段が、前記認識した2点のタッチの距離に基づいて、画像処理の種類を選択する選択工程と、
算出手段が、前記2点のタッチのうち、1点のタッチを回転の中心とし、もう一方のタッチの移動により得られる回転角度を取得し、前記回転角度より、処理量を算出する算出工程と、
画像処理手段が、前記画像処理の種類と前記処理量に基づいて、前記表示画面上に表示されている画像に対して、画像処理を行う画像処理工程を有することを特徴とする画像処理装置の制御方法。
A recognition step for recognizing a touch of two points on the display screen;
A selection step in which the selection means selects the type of image processing based on the recognized distance of the two touch points;
A calculating step in which the calculation means obtains a rotation angle obtained by moving one touch of the two touches and moves the other touch, and calculates a processing amount from the rotation angle; ,
An image processing unit comprising: an image processing step of performing image processing on an image displayed on the display screen based on the type of image processing and the processing amount. Control method.
前記2点のタッチのうち、最初にタッチされたタッチを第一のタッチとし、
前記画像処理工程は、表示画面上に表示されている画像を、複数の領域に分割し、前記複数の領域のうち、前記第一のタッチが含まれる領域に対して、画像処理を行うことを特徴とする請求項5に記載の画像処理装置の制御方法。
Of the two touches, the first touch is the first touch,
The image processing step divides an image displayed on a display screen into a plurality of regions, and performs image processing on a region including the first touch among the plurality of regions. The method of controlling an image processing apparatus according to claim 5, wherein:
コンピュータに読み込ませ実行させることで、前記コンピュータを、請求項5又は請求項6に記載の画像処理装置の各手段として機能させることを特徴とするプログラム。   A program that causes a computer to function as each unit of the image processing apparatus according to claim 5 by being read and executed by the computer. 請求項7に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 7.
JP2011142244A 2011-06-27 2011-06-27 Image processing apparatus and control method thereof Active JP5769516B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011142244A JP5769516B2 (en) 2011-06-27 2011-06-27 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011142244A JP5769516B2 (en) 2011-06-27 2011-06-27 Image processing apparatus and control method thereof

Publications (3)

Publication Number Publication Date
JP2013008326A true JP2013008326A (en) 2013-01-10
JP2013008326A5 JP2013008326A5 (en) 2014-08-14
JP5769516B2 JP5769516B2 (en) 2015-08-26

Family

ID=47675596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011142244A Active JP5769516B2 (en) 2011-06-27 2011-06-27 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5769516B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067239A (en) * 2012-09-26 2014-04-17 Brother Ind Ltd Operation input processing program and operation input processing method
JP2016015063A (en) * 2014-07-03 2016-01-28 クラリオン株式会社 Information processing device and on-vehicle device
US9361859B2 (en) 2013-09-02 2016-06-07 Kabushiki Kaisha Toshiba Information processing device, method, and computer program product
JP2016517649A (en) * 2013-03-08 2016-06-16 トムソン ライセンシングThomson Licensing Method and apparatus for using gestures for shooting effects
JP2016530659A (en) * 2013-09-17 2016-09-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Simultaneous selection of range and value gestures
US9589539B2 (en) 2014-04-24 2017-03-07 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
JP2017182632A (en) * 2016-03-31 2017-10-05 ブラザー工業株式会社 Image processing program and information processing device
JP2018057038A (en) * 2017-12-21 2018-04-05 株式会社ニコン Electronic apparatus, image processing method, and image processing program
JP2019505942A (en) * 2016-02-22 2019-02-28 ▲広▼州▲視▼▲叡▼▲電▼子科技有限公司Guangzhou Shirui Electronics Co., Ltd. Touch operation method and system based on interactive electronic whiteboard
JPWO2020095876A1 (en) * 2018-11-05 2021-09-24 京セラドキュメントソリューションズ株式会社 Image forming device, numerical counting method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230352A (en) * 1993-09-16 1995-08-29 Hitachi Ltd Touch position detecting device and touch instruction processor
JP2004234661A (en) * 2003-01-31 2004-08-19 Xerox Corp Secondary contact type menu navigation method
JP2008502982A (en) * 2004-06-17 2008-01-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Using two-finger input on a touch screen
JP2011003074A (en) * 2009-06-19 2011-01-06 Sharp Corp Input method, input device and electric apparatus
US20110093821A1 (en) * 2009-10-20 2011-04-21 Microsoft Corporation Displaying gui elements on natural user interfaces
JP2011108180A (en) * 2009-11-20 2011-06-02 Sharp Corp Electronic device, display control method and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230352A (en) * 1993-09-16 1995-08-29 Hitachi Ltd Touch position detecting device and touch instruction processor
JP2004234661A (en) * 2003-01-31 2004-08-19 Xerox Corp Secondary contact type menu navigation method
JP2008502982A (en) * 2004-06-17 2008-01-31 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Using two-finger input on a touch screen
JP2011003074A (en) * 2009-06-19 2011-01-06 Sharp Corp Input method, input device and electric apparatus
US20110093821A1 (en) * 2009-10-20 2011-04-21 Microsoft Corporation Displaying gui elements on natural user interfaces
JP2011108180A (en) * 2009-11-20 2011-06-02 Sharp Corp Electronic device, display control method and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014067239A (en) * 2012-09-26 2014-04-17 Brother Ind Ltd Operation input processing program and operation input processing method
JP2019220207A (en) * 2013-03-08 2019-12-26 トムソン ライセンシングThomson Licensing Method and apparatus for using gestures for shot effects
JP2016517649A (en) * 2013-03-08 2016-06-16 トムソン ライセンシングThomson Licensing Method and apparatus for using gestures for shooting effects
US9361859B2 (en) 2013-09-02 2016-06-07 Kabushiki Kaisha Toshiba Information processing device, method, and computer program product
JP2016530659A (en) * 2013-09-17 2016-09-29 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Simultaneous selection of range and value gestures
US9589539B2 (en) 2014-04-24 2017-03-07 Kabushiki Kaisha Toshiba Electronic device, method, and computer program product
JP2016015063A (en) * 2014-07-03 2016-01-28 クラリオン株式会社 Information processing device and on-vehicle device
JP2019505942A (en) * 2016-02-22 2019-02-28 ▲広▼州▲視▼▲叡▼▲電▼子科技有限公司Guangzhou Shirui Electronics Co., Ltd. Touch operation method and system based on interactive electronic whiteboard
JP2017182632A (en) * 2016-03-31 2017-10-05 ブラザー工業株式会社 Image processing program and information processing device
US10705697B2 (en) 2016-03-31 2020-07-07 Brother Kogyo Kabushiki Kaisha Information processing apparatus configured to edit images, non-transitory computer-readable medium storing instructions therefor, and information processing method for editing images
JP2018057038A (en) * 2017-12-21 2018-04-05 株式会社ニコン Electronic apparatus, image processing method, and image processing program
JPWO2020095876A1 (en) * 2018-11-05 2021-09-24 京セラドキュメントソリューションズ株式会社 Image forming device, numerical counting method
US11523011B2 (en) 2018-11-05 2022-12-06 Kyocera Document Solutions Inc. Image forming apparatus and numerical value counting method
JP7215488B2 (en) 2018-11-05 2023-01-31 京セラドキュメントソリューションズ株式会社 Image forming apparatus, numerical counting method

Also Published As

Publication number Publication date
JP5769516B2 (en) 2015-08-26

Similar Documents

Publication Publication Date Title
JP5769516B2 (en) Image processing apparatus and control method thereof
US10547778B2 (en) Image display device for displaying an image in an image display area, and storage medium storing image display program for displaying an image in an image display area
US20210004130A1 (en) Information processing apparatus, method, and non-transitory computer-readable medium
JP6886939B2 (en) Information processing device control method, control program and information processing device
US9674425B2 (en) Image acquisition method and apparatus
US9405463B2 (en) Device and method for gesturally changing object attributes
JP5197777B2 (en) Interface device, method, and program
US8542199B2 (en) Image processing apparatus, image processing method, and program
JP2008250804A (en) Image display device, image change control device, and image change program
KR102121905B1 (en) Method and apparatus for setting background of ui control, and terminal
US9535604B2 (en) Display device, method for controlling display, and recording medium
US10754446B2 (en) Information processing apparatus and information processing method
WO2021243788A1 (en) Screenshot method and apparatus
EP2840517A2 (en) Method and apparatus for managing images in electronic device
US11140306B2 (en) Method for controlling monitoring camera, and monitoring system employing method
JP5654634B2 (en) Wallpaper image installation method and digital media controller
US20160321968A1 (en) Information processing method and electronic device
US11073974B2 (en) Electronic device and operation method of parameter selection thereof
JP2015046949A (en) Display device and computer program
TWI653540B (en) Display apparatus, projector, and display control method
JP5880459B2 (en) Electronic device, display control method and program
JP2014209326A (en) Image processing apparatus, image processing method, and image processing program
JP5751276B2 (en) Information processing apparatus, information processing method, and program
JP2017204718A (en) Imaging apparatus and zoom control method thereof
JP6149952B2 (en) Electronic device, display control method and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140626

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150526

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150623

R151 Written notification of patent or utility model registration

Ref document number: 5769516

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151