JP2013105324A - 画像処理装置、画像処理方法、および画像処理プログラム - Google Patents
画像処理装置、画像処理方法、および画像処理プログラム Download PDFInfo
- Publication number
- JP2013105324A JP2013105324A JP2011248847A JP2011248847A JP2013105324A JP 2013105324 A JP2013105324 A JP 2013105324A JP 2011248847 A JP2011248847 A JP 2011248847A JP 2011248847 A JP2011248847 A JP 2011248847A JP 2013105324 A JP2013105324 A JP 2013105324A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- input
- unit
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04806—Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
【課題】異なる入力手段を用いて簡易で直感的な操作を行うことができる画像処理装置等を提供する。
【解決手段】本画像処理装置は、画像を処理する画像処理装置1であって、入力手段による所定領域への操作を受け付けるタッチパネル11と、操作が受け付けられた入力手段を判別する入力手段判別部12と、入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報を記憶する記憶部15と、記憶部15に記憶された処理情報のうち、入力手段判別部12により判別された入力手段に割り当てられた処理情報に対応する処理を実行する切り出し範囲描画処理部13と、を備える。
【選択図】図1
【解決手段】本画像処理装置は、画像を処理する画像処理装置1であって、入力手段による所定領域への操作を受け付けるタッチパネル11と、操作が受け付けられた入力手段を判別する入力手段判別部12と、入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報を記憶する記憶部15と、記憶部15に記憶された処理情報のうち、入力手段判別部12により判別された入力手段に割り当てられた処理情報に対応する処理を実行する切り出し範囲描画処理部13と、を備える。
【選択図】図1
Description
本発明は、画像を処理する画像処理装置、画像処理方法、および画像処理プログラムに関する。
スマートフォン、タブレット端末等の携帯情報端末では、指やスタイラスペン(単にスタイラスともいう)で画面にタッチすることで、さまざまな処理の操作が行われる。
図13は従来の切り出し処理および画像処理の手順を説明するための図である。例えば、携帯情報端末101の画面に表示された画像から所望の画像を得る場合、画像処理ソフトを使用して、画像の切り出し処理を行った後、画像の加工処理に切り替え、エフェクトをかける箇所が選択された。
また、この種の先行技術として、スタイラスの太さに応じて異なる機能、例えば、細いスタイラスはペンの機能、太いスタイラスは消しゴムの機能を有するものが知られている(特許文献1参照)。
また、メール作成画面において、指で元のメールの参照画面に遷移する、スタイラスで電話番号にタッチして電話をかける、指とスタイラスで添付ファイルを再生する、ものが知られている(特許文献2参照)。
さらに、様々なアプリケーションにおいて、指とスタイラスでそれぞれ異なる機能を与えるものが知られている(特許文献3参照)。
このように、特許文献1〜3では、指、スタイラス、もしくは、指とスタイラスにそれぞれ異なる機能を持たせることで、少ない手数で多くの機能を実現させていた。
しかしながら、上記従来の画像処理装置では、スタイラスもしくは指で画像の切り出し処理(範囲選択処理)を行った後、別のツールを使用してエフェクト処理を行う場合、2回の操作が必要となり、エフェクト箇所を個別に指定する等の場合、操作が煩雑なものとなっていた。
また、特許文献1〜3に記載されたものは、いずれも、指、スタイラス、もしくは、指とスタイラスといった、入力手段毎に、関連性のない異なる機能が割り当てられていた。このため、ユーザは、各入力手段によってどのような機能が実現されるかを、個々に覚える必要があった。さらに、これらの入力手段が影響し合うような処理か行われることもなかった。
本発明は、上記従来の事情に鑑みてなされたものであって、異なる入力手段を用いて簡易で直感的な操作を行うことができる画像処理装置、画像処理方法、および画像処理プログラムを提供することを目的とする。
本発明の画像処理装置は、画像を処理する画像処理装置であって、入力手段による所定領域への操作を受け付ける操作受付部と、前記操作受付部によって操作が受け付けられた入力手段を判別する入力手段判別部と、前記入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報を記憶する記憶部と、前記記憶部に記憶された処理情報のうち、前記入力手段判別部により判別された入力手段に割り当てられた処理情報に対応する処理を実行する処理部と、を備える。
この構成によれば、指やスタイラスを用いて選択される画像に対し、同一の機能で異なる処理が施される。これにより、異なる入力手段を用いて簡易で直感的な操作を行うことができる。
本発明の画像処理方法は、画像を処理する画像処理装置における画像処理方法であって、入力手段による所定領域への操作を受け付けるステップと、前記操作が受け付けられた入力手段を判別するステップと、記憶部に記憶された、前記入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報のうち、前記判別された入力手段に割り当てられた処理情報に対応する処理を実行するステップと、を有する。
この方法によれば、指やスタイラスを用いて選択される画像に対し、同一の機能で異なる処理が施される。これにより、異なる入力手段を用いて簡易で直感的な操作を行うことができる。
本発明の画像処理プログラムは、上記画像処理方法の各ステップをコンピュータに実行させるためのプログラムである。
このプログラムによれば、指やスタイラスを用いて選択される画像に対し、同一の機能で異なる処理が施される。これにより、異なる入力手段を用いて簡易で直感的な操作を行うことができる。
本発明によれば、異なる入力手段を用いて簡易で直感的な操作を行うことができる。
本発明の実施形態における画像処理装置、画像処理方法、および画像処理プログラムについて、図面を用いて説明する。本実施形態の画像処理装置は、例えばスマートフォンやタブレット端末などの携帯情報端末に適用される。
(第1の実施形態)
図1は本発明の第1の実施形態における画像処理装置の構成例を示すブロック図である。ここでは、切り出し(切り抜き)処理およびエフェクト処理を行う際の機能的構成例が示されている。
図1は本発明の第1の実施形態における画像処理装置の構成例を示すブロック図である。ここでは、切り出し(切り抜き)処理およびエフェクト処理を行う際の機能的構成例が示されている。
画像処理装置1は、タッチパネル11、指/スタイラス判別処理部12、切り出し範囲描画処理部13、結線処理部14、記憶部15、表示器16、および操作部17を有して構成される。
タッチパネル11は、表示器16の画面に設けられ、所定領域への指やスタイラスなどの入力手段のタッチ位置を検出する。タッチパネルとしては、接触式や押圧式のものが挙げられる。タッチパネル11は、入力手段による所定領域への操作を受け付ける操作受付部の一例である。
指/スタイラス判別処理部12は、指もしくはスタイラスのいずれの入力手段がタッチされたかを判別する。つまり、指/スタイラス判別処理部12は、タッチパネル11により操作が受け付けられた入力手段を判別する入力手段判別部としての機能を有する。
また、指/スタイラス判別処理部12は、タッチパネル11への接触面積をもとに、入力手段を判別してもよい。一般的に指の接触面積はスタイラスの接触面積に比べて大きいので、入力手段が指であるかスタイラスであるかを判別することは容易である。
切り出し範囲描画処理部13は、タッチ操作により描画された線で囲まれた範囲を切り出し範囲として描画処理を行う。つまり、切り出し範囲描画処理部13は、切り出し処理およびエフェクト処理を行う。また、その他の各種制御、処理を行う。
結線処理部14は、タッチパネル11に対し、指あるいはスタイラスでリリースしてから再びタッチした時、終点と始点を結線するか否かを判断する。なお、指/スタイラス判別処理部12、切り出し範囲描画処理部13、および結線処理部14は、専用のハードウェアで実現されてもよいし、本実施形態のように、CPUがプログラムを実行することで実現されてもよい。
記憶部15には、各種のデータが記憶される他、タッチパネル11の画面をなぞった際にタッチ位置の軌跡が座標の情報として記憶される。また、記憶部15には、切り出し画像が格納される。
また、記憶部15は、テーブル15aを用いて、入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報を記憶する。指やスタイラスによる描画に対応する機能が、あらかじめテーブル15aとして登録されている。図2は記憶部15に格納された各種の機能が登録されたテーブル15aの一例を示す図である。このテーブル15aには、切り抜き処理と画像処理を行う際、指やスタイラスの操作によって実現される機能の組み合わせが処理情報として選択可能に登録されている。例えば、ユーザは、メニューキー17aを押下し、所望の機能の組み合わせをあらかじめ選択しておくことで、用途に適した機能の組み合わせを選択することができる。
具体的には、切り抜き処理の場合、範囲選択の機能には、指で「切断面をギザギザにする」、スタイラスで「切断面を直線にする」という組み合わせがある。また、指で「千切り効果」、スタイラスで「ハサミ」という組み合わせがある。また、指で「めくり効果」、スタイラスで「通常切り抜き」という組み合わせがある。また、指で「投げ縄ツール」、スタイラスで「通常切り抜き」という組み合わせがある。なお、画像処理の場合の各機能ついては、後述する第2の実施形態で説明する。
表示器16は、LCD等からなり、各種の画像を表示するとともに、切り出し範囲などを表す描画された線を表示する。操作部17は各種キーからなる。
切り出し範囲描画処理部13は、記憶部15に記憶された処理情報のうち、指/スタイラス判別処理部12により判別された入力手段に割り当てられた処理情報に対応する処理を実行する。切り出し範囲描画処理部13は、テーブル15aに格納された切り抜き処理の機能のいずれか1つの処理を実行してもよいし、2つ以上の処理を実行してもよい。また、実行される処理はあらかじめ定められていても良いし、入力操作を介してユーザが設定してもよい。
図3は画像処理装置1の筐体前面の一例を示す図である。画像処理装置1の筐体前面には、表示器16、操作部17、マイク18a、およびスピーカ18bが設けられている。種々の画像が表示される表示器16の画面には、前述したように、タッチパネル11が設けられている。また、表示器16の画面の下方には、タッチパネルからなる操作部17が設けられている。ここでは、操作部17として、メニューキー17a、クリアキー17bおよび確定キー17cが切り替え自在に設定されている。例えば、後述する投げ縄キー60に切り替えることも可能である。また、ユーザが把持して操作可能なスタイラス21が用意されている。
上記構成を有する画像処理装置1の動作について説明する。
図4(A)、(B)は画像処理装置1の動作手順の一例を示すフローチャートである。この動作が記述された画像処理プログラムは、画像処理装置1内のROMに格納されており、画像処理装置1内のCPUによって実行される。
図4(A)は範囲選択処理の一例を示す図である。この範囲選択処理は、メニューキー17aによって切り抜きモードの開始が選択された場合に実行される。ここでは、指とスタイラス(複数の入力手段)を用いて範囲が選択される。
画像処理装置1は、タッチパネル11に対し、ユーザによるタッチ入力が行われるまで待機する(ステップS1)。タッチ入力が行われると、指/スタイラス判別処理部12は、このタッチ入力が指によるものかスタイラスによるものかを判別する(ステップS2)。さらに、このステップS2の処理では、切り出し範囲描画処理部13は、タッチ位置の座標を取得して記憶部15に記録する。
切り出し範囲描画処理部13は、このタッチ入力がリリースされたか否かを判別する(ステップS3)。リリースされていない場合、画像処理装置1は、ステップS2の処理に戻る。
一方、リリースされた場合、切り出し範囲描画処理部13は、メニューキー17aによって切り抜きモードの終了が選択されたか否かを判別する(ステップS4)。切り抜きモードの終了が選択されていない場合、画像処理装置1はステップS1の処理に戻る。一方、切り抜きモードの終了が選択された場合、画像処理装置1は本動作を終了する。
図4(B)は切り出し処理の一例を示す図である。この切り出し処理は、図4(A)の処理が行われた後に実行される。
切り出し範囲描画処理部13は、記憶部15に記録された座標から求められる選択範囲をもとに、記憶部15に登録された画像(作業対象の画像)を切り出す(ステップS11)。画像処理装置1は、切り出し画像の座標群ごとに処理を開始する(ステップS12)。ここで、座標群とは、例えば指によってなぞられた軌跡の座標群であり、その後にスタイラスによってなぞられた軌跡の座標群とは区別される。
指/スタイラス判別処理部12は、指によるタッチ入力であるか否かを判別する(ステップS13)。指によるタッチ入力である場合、切り出し範囲描画処理部13は、指用のエフェクト処理を行う(ステップS14)。指用のエフェクト処理では、後述するように、例えば指で紙をちぎったような千切り処理が行われる。
一方、ステップS13で指によるタッチ入力でなく、スタイラスによるタッチ入力である場合、切り出し範囲描画処理部13は、スタイラス用のエフェクト処理を行う(ステップS15)。スタイラス用のエフェクト処理では、後述するように、例えばハサミで切ったような直線の切り出し処理が行われる。
ステップS14あるいはS15の処理後、切り出し範囲描画処理部13は、全ての座標群の処理が終わったか否かを判別する(ステップS16)。全ての座標群の処理が終わっていない場合、画像処理装置1はステップS12の処理に戻る。
一方、全ての座標群の処理が終わった場合、切り出し範囲描画処理部13は、切り出された画像を出力画像として記憶部15に記憶する(ステップS17)。この記憶された出力画像は、表示器16の画面に表示されるだけでなく、外部出力インタフェース(図示せず)を介してデータとして出力可能である。
図5(A)、(B)は切り出し処理およびエフェクト処理の一例を示す図である。
図5(A)に示すように、ユーザは、表示器16の画面に表示された画像30のうち、左側辺から上辺にかけてスタイラス21でライン31(第1の線の一例)の描画を行い、右側辺から下辺にかけて指25でライン33(第2の線の一例)の描画を行う。この結果、切り出し範囲(選択範囲)の画像35が確定される。
図5(A)に示すように、ユーザは、表示器16の画面に表示された画像30のうち、左側辺から上辺にかけてスタイラス21でライン31(第1の線の一例)の描画を行い、右側辺から下辺にかけて指25でライン33(第2の線の一例)の描画を行う。この結果、切り出し範囲(選択範囲)の画像35が確定される。
この切り出し範囲で切り出しが行われると、図5(B)に示すように、切り出された画像35において、左側辺から上辺にいたる部分では、例えばハサミで切ったようなエフェクト(効果)がかかる。また、右側辺から下辺にいたる部分では、例えば指でちぎってめくったようなエフェクトがかかる。ここで、スタイラス21は第1の入力手段に相当し、指は第2の入力手段に相当する。
図6は詳細な範囲選択手順の一例を示すフローチャートである。
この動作が記述された画像処理プログラムは、画像処理装置1内のROMに格納されており、画像処理装置1内のCPUによって実行される。
この動作が記述された画像処理プログラムは、画像処理装置1内のROMに格納されており、画像処理装置1内のCPUによって実行される。
まず、画像処理装置1は、ユーザによるタッチ入力があるまで待機する(ステップS31)。タッチ入力があると、指/スタイラス判別処理部12は、そのタッチ入力がユーザの指によるものかスタイラスによるものかを判別する(ステップS32)。さらに、このステップS32では、切り出し範囲描画処理部13は、タッチ位置(始点)の座標を取得する。
切り出し範囲描画処理部13は、今回のタッチ入力が初回であるか否かを判別する(ステップS33)。初回でない場合、結線処理部14は、前回のタッチ入力の終点と今回のタッチ入力の始点とをつなぐ処理を行う(ステップS34)。このように、前回の終点と今回の始点をつなぐことで、閉じた状態で選択範囲を確定することができ、選択範囲が明瞭になる。
ステップS33で初回のタッチ入力である場合、あるいはステップS34でつなぐ処理が行われた後、切り出し範囲描画処理部13は、タッチ入力の座標を取得し、始点の座標を含め、記憶部15に格納する(ステップS35)。
切り出し範囲描画処理部13は、タッチ入力がリリースされたか否かを判別する(ステップS36)。リリースされていない場合、画像処理装置1は、ステップS35の処理に戻り、同様の動作を行う。これにより、記憶部15には、タッチ入力の軌跡の座標群が記録されることになる。
図7は記憶部15に記録されるタッチ入力の軌跡を表すデータの構造の一例を示す図である。このデータには、指あるいはスタイラスの種別、始点のX,Y座標、終点のX,Y座標、座標群である軌跡の各X,Y座標が示されている。
一方、ステップS36でリリースされた場合、切り出し範囲描画処理部13は、今回のタッチ入力の終点を記憶部15に格納する(ステップS37)。
この後、切り出し範囲描画処理部13は、確定キー17cが押下されたか否かを判別する(ステップS38)。確定キー17cが押下されない場合、画像処理装置1はステップS31の処理に戻る。一方、確定キー17cが押下された場合、画像処理装置1は、メニューキー17aによって切り抜きモードの終了が選択されるまで待機する(ステップS39)。切り抜きモードの終了が選択されると、画像処理装置1は本動作を終了する。
図8は範囲選択手順の第2例を示すフローチャートである。この動作が記述された画像処理プログラムは、画像処理装置1内のROMに格納されており、画像処理装置1内のCPUによって実行される。
まず、画像処理装置1は、ユーザによるタッチ入力があるまで待機する(ステップS41)。タッチ入力があると、指/スタイラス判別処理部12は、そのタッチ入力がユーザの指によるものかスタイラスによるものかを判別する(ステップS42)。さらに、このステップS41では、切り出し範囲描画処理部13は、タッチ位置(始点)の座標を取得して記憶部15に格納する。
切り出し範囲描画処理部13は、タッチ入力の座標を取得し、記憶部15に格納する(ステップS43)。そして、切り出し範囲描画処理部13は、タッチ入力がリリースされたか否かを判別する(ステップS44)。タッチ入力がリリースされない場合、画像処理装置1は、ステップS43の処理に戻り、同様の動作を行う。一方、ステップS44でリリースされると、切り出し範囲描画処理部13は、タッチ入力の終点の座標を記憶部15に格納する(ステップS45)。
この後、結線処理部14は、全ての線の始点・終点の座標を記憶部15から読み出して結線判定を行う(ステップS46)。この結線判定では、今までに記録された始点(始端)と終点(終端)が一定の範囲内(所定距離以下)にあるか否かが判断される。すなわち、あるタッチ入力の軌跡の端点と、別のタッチ入力の軌跡の端点とが近くにある場合、これらの点は「結線する」と判定される。これにより、前回のタッチ入力の軌跡(線)に限らず、それより前のタッチ入力の線ともつなぐことができ、タッチ入力が簡単になり、範囲選択の自由度が高まる。
結線処理部14は、ステップS46の判定の結果、「結線する」と判定されたか否かを判別する(ステップS47)。「結線する」と判定された場合、結線処理部14は、結線対象となった点をつなぐ結線処理を行う(ステップS48)。
一方、ステップS47で「結線する」と判定されなかった場合、あるいはステップS48で結線処理を行った後、切り出し範囲描画処理部13は、確定キー17cが押下されたか否かを判別する(ステップS49)。確定キー17cが押下されない場合、画像処理装置1はステップS41の処理に戻る。一方、確定キー17cが押下された場合、画像処理装置1は、メニューキー17aによって切り抜きモードの終了が選択されるまで待機する(ステップS50)。切り抜きモードの終了が選択されると、画像処理装置1は本動作を終了する。
図9は投げ縄ツールの機能を用いた場合の切り出し処理およびエフェクト処理の一例を示す図である。投げ縄ツールには、切り出し範囲描画処理部13により、画像に含まれる人物の顔などをオブジェクトとして認識し(オブジェクト認識部によるオブジェクト認識処理)、認識されたオブジェクトを捉える機能がある。
表示器16の画面に表示された画像50に対し、前述したように、左側辺から上辺にかけてスタイラス21でライン51を描画した後、右側辺から下辺に指25でなぞってライン53を描画した後、投げ縄キー60を押して切り出し処理を行う。なお、投げ縄キー60を押下することなく、指によるライン53が描画された時点で自動的に投げ縄ツールの機能が実行されるようにしてもよい。この結果、切り出された画像55は、背景部分55aと、投げ縄ツールにより捉えられた人物の顔55bとからなる。
このように、処理部としての切り出し範囲描画処理部13は、画像に含まれるオブジェクトを認識するオブジェクト認識部としての機能を有し、第1の入力手段としてのスタイラスにより入力された第1の線と、第2の入力手段としての指により入力された第2の線の始端および終端を、認識されたオブジェクトに沿って結線した線と、で囲まれた選択範囲を認識するようにしてもよい。
これにより、画像に含まれる特定の対象(オブジェクト)に沿った画像の切り出しが可能となる。なお、顔に沿って切り取られる画像55の端縁57はギザギザの直線であっても滑らかな曲線であってもよい。
このように、本実施形態の画像処理装置1によれば、画像を切り出して加工する際、指やスタイラスを用いたタッチ入力に、同じ機能として関連性のある切り出し処理が割り当てられ、それぞれが影響し合う処理が行われる。ここでは、指やスタイラスを用いて選択される画像に対し、同一の機能で異なる加工処理が施される。
このように、処理部としての切り出し範囲描画処理部13は、機能として画像の切り出しを行う場合、複数の入力手段により入力された線で囲まれた選択範囲にある画像に対し、入力手段ごとに異なる、画像を加工するための加工処理を行っても良い。これにより、従って、異なる入力手段を用いて簡易で直感的な操作を行うことができる。
また、処理部としての切り出し範囲描画処理部13は、第1の入力手段としてのスタイラスにより入力された第1の線に沿って選択される画像に対し、直線で切り出し処理を行い、第2の入力手段としての指により入力された第2の線に沿って選択される画像に対し、千切り処理を行ってもよい。これにより、スタイラスおよび指による1度の操作で、範囲選択処理、切り出し処理、エフェクト処理を行うことができ、操作性が向上する。
また、処理部としての切り出し範囲描画処理部13は、第1の入力手段としてのスタイラスにより入力された第1の線の端点と、第2の入力手段としての指により入力された第2の線の端点と、の距離が所定距離以下である場合には、第1の線の端点と第2の線の端点とを結線し、結線された第1の線と第2の線で囲まれた範囲を選択範囲として認識してもよい。これにより、各入力端点に対して結線処理が実行され、スタイラスによる入力の端点と指による入力の端点とが若干離れている場合であっても、適切に範囲選択処理を行うことができるので、操作性が向上する。
(第2の実施形態)
第1の実施形態では、切り出し処理およびエフェクト処理について示したが、第2の実施形態では、画像処理を行う場合を示す。
第1の実施形態では、切り出し処理およびエフェクト処理について示したが、第2の実施形態では、画像処理を行う場合を示す。
図10は本発明の第2の実施形態における画像処理装置1Aの構成例を示すブロック図である。ここでは、画像処理装置1Aにおける画像処理を行う際の機能的構成が示されている。また、第1の実施形態と同一の構成要素については同一の符号を用いることで、その説明を省略する。
画像処理装置1Aでは、画像処理範囲描画処理部23は、タッチ操作により囲まれた範囲を画像処理範囲として描画処理を行う。また、記憶部15Aには、画像処理範囲および指/スタイラス判定結果が格納される他、前述したテーブル15aが登録されている。その他の構成は前記第1の実施形態と同じである。
記憶部15Aは、前述したように、指やスタイラスによる描画に対応する機能の情報をあらかじめテーブル15aに記憶している。このテーブル15aには、前述した切り抜き処理とは別に、画像処理を行う際、指やスタイラスの操作によって実現される機能の組み合わせが選択可能に登録されている。例えば、ユーザは、メニューキー17aを押下し、所望の機能の組み合わせをあらかじめ選択しておくことで、用途に適した機能の組み合わせを選択することができる。
具体的には、画像処理の場合、ソフトフォース処理の機能には、指で「ぼやける」、スタイラスで「くっきり」という組み合わせがある。また、明度調整の機能には、指で「暗くする」、スタイラスで「明るくする」という組み合わせがある。また、画面効果の機能には、指で「キラキラ効果を消す」、スタイラスで「キラキラ効果を付ける」という組み合わせがある。また、指で「モザイクを消す」、スタイラスで「モザイクをかける」という組み合わせがある。また、指で「めくり効果をつける」、スタイラスで「めくり効果を消す」という組み合わせがある。
画像処理範囲描画処理部23は、テーブル15aに格納された画像処理の機能のいずれか1つの処理を実行してもよいし、2つ以上の処理を実行してもよい。また、実行される処理はあらかじめ定められていても良いし、入力操作を介してユーザが設定してもよい。
上記構成を有する画像処理装置の動作について説明する。
図11(A)、(B)は画像処理装置1Aの動作手順の一例を示すフローチャートである。この動作が記述された画像処理プログラムは、画像処理装置1A内のROMに格納されており、画像処理装置1A内のCPUによって実行される。
図11(A)、(B)は画像処理装置1Aの動作手順の一例を示すフローチャートである。この動作が記述された画像処理プログラムは、画像処理装置1A内のROMに格納されており、画像処理装置1A内のCPUによって実行される。
図11(A)は範囲選択処理手順の一例を示す図である。この範囲選択処理は、メニューキー17aによって画像処理範囲指定モードの開始が選択された場合に実行される。
画像処理装置1Aは、タッチパネル11に対し、ユーザによるタッチ入力が行われるまで待機する(ステップS51)。タッチ入力が行われると、指/スタイラス判別処理部12は、このタッチ入力が指によるものかスタイラスによるものかを判別する(ステップS52)。さらに、このステップS52の処理では、画像処理範囲描画処理部23は、タッチ位置の座標を取得して記憶部15Aに記録する。
画像処理範囲描画処理部23は、このタッチ入力がリリースされたか否かを判別する(ステップS53)。リリースされていない場合、画像処理装置1Aは、ステップS52の処理に戻る。
一方、リリースされた場合、画像処理装置1Aは、メニューキー17aによって画像処理範囲指定モードの終了が選択されたか否かを判別する(ステップS54)。画像処理範囲指定モードの終了が選択されていない場合、画像処理装置1AはステップS51の処理に戻る。一方、画像処理範囲指定モードの終了が選択された場合、画像処理装置1Aは本動作を終了する。
図11(B)は画像処理手順の一例を示す図である。この画像処理は、範囲選択処理が行われた後に実行される。
画像処理範囲描画処理部23は、記憶部15Aに記録された座標から求められる選択範囲をもとに、記憶部15Aに登録された画像(作業対象の画像)に対し、画像処理を行う(ステップS61)。そして、画像処理範囲描画処理部23は、画像処理が施された画像を出力画像として記憶部15Aに記憶する(ステップS62)。この記憶された出力画像は、表示器16の画面に表示されるだけでなく、外部出力インタフェース(図示せず)を介してデータとして出力可能である。
図12は画像処理を説明するための図である。表示された画像において、画像処理を行いたい部分をスタイラス21や指25でそれぞれ指定すると、指定された部分に対し、画像処理が行われる。ここでは、指やスタイラス21でなぞった部分には、所定幅の線で選択範囲が指定される。そして、スタイラス21によってなぞられた部分71には、例えば明度を上げる画像処理が行われる(図中、ドットで表されている)。指25によってなぞられた部分73には、例えば明度を下げる画像処理が行われる(図中、斜線で表されている)。
このように、本実施形態の画像処理装置1Aによれば、画像処理を行う際、指やスタイラスを用いたタッチ入力に、同じ機能で関連性のある処理が割り当てられ、それぞれが影響し合うような処理が行われる。従って、画像処理を行う際にも、異なる入力手段を用いて簡易で直感的な操作を行うことができる。さらに、1度のタッチ入力で、範囲選択処理と画像処理(第1の実施形態における切り出し処理およびエフェクト処理に対応)を行うことができ、操作性が向上する。
なお、上記第1の実施形態と第2の実施形態とは、組み合わせることが可能である。
本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。
例えば、上記実施形態では、入力手段として、指とスタイラスの2つの組み合わせの場合を示したが、3つ以上の組み合わせであってもよい。例えば、スタイラスの両端の太さを変え、細い側のタッチ入力と太い側のタッチ入力と指とからなる3つの組み合わせでそれぞれ異なる処理が割り当てられてもよい。さらには、指の接触面積の識別精度を高め、親指、人差し指、小指の3つを識別し、スタイラスと合わせて、4つの入力手段となるようにしてもよい。
また、上記実施形態では、切り出し処理およびエフェクト処理と画像処理との場合を示したが、これらの処理に限らず、入力処理や検索処理などにも本発明は適用可能である。
また、上記実施形態では、指やスタイラスによるタッチパネルへの接触面積によって、入力手段を判別していたが、これに限らず、例えば、感圧方式のタッチパネルを用いて、圧力分布でスタイラスと指を判別するようにしてもよい。
また、上記実施形態では、操作受付部の一例として、画像処理装置1、1Aの表示器16の画面に設けられたタッチパネル11が用いられたが、表示器16から離れた位置に設けられたタッチパッドであってもよい。
また、本発明は、上記実施形態の機能を実現する画像処理プログラムを、ネットワークあるいは各種記憶媒体を介して画像処理装置に供給し、この画像処理装置内のコンピュータが読み出して実行するプログラムも適用範囲である。
本発明は、画像を処理する際、異なる入力手段を用いて簡易で直感的な操作を行うことができ、有用である。
1、1A 画像処理装置
11 タッチパネル
12 指/スタイラス判別処理部
13 切り出し範囲描画処理部
14 結線処理部
15、15A 記憶部
15a テーブル
16 表示器
17 操作部
17a メニューキー
17b クリアキー
17c 確定キー
18a マイク
18b スピーカ
21 スタイラス
23 画像処理範囲描画処理部
25 指
30、35 画像
31、33 ライン
50、55 画像
51、53 ライン
55a 背景部分
55b 顔
57 画像の端縁
71、73 描画された部分
11 タッチパネル
12 指/スタイラス判別処理部
13 切り出し範囲描画処理部
14 結線処理部
15、15A 記憶部
15a テーブル
16 表示器
17 操作部
17a メニューキー
17b クリアキー
17c 確定キー
18a マイク
18b スピーカ
21 スタイラス
23 画像処理範囲描画処理部
25 指
30、35 画像
31、33 ライン
50、55 画像
51、53 ライン
55a 背景部分
55b 顔
57 画像の端縁
71、73 描画された部分
Claims (8)
- 画像を処理する画像処理装置であって、
入力手段による所定領域への操作を受け付ける操作受付部と、
前記操作受付部によって操作が受け付けられた入力手段を判別する入力手段判別部と、
前記入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報を記憶する記憶部と、
前記記憶部に記憶された処理情報のうち、前記入力手段判別部により判別された入力手段に割り当てられた処理情報に対応する処理を実行する処理部と、
を備える画像処理装置。 - 請求項1記載の画像処理装置であって、
前記操作受付部は、前記入力手段が前記所定領域に接触することで操作を受け付け、
前記入力手段判別部は、前記操作受付部が受け付けた前記入力手段の接触面積に応じて、前記入力手段を判別する画像処理装置。 - 請求項1または2記載の画像処理装置であって、
前記処理部は、前記機能として、画像の切り出しを行う場合、複数の前記入力手段により入力された線で囲まれた選択範囲にある画像に対し、前記入力手段ごとに異なる、画像を加工するための加工処理を行う画像処理装置。 - 請求項3記載の画像処理装置であって、
前記処理部は、前記複数の入力手段のうち、第1の入力手段により入力された第1の線に沿って選択される画像に対し、直線で切り出し処理を行い、第2の入力手段により入力された第2の線に沿って選択される前記画像に対し、千切り処理を行う画像処理装置。 - 請求項3記載の画像処理装置であって、
前記画像に含まれるオブジェクトを認識するオブジェクト認識部を備え、
前記処理部は、前記複数の入力手段のうち、第1の入力手段により入力された第1の線と、第2の入力手段により入力された第2の線の始端および終端を前記オブジェクト認識部により認識されたオブジェクトに沿って結線した線とで囲まれた前記選択範囲を認識する画像処理装置。 - 請求項4または5記載の画像処理装置であって、
前記処理部は、前記第1の入力手段により入力された第1の線の端点と、前記第2の入力手段により入力された第2の線の端点と、の距離が所定距離以下である場合には、前記第1の線の端点と前記第2の線の端点とを結線し、前記結線された第1の線と第2の線で囲まれた範囲を前記選択範囲として認識する画像処理装置。 - 画像を処理する画像処理装置における画像処理方法であって、
入力手段による所定領域への操作を受け付けるステップと、
前記操作が受け付けられた入力手段を判別するステップと、
記憶部に記憶された、前記入力手段ごとに割り当てられ、画像に対し、同じ機能で異なる処理を実行するための処理情報のうち、前記判別された入力手段に割り当てられた処理情報に対応する処理を実行するステップと、
を有する画像処理方法。 - 請求項7に記載の画像処理方法の各ステップをコンピュータに実行させるための画像処理プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248847A JP2013105324A (ja) | 2011-11-14 | 2011-11-14 | 画像処理装置、画像処理方法、および画像処理プログラム |
PCT/JP2012/006729 WO2013073109A1 (ja) | 2011-11-14 | 2012-10-19 | 画像処理装置、画像処理方法、および画像処理プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011248847A JP2013105324A (ja) | 2011-11-14 | 2011-11-14 | 画像処理装置、画像処理方法、および画像処理プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013105324A true JP2013105324A (ja) | 2013-05-30 |
Family
ID=48429211
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011248847A Pending JP2013105324A (ja) | 2011-11-14 | 2011-11-14 | 画像処理装置、画像処理方法、および画像処理プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013105324A (ja) |
WO (1) | WO2013073109A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176483A (ja) * | 2014-03-17 | 2015-10-05 | 富士通株式会社 | 画像処理プログラム、画像処理方法、及び情報処理装置 |
JP7327443B2 (ja) | 2020-02-20 | 2023-08-16 | 株式会社セガ | 遊戯画像撮影装置およびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02299013A (ja) | 1989-05-15 | 1990-12-11 | Kyocera Corp | 電子システム手帳装置 |
JP4927633B2 (ja) | 2006-09-28 | 2012-05-09 | 京セラ株式会社 | 携帯端末及びその制御方法 |
JP5080773B2 (ja) | 2006-09-28 | 2012-11-21 | 京セラ株式会社 | 携帯端末及びその制御方法 |
TWI329831B (en) * | 2007-05-15 | 2010-09-01 | Htc Corp | Electronic device with obstacle-free touch operation |
JP5160337B2 (ja) * | 2008-08-11 | 2013-03-13 | ソニーモバイルコミュニケーションズ, エービー | 入力処理装置、入力処理方法、入力処理プログラム、及び携帯端末装置 |
JP2011003074A (ja) * | 2009-06-19 | 2011-01-06 | Sharp Corp | 入力方法、入力装置及び電気機器 |
-
2011
- 2011-11-14 JP JP2011248847A patent/JP2013105324A/ja active Pending
-
2012
- 2012-10-19 WO PCT/JP2012/006729 patent/WO2013073109A1/ja active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015176483A (ja) * | 2014-03-17 | 2015-10-05 | 富士通株式会社 | 画像処理プログラム、画像処理方法、及び情報処理装置 |
JP7327443B2 (ja) | 2020-02-20 | 2023-08-16 | 株式会社セガ | 遊戯画像撮影装置およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
WO2013073109A1 (ja) | 2013-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2019338180B2 (en) | User interfaces for simulated depth effects | |
US20210026532A1 (en) | Method of operating a display unit and a terminal supporting the same | |
JP5094158B2 (ja) | 端末機及びタッチスクリーンを備えた端末機の制御方法 | |
US9436348B2 (en) | Method and system for controlling movement of cursor in an electronic device | |
EP1983416B1 (en) | Editing of data using mobile communication terminal | |
US20130263013A1 (en) | Touch-Based Method and Apparatus for Sending Information | |
JP4960742B2 (ja) | 画面表示項目を選択する端末機及び方法 | |
US9229615B2 (en) | Method and apparatus for displaying additional information items | |
EP2703982A2 (en) | Touch sensitive device and method of touch-based manipulation for contents | |
JP2004213269A (ja) | 文字入力装置 | |
JP2013054745A (ja) | 携帯端末機の入力装置及び方法 | |
US20150091804A1 (en) | Technique for improving operability in switching character types in software keyboard | |
TWI714513B (zh) | 書籍顯示程式產品及書籍顯示裝置 | |
US9386174B2 (en) | Image forming apparatus, method for guidance on operation method by image forming apparatus, and system | |
US20190220170A1 (en) | Method and apparatus for creating group | |
EP2849044A1 (en) | Electronic device and method for note-taking by handwriting on a touch screen | |
JP2014228989A (ja) | 携帯端末、表示制御プログラムおよび表示制御方法 | |
WO2013073109A1 (ja) | 画像処理装置、画像処理方法、および画像処理プログラム | |
WO2020055613A1 (en) | User interfaces for simulated depth effects | |
CN108885527B (zh) | 在压力触控屏上操作多个对象的方法及装置 | |
CN110377219B (zh) | 一种界面交互方法及终端 | |
JP7472950B2 (ja) | タッチパネル型情報端末装置およびその情報入力処理方法 | |
KR20120070133A (ko) | 카메라를 이용한 가상 터치 인터페이스 제공 장치 및 그 방법 | |
JP7268449B2 (ja) | 表示制御装置、表示制御方法、及び表示制御プログラム | |
US20170153788A1 (en) | A non-depth multiple implement input and a depth multiple implement input |