JP6705251B2 - プログラムおよび情報処理装置 - Google Patents

プログラムおよび情報処理装置 Download PDF

Info

Publication number
JP6705251B2
JP6705251B2 JP2016066658A JP2016066658A JP6705251B2 JP 6705251 B2 JP6705251 B2 JP 6705251B2 JP 2016066658 A JP2016066658 A JP 2016066658A JP 2016066658 A JP2016066658 A JP 2016066658A JP 6705251 B2 JP6705251 B2 JP 6705251B2
Authority
JP
Japan
Prior art keywords
image
display
processing
image processing
object image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016066658A
Other languages
English (en)
Other versions
JP2017182343A (ja
Inventor
慎太郎 國本
慎太郎 國本
涼司 坂
涼司 坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2016066658A priority Critical patent/JP6705251B2/ja
Priority to CN201710046702.7A priority patent/CN107239217B/zh
Priority to US15/420,141 priority patent/US10921923B2/en
Publication of JP2017182343A publication Critical patent/JP2017182343A/ja
Application granted granted Critical
Publication of JP6705251B2 publication Critical patent/JP6705251B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Position Input By Displaying (AREA)

Description

本願は、画像を表示部に表示させるプログラムおよび情報処理装置に関する。
特許文献1には、タッチパネル上に編集対象となるオブジェクト画像を表示させ、当該オブジェクト画像が一定圧力で押下されたことに応じてオブジェクト画像を拡大する処理を実行する技術が開示されている。
特開2013-58149号公報
オブジェクト画像の拡大処理が完了した後に、拡大されたオブジェクト画像を保存するための確定操作や、元の大きさに戻すためのキャンセル操作を入力する必要がある。特許文献1の技術では、確定操作やキャンセル操作を、確定ボタンやキャンセルボタンを用いて入力する必要がある。必要となる操作数が多いため、ユーザの操作負担が大きい。
(1)本明細書に記載されているプログラムは、表示部と、タッチパネルと、を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、コンピュータに、編集対象となるオブジェクト画像を表示部に表示させる第1表示処理と、オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、指示体が接触または近接した位置を示す第1の指示位置、および、指示体の接触強度を、タッチパネルに検出させる第1検出処理と、接触強度が第1しきい値を超えたことが第1検出処理で検出された場合に、オブジェクト画像に対して行う各種の画像処理を示す第1画像を表示部に表示させる第2表示処理と、第1画像が表示された後に、各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、受付処理が受け付けた入力に基づいてオブジェクト画像に対して画像処理を実行し、画像処理後のオブジェクト画像を表示部に表示させる第3表示処理と、第1検出処理によって検出された指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出処理と、第2検出処理によって所定操作の入力が検出された場合において、第3表示処理によって画像処理が実行されていた場合に、画像処理後のオブジェクト画像を記憶部に記憶させる記憶制御処理と、第1画像が表示された後に、第2検出処理によって所定操作の入力が検出されることなく、指示体のタッチパネルへの接触または近接が検出されなくなった場合に、第1画像および画像処理後のオブジェクト画像を表示部に表示させない第4表示処理と、を実行させることを特徴とする。
上記構成によれば、第1しきい値を超える接触強度で指示体を接触させることによって、オブジェクト画像に対する画像処理を開始することができる。そして、指示体を接触させたままの状態で所定操作を入力することで、画像処理後のオブジェクト画像を記憶させる操作を入力することができる。また、所定操作を入力せずに指示体を離反させることで、画像処理後のオブジェクト画像を表示させないようにする操作を入力することができる。これにより、接触させた指示体を離反するまでの一連の操作中において、画像処理の開始操作と、確定操作と、キャンセル操作と、の入力を受け付けることが可能となる。確定操作やキャンセル操作の入力を、ボタン画像を介して受け付ける場合に比して、ユーザの操作負担が小さい。操作の入力性を高めることが可能となる。
(2)好ましくは、本明細書に記載されているプログラムは、第1検出処理によって第1の指示位置が検出された後に、接触強度が第1しきい値を超えたことが第1検出処理で検出されることなく、指示体がタッチパネルに接触または近接した状態を維持しながら第3の指示位置まで移動した場合に、第3の指示位置をタッチパネルに検出させる第4検出処理と、第4検出処理によって第3の指示位置が検出された場合に、オブジェクト画像の表示位置を、第1の指示位置を基準とした位置から第3の指示位置を基準とした位置へ移動させる第5表示処理と、を、プログラムはコンピュータにさらに実行させることを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、オブジェクト画像を移動させる操作の入力を受け付けることが可能となる。操作の入力性を高めることが可能となる。
(3)好ましくは、本明細書に記載されているプログラムは、接触強度が第1しきい値を超えたことが第1検出処理で検出された場合に、第1の指示位置を中心とする周辺領域に、第1の画像処理が対応付けられている第1領域と、第2の画像処理が対応付けられている第2領域と、を設定する第1設定処理と、第1検出処理によって接触強度が第1しきい値を超えたことが検出された後に、指示体がタッチパネルに接触または近接した状態を維持しながら第2の指示位置まで移動した場合に、第2の指示位置をタッチパネルに検出させる第3検出処理と、をプログラムはコンピュータにさらに実行させ、第3表示処理は、第2の指示位置が第1領域内である場合に、第1の画像処理を実行し、第2の指示位置が第2領域内である場合に、第2の画像処理を実行することを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、複数の画像処理のうちから適切な1の画像処理を選択することが可能になる。
(4)好ましくは、本明細書に記載されているプログラムは、画像処理には、第1種類の画像処理と、第1種類の画像処理とは異なる第2種類の画像処理と、が含まれており、第1設定処理は、第1種類の画像処理に関する第1設定値を第1領域に対応付けるとともに、第1種類の画像処理に関する第2設定値を第2領域に対応付け、第1の指示位置における接触強度が、第1しきい値とは異なる第2しきい値を超えたか否かを検出する第5検出処理と、接触強度が第2しきい値を超えたことが第5検出処理で検出された場合に、第2種類の画像処理に関する第1設定値を第1領域に対応付けるとともに、第2種類の画像処理に関する第2設定値を第2領域に対応付ける第2設定処理と、をプログラムはコンピュータにさらに実行させることを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、選択可能な画像処理の種類を切り替える操作の入力を受け付けることが可能となる。選択可能な画像処理の種類を増大させることが可能となる。
(5)好ましくは、本明細書に記載されているプログラムは、第1設定処理は、オブジェクト画像の表示範囲内に、第1領域および第2領域を設定し、第2の指示位置がオブジェクト画像の表示範囲外に位置することを第3検出処理が検出した場合には、第3表示処理は、画像処理の実行を停止し、第3表示処理が画像処理の実行を停止した後に、第2の指示位置がオブジェクト画像の表示範囲内の第1領域内に位置することが第3検出処理によって検出された場合には、第3表示処理は、第1の画像処理を再開し、第3表示処理が画像処理の実行を停止した後に、第2の指示位置がオブジェクト画像の表示範囲内の第2領域内に位置することが第3検出処理によって検出された場合には、第3表示処理は、第2の画像処理を再開することを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、画像処理を一時停止させる操作、および、一時停止されていた画像処理を再開させる操作の入力を受け付けることが可能となる。操作の入力性を高めることが可能となる。
(6)好ましくは、本明細書に記載されているプログラムは、第1画像は、第1領域と第2領域との境界線を示す画像を含んでおり、第3表示処理は、第2の指示位置が第1領域内である場合に、第2の指示位置の第1の指示位置からの距離に応じて第1の画像処理に関する第1設定値を変更し、変更後の第1設定値を用いて画像処理を実行し、第2の指示位置が第2領域内である場合に、第2の指示位置の第1の指示位置からの距離に応じて第2の画像処理に関する第2設定値を変更し、変更後の第2設定値を用いて画像処理を実行することを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、画像処理に関する設定値を変更する操作の入力を受け付けることが可能となる。操作の入力性を高めることが可能となる。
(7)好ましくは、本明細書に記載されているプログラムは、境界線は、第1の指示位置を通るように表示されることを特徴とする。
(8)好ましくは、本明細書に記載されているプログラムは、第2検出処理は、
接触強度が第1しきい値とは異なる第2しきい値を超えた場合に、所定操作が入力されたと判断することを特徴とする。
上記構成によれば、第1しきい値を超える接触強度で指示体を接触させることで画像処理を開始させることができるとともに、第2しきい値を超える接触強度で指示体を接触させることで画像処理後のオブジェクト画像を記憶させる操作を入力することができる。操作の入力性を高めることが可能となる。
(9)好ましくは、本明細書に記載されているプログラムは、接触強度が第1しきい値を超えたことが第1検出処理で検出された場合に、第1の指示位置における接触強度を取得する取得処理と、取得処理が取得した接触強度に応じて、画像処理の第1設定値を変更する設定変更処理と、をプログラムはコンピュータにさらに実行させ、第3表示処理は、設定変更処理によって変更された第1設定値を用いて画像処理を実行することを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、画像処理に関する設定値を接触強度に応じて変更する操作の入力を受け付けることが可能となる。操作の入力性を高めることが可能となる。
(10)好ましくは、本明細書に記載されているプログラムは、第2検出処理は、指示体がタッチパネルに接触または近接した状態を維持しながら第1の指示位置から移動した場合に、所定操作が入力されたと判断することを特徴とする。
上記構成によれば、指示体の接触強度に応じて設定値を変更することができる。そして、指示体の指示位置を移動させることで、変更後の設定値を決定することができる。接触させた指示体を離反するまでの一連の操作中において、設定値の変更操作と設定値の確定操作の入力とを受け付けることが可能となる。
(11)好ましくは、本明細書に記載されているプログラムは、第1設定値には、第1種類の画像処理に関する第1種類の第1設定値と、第1種類の画像処理とは異なる第2種類の画像処理に関する第2種類の第1設定値と、が含まれており、第2検出処理は、指示体がタッチパネルに接触または近接した状態を維持しながら第1の指示位置から第1方向へ移動した場合に、所定操作が入力されたと判断し、指示体がタッチパネルに接触または近接した状態を維持しながら第1の指示位置から第1方向とは異なる第2方向へ移動した場合に、設定変更処理の処理対象が、第1種類の第1設定値から第2種類の第1設定値に切り替えられたと判断することを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、画像処理後のオブジェクト画像を記憶させる操作と、設定値の種類を切り替える操作と、の入力を受け付けることが可能となる。
(12)好ましくは、本明細書に記載されているプログラムは、第1の指示位置が第1検出処理によって検出されている期間中に、第1の指示位置とは異なる第4の指示位置がタッチパネルに検出されたか否かを判断する第1判断処理を、プログラムはコンピュータにさらに実行させ、第2検出処理は、第4の指示位置が検出されたと第1判断処理によって判断された場合に、所定操作が入力されたと判断することを特徴とする。
上記構成によれば、指示体の接触強度に応じて設定値を変更することができる。そして、別の指示体をタッチパネル上に接触させることで、変更後の設定値を決定することができる。接触させた指示体を離反するまでの一連の操作中において、設定値の変更操作と設定値の確定操作の入力とを受け付けることが可能となる。
(13)本明細書に記載されているプログラムは、表示部と、タッチパネルと、を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、コンピュータに、編集対象となるオブジェクト画像と、オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を表示部に表示させる第1表示処理と、第1画像の表示領域内へ指示体が接触または近接した場合に、指示体が接触または近接した位置を示す第1の指示位置、および、指示体の接触強度を、タッチパネルに検出させる第1検出処理と、接触強度が第1しきい値を超えたことが第1検出処理で検出された場合に、各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、受付処理が受け付けた入力に基づいてオブジェクト画像に対して画像処理を実行し、画像処理後のオブジェクト画像を表示部に表示させる第3表示処理と、所定操作が入力されたか否かを検出する第2検出処理と、第2検出処理によって所定操作の入力が検出された場合において、第3表示処理によって画像処理が実行されていた場合に、画像処理後のオブジェクト画像を記憶部に記憶させる記憶制御処理と、第2検出処理によって所定操作の入力が検出されることなく、指示体のタッチパネルへの接触または近接が検出されなくなった場合に、画像処理後のオブジェクト画像を表示部に表示させない第4表示処理と、を実行させることを特徴とする。
上記構成によれば、第1しきい値を超える接触強度で指示体を接触させることによって、オブジェクト画像に対する画像処理を開始することができる。そして、指示体を接触させたままの状態で所定操作を入力することで、画像処理後のオブジェクト画像を記憶させる操作を入力することができる。また、所定操作を入力せずに指示体を離反させることで、画像処理後のオブジェクト画像を表示させないようにする操作を入力することができる。これにより、接触させた指示体を離反するまでの一連の操作中において、画像処理の開始操作と、確定操作と、キャンセル操作と、の入力を受け付けることが可能となる。
(14)好ましくは、本明細書に記載されているプログラムは、第2検出処理は、接触強度が第1しきい値とは異なる第2しきい値を超えた場合に、所定操作が入力されたと判断することを特徴とする。
上記構成によれば、第1しきい値を超える接触強度で指示体を接触させることで画像処理を開始させることができるとともに、第2しきい値を超える接触強度で指示体を接触させることで画像処理後のオブジェクト画像を記憶させる操作を入力することができる。
(15)好ましくは、本明細書に記載されているプログラムは、第1検出処理によって接触強度が第1しきい値を超えたことが検出された後に、指示体がタッチパネルに接触または近接した状態を維持しながら第2の指示位置まで移動した場合に、第2の指示位置をタッチパネルに検出させる第3検出処理として、プログラムはコンピュータにさらに実行させ、第2の指示位置が第1画像の表示範囲外に位置することを第3検出処理が検出した場合には、第3表示処理は、画像処理の実行を停止し、第3表示処理が画像処理の実行を停止した後に、第2の指示位置が第1画像の表示範囲内に位置することが第3検出処理によって検出された場合には、第3表示処理は画像処理を再開することを特徴とする。
上記構成によれば、接触させた指示体を離反するまでの一連の操作中において、画像処理を一時停止させる操作、および、一時停止されていた画像処理を再開させる操作の入力を受け付けることが可能となる。
(16)好ましくは、本明細書に記載されているプログラムは、第3表示処理は、第1の指示位置が第1画像の表示範囲内である期間中において、オブジェクト画像を所定速度で所定方向へ回転させる画像処理を実行し、オブジェクト画像の初期表示位置からの回転角度が、予め定められた所定角度に到達した場合に、オブジェクト画像の回転を一定時間停止することを特徴とする。
上記構成によれば、オブジェクト画像の回転角度を適切に決定することが可能となる。
(17)好ましくは、本明細書に記載されているプログラムは、第3表示処理は、画像処理前のオブジェクト画像に重複するように、画像処理後のオブジェクト画像を表示部に表示させることを特徴とする。
上記構成によれば、処理前と処理後のオブジェクト画像を容易に比較することが可能となる。
情報処理装置のブロック図である。 情報処理装置の動作フローチャートを示す図である。 情報処理装置の動作フローチャートを示す図である。 情報処理装置の動作フローチャートを示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 設定テーブルの一例を示す図である。 設定テーブルの一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 情報処理装置の動作フローチャートを示す図である。 情報処理装置の動作フローチャートを示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。
図1に、本実施形態として例示される情報処理装置10のブロック図を示す。図1に示すように、情報処理装置10は、CPU11、記憶部12、無線送受信部15、無線アンテナ部16、ボタン入力部17、パネル18、座標検出部19、接触強度センサ22、メインカメラ23を主に備えている。情報処理装置10の一例としては、スマートフォン、タブレット端末、携帯電話、PCが挙げられる。
ボタン入力部17は、情報処理装置10のユーザによる操作を受け付ける。ボタン入力部17の一例としては、キーボードが挙げられる。パネル18は、情報処理装置10の各種機能情報を表示する。座標検出部19は、パネル18の表示領域内へ指示体(例:ユーザの指先)が接触した位置を示す座標である、指示座標を検出して出力する部位である。座標検出部19は、パネル18と一体に構成されることで、タッチパネル20として機能する。座標検出部19は、同時に複数の指示座標を検出することが可能とされている。無線送受信部15は、無線アンテナ部16を介して、携帯電話の規格や無線LANの規格に基づいた無線通信を行う。接触強度センサ22は、タッチパネル20への接触の力(又は、圧力)を測定するために使用されるセンサである。接触強度センサ22は、接触強度が第1しきい値より小さい場合には第1の値を出力する。接触強度が第1しきい値より大きく第2しきい値より小さい場合には第2の値を出力する。接触強度が第2しきい値より大きい場合には第3の値を出力する。接触強度センサ22は、タッチパネル20と一体に、又は近接して配置される。メインカメラ23は、情報処理装置10に搭載されているカメラである。
CPU11は、記憶部12内のプログラム21に従って処理を実行する。以降、画像処理アプリケーション32やオペレーティングシステム21eなど、プログラムを実行するCPU11のことを、単にプログラム名でも記載する場合がある。例えば「オペレーティングシステム21eが」という記載は、「オペレーティングシステム21eを実行するCPU11が」を意味する場合がある。
記憶部12は、RAM、ROM、フラッシュメモリ、HDD、CPU11が備えるバッファなどが組み合わされて構成されている。記憶部12は、プログラム21を記憶する。プログラム21は、オペレーティングシステム21e、画像処理アプリケーション32を含んでいる。オペレーティングシステム21eは、パネル18に各種の画像を表示させる機能や、画像処理アプリケーション32に利用される基本的な機能を、提供するプログラムである。またオペレーティングシステム21eは、各アプリケーションが各種ハードウェアに指示をするためのAPI(Application Programming Interfaceの略)を提供するプログラムでもある。画像処理アプリケーション32は、ユーザ等によって情報処理装置10にインストールすることで、利用することが可能である。
<情報処理装置の動作>
本実施形態に係る情報処理装置10の動作を、図2のフローチャートを用いて説明する。ユーザが、ボタン入力部17を介して画像処理アプリケーション32を起動させる操作を入力すると、CPU11は、画像処理アプリケーション32を読み込んで情報処理装置10の全体の制御を開始する。これにより、図2のフローが開始される。
S80においてCPU11は、処理対象となる処理画像データを取得する。処理画像データは、各種のデータであってよい。例えば処理画像データは、画像処理アプリケーション32によって生成されてもよいし、記憶部12に記憶されている複数の画像データのうちからユーザによって選択されてもよいし、メインカメラ23で撮影した画像の画像データであってもよい。
S90においてCPU11は、表示画面をタッチパネル20に表示する。図5に、表示画面の一例を示す。表示画面には、表示領域G1およびG2が含まれている。表示領域G1は、電池残量などの各種のステータスが表示される領域である。表示領域G2は、画像処理アプリケーション32によって各種の画像が表示される領域である。図5の例では、表示領域G2には、処理画像M1が表示される。処理画像M1は、処理画像データによって表示される画像である。
S100においてCPU11は、オブジェクト画像を処理画像M1内に表示する。図5の例では、オブジェクト画像O1が表示される。オブジェクト画像O1の一例としては、画像処理アプリケーション32によって生成されたスタンプ画像が挙げられる。
S110においてCPU11は、表示領域G2内で第1の指示位置P1が座標検出部19によって検出されたか否かを判断する。この判断は、座標検出部19から指示座標が出力されたか否かによって実行することができる。第1の指示位置P1は、指示体が接触した位置である。指示体の一例としては、ユーザの指先や、スタイラスペンが挙げられる。すなわち、指示体がパネル18に接触したことを座標検出部19によって検出する。否定判断される場合(S110:NO)にはS110へ戻り、肯定判断される場合(S110:YES)にはS120へ進む。
S120においてCPU11は、検出された第1の指示位置P1が、オブジェクト画像の表示領域内であるか否かを判断する。この判断は、第1の指示位置P1の座標値とオブジェクト画像の座標値とを用いて実行することができる。否定判断される場合(S120:NO)にはS110へ戻り、肯定判断される場合(S120:YES)には、S140へ進む。
S140においてCPU11は、指示体の接触強度が第1しきい値を超えているか否かを判断する。具体的には、接触強度センサ22から第2の値または第3の値が出力されているか否かを検出する。否定判断される場合(S140:NO)には、S150へ進む。
S150においてCPU11は、オブジェクト画像を移動させる操作が入力されたか否かを判断する。具体的には、接触強度が第1しきい値より小さい状態、および、指示体がタッチパネルに接触している状態を維持しながら、第3の指示位置まで指示位置が移動したことが検出されたかを判断する。この判断は、接触強度センサ22から第1の値が出力されている状態で、座標検出部19から出力される指示座標が変化したか否かを検出することで、実行できる。例えば、指示体をオブジェクト画像に接触させながら第3の指示位置まで移動させる操作(いわゆるドラッグ操作ともいう)を入力する場合に、S150において肯定判断される。肯定判断される場合(S150:YES)には、S160へ進む。
S160においてCPU11は、オブジェクト画像の表示位置を、第3の指示位置を基準とした位置へ移動させる。そしてS140へ戻る。これにより、ドラッグ操作に追従するように、オブジェクト画像を移動させることができる。
一方、S150において否定判断される場合(S150:NO)には、S170へ進む。S170においてCPU11は、指示位置が検出されなくなったか否かを判断する。この判断は、座標検出部19から指示座標が出力されなくなったか否かを検出することによって実行できる。否定判断される場合(S170:NO)には、S140へ戻る。一方、肯定判断される場合(S170:YES)には、指示体がタッチパネル20の表面から離反した場合であると判断され、S110へ戻る。
また、S140において肯定判断される場合(S140:YES)には、S175へ進む。S175においてCPU11は、設定変更受付領域を設定する。図6を用いて具体的に説明する。第1の指示位置P1を中心とする周辺領域に、設定変更受付領域として、第1領域A1および第2領域A2が設定される。第1領域A1および第2領域A2は、オブジェクト画像O1の表示範囲内に設定される。これらの領域は、ユーザが見ることができない仮想的な境界線で区切られていてもよい。また記憶部12には、設定テーブルTB1が記憶されている。設定テーブルTB1は、設定変更受付領域と各種の設定値との対応関係を記憶する領域である。図6の説明例における設定テーブルTB1の設定例を、図9Bに示す。第1領域A1には、「回転」の種類の画像処理に関する「左回転」の設定値が対応付けられている。第2領域A2には、「回転」の種類の画像処理に関する「右回転」の設定値が対応付けられている。
S180においてCPU11は、処理画像M1内の何れかの位置に、編集案内画像を表示する。編集案内画像は、オブジェクト画像に対して実行可能な画像処理の種類や、画像処理に関する設定値を示す画像である。実施例1の説明例では、図6に示すように、編集案内画像E1が表示される。そしてS190へ進む。
S190においてCPU11は、指示位置の移動が検出されたか否かを判断する。具体的には、指示体をオブジェクト画像に接触させながら第2の指示位置まで移動させるドラッグ操作が入力された場合に、S190において肯定判断される。この判断は、座標検出部19から出力される指示座標が変化したか否かを検出することで、実行できる。否定判断される場合(S190:NO)にはS270へ進み、肯定判断される場合(S190:YES)にはS192へ進む。
S192においてCPU11は、第2の指示位置がオブジェクト画像の範囲内であるか否かを判断する。この判断は、第2の指示位置の座標値とオブジェクト画像の座標値とを用いて実行することができる。肯定判断される場合(S192:YES)には、S200へ進む。
S200においてCPU11は、表示範囲内に第2の指示位置が位置している領域に対応付けられている画像処理を実行する。実施例1の説明例では、図6に示すように、第2の指示位置P2が第2領域A2の表示範囲内に位置している場合を説明する。CPU11は、図9Bに示す設定テーブルTB1において、第2領域A2の欄を参照する。第2領域A2には、「回転」の種類の画像処理に関する「右回転」の設定値が対応付けられている。従って、オブジェクト画像O1を所定速度で右回転させる画像処理が実行される。回転処理は、オブジェクト画像O1の中心位置や重心位置を回転軸として実行されてもよい。
S210においてCPU11は、画像処理後のオブジェクト画像である処理後オブジェクト画像を、処理画像M1内に表示する。そしてS270へ進む。処理後オブジェクト画像は、処理前のオブジェクト画像と重複するように表示されてもよい。処理後オブジェクト画像は、例えば半透明に表示されるなど、処理前のオブジェクト画像との対比がしやすい態様で表示されてもよい。実施例1の説明例では、図7に示すように、処理後オブジェクト画像O1aが、処理前のオブジェクト画像O1と重複して表示される。また処理後オブジェクト画像O1aは、半透明で表示される。このようにすると、ユーザが画像処理後の状態を把握できるため、編集処理を行いやすく利便性が高い。
一方S192において、第2の指示位置がオブジェクト画像の範囲内ではないと判断される場合(S192:NO)には、S230へ進む。S230においてCPU11は、S200で実行していた画像処理を停止する。
実施例1の説明例では、図7に示すように、第2の指示位置P2が、第2の指示位置P2aへ移動する場合を説明する(矢印Y1参照)。第2の指示位置P2aは、オブジェクト画像O1の表示領域の範囲外である。従って、オブジェクト画像O1を右回転させる画像処理が、停止される。
S240においてCPU11は、指示位置が検出されなくなったか否かを判断する。この判断は、座標検出部19から指示座標が出力されなくなったか否かを検出することによって実行できる。肯定判断される場合(S240:YES)には、指示体がタッチパネル20の表面から離反した場合であると判断され、S280へ進む。一方、否定判断される場合(S240:NO)には、S250へ進む。
S250においてCPU11は、指示位置がオブジェクト画像の範囲内で検出されたか否かを判断する。この判断は、指示位置の座標値とオブジェクト画像の座標値とを用いて実行することができる。否定判断される場合(S250:NO)にはS240へ戻り、肯定判断される場合(S250:YES)にはS260へ進む。
S260においてCPU11は、S250で検出された指示位置が表示範囲内に位置している領域に対応付けられている画像処理を、実行する。具体的な処理内容は、S200と同様であるため、説明を省略する。これにより、S230で停止されていた画像処理が、再開される。そしてS270へ進む。実施例1の説明例では、図7に示すように、第2の指示位置P2aが、第2の指示位置P2へ移動する場合を説明する(矢印Y2参照)。第2の指示位置P2は、オブジェクト画像O1の表示領域の範囲内であるとともに、第2領域A2の範囲内である。従って、オブジェクト画像O1を右回転させる画像処理が、再開される。
S270においてCPU11は、指示位置が検出されなくなったか否かを判断する。この判断は、座標検出部19から指示座標が出力されなくなったか否かを検出することによって実行できる。肯定判断される場合(S270:YES)には、S280へ進む。S280においてCPU11は、処理後オブジェクト画像を消去する。これにより、画像処理前のオブジェクト画像のみが処理画像M1内に表示される。実施例1の説明例では、図7において、処理後オブジェクト画像O1aが消去される。よって、図6の表示態様へ戻る。
S290においてCPU11は、S180で表示された編集案内画像を消去する。実施例1の説明例では、図6において、編集案内画像E1が消去される。よって、図5の表示態様へ戻る。そしてフローが終了する。
また、S270で否定判断される場合(S270:NO)には、S300へ進む。S300においてCPU11は、S110で指示体の接触が検出された時点から指示体の接触が検出され続けている状態下において、所定操作の入力が検出されたか否かを判断する。具体的には、接触強度が第2しきい値を超えたか否かを判断する。この判断は、接触強度センサ22から第3の値が出力されているか否かを検出することで実行できる。第2しきい値は、第1しきい値よりも大きいしきい値である。否定判断される場合(S300:NO)にはS190へ戻り、肯定判断される場合(S300:YES)にはS305へ進む。
S305においてCPU11は、所定操作が入力された指示位置が、S110で検出された第1の指示位置と異なる位置であるか否かを判断する。この判断は、第1の指示位置の座標値と所定操作が入力された指示位置の座標値とを用いて、実行することができる。肯定判断される場合(S305:YES)には、S310へ進む。S310においてCPU11は、画像処理後のオブジェクト画像を、記憶部12に記憶させる。これにより、オブジェクト画像に対する画像処理が確定する。
S315においてCPU11は、画像処理前のオブジェクト画像を消去する。また、処理後オブジェクト画像の表示態様を、半透明の態様から通常の態様へ変更する。S320においてCPU11は、S180で表示された編集案内画像を消去する。そしてフローが終了する。
実施例1の説明例では、図7のS315において、オブジェクト画像O1が消去されるとともに、処理後オブジェクト画像O1aの表示態様が半透明の態様から通常の態様へ変更される。これにより、図8の表示態様へ遷移する。
また、S305において否定判断される場合(S305:NO)には、S330へ進む。S330においてCPU11は、設定変更受付領域の設定内容を変更する。具体的には、第1領域A1および第2領域A2に対応付ける画像処理の種類を変更する。例えば、設定テーブルTB1の内容を、図9Cに示す内容に変更してもよい。S340においてCPU11は、変更後の画像処理の種類を示す編集案内画像を、処理画像M1内に表示する。
実施例1の説明例では、図9Cの設定テーブルTB1に示すように、変更後の画像処理の種類として、第1領域A1には、「拡大・縮小」の種類の画像処理に関する「拡大」の設定値が対応付けられる。第2領域A2には、「拡大・縮小」の種類の画像処理に関する「縮小」の設定値が対応付けられる。そして、変更後の画像処理の種類である「拡大・縮小」を示す編集案内画像E2が、処理画像M1内に表示される。
<実施例1の効果>
第1しきい値を超える接触強度で指示体をオブジェクト画像に接触させる(S140:YES)ことによって、オブジェクト画像に対する画像処理を開始することができる。指示体がタッチパネル20に接触させながら第2の指示位置まで移動させるドラッグ操作を入力(S190:YES)することで、第2の指示位置が表示範囲内に位置している領域に対応付けられている画像処理を、オブジェクト画像に対して実行(S200)することができる。指示体がタッチパネル20に接触している状態を維持しながら、接触強度が第2しきい値を超えるまで指示体を押し込む(S300:YES)ことによって、画像処理後のオブジェクト画像を記憶部12に記憶(S310)させることができる。すなわち、オブジェクト画像に対する画像処理を確定させることができる。また、画像処理をオブジェクト画像に対して実行(S200)した後に、接触強度が第2しきい値を超えるまで指示体を押し込むことをせずに(S300:NO)、指示体をタッチパネル20から離反(S270:YES)させることによって、画像処理前のオブジェクト画像をタッチパネル20に表示(S280)させることができる。すなわち、オブジェクト画像に対する画像処理をキャンセルすることができる。
以上より、接触させた指示体を離反させるまでの一連の操作中において、画像処理の開始操作(S110:YES)と、確定操作(S300:YES)と、キャンセル操作(S300:NOの状態でS270:YES)と、の入力を受け付けることが可能となる。換言すると、指示体を一度タッチパネル20にタッチさせれば、タッチさせた指示体を離反させることなく、画像処理の開始操作、確定操作、キャンセル操作、を行うことが可能となる。これにより、確定操作やキャンセル操作の入力を、ボタン画像を介して受け付ける場合に比して、ユーザの操作負担を小さくすることができる。一般に、確定操作やキャンセル操作の入力をボタン画像を介して受け付ける場合には、指示体を一度タッチパネル20にタッチさせて画像処理を行った後に、指示体を離反させ、ボタン画像を再びタッチする必要があるためである。
第1しきい値を超えない接触強度で指示体をオブジェクト画像に接触(S140:NO)させたまま、指示体を移動(S150:YES)させることによって、オブジェクト画像を移動(S160)させることができる。これにより、接触させた指示体を離反させるまでの一連の操作中において、オブジェクト画像の移動操作(S140:NOの状態でS150:YES)の入力も受け付けることが可能となる。操作の入力性を高めることができる。
第1しきい値を超える接触強度で指示体をオブジェクト画像に接触(S140:YES)させた後に、指示体がタッチパネル20に接触している状態を維持しながら、指示体を第1領域A1内へ移動(S190:YES)させることで、第1領域A1に対応付けられている画像処理(例:「左回転」)を実行することができる。同様に、指示体を第2領域A2内へ移動(S190:YES)させることで、第2領域A2に対応付けられている画像処理(例:「右回転」)を実行することができる。これにより、接触させた指示体を離反させるまでの一連の操作中において、複数複数の画像処理のうちから適切な1の画像処理を選択することが可能になる。換言すると、タッチパネル20にタッチ(S110:YES)させた指示体を一度も離反させることなく、複数の画像処理のうちから1の画像処理を選択(S190:YES)した上で画像処理を実行(S200)し、その後に確定操作(S300:YES)またはキャンセル操作(S300:NOの状態でS270:YES)を行うことが可能となる。操作の入力性を高めることができる。
第1しきい値を超える接触強度でオブジェクト画像内の第1の指示位置P1を押下(S140:YES)した後に、指示体を移動させることなく(SS305:NO)、第2しきい値を超える接触強度で第1の指示位置P1を押下(S300:YES)することによって、選択可能な画像処理の種類を切り替える(S330)ことができる。これにより、接触させた指示体を離反させるまでの一連の操作中において、選択可能な画像処理の種類を切り替える操作(S330)の入力も受け付けることが可能となる。すなわちユーザは、オブジェクト画像内の第1の指示位置P1を強く押して画像処理を開始(S140:YES)した場合に、画像処理の種類を切り替えることを所望する場合には、そのまま第1の指示位置P1をさらに強く押せばよい(S300:YES、S305:NO)。操作の入力性を高めることができる。
画像処理をオブジェクト画像に対して実行(S200)している期間中に、指示体がタッチパネル20に接触している状態を維持しながら、指示体をオブジェクト画像の領域外へ移動(S192:NO)させることで、画像処理を停止(S230)することができる。その後、指示体がタッチパネル20に接触している状態を維持しながら、オブジェクト画像の領域外から第1領域A1または第2領域A2内へ指示体を移動(S250:YES)させることで、第1領域A1または第2領域A2に対応付けられている画像処理を再開(S260)することができる。これにより、接触させた指示体を離反させるまでの一連の操作中において、画像処理を一時停止させる操作(S192:NO)、および、一時停止されていた画像処理を再開させる操作(S250:YES)の入力を受け付けることが可能となる。操作の入力性を高めることが可能となる。
実施例2は、オブジェクト画像や編集案内画像の表示態様が実施例1とは異なっている実施例である。図1の情報処理装置10のブロック図や、図2〜図4のフロー図は、実施例1と実施例2とで共通であるため、詳細な説明は省略する。
S100においてオブジェクト画像が表示される。実施例2では、表示領域G2に表示される処理画像全体が、オブジェクト画像とされる。図10の説明例では、オブジェクト画像O2が表示領域G2内に表示される。オブジェクト画像O2は、例えば、メインカメラ23で撮影した画像であってもよいし、記憶部12に記憶されている複数の画像のうちからユーザによって選択された画像であってもよい。
S175においてCPU11は、設定変更受付領域を設定する。またS180においてCPU11は、オブジェクト画像O2内に編集案内画像E11を表示する。図11の説明例を用いて具体的に説明する。編集案内画像E11は、座標軸画像を含んでいる。座標軸画像は、互いに直交する縦軸と横軸を備えている。座標軸画像の中心点は、第1の指示位置P1と一致している。縦軸には、「明るさ」の種類の画像処理が対応付けられている。横軸には、「コントラスト」の種類の画像処理が対応付けられている。これにより、第1の指示位置P1を中心とする周辺領域に、第1領域A11〜第4領域A14が設定される。すなわち座標軸画像は、第1領域A11〜第4領域A14の境界線を示す画像である。具体的に説明する。第1領域A11には、「明るさ」の種類の画像処理に関する「増加」の設定値と、「コントラスト」の種類の画像処理に関する「増加」の設定値と、が対応付けられている。第2領域A12には、「明るさ」の種類の画像処理に関する「増加」の設定値と、「コントラスト」の種類の画像処理に関する「低減」の設定値と、が対応付けられている。第3領域A13には、「明るさ」の種類の画像処理に関する「低減」の設定値と、「コントラスト」の種類の画像処理に関する「低減」の設定値と、が対応付けられている。第4領域A14には、「明るさ」の種類の画像処理に関する「低減」の設定値と、「コントラスト」の種類の画像処理に関する「増加」の設定値と、が対応付けられている。これらの対応付けは、実施例1で前述した設定テーブルTB1に記憶される。
S200においてCPU11は、第2の指示位置が表示範囲内に位置している領域に対応付けられている画像処理を実行する。実施例2の説明例では、図11に示すように、第2の指示位置P2が第1領域A11の領域内に位置している場合を説明する。この場合、CPU11は、設定テーブルTB1を参照する。そして、オブジェクト画像O2の「明るさ」を「増加」させる画像処理と、オブジェクト画像O2の「コントラスト」を「増加」させる画像処理と、を実行する。明るさの増加量は、第2の指示位置P2の縦軸方向の距離L1が大きくなるほど大きくなる。また、コントラストの増加量は、第2の指示位置P2の横軸方向の距離L2が大きくなるほど大きくなる。
S210においてCPU11は、処理前のオブジェクト画像O2に代えて、画像処理後のオブジェクト画像O2を表示する。
S300において接触強度が第2しきい値を超えたと判断された場合(S300:YES)には、所定操作が入力されたと判断され、S305へ進む。S305において、所定操作が入力された指示位置が第1の指示位置と異なる位置であると判断される場合(S305:YES)には、画像処理後のオブジェクト画像が記憶部12に記憶される。実施例2の説明例では、図11に示すように、第2の指示位置P2における接触強度が第2しきい値を超えたと判断された場合(S300:YES、S305:YES)には、第2の指示位置P2に基づいて「明るさ」および「コントラスト」が変更(S210)されたオブジェクト画像O2が記憶(S310)される。
一方、S305において、所定操作が入力された指示位置が第1の指示位置P1であると判断される場合(S305:NO)には、S330へ進む。S330においてCPU11は、設定変更受付領域の設定内容を変更する。S340においてCPU11は、変更後の画像処理の種類を示す編集案内画像を、オブジェクト画像O2内に表示する。
実施例2の説明例では、図12に示すように、変更後の画像処理の種類として、縦軸には「色相」の種類の画像処理が新たに対応付けられ、横軸には「彩度」の種類の画像処理が新たに対応付けられる。これらの新たな対応付けは、実施例1で前述した設定テーブルTB1に記憶される。そして、変更後の編集案内画像E12が、オブジェクト画像O2内に表示される。また、座標軸画像の中心が第1の指示位置P1と一致するように、編集案内画像E12が表示される。
<実施例2の効果>
実施例3は、オブジェクト画像や編集案内画像の表示態様が実施例1とは異なっている実施例である。図1の情報処理装置10のブロック図や、図2〜図4のフロー図は、実施例1と実施例3とで共通であるため、詳細な説明は省略する。
S100においてオブジェクト画像が表示される。実施例3では、実施例2と同様に、表示領域G2に表示される処理画像全体がオブジェクト画像とされる。
S175においてCPU11は、設定変更受付領域を設定する。またS180においてCPU11は、オブジェクト画像O2内に、編集案内画像E21および操作案内画像E31を表示する。図13の説明例を用いて具体的に説明する。編集案内画像E21は、接触強度メータ画像を含んでいる。編集案内画像E21は、第1の指示位置P1とは離れた位置に表示されてもよい。接触強度メータ画像には、第1の指示位置P1における現在の接触強度を示す矢印画像R1が表示される。矢印画像R1は、接触強度が高いほど接触強度メータの下側に移動するように表示される。接触強度メータ画像には、接触強度が高いほど明るさを増加させるように、「明るさ」の種類の画像処理が対応付けられている。これらの対応付けは、実施例1で前述した設定テーブルTB1に記憶される。また接触強度メータ画像には、指示画像R2が表示される。指示画像R2は、画像処理前におけるオブジェクト画像O2の明るさの設定値を示す画像である。
操作案内画像E31は、第1の指示位置P1をタッチした状態を維持しながら下方向へドラッグ操作を入力した場合に、画像処理の内容を確定する操作が入力される(S300:YES)ことを示している。また、第1の指示位置P1をタッチした状態を維持しながら上方向へドラッグ操作を入力した場合に、画像処理の内容を変更する処理(S330)が実行されることを示している。
S200においてCPU11は、矢印画像R1が指示している接触強度に対応する明るさを有するように、オブジェクト画像O2の明るさを調整する画像処理を行う。S210においてCPU11は、処理前のオブジェクト画像O2に代えて、画像処理後のオブジェクト画像O2を表示する。
S300において、第1の指示位置P1を始点として下方向へのドラッグ操作が入力されたことが検出された場合(S300:YES)に、確定操作が入力されたと判断され、S310へ進む。実施例2の説明例では、図13に示す状態において、下方向へのドラッグ操作が入力された場合を説明する。この場合、矢印画像R1で示される「明るさ」に変更(S210)されたオブジェクト画像O2が記憶(S310)される。
一方、S300において、第1の指示位置P1を始点として上方向へのドラッグ操作が入力されたことが検出された場合(S300:NO)には、S330へ進む。実施例2の説明例では、図13に示す状態において、上方向へのドラッグ操作が入力された場合を説明する。この場合、接触強度メータ画像には、「明るさ」とは別の種類の画像処理(例:コントラスト変更)が新たに対応付けられる。これらの新たな対応付けは、実施例1で前述した設定テーブルTB1に記憶される。そして、変更後の編集案内画像E21が、オブジェクト画像O2内に表示される(S340)。このとき、オブジェクト画像O2の明るさが矢印画像R1で示される明るさに変更(S210)された状態で、コントラストの変更処理へ移行してもよい。
<実施例3の効果>
指示体の接触強度に応じて、設定値の値を変化(S200)させることができる。これにより、接触させた指示体を離反させるまでの一連の操作中において、画像処理に関する設定値を変更する操作の入力も受け付けることが可能となる。すなわちユーザは、図13の画面が表示(S180)されている場合に、オブジェクト画像O2を現状よりも明るくしたい場合には、矢印画像R1が指示画像R2よりも下方に行くように指示体の押圧を大きくすればよい。一方、オブジェクト画像O2を現状よりも暗くしたい場合には、矢印画像R1が指示画像R2よりも上方に行くように指示体の押圧を小さくすればよい。操作の入力性を高めることが可能となる。
指示体の接触強度に応じて設定値の値を変化(S200)させた後に、指示体を接触させたまま下方向に移動させることで、画像処理後のオブジェクト画像を記憶部12に記憶(S310)させることができる。また、指示体を接触させたまま上方向に移動させることで、画像処理の種類を切り替える(S330)ことができる。これにより、接触させた指示体を離反させるまでの一連の操作中において、確定操作の入力、および、選択可能な画像処理の種類を切り替える操作(S330)の入力を、受け付けることが可能となる。操作の入力性を高めることが可能となる。
実施例4は、画像処理に関する入力を受け付けるための編集ボタン画像が、オブジェクト画像とともに表示される実施例である。実施例4のフローを、図14および図15に示す。図14および図15のフローは、実施例1の図2〜図4のフローの一部を改変したものである。従って、図14および図15と図2〜図4との間で、同一のステップ番号が振られた処理の内容は同一であるため、説明を省略する場合がある。また図14および図15において、ステップ番号の末尾に「a」が付加されているステップは、実施例1から変更されたステップである。従って以下では、「a」が付加されているステップについて重点的に説明する。
S100aにおいてCPU11は、オブジェクト画像および編集ボタン画像を処理画像M1内に表示する。編集ボタン画像は、オブジェクト画像に対して画像処理を実行する指示の入力を、受け付けるための画像である。
図16の例では、オブジェクト画像O1および編集ボタン画像B1、B2が表示される。編集ボタン画像B1は、回転処理の実行指示の入力を受け付ける画像である。編集ボタン画像B1を押下している期間中(S192a:YES)は、オブジェクト画像O1を所定速度で右回転させることができる。なお、右回りの1回転が完了した場合には、回転処理を、左回りの1回転に切り替えてもよい。また、オブジェクト画像の初期表示位置からの回転角度が、予め定められた所定角度(例:90度、180度)に到達した場合に、オブジェクト画像の回転を一定時間(例:3秒)停止するとしてもよい。これにより、オブジェクト画像O1の回転角度を適切に決定することが可能となる。編集ボタン画像B2は、拡大・縮小処理の実行指示の入力を受け付ける画像である。編集ボタン画像B2を押下している期間中(S192a:YES)は、オブジェクト画像O1を所定速度で拡大させることができる。なお、オブジェクト画像O1が所定の倍率(例:300%)まで拡大された場合には、縮小処理に切り替えてもよい。また例えば、第1の指示位置P1が編集ボタン画像の表示領域内で移動した場合に、移動した方向に応じて拡大処理と縮小処理とを切り替えてもよい。具体例としては、第1の指示位置P1が右方向(または上方向)へ移動した場合に拡大処理を実行し、左方向(または下方向)へ移動した場合に縮小処理を実行してもよい。これにより、拡大処理および縮小処理の複数の処理の入力を、1つの編集ボタン画像B2で受け付けることができる。
S120aにおいてCPU11は、検出された第1の指示位置P1が、編集ボタン画像の表示領域内であるか否かを判断する。この判断は、第1の指示位置P1の座標値と編集ボタン画像の座標値とを用いて実行することができる。否定判断される場合(S120a:NO)にはS110へ戻り、肯定判断される場合(S120a:YES)には、S140へ進む。
S192aにおいてCPU11は、第2の指示位置が編集ボタン画像の範囲内であるか否かを判断する。この判断は、第2の指示位置の座標値と編集ボタン画像の座標値とを用いて実行することができる。肯定判断される場合(S192a:YES)にはS200へ進み、否定判断される場合(S192a:NO)にはS230へ進む。
S232a、S234a、S236a、S238aの各々の内容は、前述したS300、S310、S315、S320の各々の内容と同様である。よって説明を省略する。S250aにおいてCPU11は、指示位置が編集ボタン画像の範囲内で検出されたか否かを判断する。この判断は、指示位置の座標値と編集ボタン画像の座標値とを用いて実行することができる。否定判断される場合(S250a:NO)にはS240へ戻り、肯定判断される場合(S250:YES)にはS260へ進む。
<実施例4の効果>
第1しきい値を超える接触強度で指示体を編集ボタン画像に接触させる(S120a:YES、S140:YES)ことによって、タッチされた編集ボタン画像に対応付けられている画像処理を、オブジェクト画像に対して実行(S200)することができる。指示体がタッチパネル20に接触している状態を維持しながら、接触強度が第2しきい値を超えるまで指示体を押し込む(S300:YES)ことによって、オブジェクト画像に対する画像処理を確定(S310)させることができる。また、画像処理をオブジェクト画像に対して実行(S200)した後に、接触強度が第2しきい値を超えるまで指示体を押し込むことをせずに(S300:NO)、指示体をタッチパネル20から離反(S270:YES)させることによって、オブジェクト画像に対する画像処理をキャンセル(S280)することができる。以上より、接触させた指示体を離反させるまでの一連の操作中において、画像処理の開始操作(S140:YES)と、確定操作(S300:YES)と、キャンセル操作(S300:NOの状態でS270:YES)と、の入力を受け付けることが可能となる。操作の入力性を高めることが可能となる。
画像処理をオブジェクト画像に対して実行(S200)している期間中に、指示体がタッチパネル20に接触している状態を維持しながら、指示体を編集ボタン画像の領域外へ移動(S192a:NO)させることで、画像処理を停止(S230)することができる。その後、指示体がタッチパネル20に接触している状態を維持しながら、編集ボタン画像の領域内へ指示体を移動(S250a:YES)させることで、指示体で指示された編集ボタン画像に対応付けられている画像処理を再開(S260)することができる。操作の入力性を高めることが可能となる。
以上、本発明の具体例を詳細に説明したが、これらは例示にすぎず、特許請求の範囲を限定するものではない。特許請求の範囲に記載の技術には、以上に例示した具体例を様々に変形、変更したものが含まれる。上記の実施例の変形例を以下に列挙する。
<第1変形例>
実施例2における確定操作の入力(S300)の態様は、様々であってよい。第1の指示位置P1が検出されている期間中に、第1の指示位置とは異なる第4の指示位置がタッチパネル20に検出された場合に、S300で肯定判断されるとしてもよい。例えば、図13に示す状態において、第1の指示位置P1に加えて、第4の指示位置P4が検出された場合を説明する。この場合、第4の指示位置P4が検出された時点において矢印画像R1が指示している「明るさ」に、オブジェクト画像O2が変更(S210)される。そして、変更されたオブジェクト画像O2が記憶(S310)される。
これにより例えば、人差し指を用いて第1の指示位置P1の押圧を調整することで、オブジェクト画像O1の明るさを調整(S200)することができる。そして、明るさが決定した場合には、中指をさらにタッチパネル20の任意の位置にタッチさせる(S300:YES)ことで、明るさを確定(S310)することができる。
<第2変形例>
実施例2のS180において表示される編集案内画像は、様々な種類であってよい。例えば、図11に示す編集案内画像E11に加えて、ボタン態様の編集案内画像をさらに表示するとしてもよい。ボタン態様の編集案内画像には、「明るさ」のプリセット設定と「コントラスト」のプリセット設定値が予め対応付けられていてもよい。そしてS192では、第2の指示位置がボタン態様の編集案内画像の表示領域内に位置しているか否かを判断してもよい。これにより、ボタン態様の編集案内画像まで指示体を移動(S192:YES)させることによって、プリセットされた設定値に基づく画像処理を実行(S200)することが可能となる。
<第3変形例>
実施例2のS180において表示される編集案内画像には、様々な画像が含まれていてもよい。例えば、図11に示す編集案内画像E11に示すように、履歴画像H1およびH2が表示されるとしてもよい。履歴画像H1およびH2は、ユーザが過去に実施した画像処理の内容を、座標軸画像上の点で示すものである。これにより、画像処理の履歴を視覚的にユーザに認識させることができる。
<第4変形例>
実施例2において、例えば図17の左図に示すように、第1の指示位置P1がオブジェクト画像O2の左側の枠線の極近傍に位置している場合を考える。この場合に、指示体を、第1の指示位置P1から、オブジェクト画像O2枠線を超えたさらに左側の第2の指示位置P2に移動させる場合を想定する(矢印Y3参照)。このとき、図17の右図に示すように、枠線を超えて移動した距離分だけ、オブジェクト画像O2および編集案内画像E11が表示領域G2の右側へ移動するように、スクロール表示を行ってもよい。なお、オブジェクト画像O2のうち、表示領域G2からはみ出た領域は、表示領域G2内には表示されない。
第1の指示位置P1は、オブジェクト画像O2の枠線の近傍に位置する場合が多い。オブジェクト画像O2の中央には、人の顔などの重要な画像が配置されている場合が多いためである。本変形例の構成によれば、第1の指示位置P1がオブジェクト画像O2の枠線の近傍に位置する場合においても、指示体の移動が、枠線によって制限されてしまうことがない。操作の入力性を高めることが可能となる。
<第5変形例>
実施例3において、画像処理の内容を変更する内容変更処理(S330)の実行指示を受け付ける態様は、様々であってよい。例えば、図13に示す編集案内画像E21において、接触強度メータ画像には、内容変更処理を受け付けるための領域A21が配置されていてもよい。接触強度メータの感度が0〜100の範囲である場合には、0〜90の範囲を画像処理の設定値の変更を受け付けるために割り当て、95〜100の範囲を内容変更処理を受け付けるために割り当ててもよい。これによりユーザは、矢印画像R1が感度0〜90の範囲内で移動するように指示体の接触強度を調整することで、「明るさ」を調整することができる。そして、矢印画像R1が感度95を超えるように指示体をさらに強く押し込むことで、「コントラスト」の調整に移行することが可能となる。
<その他の変形例>
S160において、ドラッグ操作に追従するようにオブジェクト画像を移動させる態様を説明したが、この態様に限られない。移動前のオブジェクト画像を消去し、移動後の位置へオブジェクト画像を表示するという表示態様を用いてもよい。情報処理装置10の画像処理負担を低減することができる。
S305、S330、S340の処理は省略することができる。この場合、所定操作が入力(S300:YES)されると、オブジェクト画像に対する画像処理が必ず確定(S310)する。
図5〜図13、図16および図17に示した表示画面の表示態様は一例であり、他の表示態様を用いることも可能である。
また、本明細書または図面に説明した技術要素は、単独であるいは各種の組合せによって技術的有用性を発揮するものであり、出願時請求項記載の組合せに限定されるものではない。また、本明細書または図面に例示した技術は複数目的を同時に達成するものであり、そのうちの一つの目的を達成すること自体で技術的有用性を持つものである。
パネル18は、表示部の一例である。CPU11は、コンピュータの一例である。画像処理アプリケーション32は、プログラムの一例である。S100を実行するCPU11は、第1表示処理の一例である。S110およびS140を実行するCPU11は、第1検出処理の一例である。編集案内画像E1、E11、E21は、第1画像の一例である。S180を実行するCPU11は、第2表示処理の一例である。S190を実行するCPU11は、受付処理の一例である。S210を実行するCPU11は、第3表示処理の一例である。S300を実行するCPU11は、第2検出処理の一例である。S310を実行するCPU11は、記憶制御処理の一例である。S280およびS290を実行するCPU11は、第4表示処理の一例である。S150を実行するCPU11は、第4検出処理の一例である。S160を実行するCPU11は、第5表示処理の一例である。S175を実行するCPU11は、第1設定処理の一例である。S190を実行するCPU11は、第3検出処理の一例である。S300およびS305を実行するCPU11は、第5検出処理の一例である。S330を実行するCPU11は、第2設定処理の一例である。座標軸画像は、境界線を示す画像の一例である。
10:情報処理装置、11:CPU、12:記憶部、18:パネル、19:座標検出部、20:タッチパネル、22:接触強度センサ、21e:オペレーティングシステム、32:画像処理アプリケーション、O1およびO2:オブジェクト画像、E1およびE11およびE21:編集案内画像、P1:第1の指示位置、P2:第2の指示位置

Claims (22)

  1. 表示部と、
    タッチパネルと、
    を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
    前記コンピュータに、
    編集対象となるオブジェクト画像を前記表示部に表示させる第1表示処理と、
    前記オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記第1の指示位置を中心とする周辺領域に、第1の画像処理が対応付けられている第1領域と、第2の画像処理が対応付けられている第2領域と、を設定する第1設定処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記オブジェクト画像に対して行う各種の画像処理を示す第1画像を前記表示部に表示させる第2表示処理と、
    前記第1画像が表示された後に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、
    前記第1検出処理によって接触強度が第1しきい値を超えたことが検出された後に、前記指示体が前記タッチパネルに接触または近接した状態を維持しながら第2の指示位置まで移動した場合に、前記第2の指示位置を前記タッチパネルに検出させる指示位置検出処理と、
    前記受付処理が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示処理であって、
    前記第2の指示位置が前記第1領域内である場合に、前記第1の画像処理を実行し、
    前記第2の指示位置が前記第2領域内である場合に、前記第2の画像処理を実行する、前記第3表示処理と、
    前記第1検出処理によって検出された前記指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出処理と、
    前記第2検出処理によって前記所定操作の入力が検出された場合において、前記第3表示処理によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御処理と、
    前記第1画像が表示された後に、前記第2検出処理によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記第1画像および画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示処理と、
    を実行させることを特徴とするプログラム。
  2. 前記第1検出処理によって前記第1の指示位置が検出された後に、前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出されることなく、前記指示体が前記タッチパネルに接触または近接した状態を維持しながら第3の指示位置まで移動した場合に、前記第3の指示位置を前記タッチパネルに検出させる第4検出処理と、
    前記第4検出処理によって前記第3の指示位置が検出された場合に、前記オブジェクト画像の表示位置を、前記第1の指示位置を基準とした位置から前記第3の指示位置を基準とした位置へ移動させる第5表示処理と、
    を、前記プログラムは前記コンピュータにさらに実行させることを特徴とする請求項1に記載のプログラム。
  3. 前記画像処理には、第1種類の画像処理と、前記第1種類の画像処理とは異なる第2種類の画像処理と、が含まれており、
    前記第1設定処理は、前記第1種類の画像処理に関する第1設定値を前記第1領域に対応付けるとともに、前記第1種類の画像処理に関する第2設定値を前記第2領域に対応付け、
    前記第1の指示位置における前記接触強度が、前記第1しきい値とは異なる第2しきい値を超えたか否かを検出する第5検出処理と、
    前記接触強度が前記第2しきい値を超えたことが前記第5検出処理で検出された場合に、前記第2種類の画像処理に関する第1設定値を前記第1領域に対応付けるとともに、前記第2種類の画像処理に関する第2設定値を前記第2領域に対応付ける第2設定処理と、
    を前記プログラムは前記コンピュータにさらに実行させることを特徴とする請求項に記載のプログラム。
  4. 前記第1設定処理は、前記オブジェクト画像の表示範囲内に、前記第1領域および前記第2領域を設定し、
    前記第2の指示位置が前記オブジェクト画像の表示範囲外に位置することを前記指示位置検出処理が検出した場合には、前記第3表示処理は、前記画像処理の実行を停止し、
    前記第3表示処理が前記画像処理の実行を停止した後に、前記第2の指示位置が前記オブジェクト画像の表示範囲内の前記第1領域内に位置することが前記指示位置検出処理によって検出された場合には、前記第3表示処理は、前記第1の画像処理を再開し、
    前記第3表示処理が前記画像処理の実行を停止した後に、前記第2の指示位置が前記オブジェクト画像の表示範囲内の前記第2領域内に位置することが前記指示位置検出処理によって検出された場合には、前記第3表示処理は、前記第2の画像処理を再開することを特徴とする請求項またはに記載のプログラム。
  5. 前記第1画像は、前記第1領域と前記第2領域との境界線を示す画像を含んでおり、
    前記第3表示処理は、
    前記第2の指示位置が前記第1領域内である場合に、前記第2の指示位置の前記第1の指示位置からの距離に応じて前記第1の画像処理に関する第1設定値を変更し、変更後の前記第1設定値を用いて前記画像処理を実行し、
    前記第2の指示位置が前記第2領域内である場合に、前記第2の指示位置の前記第1の指示位置からの距離に応じて前記第2の画像処理に関する第2設定値を変更し、変更後の前記第2設定値を用いて前記画像処理を実行することを特徴とする請求項またはに記載のプログラム。
  6. 前記境界線は、前記第1の指示位置を通るように表示されることを特徴とする請求項に記載のプログラム。
  7. 前記第2検出処理は、前記接触強度が前記第1しきい値とは異なる第2しきい値を超えた場合に、前記所定操作が入力されたと判断することを特徴とする請求項1および3〜の何れか1項に記載のプログラム。
  8. 表示部と、
    タッチパネルと、
    を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
    前記コンピュータに、
    編集対象となるオブジェクト画像を前記表示部に表示させる第1表示処理と、
    前記オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記オブジェクト画像に対して行う各種の画像処理を示す第1画像を前記表示部に表示させる第2表示処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合の前記接触強度に応じて、前記画像処理の第1設定値を変更する設定変更処理と、
    前記第1画像が表示された後に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、
    前記受付処理が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示処理であって、前記設定変更処理によって変更された前記第1設定値を用いて前記画像処理を実行する前記第3表示処理と、
    前記第1検出処理によって検出された前記指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出処理と、
    前記第2検出処理によって前記所定操作の入力が検出された場合において、前記第3表示処理によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御処理と、
    前記第1画像が表示された後に、前記第2検出処理によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記第1画像および画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示処理と、
    を実行させることを特徴とするプログラム。
  9. 前記第2検出処理は、前記指示体が前記タッチパネルに接触または近接した状態を維持しながら前記第1の指示位置から移動した場合に、前記所定操作が入力されたと判断することを特徴とする請求項に記載のプログラム。
  10. 前記第1設定値には、第1種類の画像処理に関する第1種類の第1設定値と、前記第1種類の画像処理とは異なる第2種類の画像処理に関する第2種類の第1設定値と、が含まれており、
    前記第2検出処理は、
    前記指示体が前記タッチパネルに接触または近接した状態を維持しながら前記第1の指示位置から第1方向へ移動した場合に、前記所定操作が入力されたと判断し、
    前記指示体が前記タッチパネルに接触または近接した状態を維持しながら前記第1の指示位置から前記第1方向とは異なる第2方向へ移動した場合に、前記設定変更処理の処理対象が、前記第1種類の第1設定値から前記第2種類の第1設定値に切り替えられたと判断することを特徴とする請求項に記載のプログラム。
  11. 前記第1の指示位置が前記第1検出処理によって検出されている期間中に、前記第1の指示位置とは異なる第4の指示位置が前記タッチパネルに検出されたか否かを判断する第1判断処理を、前記プログラムは前記コンピュータにさらに実行させ、
    前記第2検出処理は、前記第4の指示位置が検出されたと前記第1判断処理によって判断された場合に、前記所定操作が入力されたと判断することを特徴とする請求項に記載のプログラム。
  12. 表示部と、
    タッチパネルと、
    を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
    前記コンピュータに、
    編集対象となるオブジェクト画像を前記表示部に表示させる第1表示処理と、
    前記オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記オブジェクト画像に対して行う各種の画像処理を示す第1画像を前記表示部に表示させる第2表示処理と、
    前記第1画像が表示された後に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、
    前記受付処理が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理前の前記オブジェクト画像に重複するように画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示処理と、
    前記第1検出処理によって検出された前記指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出処理と、
    前記第2検出処理によって前記所定操作の入力が検出された場合において、前記第3表示処理によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御処理と、
    前記第1画像が表示された後に、前記第2検出処理によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記第1画像および画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示処理と、
    を実行させることを特徴とするプログラム。
  13. 表示部と、
    タッチパネルと、
    を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
    前記コンピュータに、
    編集対象となるオブジェクト画像と、前記オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を前記表示部に表示させる第1表示処理と、
    前記第1画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、
    前記第1検出処理によって接触強度が第1しきい値を超えたことが検出された後に、前記指示体が前記タッチパネルに接触または近接した状態を維持しながら第2の指示位置まで移動した場合に、前記第2の指示位置を前記タッチパネルに検出させる指示位置検出処理と、
    前記受付処理が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示処理であって、
    前記第2の指示位置が前記第1画像の表示範囲外に位置することを前記指示位置検出処理が検出した場合には前記画像処理の実行を停止し、
    前記画像処理の実行を停止した後に、前記第2の指示位置が前記第1画像の表示範囲内に位置することが前記指示位置検出処理によって検出された場合には、前記画像処理を再開する前記第3表示処理と、
    所定操作が入力されたか否かを検出する第2検出処理と、
    前記第2検出処理によって前記所定操作の入力が検出された場合において、前記第3表示処理によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御処理と、
    前記第2検出処理によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示処理と、
    を実行させることを特徴とするプログラム。
  14. 表示部と、
    タッチパネルと、
    を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
    前記コンピュータに、
    編集対象となるオブジェクト画像と、前記オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を前記表示部に表示させる第1表示処理と、
    前記第1画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、
    前記受付処理が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示処理であって、
    前記第1の指示位置が前記第1画像の表示範囲内である期間中において、前記オブジェクト画像を所定速度で所定方向へ回転させる前記画像処理を実行し、
    前記オブジェクト画像の初期表示位置からの回転角度が、予め定められた所定角度に到達した場合に、前記オブジェクト画像の回転を一定時間停止する、前記第3表示処理と、
    所定操作が入力されたか否かを検出する第2検出処理と、
    前記第2検出処理によって前記所定操作の入力が検出された場合において、前記第3表示処理によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御処理と、
    前記第2検出処理によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示処理と、
    を実行させることを特徴とするプログラム。
  15. 表示部と、
    タッチパネルと、
    を備えた情報処理装置のコンピュータが読み取り可能なプログラムであって、
    前記コンピュータに、
    編集対象となるオブジェクト画像と、前記オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を前記表示部に表示させる第1表示処理と、
    前記第1画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出処理と、
    前記接触強度が第1しきい値を超えたことが前記第1検出処理で検出された場合に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付処理と、
    前記受付処理が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理前の前記オブジェクト画像に重複するように画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示処理と、
    所定操作が入力されたか否かを検出する第2検出処理と、
    前記第2検出処理によって前記所定操作の入力が検出された場合において、前記第3表示処理によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御処理と、
    前記第2検出処理によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示処理と、
    を実行させることを特徴とするプログラム。
  16. 前記第2検出処理は、前記接触強度が前記第1しきい値とは異なる第2しきい値を超えた場合に、前記所定操作が入力されたと判断することを特徴とする請求項13〜15の何れか1項に記載のプログラム。
  17. 表示部と、
    タッチパネルと、
    を備えた情報処理装置であって、
    編集対象となるオブジェクト画像を前記表示部に表示させる第1表示手段と、
    前記オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記第1の指示位置を中心とする周辺領域に、第1の画像処理が対応付けられている第1領域と、第2の画像処理が対応付けられている第2領域と、を設定する第1設定手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記オブジェクト画像に対して行う各種の画像処理を示す第1画像を前記表示部に表示させる第2表示手段と、
    前記第1画像が表示された後に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付手段と、
    前記第1検出手段によって接触強度が第1しきい値を超えたことが検出された後に、前記指示体が前記タッチパネルに接触または近接した状態を維持しながら第2の指示位置まで移動した場合に、前記第2の指示位置を前記タッチパネルに検出させる指示位置検出手段と、
    前記受付手段が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示手段であって、
    前記第2の指示位置が前記第1領域内である場合に、前記第1の画像処理を実行し、
    前記第2の指示位置が前記第2領域内である場合に、前記第2の画像処理を実行する、前記第3表示手段と、
    前記第1検出手段によって検出された前記指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出手段と、
    前記第2検出手段によって前記所定操作の入力が検出された場合において、前記第3表示手段によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御手段と、
    前記第1画像が表示された後に、前記第2検出手段によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記第1画像および画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示手段と、
    を備えることを特徴とする情報処理装置。
  18. 表示部と、
    タッチパネルと、
    を備えた情報処理装置であって、
    編集対象となるオブジェクト画像を前記表示部に表示させる第1表示手段と、
    前記オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記オブジェクト画像に対して行う各種の画像処理を示す第1画像を前記表示部に表示させる第2表示手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合の前記接触強度に応じて、前記画像処理の第1設定値を変更する設定変更手段と、
    前記第1画像が表示された後に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付手段と、
    前記受付手段が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示手段であって、前記設定変更手段によって変更された前記第1設定値を用いて前記画像処理を実行する前記第3表示手段と、
    前記第1検出手段によって検出された前記指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出手段と、
    前記第2検出手段によって前記所定操作の入力が検出された場合において、前記第3表示手段によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御手段と、
    前記第1画像が表示された後に、前記第2検出手段によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記第1画像および画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示手段と、
    を備えることを特徴とする情報処理装置。
  19. 表示部と、
    タッチパネルと、
    を備えた情報処理装置であって、
    編集対象となるオブジェクト画像を前記表示部に表示させる第1表示手段と、
    前記オブジェクト画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記オブジェクト画像に対して行う各種の画像処理を示す第1画像を前記表示部に表示させる第2表示手段と、
    前記第1画像が表示された後に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付手段と、
    前記受付手段が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理前の前記オブジェクト画像に重複するように画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示手段と、
    前記第1検出手段によって検出された前記指示体の接触または近接が検出され続けている状態下において所定操作が入力されたか否かを検出する第2検出手段と、
    前記第2検出手段によって前記所定操作の入力が検出された場合において、前記第3表示手段によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御手段と、
    前記第1画像が表示された後に、前記第2検出手段によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記第1画像および画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示手段と、
    を備えることを特徴とする情報処理装置。
  20. 表示部と、
    タッチパネルと、
    を備えた情報処理装置であって、
    編集対象となるオブジェクト画像と、前記オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を前記表示部に表示させる第1表示手段と、
    前記第1画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付手段と、
    前記第1検出手段によって接触強度が第1しきい値を超えたことが検出された後に、前記指示体が前記タッチパネルに接触または近接した状態を維持しながら第2の指示位置まで移動した場合に、前記第2の指示位置を前記タッチパネルに検出させる指示位置検出手段と、
    前記受付手段が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示手段であって、
    前記第2の指示位置が前記第1画像の表示範囲外に位置することを前記指示位置検出手段が検出した場合には前記画像処理の実行を停止し、
    前記画像処理の実行を停止した後に、前記第2の指示位置が前記第1画像の表示範囲内に位置することが前記指示位置検出手段によって検出された場合には、前記画像処理を再開する前記第3表示手段と、
    所定操作が入力されたか否かを検出する第2検出手段と、
    前記第2検出手段によって前記所定操作の入力が検出された場合において、前記第3表示手段によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御手段と、
    前記第2検出手段によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示手段と、
    を備えることを特徴とする情報処理装置。
  21. 表示部と、
    タッチパネルと、
    を備えた情報処理装置であって、
    編集対象となるオブジェクト画像と、前記オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を前記表示部に表示させる第1表示手段と、
    前記第1画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付手段と、
    前記受付手段が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示手段であって、
    前記第1の指示位置が前記第1画像の表示範囲内である期間中において、前記オブジェクト画像を所定速度で所定方向へ回転させる前記画像処理を実行し、
    前記オブジェクト画像の初期表示位置からの回転角度が、予め定められた所定角度に到達した場合に、前記オブジェクト画像の回転を一定時間停止する、前記第3表示手段と、
    所定操作が入力されたか否かを検出する第2検出手段と、
    前記第2検出手段によって前記所定操作の入力が検出された場合において、前記第3表示手段によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御手段と、
    前記第2検出手段によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示手段と、
    を備えることを特徴とする情報処理装置。
  22. 表示部と、
    タッチパネルと、
    を備えた情報処理装置であって、
    編集対象となるオブジェクト画像と、前記オブジェクト画像に対して行う各種の画像処理のうち少なくともいずれかを指定する入力を受け付けるための第1画像と、を前記表示部に表示させる第1表示手段と、
    前記第1画像の表示領域内へ指示体が接触または近接した場合に、前記指示体が接触または近接した位置を示す第1の指示位置、および、前記指示体の接触強度を、前記タッチパネルに検出させる第1検出手段と、
    前記接触強度が第1しきい値を超えたことが前記第1検出手段で検出された場合に、前記各種の画像処理のうち少なくともいずれかを指定する入力を受け付ける受付手段と、
    前記受付手段が受け付けた入力に基づいて前記オブジェクト画像に対して前記画像処理を実行し、画像処理前の前記オブジェクト画像に重複するように画像処理後の前記オブジェクト画像を前記表示部に表示させる第3表示手段と、
    所定操作が入力されたか否かを検出する第2検出手段と、
    前記第2検出手段によって前記所定操作の入力が検出された場合において、前記第3表示手段によって前記画像処理が実行されていた場合に、画像処理後の前記オブジェクト画像を記憶部に記憶させる記憶制御手段と、
    前記第2検出手段によって前記所定操作の入力が検出されることなく、前記指示体の前記タッチパネルへの接触または近接が検出されなくなった場合に、前記画像処理後の前記オブジェクト画像を前記表示部に表示させない第4表示手段と、
    を備えることを特徴とする情報処理装置。
JP2016066658A 2016-03-29 2016-03-29 プログラムおよび情報処理装置 Active JP6705251B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016066658A JP6705251B2 (ja) 2016-03-29 2016-03-29 プログラムおよび情報処理装置
CN201710046702.7A CN107239217B (zh) 2016-03-29 2017-01-20 信息处理装置的控制方法以及信息处理装置
US15/420,141 US10921923B2 (en) 2016-03-29 2017-01-31 Information processing apparatus and non-transitory recording medium storing program for controlling information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016066658A JP6705251B2 (ja) 2016-03-29 2016-03-29 プログラムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP2017182343A JP2017182343A (ja) 2017-10-05
JP6705251B2 true JP6705251B2 (ja) 2020-06-03

Family

ID=59958711

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016066658A Active JP6705251B2 (ja) 2016-03-29 2016-03-29 プログラムおよび情報処理装置

Country Status (3)

Country Link
US (1) US10921923B2 (ja)
JP (1) JP6705251B2 (ja)
CN (1) CN107239217B (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824315B2 (en) * 2015-05-29 2020-11-03 Canon Medical Systems Corporation Medical image processing apparatus, magnetic resonance imaging apparatus and medical image processing method
CN109240572B (zh) * 2018-07-20 2021-01-05 华为技术有限公司 一种获取图片的方法、对图片进行处理的方法及装置
JP2020085535A (ja) * 2018-11-19 2020-06-04 アークレイ株式会社 情報処理装置、測定システム、及びプログラム
JP7363096B2 (ja) 2019-05-23 2023-10-18 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
JP2022030262A (ja) * 2020-08-06 2022-02-18 キヤノン株式会社 表示制御装置およびその制御方法およびプログラムおよびその記録媒体

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003173226A (ja) * 2001-11-27 2003-06-20 Internatl Business Mach Corp <Ibm> 情報処理装置、プログラム及び座標入力方法
JP4115198B2 (ja) 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
KR100835956B1 (ko) * 2006-12-04 2008-06-09 삼성전자주식회사 이동통신 단말기의 이미지 처리 방법
JP4568310B2 (ja) * 2007-08-29 2010-10-27 株式会社日立製作所 タッチパネルを備えた表示装置
JP2009129171A (ja) * 2007-11-22 2009-06-11 Denso It Laboratory Inc 移動体に搭載される情報処理装置
JP2012033058A (ja) * 2010-07-30 2012-02-16 Sony Corp 情報処理装置、情報処理方法及び情報処理プログラム
JP2012038062A (ja) * 2010-08-06 2012-02-23 Panasonic Corp 入力装置
JP5625612B2 (ja) * 2010-08-19 2014-11-19 株式会社リコー 操作表示装置および操作表示方法
JP5576841B2 (ja) * 2011-09-09 2014-08-20 Kddi株式会社 押圧による画像のズームが可能なユーザインタフェース装置、画像ズーム方法及びプログラム
JP2013191113A (ja) * 2012-03-15 2013-09-26 Sony Corp 表示制御装置、表示制御方法およびプログラム
WO2013169843A1 (en) * 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
JP2014035623A (ja) * 2012-08-08 2014-02-24 Sharp Corp 操作入力装置、操作入力方法、操作入力プログラム及び電子機器
CN104272234B (zh) * 2012-08-24 2018-06-05 株式会社Ntt都科摩 用于控制所显示图像的方向的装置和方法
JP2015106277A (ja) * 2013-11-29 2015-06-08 株式会社ニコン 画像処理装置および画像処理装置の制御プログラム
US9645732B2 (en) * 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) * 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10884580B2 (en) * 2015-06-07 2021-01-05 Apple Inc. Devices and methods for displaying content in a note-taking application

Also Published As

Publication number Publication date
CN107239217B (zh) 2021-08-27
US10921923B2 (en) 2021-02-16
US20170285841A1 (en) 2017-10-05
JP2017182343A (ja) 2017-10-05
CN107239217A (zh) 2017-10-10

Similar Documents

Publication Publication Date Title
JP6705251B2 (ja) プログラムおよび情報処理装置
KR102188097B1 (ko) 페이지 운용 방법 및 그 전자 장치
EP2482179B1 (en) Apparatus and method for controlling screen display in touch screen terminal
US20180165003A1 (en) Text input method in touch screen terminal and apparatus therefor
US20130201139A1 (en) User interface apparatus and mobile terminal apparatus
JP2010530578A5 (ja)
US20150046866A1 (en) Image display apparatus, image display method, and computer-readable medium
US20110080430A1 (en) Information Processing Apparatus, Information Processing Method, and Information Processing Program
CN103744582A (zh) 终端操控装置和终端操控方法
JP2012022633A (ja) 操作装置及びその制御方法並びにプログラム
KR20140047515A (ko) 데이터 입력을 위한 전자 장치 및 그 운용 방법
JP5861638B2 (ja) 表示装置および表示方法ならびにそのプログラム、端末装置
KR20120023867A (ko) 터치 스크린을 구비한 휴대 단말기 및 그 휴대 단말기에서 컨텐츠 표시 방법
US20120120021A1 (en) Input control apparatus
CN104636068B (zh) 应用图标的操作方法和触控终端
KR101503159B1 (ko) 시선의 위치를 감지하여 터치스크린을 제어하는 방법
US20170075453A1 (en) Terminal and terminal control method
JP6034281B2 (ja) オブジェクト選択方法、装置及びコンピュータ・プログラム
JP5820414B2 (ja) 情報処理装置及び情報処理方法
JP6682951B2 (ja) プログラムおよび情報処理装置
US20190087077A1 (en) Information processing apparatus, screen control method
KR20210018406A (ko) 페이지 운용 방법 및 그 전자 장치
KR20200138132A (ko) 페이지 운용 방법 및 그 전자 장치
JP6034140B2 (ja) 表示装置、表示制御方法及びプログラム
JP5093608B2 (ja) 情報処理装置、情報表示処理システム、情報処理方法、および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190305

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191016

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20191203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6705251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150