JP2014052852A - Information processor - Google Patents
Information processor Download PDFInfo
- Publication number
- JP2014052852A JP2014052852A JP2012197010A JP2012197010A JP2014052852A JP 2014052852 A JP2014052852 A JP 2014052852A JP 2012197010 A JP2012197010 A JP 2012197010A JP 2012197010 A JP2012197010 A JP 2012197010A JP 2014052852 A JP2014052852 A JP 2014052852A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- information
- display
- detecting
- touch operation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は情報処理装置に関し、特に、表示一体型入力部の表示面上で位置を指定するための操作を受付けることにより情報を入力する情報処理装置に関する。 The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus that inputs information by accepting an operation for designating a position on a display surface of a display-integrated input unit.
情報処理端末として、タッチパネルとLCD(Liquid Crystal Display)を一体的に備えた表示一体型入力部を情報入力装置として有する端末が普及している。このような端末では、タッチパネルのタッチ操作により感覚的に情報を入力することができる一方で、ユーザからは操作のし易さが要求されている。 2. Description of the Related Art As information processing terminals, terminals having a display-integrated input unit integrally provided with a touch panel and an LCD (Liquid Crystal Display) as an information input device have become widespread. In such a terminal, information can be input sensuously by a touch operation on the touch panel, but ease of operation is required from the user.
よりスムーズに携帯端末を操作するための先行技術としては、特許文献1(特開2011−28635号公報)または特許文献2(特開2009−20759号公報)などがある。特許文献1では、表示面に対する指などの操作体の動き(接触位置、接触時間、操作体の移動)に応じて画面の表示を変更する。特許文献2では、指のような操作体が近づく、操作体が接触する、操作体が押し込むときの押圧加減に応じて起動、スクロール、決定などの入力処理を実行する。
As a prior art for operating the mobile terminal more smoothly, there is Patent Document 1 (Japanese Patent Laid-Open No. 2011-28635) or Patent Document 2 (Japanese Patent Laid-Open No. 2009-20759). In
たとえば、スマートフォン(多機能携帯電話)の表示画像の拡大・縮小操作は、通常タッチパネルに2本の指で触れ、それらの指の距離の変化に合せて画像の拡大、縮小が行われる。この操作をするにあたり、通常、両手で操作する必要がある。つまり、1つの手は端末を固定しつつ、他の手で画面を操作する必要があるため、片手で画面の拡大縮小操作を実施することが困難である。 For example, an enlargement / reduction operation of a display image of a smartphone (multifunction mobile phone) is usually performed by touching the touch panel with two fingers, and the image is enlarged or reduced in accordance with a change in the distance between the fingers. In performing this operation, it is usually necessary to operate with both hands. That is, since one hand needs to operate the screen with the other hand while fixing the terminal, it is difficult to carry out the screen enlargement / reduction operation with one hand.
特許文献1では、指などの操作体の動きから表示画像のズーム率を変更するが、表示画像のどの部分を中心にズーム率を変更するかを指定することはできない。そのため、指の操作だけでズーム率を変更できるとしても、ユーザが所望しない部分がズームインで拡大される一方で、所望部分は画面からはみ出して確認できず、操作性に優れないという課題が残る。
In
それゆえに、本発明の目的は、情報入力操作に係る操作性が改善された情報処理装置を提供することである。 Therefore, an object of the present invention is to provide an information processing apparatus with improved operability related to information input operation.
この発明のある局面に従う情報処理装置は、表示部の表示面上のタッチ操作により指定される位置を検出するための指定位置検出部と、タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出する特定位置検出部と、指定位置検出部が検出する一連の検出位置を示す位置情報から、特定位置に対する検出位置の移動方向を検出する方向検出部と、表示部に表示される情報を処理する処理部と、を備え、処理部は、検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するズーム処理部を含む。 An information processing apparatus according to an aspect of the present invention compares a specified position detection unit for detecting a position specified by a touch operation on a display surface of a display unit, a pressing force and a threshold value at the time of the touch operation, and compares A direction for detecting the moving direction of the detected position relative to the specific position from the specific position detecting unit that detects the specific position from the specified position by the touch operation based on the result, and position information indicating a series of detection positions detected by the specified position detecting unit A detection unit; and a processing unit that processes information displayed on the display unit. The processing unit includes a zoom processing unit that enlarges or reduces the information displayed on the display unit according to the detected moving direction.
好ましくは、ズーム処理部は、設定される特定位置を中心に表示される情報を拡大または縮小する。 Preferably, the zoom processing unit enlarges or reduces the information displayed around the set specific position.
好ましくは、ズーム処理部は、位置情報が示す特定位置に対する検出位置の移動距離から、拡大または縮小のための比率を算出する比率算出部を含む。 Preferably, the zoom processing unit includes a ratio calculation unit that calculates a ratio for enlargement or reduction from the moving distance of the detection position with respect to the specific position indicated by the position information.
好ましくは、表示面の特定位置において予め定められた絵柄を表示する。
好ましくは、特定位置がタッチ操作されたとき、表示されている絵柄を消去する。
Preferably, a predetermined pattern is displayed at a specific position on the display surface.
Preferably, when the specific position is touched, the displayed pattern is erased.
好ましくは、処理部は、表示部に表示される情報を処理するために実行される、ズーム処理部を含む複数の情報処理部を含み、タッチ操作時の押圧力の大きさに基づき、複数の情報処理部のうちのいずれかを実行する。 Preferably, the processing unit includes a plurality of information processing units including a zoom processing unit, which are executed to process information displayed on the display unit, and a plurality of information processing units based on the magnitude of the pressing force at the time of the touch operation. One of the information processing units is executed.
好ましくは、処理部は、表示部に表示される情報を処理するために実行される、ズーム処理部を含む複数の情報処理部を含み、タッチ操作時のタッチされている時間の長さに基づき、複数の情報処理部のうちのいずれかを実行する。 Preferably, the processing unit includes a plurality of information processing units including a zoom processing unit, which is executed to process information displayed on the display unit, and is based on a length of time during which a touch operation is performed. One of the plurality of information processing units is executed.
この発明の他の局面に従うと、表示部の表示面上のタッチ操作により指定される位置を検出するステップと、タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、位置を検出するステップにより検出される一連の検出位置を示す位置情報から、特定位置に対する検出位置の移動方向を検出するステップと、表示部に表示される情報を処理するステップと、を備え、処理するステップは、検出される移動方向に従って表示部に表示される情報を拡大または縮小するステップを含む。 According to another aspect of the present invention, the step of detecting the position specified by the touch operation on the display surface of the display unit is compared with the pressing force at the time of the touch operation and the threshold value, and the touch operation is performed based on the comparison result. A step of detecting a specific position from the designated position, a step of detecting a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the step of detecting the position, and a display on the display unit Processing the information, and the step of processing includes a step of enlarging or reducing the information displayed on the display unit according to the detected moving direction.
この発明のさらに他の局面に従うと、プロセッサに情報処理方法を実行させるためのプログラムであって、このプログラムはプロセッサに、表示部の表示面上のタッチ操作により指定される位置を検出するステップと、タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、位置を検出するステップにより検出される一連の検出位置を示す位置情報から、特定位置に対する検出位置の移動方向を検出するステップと、表示部に表示される情報を処理するステップと、を実行させ、処理するステップは、検出される移動方向に従って表示部に表示される情報を拡大または縮小するステップを含む。 According to still another aspect of the present invention, there is provided a program for causing a processor to execute an information processing method, the program causing the processor to detect a position designated by a touch operation on the display surface of the display unit; Position information indicating a series of detection positions detected by comparing a pressing force at the time of the touch operation with a threshold, detecting a specific position from a specified position by the touch operation based on the comparison result, and detecting the position The step of detecting the moving direction of the detected position with respect to the specific position and the step of processing the information displayed on the display unit are executed, and the step of processing is displayed on the display unit according to the detected moving direction. Enlarging or reducing information.
本発明によれば、表示面に対するタッチ位置の移動方向を異ならせることで、表示情報の拡大または縮小のズーム処理を実現する。 According to the present invention, zoom processing for expanding or reducing display information is realized by changing the moving direction of the touch position with respect to the display surface.
以下、本発明の実施の形態について図面を参照し詳細に説明する。なお、同一の構成要素には各図において同一の符号を付し、詳細な説明は繰返さない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the same components are denoted by the same reference symbols in the respective drawings, and detailed description thereof will not be repeated.
本実施の形態では、情報処理装置は、情報入力装置としてタッチパネルを有する携帯型情報処理端末を想定する。携帯型情報処理端末として、ノートブック型パーソナルコンピュータ、携帯電話、スマートフォン、PDA(Personal Digital Assistant)、ナビゲーション装置などを適用することができる。あるいは、ATM(Automated Teller Machine)、クレジットカードの認証装置その他の商業施設に配置される情報処理端末に適用することもできる。また、情報処理端末は携帯型に限定されず、据え置き型であってもよい。 In this embodiment, the information processing apparatus is assumed to be a portable information processing terminal having a touch panel as an information input device. As the portable information processing terminal, a notebook personal computer, a mobile phone, a smartphone, a PDA (Personal Digital Assistant), a navigation device, or the like can be applied. Alternatively, the present invention can be applied to an information processing terminal placed in an ATM (Automated Teller Machine), a credit card authentication device, or other commercial facilities. The information processing terminal is not limited to a portable type, and may be a stationary type.
<ハードウェア構成>
図1および図2を参照して、本実施の形態に係る携帯型情報処理端末(以下、単に端末という)100の構成について説明する。図1は、端末100の外観を表わす図である。図2は端末100のハードウェア構成を表わすブロック図である。端末100は、筐体110、アンテナ120、スピーカ130、周知の抵抗膜方式のタッチパネル140と表示装置212を有する表示部210、電源ボタン150、マイク160およびLED(Light Emitting Diode)170を備える。
<Hardware configuration>
With reference to FIG. 1 and FIG. 2, the configuration of a portable information processing terminal (hereinafter simply referred to as a terminal) 100 according to the present embodiment will be described. FIG. 1 is a diagram illustrating the appearance of the
端末100には、カード状の記録媒体であるメモリカード152が外部から着脱自在に装着される。
A
端末100は、図1に示される構成に加えて、センサ部220、プロセッサ230、表示ドライバ214、フラッシュメモリ250、RAM(Random Access Memory)252、グラフィックメモリ254、ROM(Read Only Memory)256、通信回路260、信号処理回路270、バイブレータ280および装着されたメモリカード152をプロセッサ230の制御のもとにアクセスするためのメモリドライバ151を備える。プロセッサ230はCPU(Central Processing Unit)および計時のためのタイマなどを含む。
In addition to the configuration shown in FIG. 1, the
センサ部220は、加速度センサを含み、加速度センサの出力から端末100の傾き角度を検出する。
The
表示部210は、タッチパネル140と表示装置212とを一体的に含む表示一体型入力装置の一部を構成する。表示部210の表示装置212はLCD(Liquid Crystal Display)パネルに相当し、その表示面上にはタッチパネル140が載置される。表示面において表示される画像はタッチパネル140を介して視認可能な可視画像である。つまり、ユーザはLCDパネルによる表示画像を透明部材からなるタッチパネル140を介して外部から視認することができる。ここでは、タッチパネル140は抵抗膜方式を採用したが、この方式に限定されず、たとえば周知の静電容量方式、または光センサ方式であってもよい。
The
表示部210の表示面を構成する表示パネルには上記のLCDに限定されず、有機ELディスプレイ(organic electroluminescence display)、FED(Field Emission Display:電界放出型ディスプレイ)などを用いてもよい。
The display panel constituting the display surface of the
タッチパネル140は、表面上を指または専用のペン(図示せず)などの操作体によりタッチなどの操作がされる。ここでは、説明を簡単にするために操作体を指と想定する。タッチパネル140は、指により操作された位置(以下、操作位置という)に応じた電気信号をプロセッサ230に出力する。
The
具体的には、タッチパネル140は、透明のガラス板および当該ガラス板の全面を覆う樹脂材料のフィルムを含み、両者は透明な電極格子を挟むようにして配置される。電極格子は、複数の電極が格子状に配列された2次元配列面を表す。電極格子はLCDパネルの表示領域のサイズに整合したサイズを有する。ユーザは、指でタッチパネル140上のフィルムの点をタッチ(押圧操作)すると、圧力によりフィルムがたわみ、ガラス面側の電極と接触し、接触した電極を介して電気信号(電流)が出力される。
Specifically,
プロセッサ230は、タッチパネル140からの電気信号に基づきガラス面およびフィルム面それぞれの透明電極の抵抗による分圧比を測定することで、電極格子における操作(押圧)位置を2次元座標値(X0,Y0)として検出する。また、電気信号のレベルと所定のレベルとを比較することにより、比較結果から、指がタッチパネル140上にタッチ開始(タッチダウン)したかを検出し、またタッチ終了(タッチアップ)したかを検出し、またタッチムーブであるかを検出する。タッチムーブは、タッチダウンから直後のタッチアップまでの、タッチパネル140上のフィルム上をタッチしながらなぞっている操作を示す。
The
このようにタッチパネル140は、ユーザ操作による入力を受け付けるための後述の操作受付部240の一部を構成する。
In this way, the
LCDパネルは、複数の電極素子が2次元配列されて構成される。したがって、各電極素子を2次元座標値(x1,y1)により特定することができる。グラフィックメモリ254には、プロセッサ230により表示部210に表示される画像データが格納される。画像データは、LCDパネルの表示領域のサイズに整合するサイズを有した2次元配列のビットマップデータを表す。表示ドライバ214は当該画像データの各ビット値に基づく電気信号を生成し、生成した電気信号をLCDパネルの当該ビットの座標値(x0、y0)に対応した座標値(x1,y1)の電極素子に印加する。これにより、表示装置212には、グラフィックメモリ254の画像データに従う画像が表示される。
The LCD panel is configured by two-dimensionally arranging a plurality of electrode elements. Therefore, each electrode element can be specified by the two-dimensional coordinate value (x1, y1). The
プロセッサ230は端末100の動作を制御する。プロセッサ230はタッチパネル140と協同して、タッチパネル140上の操作位置を示す座標位置、より特定的には座標データを検出する。
The
具体的には、プロセッサ230の操作受付部240は、タッチパネル140からの電気信号に基づき、電極格子上の操作位置に対応の電極位置を検出し、検出した電極位置を予め定めた変換係数を用いてタッチパネル140上の対応する点の座標値に変換することにより座標データを取得する座標データ取得部を有する。また、操作受付部240は、時系列に入力する電気信号に基づく時系列状の座標データに基づき、タッチパネル140における操作の始点(タッチダウン)から終点(直後のタッチアップ)までのタッチムーブの軌跡を表す一連の座標値からなる軌跡を検出する軌跡検出部を有する。一連の座標値は検出順に従う時系列の座標値である。なお、操作位置に対応する電極位置から座標値を取得する方法は、変換係数を用いる方法に限定されず、テーブルを検索してテーブルから対応する座標値を読出すとしてもよい。
Specifically, the
なお、操作体のタッチ面積の大きさによっては座標位置として複数の座標値が検出されるが、その場合には、操作受付部240は、タッチ面積の重心の座標位置を算出し、これをタッチされた操作位置として検出する。
Depending on the size of the touch area of the operating body, a plurality of coordinate values are detected as the coordinate position. In this case, the
フラッシュメモリ250は、端末100に対して与えられたデータあるいはプロセッサ230によって生成されたデータを不揮発的に保持する。
The
RAM252は、プロセッサ230によって生成されたデータを一時的に保持する。
グラフィックメモリ254は、表示装置212において画像を表示するためのデータを格納する。なお、他の局面において、RAM252とグラフィックメモリ254とが一体として構成されていてもよい。
The
The
ROM256は端末100を作動させるためのファームウェア、上述の操作入力受付のためのプログラムその他の各種プログラムと、端末100に固有の動作を実行させるために設定値として予め入力されたデータとを保持している。
The
表示ドライバ214は、グラフィックメモリ254に格納されているデータに基づく描画動作を表示装置212に対して実行する。表示装置212は、その動作に従って画像を表示する。
The
通信回路260は、アンテナ120によって受信された信号を変換し、変換後の信号をプロセッサ230に送出する。また他の局面において、通信回路260は、プロセッサ230から送られた信号を送信用の信号に変換し、変換後の信号をアンテナ120に送出する。
The
信号処理回路270は、マイク160から送られる電気信号を変換し変換後の信号をプロセッサ230に送出する。また、端末100が音声を出力する場合には、信号処理回路270は、プロセッサ230から送られた信号を音声出力用の信号に変換し、その変換後の信号をスピーカ130に送出する。スピーカ130は、その信号に基づき音声を出力する。
The signal processing circuit 270 converts the electrical signal sent from the
バイブレータ280は、プロセッサ230から送られる信号に基づいて予め規定された振動パターンで発振する。
なお、プロセッサ230が受付ける操作は、タッチパネル140を介したユーザ操作に限定されず、電源ボタン150などの物理的ボタンを押下するなどの操作も含む。
Note that the operation received by the
図3は、本実施の形態に係る情報入力装置の概念図である。図3を参照して、情報入力装置は、タッチパネル140および表示装置212を含む表示部210、および操作受付部240を備える。図3では、情報入力装置に関連して、表示制御部290、グラフィックメモリ254および表示ドライバ214が示される。グラフィックメモリ254にはプロセッサ230によってプログラムの実行結果または表示されるべき画像などのデータが格納されるとともに、表示制御部290が操作受付部240からの情報に基づき生成したデータが格納される。したがって、表示ドライバ214はグラフィックメモリ254のデータに基づき表示装置212のLCDパネルを駆動することにより、表示部210では画像に重畳してユーザ操作による画像(ストロークの軌跡など)が表示される。
FIG. 3 is a conceptual diagram of the information input device according to the present embodiment. Referring to FIG. 3, the information input device includes a
本実施の形態では、表示装置212のLCDパネルの表示面と、その上に載置されるタッチパネル140の全面(操作面)とは同じ形状および面積としているが、少なくともタッチパネル140の操作可能な面内に表示領域が収まればよい。このように、タッチパネル140の操作入力を受付可能な領域は、LCDパネルの表示領域に対応しており、ここでは、LCDパネルの全面が表示領域である。したがって、各種メニュー、アイコン、ボタン、キーボード、サムネイルなどのオブジェクトを指で選択するユーザ操作(タッチなど)を、オブジェクトの画像の表示位置にかかわらず、タッチパネル140を介して受付けることができる。なお、タッチパネル140を介し受付けられるユーザ操作の種類には、タッチパネル140の表面に指の腹をタッチしたまま指をスライド移動させる操作が含まれる。
In the present embodiment, the display surface of the LCD panel of the display device 212 and the entire surface (operation surface) of the
<機能構成>
図4は、本発明の実施の形態に係るプロセッサ230の機能構成を示す図であり、関連する周辺部としてタッチパネル140、RAM252およびグラフィックメモリ254が示される。
<Functional configuration>
FIG. 4 is a diagram showing a functional configuration of the
図4を参照してプロセッサ230は、操作受付部240、操作受付部240の出力から指による操作(タッチダウン、タッチアップなど)がされたことを検出するための指検出部245、情報入力装置の操作モードを切替えるか否かを判定するためのモード切替部255、指の操作位置を検出するための指位置検出部265、表示画像を拡大(ズームイン処理)または縮小(ズームアウト処理)するための画像処理を行うズーム処理部275、および表示画像をスクロール処理するためのスクロール処理部281を含む。ここでは、説明を簡単にするために、端末100は情報入力装置の操作モードとして、表示画像を拡大/縮小操作するためのズームモードと、表示画像をスクロール操作するためのスクロールモードとを有すると想定する。
Referring to FIG. 4, the
モード切替部255は、タッチ操作による押圧の有無を判定するための押圧判定部251、およびプロセッサ230のタイマの出力から、継続して押圧されている時間を測定するための時間判定部257を含む。ズーム処理部275は、表示画像の拡大または縮小に係る倍率を算出するための比率計算部271および拡大/縮小の画像処理に係る座標系の原点を設定するための原点設定部272を含む。なお、本実施の形態では、比率または倍率は、グラフィックメモリ254に格納されて現在表示されている画像の大きさを1.0として決定される。
The
図4の各部は、プログラム、またはプログラムと回路の組合わせから実現される。
<フローチャート>
図5は、本発明の実施の形態に係る処理フローチャートである。図6、図7および図8には表示装置212の表示画像が例示される。
Each unit in FIG. 4 is realized by a program or a combination of a program and a circuit.
<Flowchart>
FIG. 5 is a process flowchart according to the embodiment of the present invention. 6, 7, and 8 exemplify display images of the display device 212.
図5のフローチャートに従うプログラムは予めROM256などの記憶部に格納され、CPUがROM256からプログラムを読出し、読出したプログラムの各命令コードを実行することにより処理が実現される。
The program according to the flowchart of FIG. 5 is stored in advance in a storage unit such as the
ここでは、図5のフローチャートに従うプログラムは、ブラウザが起動時に実行されると想定する。ブラウザは、画像、文字などの情報をディスプレイに表示して閲覧するためのソフトウェア(プログラム)を示すが、当該情報をディスプレイに表示するソフトウェアであればブラウザに限定されるものではない。また、ここでは、説明を簡単にするためにブラウザにより画像が表示されていると想定する。 Here, it is assumed that the program according to the flowchart of FIG. 5 is executed when the browser is activated. The browser indicates software (program) for displaying information such as images and characters on a display for browsing. However, the browser is not limited to the browser as long as the information is displayed on the display. Here, it is assumed that an image is displayed by a browser for the sake of simplicity.
まず、ブラウザが起動されてプログラムが実行されると(ステップS1)、表示装置212に画像が表示される(図6(A)を参照)。ブラウザ起動時に、情報入力装置の操作モードを示すモードデータはデフォルトモードに、たとえば“スクロールモード”に初期化されると想定する。なお、モードデータは、RAM252の所定記憶領域に格納される。
First, when the browser is activated and the program is executed (step S1), an image is displayed on the display device 212 (see FIG. 6A). It is assumed that mode data indicating an operation mode of the information input device is initialized to a default mode, for example, a “scroll mode” when the browser is activated. The mode data is stored in a predetermined storage area of the
指検出部245は、操作受付部240からの出力(座標データ)に基づき、タッチパネル140上でタッチダウンされたか否かを判定する(ステップS3)。具体的には、操作受付部240から同じ座標データが、タイマが計時する所定時間継続して出力されたと判定した場合に、タッチダウンされたと判定する。なお、操作受付部240の出力に代替して、タッチパネル140の出力から判定するとしてもよい。
The
タッチダウンされたと判定されないときは(ステップS3でNO)、ステップS3の処理が繰返されるが、タッチダウンされたと判定される(ステップS3でYES)場合には、ユーザは、表示画像の所望位置を指301でタッチダウンすると想定する(図6(B)を参照)。
If it is not determined that the touchdown has been performed (NO in step S3), the process in step S3 is repeated. If it is determined that the touchdown has been performed (YES in step S3), the user sets the desired position of the display image. It is assumed that the
タッチダウンが判定されると(ステップS3でYES)、モード切替部255では、指検出部245とタッチパネル140の出力に基づき、押圧判定部251および時間判定部257はタッチダウンされた操作位置における押圧力が所定時間予め定められた閾値(閾圧力)以上の圧力であるか否かを判定する(ステップS5)。すなわち、タッチパネル140上の同一位置を押圧したことによる電流値が所定時間予め定められた閾値以上を示すか否かが判定される。閾値および所定時間のデータは、予めROM256に格納されている。
When touchdown is determined (YES in step S3), the
押圧力が所定時間予め定められた閾値以上の圧力を示すと判定されると(ステップS5でYES)、モード切替部255はRAM252のモードデータを“ズームモード”に書き換え、ステップS7以降のズーム処理に移行する。
If it is determined that the pressing force is equal to or greater than a predetermined threshold value for a predetermined time (YES in step S5), the
一方、押圧力が所定時間予め定められた閾値以上の圧力を示さないと判定されると(ステップS5でNO)、モード切替部255はRAM252のモードデータを“スクロールモード”に書き換え、ステップS25のスクロール処理に移行する。なお、モードデータが“スクロールモード”を示す場合には、データ書き換えは実行されない。
On the other hand, when it is determined that the pressing force does not show a pressure equal to or higher than a predetermined threshold value for a predetermined time (NO in step S5), the
スクロール処理では、CPUは、RAM252のモードデータを参照し“スクロールモード”を示すと判定したことに応じて、スクロール処理部281を起動する。指位置検出部265は、操作受付部240の出力(座標データ、軌跡データ)に基づき、タッチした指301のタッチパネル140の操作面上のタッチ操作位置の位置情報(指の移動方向および移動距離)を検出する。スクロール処理部281は、指位置検出部265からの出力に基づき、指301の位置情報に従って表示画像をスクロールする(ステップS25)。
In the scroll process, the CPU activates the
画像のスクロール処理は公知であるから詳細は繰り返さないが、簡単に説明すると、スクロール処理部281は、検出される位置情報に基づきRAM252のワーク領域に格納された表示すべき画像データをスクロール表示されるように処理し、処理後の画像データを表示制御部290を介しグラフィックメモリ254に格納する。グラフィックメモリ254の画像データに従って表示ドライバ214がLCDパネルを駆動することにより、表示装置212では画像がスクロール表示される(図7(A)を参照)。
The details of the image scrolling process are well known and will not be repeated. In brief, the
ズーム処理では、CPUの特定位置検出部は、RAM252のモードデータを参照し“ズームモード”を示すと判定したことに応じて、タッチされている操作位置を特定位置として検出する。CPUは、当該特定位置にアイコン300を表示し(図6(C)を参照)、特定位置の座標をRAM252の所定記憶領域に格納し、ズーム処理部275を起動する。指位置検出部265は、操作受付部240の出力(座標データ、軌跡データ)に基づき、タッチした指301の位置情報(指301の移動方向および移動距離)を検出する。ズーム処理部275は、検出される位置情報に従い表示画像を拡大/縮小する。
In the zoom process, the specific position detection unit of the CPU detects the touched operation position as the specific position in response to determining that “zoom mode” is indicated with reference to the mode data in the
本実施の形態では、画像の拡大/縮小は、たとえば座標値に倍率を乗算するアフィン変換により実現する。アフィン変換では、座標の原点(0,0)を中心として画像を拡大縮小するのが好ましい。たとえば矩形画像の左上端の頂点を中心に拡大処理を行うとすれば、画像を右下方向にしか拡大することができず、表示画像としては、アイコン300が指示する操作位置から右下方向の画像のみが拡大されることになる。
In the present embodiment, enlargement / reduction of an image is realized by, for example, affine transformation that multiplies a coordinate value by a magnification. In the affine transformation, it is preferable to enlarge or reduce the image around the origin (0, 0) of the coordinates. For example, if the enlargement process is performed centering on the vertex at the upper left corner of the rectangular image, the image can be enlarged only in the lower right direction, and the display image is displayed in the lower right direction from the operation position indicated by the
そこで、本実施の形態では、アイコン300が指示する特定の操作位置を中心として表示画像(矩形画像と想定する)を拡大/縮小するために、ズーム処理部275は、グラフィックメモリ254の画像データを、RAM252のワーク領域に一旦転送(コピー)する。原点設定部272は、ワーク領域における画像の中心点(アイコン300が指示する特定位置の座標)を原点(0,0)に一致させる(ステップS7)。一方、比率計算部271は指位置検出部265が出力する指301の位置情報から比率を算出する。ズーム処理部275は、ワーク領域の原点移動後の画像データを、算出比率が示す倍率に基づきアフィン変換により拡大/縮小し、その後に、アイコン300が指示する座標位置を原点から元の位置に戻すように画像データを処理し、処理後の画像データを表示制御部290を介しグラフィックメモリ254に格納する(ステップS21、S23)。
Therefore, in this embodiment, in order to enlarge / reduce a display image (assumed to be a rectangular image) around a specific operation position indicated by the
これにより、ユーザが指301で指定した操作位置の部分画像(アイコン300が示す部分画像)を中心に拡大/縮小された画像を表示することができる(図7(C)を参照)。
As a result, an image enlarged / reduced around the partial image (the partial image indicated by the icon 300) at the operation position designated by the user with the
ズームモードでは、指301の操作が検出される。具体的には、指位置検出部265は、タッチパネル140の出力に基づき、出力が所定時間途絶えるか否かに基づき、指301がタッチパネル140上から離れる(タッチアップ)か否かを判定する(ステップS9)。
In the zoom mode, the operation of the
タッチパネル140から指301が離れた(図7(B)を参照)と判定すると(ステップS9でYES)、再度、タッチ(タッチダウン)されるか否かを判定する(ステップS11)。タッチが検出されない間は(ステップS11でNO)、ステップS11の処理が繰返される。
If it is determined that the
タッチが検出されると(ステップS11でYES)、指位置検出部265は、操作受付部240の出力に基づきアイコン300がタッチされたか否かを判定する(ステップS13)。具体的には、タッチが検出された操作位置の座標とRAM252の所定記憶エリアのアイコン300の座標を比較し、比較結果に基づき、両座標は一致するか否かを判定する。一致するとき、アイコン300がタッチされたと判定し、不一致のときアイコン300はタッチされていないと判定する。
When a touch is detected (YES in step S11), the finger
アイコン300がタッチされた(図8(B)を参照)と判定されると(ステップS13でYES)、押圧判定部251は、タッチパネル140の出力に基づき、押圧力が予め定められた閾値以上であるか否かを判定する(ステップS15)。閾値以上であると判定すると(ステップS15でYES)、CPUはモードデータを“スクロールモード”に書き換えるとともに、アイコン300の画像を消去する(ステップS17)。これにより、ズームモードが解除され、一連の処理は終了する(図8(A)を参照)。
When it is determined that the
一方、指301をタッチパネル140から離していないと判定されると(ステップS9でNO)、またはアイコン300がタッチされたと判定されないと(ステップS13でNO)、またはタッチパネル140の指301による押圧力が予め定められた閾値以上ではないと判定されると(ステップS15でNO)、比率計算部271は指301の移動方向から、比率を算出する(ステップS19)。
On the other hand, if it is determined that the
具体的には、比率計算部271は指位置検出部265が検出する位置情報に基づき、指301の操作位置がアイコン300の座標位置から離れる方向に移動したか否かを検出する(ステップS19)。アイコン300から離れる方向に移動したと検出すると(ステップS19でYES)、比率計算部271は、位置情報から指301の移動距離を検出し、検出した移動距離から所定換算式に従って拡大のための比率(≧1.0)を算出し、上述の画像拡大処理(図7(C)を参照)が行われる(ステップS23)。その後、ステップS9の処理に戻る。たとえば、所定換算式により、移動距離が長いほど、拡大のための比率は大きく、短いほど比率は小さいとする。
Specifically, the
一方、アイコン300から離れる方向に指301が移動していないと検出すると(ステップS19でNO)、つまりアイコン300に向かって指301を移動させると、比率計算部271は上記の位置情報から指301の移動距離を検出し、検出した移動距離から所定換算式に従って縮小のための比率(0≦比率<1.0)を算出し、上述の画像縮小処理(図7(C)を参照)が行われる(ステップS21)。その後、ステップS9の処理に戻る。たとえば、所定換算式により、移動距離が長いほど、縮小のための比率が小さく、短いほど比率は大きいとする。
On the other hand, when it is detected that the
このように図5の処理では、CPUは、タッチパネル140の操作面上の指301のタッチの強弱(押圧レベル)を検出し、検出結果に従って異なる処理を実行する。
As described above, in the process of FIG. 5, the CPU detects the strength (press level) of the touch of the
まず、ユーザは端末100本体を片手で握り、たとえば親指301で画面にタッチする。その指301による画面への押圧力が予め定められた閾値以上を示す場合(ステップS5でYES)、操作モードは、表示画像を拡大/縮小するためのズームモードに切替わる。
First, the user holds the terminal 100 main body with one hand, and touches the screen with the
ズームモードにおいては、指301がタッチしている操作位置に、アイコン300が表示される(ステップS7)。ユーザはアイコン300とは別の位置に、もう一度指301でタッチし(ステップS9でYES、ステップS11でYES、ステップS13でNO)、指301をアイコン300に近づく方向に、すなわちアイコン300に向かってスライド移動(タッチムーブ)させると(ステップS19でNO)、アイコン300を中心に画像が縮小表示される(ステップS21)。同様に、アイコン300から遠ざかる方向に指301をスライド移動させると(ステップS19でYES)、アイコン300を中心に画像が拡大表示される(ステップS23)。
In the zoom mode, the
また、ズームモードにおいて、指301がタッチしている操作位置にアイコン300が表示された後に(ステップS7)、タッチパネル140上から離さずにそのまま指301をスライド移動させると、すなわちアイコン300から遠ざかる方向に指301をスライド移動させると(ステップS9でNO、19でYES)、アイコン300を中心に画像が拡大表示される(ステップS23)。
Further, in the zoom mode, after the
また、予め定められた閾値以上の押圧力で再度、アイコン300をタッチすると(ステップS9でYES、ステップS11でYES、ステップS13でYES、ステップS15でYES)、ズームモードが解除されて操作モードはスクロールモードに戻り、画面からアイコン300が消える(ステップS17)。
When the
本実施の形態では、片手で端末100本体を保持したまま、当該片手の指で操作する場合に、画面の表示画像の所望する座標位置を指で指定することで、当該座標位置を中心に画像の拡大/縮小表示させることができる。 In the present embodiment, when operating with the finger of one hand while holding the terminal 100 main body with one hand, the desired coordinate position of the display image on the screen is designated with the finger, and the image is centered on the coordinate position. Can be enlarged / reduced.
<変形例>
図5ではステップS25の処理後はステップS5に戻るようにしてもよい。これにより、スクロール後の画像を拡大/縮小したい場合にはズームモードに切替えることができる。
<Modification>
In FIG. 5, after the process of step S25, the process may return to step S5. Thereby, when it is desired to enlarge / reduce the image after scrolling, it is possible to switch to the zoom mode.
また、アイコン300は予め定められた画鋲の絵柄を表すが、絵柄は画鋲に限定されない。また、ユーザはアイコン300の絵柄を可変に変更できるとしてもよい。
The
また、画像を拡大/縮小するための中心位置をユーザに提示することができれば、アイコン300を用いた表示に限定されない。たとえば、当該中心位置を含む部分画像の表示態様を他の部分画像とは異ならせるとしてもよい。たとえば中心位置を含む部分画像をブリンク表示する、色を反転表示するなどしてもよい。また、アイコンの表示と表示態様の変更の両方を同時に行うとしてもよい。
The display using the
操作モードの切替に関し、指301の押圧力が予め定められた閾値以上である場合にズームモードへの切替え(ステップS5)、またはズームモード解除(ステップS15)を実行するが、ステップS5とS15で用いる閾値は同じであってもよく、または異ならせてもよい。
Regarding the switching of the operation mode, when the pressing force of the
また、操作モード切替えのための参照値は押圧力としているが、押圧力に限定されるものではない。たとえば、継続して押圧している時間長さに基づき、または押圧力の大きさおよび継続して押圧している時間長さに基づきズームモードへの切替または解除を判定するとしてもよい。 The reference value for switching the operation mode is a pressing force, but is not limited to the pressing force. For example, switching to or canceling the zoom mode may be determined based on the length of time of continuous pressing, or based on the magnitude of the pressing force and the length of time of continuous pressing.
なお、表示される情報は画像に限定されず、文字であってもよい。その場合であっても拡大/縮小およびスクロールを同様に実施することができる。 The displayed information is not limited to images, and may be characters. Even in this case, enlargement / reduction and scrolling can be performed in the same manner.
(他の実施の形態)
上述した実施の形態では、図5のフローチャートに従うプログラムは、端末100に付属するメモリカード152などのように、プロセッサ230のCPUがメモリドライバ151を介して読取り可能な記録媒体に記録させて、プログラム製品として端末100に提供することもできる。あるいは、ネットワークを介してアンテナ120により受信しRAM252の記憶領域へのダウンロードによって、プログラムを提供することもできる。
(Other embodiments)
In the embodiment described above, the program according to the flowchart of FIG. 5 is recorded on a recording medium that can be read by the CPU of the
提供されるプログラム製品は、プログラム自体と、プログラムが非一時的に記録された記録媒体とを含む。 The provided program product includes the program itself and a recording medium on which the program is recorded non-temporarily.
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.
100 端末、140 タッチパネル、210 表示部、212 表示装置、230 プロセッサ、240 操作受付部、245 指検出部、251 押圧判定部、254 グラフィックメモリ、255 モード切替部、257 時間判定部、265 指位置検出部、271 比率計算部、272 原点設定部、275 ズーム処理部、281 スクロール処理部、290 表示制御部、300 アイコン、301 指。 100 terminal, 140 touch panel, 210 display unit, 212 display device, 230 processor, 240 operation reception unit, 245 finger detection unit, 251 press determination unit, 254 graphic memory, 255 mode switching unit, 257 time determination unit, 265 finger position detection Part, 271 ratio calculation part, 272 origin setting part, 275 zoom processing part, 281 scroll processing part, 290 display control part, 300 icon, 301 finger.
Claims (9)
タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出する特定位置検出部と、
前記指定位置検出部が検出する一連の検出位置を示す位置情報から、前記特定位置に対する検出位置の移動方向を検出する方向検出部と、
前記表示部に表示される情報を処理する処理部と、を備え、
前記処理部は、
検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するズーム処理部を含む、情報処理装置。 A designated position detecting unit for detecting a position designated by a touch operation on the display surface of the display unit;
A specific position detection unit that compares a pressing force at the time of the touch operation with a threshold and detects a specific position from a specified position by the touch operation based on the comparison result;
A direction detection unit that detects a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the designated position detection unit;
A processing unit that processes information displayed on the display unit,
The processor is
An information processing apparatus including a zoom processing unit that enlarges or reduces information displayed on the display unit according to a detected moving direction.
タッチ操作時の押圧力の大きさに基づき、前記複数の情報処理部のうちのいずれかを実行する、請求項1から5のいずれかに記載の情報処理装置。 The processing unit includes a plurality of information processing units including the zoom processing unit, which are executed to process information displayed on the display unit,
The information processing apparatus according to claim 1, wherein any one of the plurality of information processing units is executed based on a magnitude of a pressing force at the time of a touch operation.
タッチ操作時のタッチされている時間の長さに基づき、前記複数の情報処理部のうちのいずれかを実行する、請求項1から6のいずれかに記載の情報処理装置。 The processing unit includes a plurality of information processing units including the zoom processing unit, which are executed to process information displayed on the display unit,
The information processing apparatus according to claim 1, wherein any one of the plurality of information processing units is executed based on a length of time during which a touch operation is performed.
タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、
前記位置を検出するステップにより検出される一連の検出位置を示す位置情報から、前記特定位置に対する検出位置の移動方向を検出するステップと、
前記表示部に表示される情報を処理するステップと、を備え、
前記処理するステップは、
検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するステップを含む、情報処理方法。 Detecting a position specified by a touch operation on the display surface of the display unit;
Comparing the pressing force at the time of the touch operation with a threshold value, and detecting a specific position from the specified position by the touch operation based on the comparison result;
Detecting a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the step of detecting the position;
Processing information displayed on the display unit,
The processing step includes
An information processing method including a step of enlarging or reducing information displayed on the display unit according to a detected moving direction.
前記プログラムは前記プロセッサに、
表示部の表示面上のタッチ操作により指定される位置を検出するステップと、
タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、
前記位置を検出するステップにより検出される一連の検出位置を示す位置情報から、前記特定位置に対する検出位置の移動方向を検出するステップと、
前記表示部に表示される情報を処理するステップと、を実行させ、
前記処理するステップは、
検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するステップを含む、プログラム。 A program for causing a processor to execute an information processing method,
The program is stored in the processor.
Detecting a position specified by a touch operation on the display surface of the display unit;
Comparing the pressing force at the time of the touch operation with a threshold value, and detecting a specific position from the specified position by the touch operation based on the comparison result;
Detecting a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the step of detecting the position;
Processing the information displayed on the display unit,
The processing step includes
A program comprising a step of enlarging or reducing information displayed on the display unit according to a detected moving direction.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012197010A JP5977627B2 (en) | 2012-09-07 | 2012-09-07 | Information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012197010A JP5977627B2 (en) | 2012-09-07 | 2012-09-07 | Information processing apparatus, information processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014052852A true JP2014052852A (en) | 2014-03-20 |
JP5977627B2 JP5977627B2 (en) | 2016-08-24 |
Family
ID=50611292
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012197010A Expired - Fee Related JP5977627B2 (en) | 2012-09-07 | 2012-09-07 | Information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5977627B2 (en) |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224688A (en) * | 2015-05-29 | 2016-12-28 | シャープ株式会社 | Information processing device, control method, control program, and recording medium |
JP2017143879A (en) * | 2016-02-15 | 2017-08-24 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
JP2018027238A (en) * | 2016-08-18 | 2018-02-22 | 株式会社コロプラ | Game program, method, and information processing device |
WO2018143744A1 (en) * | 2017-02-03 | 2018-08-09 | 주식회사 하이딥 | Touch sensing display device and method for controlling screen thereof |
JP2018149302A (en) * | 2018-03-16 | 2018-09-27 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
JP2019050002A (en) * | 2012-12-29 | 2019-03-28 | アップル インコーポレイテッドApple Inc. | Device, method, and graphical user interface for determining whether to scroll or select content |
JP2019166338A (en) * | 2019-05-15 | 2019-10-03 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
US10599331B2 (en) | 2015-03-19 | 2020-03-24 | Apple Inc. | Touch input cursor manipulation |
JP2020049268A (en) * | 2019-12-19 | 2020-04-02 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
US10620781B2 (en) | 2012-12-29 | 2020-04-14 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
JP2020518897A (en) * | 2017-04-20 | 2020-06-25 | 株式会社 ハイディープHiDeep Inc. | Device and control method capable of touch sensing and touch pressure sensing |
US10698598B2 (en) | 2015-08-10 | 2020-06-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10705718B2 (en) | 2015-06-07 | 2020-07-07 | Apple Inc. | Devices and methods for navigating between user interfaces |
US10775994B2 (en) | 2012-05-09 | 2020-09-15 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
US10775999B2 (en) | 2012-05-09 | 2020-09-15 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US10782871B2 (en) | 2012-05-09 | 2020-09-22 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US10841484B2 (en) | 2015-06-07 | 2020-11-17 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10860177B2 (en) | 2015-03-08 | 2020-12-08 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10884591B2 (en) | 2012-05-09 | 2021-01-05 | Apple Inc. | Device, method, and graphical user interface for selecting object within a group of objects |
US10884608B2 (en) | 2015-08-10 | 2021-01-05 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10908808B2 (en) | 2012-05-09 | 2021-02-02 | Apple Inc. | Device, method, and graphical user interface for displaying additional information in response to a user contact |
JP2021010776A (en) * | 2020-10-22 | 2021-02-04 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
US10942570B2 (en) | 2012-05-09 | 2021-03-09 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US10969945B2 (en) | 2012-05-09 | 2021-04-06 | Apple Inc. | Device, method, and graphical user interface for selecting user interface objects |
US10996788B2 (en) | 2012-05-09 | 2021-05-04 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
US11010027B2 (en) | 2012-05-09 | 2021-05-18 | Apple Inc. | Device, method, and graphical user interface for manipulating framed graphical objects |
US11023116B2 (en) | 2012-05-09 | 2021-06-01 | Apple Inc. | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
US11112957B2 (en) | 2015-03-08 | 2021-09-07 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US11182017B2 (en) | 2015-08-10 | 2021-11-23 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
CN113865753A (en) * | 2021-08-27 | 2021-12-31 | 惠州市德赛西威汽车电子股份有限公司 | Vehicle-mounted touch steering wheel pressure detection method based on EOL consistency calibration |
US11231831B2 (en) | 2015-06-07 | 2022-01-25 | Apple Inc. | Devices and methods for content preview based on touch input intensity |
US11240424B2 (en) | 2015-06-07 | 2022-02-01 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010015489A (en) * | 2008-07-07 | 2010-01-21 | Seiko Epson Corp | Display device and program |
JP2011028635A (en) * | 2009-07-28 | 2011-02-10 | Sony Corp | Display control apparatus, display control method and computer program |
JP2011053770A (en) * | 2009-08-31 | 2011-03-17 | Nifty Corp | Information processing apparatus and input processing method |
-
2012
- 2012-09-07 JP JP2012197010A patent/JP5977627B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010015489A (en) * | 2008-07-07 | 2010-01-21 | Seiko Epson Corp | Display device and program |
JP2011028635A (en) * | 2009-07-28 | 2011-02-10 | Sony Corp | Display control apparatus, display control method and computer program |
JP2011053770A (en) * | 2009-08-31 | 2011-03-17 | Nifty Corp | Information processing apparatus and input processing method |
Cited By (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10908808B2 (en) | 2012-05-09 | 2021-02-02 | Apple Inc. | Device, method, and graphical user interface for displaying additional information in response to a user contact |
US10996788B2 (en) | 2012-05-09 | 2021-05-04 | Apple Inc. | Device, method, and graphical user interface for transitioning between display states in response to a gesture |
US10775999B2 (en) | 2012-05-09 | 2020-09-15 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US10775994B2 (en) | 2012-05-09 | 2020-09-15 | Apple Inc. | Device, method, and graphical user interface for moving and dropping a user interface object |
US11010027B2 (en) | 2012-05-09 | 2021-05-18 | Apple Inc. | Device, method, and graphical user interface for manipulating framed graphical objects |
US10884591B2 (en) | 2012-05-09 | 2021-01-05 | Apple Inc. | Device, method, and graphical user interface for selecting object within a group of objects |
US11354033B2 (en) | 2012-05-09 | 2022-06-07 | Apple Inc. | Device, method, and graphical user interface for managing icons in a user interface region |
US10782871B2 (en) | 2012-05-09 | 2020-09-22 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US11314407B2 (en) | 2012-05-09 | 2022-04-26 | Apple Inc. | Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object |
US11947724B2 (en) | 2012-05-09 | 2024-04-02 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US10969945B2 (en) | 2012-05-09 | 2021-04-06 | Apple Inc. | Device, method, and graphical user interface for selecting user interface objects |
US11068153B2 (en) | 2012-05-09 | 2021-07-20 | Apple Inc. | Device, method, and graphical user interface for displaying user interface objects corresponding to an application |
US10942570B2 (en) | 2012-05-09 | 2021-03-09 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US11221675B2 (en) | 2012-05-09 | 2022-01-11 | Apple Inc. | Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface |
US11023116B2 (en) | 2012-05-09 | 2021-06-01 | Apple Inc. | Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input |
JP2019050002A (en) * | 2012-12-29 | 2019-03-28 | アップル インコーポレイテッドApple Inc. | Device, method, and graphical user interface for determining whether to scroll or select content |
US10915243B2 (en) | 2012-12-29 | 2021-02-09 | Apple Inc. | Device, method, and graphical user interface for adjusting content selection |
US10620781B2 (en) | 2012-12-29 | 2020-04-14 | Apple Inc. | Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics |
US11112957B2 (en) | 2015-03-08 | 2021-09-07 | Apple Inc. | Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object |
US10860177B2 (en) | 2015-03-08 | 2020-12-08 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US11054990B2 (en) | 2015-03-19 | 2021-07-06 | Apple Inc. | Touch input cursor manipulation |
US10599331B2 (en) | 2015-03-19 | 2020-03-24 | Apple Inc. | Touch input cursor manipulation |
US11550471B2 (en) | 2015-03-19 | 2023-01-10 | Apple Inc. | Touch input cursor manipulation |
JP2016224688A (en) * | 2015-05-29 | 2016-12-28 | シャープ株式会社 | Information processing device, control method, control program, and recording medium |
US10841484B2 (en) | 2015-06-07 | 2020-11-17 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US11835985B2 (en) | 2015-06-07 | 2023-12-05 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US10705718B2 (en) | 2015-06-07 | 2020-07-07 | Apple Inc. | Devices and methods for navigating between user interfaces |
US11231831B2 (en) | 2015-06-07 | 2022-01-25 | Apple Inc. | Devices and methods for content preview based on touch input intensity |
US11240424B2 (en) | 2015-06-07 | 2022-02-01 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US11681429B2 (en) | 2015-06-07 | 2023-06-20 | Apple Inc. | Devices and methods for capturing and interacting with enhanced digital images |
US11182017B2 (en) | 2015-08-10 | 2021-11-23 | Apple Inc. | Devices and methods for processing touch inputs based on their intensities |
US11327648B2 (en) | 2015-08-10 | 2022-05-10 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US11740785B2 (en) | 2015-08-10 | 2023-08-29 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10884608B2 (en) | 2015-08-10 | 2021-01-05 | Apple Inc. | Devices, methods, and graphical user interfaces for content navigation and manipulation |
US10963158B2 (en) | 2015-08-10 | 2021-03-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10754542B2 (en) | 2015-08-10 | 2020-08-25 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10698598B2 (en) | 2015-08-10 | 2020-06-30 | Apple Inc. | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
JP2017143879A (en) * | 2016-02-15 | 2017-08-24 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
JP2018027238A (en) * | 2016-08-18 | 2018-02-22 | 株式会社コロプラ | Game program, method, and information processing device |
WO2018143744A1 (en) * | 2017-02-03 | 2018-08-09 | 주식회사 하이딥 | Touch sensing display device and method for controlling screen thereof |
JP2020518897A (en) * | 2017-04-20 | 2020-06-25 | 株式会社 ハイディープHiDeep Inc. | Device and control method capable of touch sensing and touch pressure sensing |
JP2018149302A (en) * | 2018-03-16 | 2018-09-27 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
JP2019166338A (en) * | 2019-05-15 | 2019-10-03 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
JP2020049268A (en) * | 2019-12-19 | 2020-04-02 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
JP2021010776A (en) * | 2020-10-22 | 2021-02-04 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
CN113865753A (en) * | 2021-08-27 | 2021-12-31 | 惠州市德赛西威汽车电子股份有限公司 | Vehicle-mounted touch steering wheel pressure detection method based on EOL consistency calibration |
CN113865753B (en) * | 2021-08-27 | 2024-02-02 | 惠州市德赛西威汽车电子股份有限公司 | Vehicle-mounted touch steering wheel pressure detection method based on EOL consistency calibration |
Also Published As
Publication number | Publication date |
---|---|
JP5977627B2 (en) | 2016-08-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5977627B2 (en) | Information processing apparatus, information processing method, and program | |
US9927964B2 (en) | Customization of GUI layout based on history of use | |
JP6049990B2 (en) | Portable electronic device, screen control method, and screen control program | |
KR101152008B1 (en) | Method and device for associating objects | |
JP5759660B2 (en) | Portable information terminal having touch screen and input method | |
CN104932809B (en) | Apparatus and method for controlling display panel | |
KR101971982B1 (en) | Apparatus capable of sensing touch and touch pressure and control method thereof | |
EP2068235A2 (en) | Input device, display device, input method, display method, and program | |
CN111240789A (en) | Widget processing method and related device | |
US10514796B2 (en) | Electronic apparatus | |
JP2012505443A (en) | Portable electronic device and method of secondary character rendering and input | |
EP2613247A2 (en) | Method and apparatus for displaying keypad in terminal having touch screen | |
JP2010205050A (en) | User interface device with touch panel, method, and program for controlling user interface | |
KR102044824B1 (en) | Apparatus capable of sensing touch and touch pressure and control method thereof | |
JP3143474U (en) | Electronic devices | |
WO2013161170A1 (en) | Input device, input support method, and program | |
EP3211510B1 (en) | Portable electronic device and method of providing haptic feedback | |
JP2013206180A (en) | Electronic device and display method | |
KR20190128139A (en) | Apparatus capable of sensing touch and touch pressure and control method thereof | |
JP2014182429A (en) | Information processor, information processing method and information processing program | |
WO2015098061A1 (en) | Electronic instrument | |
KR101920864B1 (en) | Method and terminal for displaying of image using touchscreen | |
JP2011086035A (en) | Portable device, and image display control method, and device therefor | |
JP2013206300A (en) | Information input device | |
JP2013239100A (en) | Information input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150318 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160119 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5977627 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |