JP2014052852A - Information processor - Google Patents

Information processor Download PDF

Info

Publication number
JP2014052852A
JP2014052852A JP2012197010A JP2012197010A JP2014052852A JP 2014052852 A JP2014052852 A JP 2014052852A JP 2012197010 A JP2012197010 A JP 2012197010A JP 2012197010 A JP2012197010 A JP 2012197010A JP 2014052852 A JP2014052852 A JP 2014052852A
Authority
JP
Japan
Prior art keywords
unit
information
display
detecting
touch operation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012197010A
Other languages
Japanese (ja)
Other versions
JP5977627B2 (en
Inventor
Kenji Kibi
健二 吉備
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012197010A priority Critical patent/JP5977627B2/en
Publication of JP2014052852A publication Critical patent/JP2014052852A/en
Application granted granted Critical
Publication of JP5977627B2 publication Critical patent/JP5977627B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability related to information input operations.SOLUTION: An information processor comprises: a specified position detection part for detecting a position specified by a touch operation on a display surface of a display part (210); a specific position detection part for comparing the pressing force at the time of touch operation and a threshold, and detecting a specific position from a position specified by the touch operation according to the comparison result; a direction detection part for detecting a movement direction of a detection position with respect to the specific position from position information indicating a series of detection positions detected by the specified position detection part; and a processing part for processing information displayed on the display part (210). The processing part includes a zoom processing part for magnifying or reducing information displayed on the display part (210) according to a detected movement direction.

Description

本発明は情報処理装置に関し、特に、表示一体型入力部の表示面上で位置を指定するための操作を受付けることにより情報を入力する情報処理装置に関する。   The present invention relates to an information processing apparatus, and more particularly to an information processing apparatus that inputs information by accepting an operation for designating a position on a display surface of a display-integrated input unit.

情報処理端末として、タッチパネルとLCD(Liquid Crystal Display)を一体的に備えた表示一体型入力部を情報入力装置として有する端末が普及している。このような端末では、タッチパネルのタッチ操作により感覚的に情報を入力することができる一方で、ユーザからは操作のし易さが要求されている。   2. Description of the Related Art As information processing terminals, terminals having a display-integrated input unit integrally provided with a touch panel and an LCD (Liquid Crystal Display) as an information input device have become widespread. In such a terminal, information can be input sensuously by a touch operation on the touch panel, but ease of operation is required from the user.

よりスムーズに携帯端末を操作するための先行技術としては、特許文献1(特開2011−28635号公報)または特許文献2(特開2009−20759号公報)などがある。特許文献1では、表示面に対する指などの操作体の動き(接触位置、接触時間、操作体の移動)に応じて画面の表示を変更する。特許文献2では、指のような操作体が近づく、操作体が接触する、操作体が押し込むときの押圧加減に応じて起動、スクロール、決定などの入力処理を実行する。   As a prior art for operating the mobile terminal more smoothly, there is Patent Document 1 (Japanese Patent Laid-Open No. 2011-28635) or Patent Document 2 (Japanese Patent Laid-Open No. 2009-20759). In Patent Document 1, the display on the screen is changed according to the movement of the operating body such as a finger on the display surface (contact position, contact time, movement of the operating body). In Patent Document 2, input processing such as activation, scrolling, and determination is executed in accordance with the pressing force when the operating body approaches, the operating body touches, or the operating body is pressed.

特開2011−28635号公報JP 2011-28635 A 特開2009−20759号公報JP 2009-20759 A

たとえば、スマートフォン(多機能携帯電話)の表示画像の拡大・縮小操作は、通常タッチパネルに2本の指で触れ、それらの指の距離の変化に合せて画像の拡大、縮小が行われる。この操作をするにあたり、通常、両手で操作する必要がある。つまり、1つの手は端末を固定しつつ、他の手で画面を操作する必要があるため、片手で画面の拡大縮小操作を実施することが困難である。   For example, an enlargement / reduction operation of a display image of a smartphone (multifunction mobile phone) is usually performed by touching the touch panel with two fingers, and the image is enlarged or reduced in accordance with a change in the distance between the fingers. In performing this operation, it is usually necessary to operate with both hands. That is, since one hand needs to operate the screen with the other hand while fixing the terminal, it is difficult to carry out the screen enlargement / reduction operation with one hand.

特許文献1では、指などの操作体の動きから表示画像のズーム率を変更するが、表示画像のどの部分を中心にズーム率を変更するかを指定することはできない。そのため、指の操作だけでズーム率を変更できるとしても、ユーザが所望しない部分がズームインで拡大される一方で、所望部分は画面からはみ出して確認できず、操作性に優れないという課題が残る。   In Patent Document 1, the zoom rate of the display image is changed based on the movement of an operating tool such as a finger, but it is not possible to specify which part of the display image the zoom rate is changed to be the center. Therefore, even if the zoom rate can be changed only by the operation of a finger, a portion that is not desired by the user is enlarged by zooming in, but the desired portion does not protrude from the screen and cannot be confirmed, leaving a problem that the operability is not excellent.

それゆえに、本発明の目的は、情報入力操作に係る操作性が改善された情報処理装置を提供することである。   Therefore, an object of the present invention is to provide an information processing apparatus with improved operability related to information input operation.

この発明のある局面に従う情報処理装置は、表示部の表示面上のタッチ操作により指定される位置を検出するための指定位置検出部と、タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出する特定位置検出部と、指定位置検出部が検出する一連の検出位置を示す位置情報から、特定位置に対する検出位置の移動方向を検出する方向検出部と、表示部に表示される情報を処理する処理部と、を備え、処理部は、検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するズーム処理部を含む。   An information processing apparatus according to an aspect of the present invention compares a specified position detection unit for detecting a position specified by a touch operation on a display surface of a display unit, a pressing force and a threshold value at the time of the touch operation, and compares A direction for detecting the moving direction of the detected position relative to the specific position from the specific position detecting unit that detects the specific position from the specified position by the touch operation based on the result, and position information indicating a series of detection positions detected by the specified position detecting unit A detection unit; and a processing unit that processes information displayed on the display unit. The processing unit includes a zoom processing unit that enlarges or reduces the information displayed on the display unit according to the detected moving direction.

好ましくは、ズーム処理部は、設定される特定位置を中心に表示される情報を拡大または縮小する。   Preferably, the zoom processing unit enlarges or reduces the information displayed around the set specific position.

好ましくは、ズーム処理部は、位置情報が示す特定位置に対する検出位置の移動距離から、拡大または縮小のための比率を算出する比率算出部を含む。   Preferably, the zoom processing unit includes a ratio calculation unit that calculates a ratio for enlargement or reduction from the moving distance of the detection position with respect to the specific position indicated by the position information.

好ましくは、表示面の特定位置において予め定められた絵柄を表示する。
好ましくは、特定位置がタッチ操作されたとき、表示されている絵柄を消去する。
Preferably, a predetermined pattern is displayed at a specific position on the display surface.
Preferably, when the specific position is touched, the displayed pattern is erased.

好ましくは、処理部は、表示部に表示される情報を処理するために実行される、ズーム処理部を含む複数の情報処理部を含み、タッチ操作時の押圧力の大きさに基づき、複数の情報処理部のうちのいずれかを実行する。   Preferably, the processing unit includes a plurality of information processing units including a zoom processing unit, which are executed to process information displayed on the display unit, and a plurality of information processing units based on the magnitude of the pressing force at the time of the touch operation. One of the information processing units is executed.

好ましくは、処理部は、表示部に表示される情報を処理するために実行される、ズーム処理部を含む複数の情報処理部を含み、タッチ操作時のタッチされている時間の長さに基づき、複数の情報処理部のうちのいずれかを実行する。   Preferably, the processing unit includes a plurality of information processing units including a zoom processing unit, which is executed to process information displayed on the display unit, and is based on a length of time during which a touch operation is performed. One of the plurality of information processing units is executed.

この発明の他の局面に従うと、表示部の表示面上のタッチ操作により指定される位置を検出するステップと、タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、位置を検出するステップにより検出される一連の検出位置を示す位置情報から、特定位置に対する検出位置の移動方向を検出するステップと、表示部に表示される情報を処理するステップと、を備え、処理するステップは、検出される移動方向に従って表示部に表示される情報を拡大または縮小するステップを含む。   According to another aspect of the present invention, the step of detecting the position specified by the touch operation on the display surface of the display unit is compared with the pressing force at the time of the touch operation and the threshold value, and the touch operation is performed based on the comparison result. A step of detecting a specific position from the designated position, a step of detecting a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the step of detecting the position, and a display on the display unit Processing the information, and the step of processing includes a step of enlarging or reducing the information displayed on the display unit according to the detected moving direction.

この発明のさらに他の局面に従うと、プロセッサに情報処理方法を実行させるためのプログラムであって、このプログラムはプロセッサに、表示部の表示面上のタッチ操作により指定される位置を検出するステップと、タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、位置を検出するステップにより検出される一連の検出位置を示す位置情報から、特定位置に対する検出位置の移動方向を検出するステップと、表示部に表示される情報を処理するステップと、を実行させ、処理するステップは、検出される移動方向に従って表示部に表示される情報を拡大または縮小するステップを含む。   According to still another aspect of the present invention, there is provided a program for causing a processor to execute an information processing method, the program causing the processor to detect a position designated by a touch operation on the display surface of the display unit; Position information indicating a series of detection positions detected by comparing a pressing force at the time of the touch operation with a threshold, detecting a specific position from a specified position by the touch operation based on the comparison result, and detecting the position The step of detecting the moving direction of the detected position with respect to the specific position and the step of processing the information displayed on the display unit are executed, and the step of processing is displayed on the display unit according to the detected moving direction. Enlarging or reducing information.

本発明によれば、表示面に対するタッチ位置の移動方向を異ならせることで、表示情報の拡大または縮小のズーム処理を実現する。   According to the present invention, zoom processing for expanding or reducing display information is realized by changing the moving direction of the touch position with respect to the display surface.

本発明の実施の形態に係る端末の外観を表わす図である。It is a figure showing the external appearance of the terminal which concerns on embodiment of this invention. 本発明の実施の形態に係る端末のハードウェア構成を表わすブロック図である。It is a block diagram showing the hardware constitutions of the terminal which concerns on embodiment of this invention. 本実施の形態に係る情報入力装置の概念図である。It is a conceptual diagram of the information input device concerning this embodiment. 本発明の実施の形態に係るプロセッサの機能構成を示す図である。It is a figure which shows the function structure of the processor which concerns on embodiment of this invention. 本発明の実施の形態に係る処理のフローチャートである。It is a flowchart of the process which concerns on embodiment of this invention. 図5の処理による画面表示例を示す図である。It is a figure which shows the example of a screen display by the process of FIG. 図5の処理による画面表示例を示す図である。It is a figure which shows the example of a screen display by the process of FIG. 図5の処理による画面表示例を示す図である。It is a figure which shows the example of a screen display by the process of FIG.

以下、本発明の実施の形態について図面を参照し詳細に説明する。なお、同一の構成要素には各図において同一の符号を付し、詳細な説明は繰返さない。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the same components are denoted by the same reference symbols in the respective drawings, and detailed description thereof will not be repeated.

本実施の形態では、情報処理装置は、情報入力装置としてタッチパネルを有する携帯型情報処理端末を想定する。携帯型情報処理端末として、ノートブック型パーソナルコンピュータ、携帯電話、スマートフォン、PDA(Personal Digital Assistant)、ナビゲーション装置などを適用することができる。あるいは、ATM(Automated Teller Machine)、クレジットカードの認証装置その他の商業施設に配置される情報処理端末に適用することもできる。また、情報処理端末は携帯型に限定されず、据え置き型であってもよい。   In this embodiment, the information processing apparatus is assumed to be a portable information processing terminal having a touch panel as an information input device. As the portable information processing terminal, a notebook personal computer, a mobile phone, a smartphone, a PDA (Personal Digital Assistant), a navigation device, or the like can be applied. Alternatively, the present invention can be applied to an information processing terminal placed in an ATM (Automated Teller Machine), a credit card authentication device, or other commercial facilities. The information processing terminal is not limited to a portable type, and may be a stationary type.

<ハードウェア構成>
図1および図2を参照して、本実施の形態に係る携帯型情報処理端末(以下、単に端末という)100の構成について説明する。図1は、端末100の外観を表わす図である。図2は端末100のハードウェア構成を表わすブロック図である。端末100は、筐体110、アンテナ120、スピーカ130、周知の抵抗膜方式のタッチパネル140と表示装置212を有する表示部210、電源ボタン150、マイク160およびLED(Light Emitting Diode)170を備える。
<Hardware configuration>
With reference to FIG. 1 and FIG. 2, the configuration of a portable information processing terminal (hereinafter simply referred to as a terminal) 100 according to the present embodiment will be described. FIG. 1 is a diagram illustrating the appearance of the terminal 100. FIG. 2 is a block diagram showing the hardware configuration of terminal 100. The terminal 100 includes a housing 110, an antenna 120, a speaker 130, a display unit 210 having a known resistive film type touch panel 140 and a display device 212, a power button 150, a microphone 160, and an LED (Light Emitting Diode) 170.

端末100には、カード状の記録媒体であるメモリカード152が外部から着脱自在に装着される。   A memory card 152 that is a card-like recording medium is detachably attached to the terminal 100 from the outside.

端末100は、図1に示される構成に加えて、センサ部220、プロセッサ230、表示ドライバ214、フラッシュメモリ250、RAM(Random Access Memory)252、グラフィックメモリ254、ROM(Read Only Memory)256、通信回路260、信号処理回路270、バイブレータ280および装着されたメモリカード152をプロセッサ230の制御のもとにアクセスするためのメモリドライバ151を備える。プロセッサ230はCPU(Central Processing Unit)および計時のためのタイマなどを含む。   In addition to the configuration shown in FIG. 1, the terminal 100 includes a sensor unit 220, a processor 230, a display driver 214, a flash memory 250, a RAM (Random Access Memory) 252, a graphic memory 254, a ROM (Read Only Memory) 256, a communication A circuit 260, a signal processing circuit 270, a vibrator 280, and a memory driver 151 for accessing the attached memory card 152 under the control of the processor 230 are provided. The processor 230 includes a CPU (Central Processing Unit) and a timer for timing.

センサ部220は、加速度センサを含み、加速度センサの出力から端末100の傾き角度を検出する。   The sensor unit 220 includes an acceleration sensor, and detects the tilt angle of the terminal 100 from the output of the acceleration sensor.

表示部210は、タッチパネル140と表示装置212とを一体的に含む表示一体型入力装置の一部を構成する。表示部210の表示装置212はLCD(Liquid Crystal Display)パネルに相当し、その表示面上にはタッチパネル140が載置される。表示面において表示される画像はタッチパネル140を介して視認可能な可視画像である。つまり、ユーザはLCDパネルによる表示画像を透明部材からなるタッチパネル140を介して外部から視認することができる。ここでは、タッチパネル140は抵抗膜方式を採用したが、この方式に限定されず、たとえば周知の静電容量方式、または光センサ方式であってもよい。   The display unit 210 constitutes a part of a display-integrated input device that integrally includes the touch panel 140 and the display device 212. The display device 212 of the display unit 210 corresponds to an LCD (Liquid Crystal Display) panel, and a touch panel 140 is placed on the display surface. The image displayed on the display surface is a visible image that is visible via the touch panel 140. That is, the user can visually recognize the display image on the LCD panel from the outside through the touch panel 140 made of a transparent member. Here, the touch panel 140 employs a resistive film system, but is not limited to this system, and may be, for example, a known electrostatic capacity system or an optical sensor system.

表示部210の表示面を構成する表示パネルには上記のLCDに限定されず、有機ELディスプレイ(organic electroluminescence display)、FED(Field Emission Display:電界放出型ディスプレイ)などを用いてもよい。   The display panel constituting the display surface of the display unit 210 is not limited to the LCD described above, and an organic EL display (organic electroluminescence display), an FED (Field Emission Display), or the like may be used.

タッチパネル140は、表面上を指または専用のペン(図示せず)などの操作体によりタッチなどの操作がされる。ここでは、説明を簡単にするために操作体を指と想定する。タッチパネル140は、指により操作された位置(以下、操作位置という)に応じた電気信号をプロセッサ230に出力する。   The touch panel 140 is touched on the surface by an operating body such as a finger or a dedicated pen (not shown). Here, in order to simplify the explanation, it is assumed that the operating body is a finger. Touch panel 140 outputs an electrical signal corresponding to a position operated by a finger (hereinafter referred to as an operation position) to processor 230.

具体的には、タッチパネル140は、透明のガラス板および当該ガラス板の全面を覆う樹脂材料のフィルムを含み、両者は透明な電極格子を挟むようにして配置される。電極格子は、複数の電極が格子状に配列された2次元配列面を表す。電極格子はLCDパネルの表示領域のサイズに整合したサイズを有する。ユーザは、指でタッチパネル140上のフィルムの点をタッチ(押圧操作)すると、圧力によりフィルムがたわみ、ガラス面側の電極と接触し、接触した電極を介して電気信号(電流)が出力される。   Specifically, touch panel 140 includes a transparent glass plate and a film of a resin material that covers the entire surface of the glass plate, and both are arranged so as to sandwich a transparent electrode grid. The electrode grid represents a two-dimensional array surface in which a plurality of electrodes are arranged in a grid pattern. The electrode grid has a size that matches the size of the display area of the LCD panel. When the user touches (presses) a film point on the touch panel 140 with a finger, the film bends due to the pressure, contacts the electrode on the glass surface side, and an electric signal (current) is output through the contacted electrode. .

プロセッサ230は、タッチパネル140からの電気信号に基づきガラス面およびフィルム面それぞれの透明電極の抵抗による分圧比を測定することで、電極格子における操作(押圧)位置を2次元座標値(X0,Y0)として検出する。また、電気信号のレベルと所定のレベルとを比較することにより、比較結果から、指がタッチパネル140上にタッチ開始(タッチダウン)したかを検出し、またタッチ終了(タッチアップ)したかを検出し、またタッチムーブであるかを検出する。タッチムーブは、タッチダウンから直後のタッチアップまでの、タッチパネル140上のフィルム上をタッチしながらなぞっている操作を示す。   The processor 230 measures the voltage division ratio by the resistance of the transparent electrodes on the glass surface and the film surface based on the electrical signal from the touch panel 140, thereby indicating the operation (pressing) position on the electrode grid as a two-dimensional coordinate value (X0, Y0). Detect as. Also, by comparing the level of the electrical signal with a predetermined level, it is detected from the comparison result whether the finger has started touching (touching down) on the touch panel 140, and whether the touch has been completed (touching up). In addition, it is detected whether it is a touch move. The touch move indicates an operation of tracing while touching the film on the touch panel 140 from touch down to touch up immediately after.

このようにタッチパネル140は、ユーザ操作による入力を受け付けるための後述の操作受付部240の一部を構成する。   In this way, the touch panel 140 constitutes a part of an operation receiving unit 240 described later for receiving an input by a user operation.

LCDパネルは、複数の電極素子が2次元配列されて構成される。したがって、各電極素子を2次元座標値(x1,y1)により特定することができる。グラフィックメモリ254には、プロセッサ230により表示部210に表示される画像データが格納される。画像データは、LCDパネルの表示領域のサイズに整合するサイズを有した2次元配列のビットマップデータを表す。表示ドライバ214は当該画像データの各ビット値に基づく電気信号を生成し、生成した電気信号をLCDパネルの当該ビットの座標値(x0、y0)に対応した座標値(x1,y1)の電極素子に印加する。これにより、表示装置212には、グラフィックメモリ254の画像データに従う画像が表示される。   The LCD panel is configured by two-dimensionally arranging a plurality of electrode elements. Therefore, each electrode element can be specified by the two-dimensional coordinate value (x1, y1). The graphic memory 254 stores image data displayed on the display unit 210 by the processor 230. The image data represents two-dimensional bitmap data having a size that matches the size of the display area of the LCD panel. The display driver 214 generates an electric signal based on each bit value of the image data, and the generated electric signal is an electrode element having a coordinate value (x1, y1) corresponding to the coordinate value (x0, y0) of the bit of the LCD panel. Apply to. As a result, an image according to the image data in the graphic memory 254 is displayed on the display device 212.

プロセッサ230は端末100の動作を制御する。プロセッサ230はタッチパネル140と協同して、タッチパネル140上の操作位置を示す座標位置、より特定的には座標データを検出する。   The processor 230 controls the operation of the terminal 100. The processor 230 cooperates with the touch panel 140 to detect a coordinate position indicating the operation position on the touch panel 140, more specifically, coordinate data.

具体的には、プロセッサ230の操作受付部240は、タッチパネル140からの電気信号に基づき、電極格子上の操作位置に対応の電極位置を検出し、検出した電極位置を予め定めた変換係数を用いてタッチパネル140上の対応する点の座標値に変換することにより座標データを取得する座標データ取得部を有する。また、操作受付部240は、時系列に入力する電気信号に基づく時系列状の座標データに基づき、タッチパネル140における操作の始点(タッチダウン)から終点(直後のタッチアップ)までのタッチムーブの軌跡を表す一連の座標値からなる軌跡を検出する軌跡検出部を有する。一連の座標値は検出順に従う時系列の座標値である。なお、操作位置に対応する電極位置から座標値を取得する方法は、変換係数を用いる方法に限定されず、テーブルを検索してテーブルから対応する座標値を読出すとしてもよい。   Specifically, the operation accepting unit 240 of the processor 230 detects an electrode position corresponding to the operation position on the electrode grid based on the electric signal from the touch panel 140, and uses the conversion coefficient in which the detected electrode position is determined in advance. A coordinate data acquisition unit that acquires coordinate data by converting the coordinate values of corresponding points on the touch panel 140. Further, the operation reception unit 240 is based on time-series coordinate data based on electric signals input in time series, and a touch move locus from the start point (touch down) to the end point (immediate touch up) of the operation on the touch panel 140. Has a trajectory detection unit that detects a trajectory composed of a series of coordinate values. The series of coordinate values are time-series coordinate values according to the detection order. Note that the method of acquiring the coordinate value from the electrode position corresponding to the operation position is not limited to the method using the conversion coefficient, and the corresponding coordinate value may be read from the table by searching the table.

なお、操作体のタッチ面積の大きさによっては座標位置として複数の座標値が検出されるが、その場合には、操作受付部240は、タッチ面積の重心の座標位置を算出し、これをタッチされた操作位置として検出する。   Depending on the size of the touch area of the operating body, a plurality of coordinate values are detected as the coordinate position. In this case, the operation receiving unit 240 calculates the coordinate position of the center of gravity of the touch area and touches it. The detected operation position is detected.

フラッシュメモリ250は、端末100に対して与えられたデータあるいはプロセッサ230によって生成されたデータを不揮発的に保持する。   The flash memory 250 holds data given to the terminal 100 or data generated by the processor 230 in a nonvolatile manner.

RAM252は、プロセッサ230によって生成されたデータを一時的に保持する。
グラフィックメモリ254は、表示装置212において画像を表示するためのデータを格納する。なお、他の局面において、RAM252とグラフィックメモリ254とが一体として構成されていてもよい。
The RAM 252 temporarily holds data generated by the processor 230.
The graphic memory 254 stores data for displaying an image on the display device 212. In another aspect, the RAM 252 and the graphic memory 254 may be configured as a single unit.

ROM256は端末100を作動させるためのファームウェア、上述の操作入力受付のためのプログラムその他の各種プログラムと、端末100に固有の動作を実行させるために設定値として予め入力されたデータとを保持している。   The ROM 256 holds firmware for operating the terminal 100, the above-described program for accepting operation input and other various programs, and data preliminarily input as setting values for causing the terminal 100 to perform operations specific to the ROM 256. Yes.

表示ドライバ214は、グラフィックメモリ254に格納されているデータに基づく描画動作を表示装置212に対して実行する。表示装置212は、その動作に従って画像を表示する。   The display driver 214 performs a drawing operation based on data stored in the graphic memory 254 on the display device 212. The display device 212 displays an image according to the operation.

通信回路260は、アンテナ120によって受信された信号を変換し、変換後の信号をプロセッサ230に送出する。また他の局面において、通信回路260は、プロセッサ230から送られた信号を送信用の信号に変換し、変換後の信号をアンテナ120に送出する。   The communication circuit 260 converts the signal received by the antenna 120 and sends the converted signal to the processor 230. In another aspect, communication circuit 260 converts the signal sent from processor 230 into a signal for transmission, and sends the converted signal to antenna 120.

信号処理回路270は、マイク160から送られる電気信号を変換し変換後の信号をプロセッサ230に送出する。また、端末100が音声を出力する場合には、信号処理回路270は、プロセッサ230から送られた信号を音声出力用の信号に変換し、その変換後の信号をスピーカ130に送出する。スピーカ130は、その信号に基づき音声を出力する。   The signal processing circuit 270 converts the electrical signal sent from the microphone 160 and sends the converted signal to the processor 230. When terminal 100 outputs audio, signal processing circuit 270 converts the signal sent from processor 230 into a signal for audio output, and sends the converted signal to speaker 130. The speaker 130 outputs sound based on the signal.

バイブレータ280は、プロセッサ230から送られる信号に基づいて予め規定された振動パターンで発振する。   Vibrator 280 oscillates with a predetermined vibration pattern based on a signal sent from processor 230.

なお、プロセッサ230が受付ける操作は、タッチパネル140を介したユーザ操作に限定されず、電源ボタン150などの物理的ボタンを押下するなどの操作も含む。   Note that the operation received by the processor 230 is not limited to a user operation via the touch panel 140, and includes an operation such as pressing a physical button such as the power button 150.

図3は、本実施の形態に係る情報入力装置の概念図である。図3を参照して、情報入力装置は、タッチパネル140および表示装置212を含む表示部210、および操作受付部240を備える。図3では、情報入力装置に関連して、表示制御部290、グラフィックメモリ254および表示ドライバ214が示される。グラフィックメモリ254にはプロセッサ230によってプログラムの実行結果または表示されるべき画像などのデータが格納されるとともに、表示制御部290が操作受付部240からの情報に基づき生成したデータが格納される。したがって、表示ドライバ214はグラフィックメモリ254のデータに基づき表示装置212のLCDパネルを駆動することにより、表示部210では画像に重畳してユーザ操作による画像(ストロークの軌跡など)が表示される。   FIG. 3 is a conceptual diagram of the information input device according to the present embodiment. Referring to FIG. 3, the information input device includes a display unit 210 including a touch panel 140 and a display device 212, and an operation receiving unit 240. In FIG. 3, a display control unit 290, a graphic memory 254, and a display driver 214 are shown in relation to the information input device. The graphic memory 254 stores data such as an execution result of the program or an image to be displayed by the processor 230 and data generated by the display control unit 290 based on information from the operation reception unit 240. Accordingly, the display driver 214 drives the LCD panel of the display device 212 based on the data in the graphic memory 254, so that the display unit 210 displays an image (stroke trajectory or the like) by a user operation superimposed on the image.

本実施の形態では、表示装置212のLCDパネルの表示面と、その上に載置されるタッチパネル140の全面(操作面)とは同じ形状および面積としているが、少なくともタッチパネル140の操作可能な面内に表示領域が収まればよい。このように、タッチパネル140の操作入力を受付可能な領域は、LCDパネルの表示領域に対応しており、ここでは、LCDパネルの全面が表示領域である。したがって、各種メニュー、アイコン、ボタン、キーボード、サムネイルなどのオブジェクトを指で選択するユーザ操作(タッチなど)を、オブジェクトの画像の表示位置にかかわらず、タッチパネル140を介して受付けることができる。なお、タッチパネル140を介し受付けられるユーザ操作の種類には、タッチパネル140の表面に指の腹をタッチしたまま指をスライド移動させる操作が含まれる。   In the present embodiment, the display surface of the LCD panel of the display device 212 and the entire surface (operation surface) of the touch panel 140 placed thereon have the same shape and area, but at least the surface on which the touch panel 140 can be operated. It suffices if the display area fits inside. As described above, the area that can accept the operation input of the touch panel 140 corresponds to the display area of the LCD panel, and here, the entire surface of the LCD panel is the display area. Therefore, a user operation (such as touch) for selecting an object such as various menus, icons, buttons, a keyboard, and thumbnails with a finger can be received via the touch panel 140 regardless of the display position of the image of the object. Note that the types of user operations accepted via the touch panel 140 include an operation of sliding a finger while touching the belly of the finger on the surface of the touch panel 140.

<機能構成>
図4は、本発明の実施の形態に係るプロセッサ230の機能構成を示す図であり、関連する周辺部としてタッチパネル140、RAM252およびグラフィックメモリ254が示される。
<Functional configuration>
FIG. 4 is a diagram showing a functional configuration of the processor 230 according to the embodiment of the present invention, and shows a touch panel 140, a RAM 252 and a graphic memory 254 as related peripheral portions.

図4を参照してプロセッサ230は、操作受付部240、操作受付部240の出力から指による操作(タッチダウン、タッチアップなど)がされたことを検出するための指検出部245、情報入力装置の操作モードを切替えるか否かを判定するためのモード切替部255、指の操作位置を検出するための指位置検出部265、表示画像を拡大(ズームイン処理)または縮小(ズームアウト処理)するための画像処理を行うズーム処理部275、および表示画像をスクロール処理するためのスクロール処理部281を含む。ここでは、説明を簡単にするために、端末100は情報入力装置の操作モードとして、表示画像を拡大/縮小操作するためのズームモードと、表示画像をスクロール操作するためのスクロールモードとを有すると想定する。   Referring to FIG. 4, the processor 230 includes an operation receiving unit 240, a finger detection unit 245 for detecting that a finger operation (touch down, touch up, etc.) has been performed from the output of the operation receiving unit 240, an information input device A mode switching unit 255 for determining whether or not to switch the operation mode, a finger position detection unit 265 for detecting the operation position of the finger, and for enlarging (zooming-in processing) or reducing (zoom-out processing) the display image. A zoom processing unit 275 for performing the image processing, and a scroll processing unit 281 for scrolling the display image. Here, for the sake of simplicity, the terminal 100 has a zoom mode for enlarging / reducing a display image and a scroll mode for scrolling the display image as operation modes of the information input device. Suppose.

モード切替部255は、タッチ操作による押圧の有無を判定するための押圧判定部251、およびプロセッサ230のタイマの出力から、継続して押圧されている時間を測定するための時間判定部257を含む。ズーム処理部275は、表示画像の拡大または縮小に係る倍率を算出するための比率計算部271および拡大/縮小の画像処理に係る座標系の原点を設定するための原点設定部272を含む。なお、本実施の形態では、比率または倍率は、グラフィックメモリ254に格納されて現在表示されている画像の大きさを1.0として決定される。   The mode switching unit 255 includes a press determination unit 251 for determining whether or not there is a press by a touch operation, and a time determination unit 257 for measuring the time of continuous pressing from the timer output of the processor 230. . The zoom processing unit 275 includes a ratio calculation unit 271 for calculating a magnification for enlargement or reduction of the display image and an origin setting unit 272 for setting the origin of the coordinate system for the enlargement / reduction image processing. In the present embodiment, the ratio or magnification is determined with 1.0 as the size of the image stored in the graphic memory 254 and currently displayed.

図4の各部は、プログラム、またはプログラムと回路の組合わせから実現される。
<フローチャート>
図5は、本発明の実施の形態に係る処理フローチャートである。図6、図7および図8には表示装置212の表示画像が例示される。
Each unit in FIG. 4 is realized by a program or a combination of a program and a circuit.
<Flowchart>
FIG. 5 is a process flowchart according to the embodiment of the present invention. 6, 7, and 8 exemplify display images of the display device 212.

図5のフローチャートに従うプログラムは予めROM256などの記憶部に格納され、CPUがROM256からプログラムを読出し、読出したプログラムの各命令コードを実行することにより処理が実現される。   The program according to the flowchart of FIG. 5 is stored in advance in a storage unit such as the ROM 256, and the CPU reads the program from the ROM 256 and executes each instruction code of the read program, thereby realizing the processing.

ここでは、図5のフローチャートに従うプログラムは、ブラウザが起動時に実行されると想定する。ブラウザは、画像、文字などの情報をディスプレイに表示して閲覧するためのソフトウェア(プログラム)を示すが、当該情報をディスプレイに表示するソフトウェアであればブラウザに限定されるものではない。また、ここでは、説明を簡単にするためにブラウザにより画像が表示されていると想定する。   Here, it is assumed that the program according to the flowchart of FIG. 5 is executed when the browser is activated. The browser indicates software (program) for displaying information such as images and characters on a display for browsing. However, the browser is not limited to the browser as long as the information is displayed on the display. Here, it is assumed that an image is displayed by a browser for the sake of simplicity.

まず、ブラウザが起動されてプログラムが実行されると(ステップS1)、表示装置212に画像が表示される(図6(A)を参照)。ブラウザ起動時に、情報入力装置の操作モードを示すモードデータはデフォルトモードに、たとえば“スクロールモード”に初期化されると想定する。なお、モードデータは、RAM252の所定記憶領域に格納される。   First, when the browser is activated and the program is executed (step S1), an image is displayed on the display device 212 (see FIG. 6A). It is assumed that mode data indicating an operation mode of the information input device is initialized to a default mode, for example, a “scroll mode” when the browser is activated. The mode data is stored in a predetermined storage area of the RAM 252.

指検出部245は、操作受付部240からの出力(座標データ)に基づき、タッチパネル140上でタッチダウンされたか否かを判定する(ステップS3)。具体的には、操作受付部240から同じ座標データが、タイマが計時する所定時間継続して出力されたと判定した場合に、タッチダウンされたと判定する。なお、操作受付部240の出力に代替して、タッチパネル140の出力から判定するとしてもよい。   The finger detection unit 245 determines whether or not a touchdown is performed on the touch panel 140 based on the output (coordinate data) from the operation reception unit 240 (step S3). Specifically, when it is determined that the same coordinate data is continuously output from the operation reception unit 240 for a predetermined time counted by the timer, it is determined that the touchdown is performed. Instead of the output from the operation reception unit 240, the determination may be made from the output from the touch panel 140.

タッチダウンされたと判定されないときは(ステップS3でNO)、ステップS3の処理が繰返されるが、タッチダウンされたと判定される(ステップS3でYES)場合には、ユーザは、表示画像の所望位置を指301でタッチダウンすると想定する(図6(B)を参照)。   If it is not determined that the touchdown has been performed (NO in step S3), the process in step S3 is repeated. If it is determined that the touchdown has been performed (YES in step S3), the user sets the desired position of the display image. It is assumed that the finger 301 is touched down (see FIG. 6B).

タッチダウンが判定されると(ステップS3でYES)、モード切替部255では、指検出部245とタッチパネル140の出力に基づき、押圧判定部251および時間判定部257はタッチダウンされた操作位置における押圧力が所定時間予め定められた閾値(閾圧力)以上の圧力であるか否かを判定する(ステップS5)。すなわち、タッチパネル140上の同一位置を押圧したことによる電流値が所定時間予め定められた閾値以上を示すか否かが判定される。閾値および所定時間のデータは、予めROM256に格納されている。   When touchdown is determined (YES in step S3), the mode switching unit 255 causes the press determination unit 251 and the time determination unit 257 to press the touched down operation position based on the outputs of the finger detection unit 245 and the touch panel 140. It is determined whether or not the pressure is equal to or higher than a predetermined threshold (threshold pressure) for a predetermined time (step S5). That is, it is determined whether or not the current value due to pressing the same position on the touch panel 140 indicates a predetermined threshold value or more for a predetermined time. The threshold value and data for a predetermined time are stored in the ROM 256 in advance.

押圧力が所定時間予め定められた閾値以上の圧力を示すと判定されると(ステップS5でYES)、モード切替部255はRAM252のモードデータを“ズームモード”に書き換え、ステップS7以降のズーム処理に移行する。   If it is determined that the pressing force is equal to or greater than a predetermined threshold value for a predetermined time (YES in step S5), the mode switching unit 255 rewrites the mode data in the RAM 252 to “zoom mode”, and the zoom processing after step S7. Migrate to

一方、押圧力が所定時間予め定められた閾値以上の圧力を示さないと判定されると(ステップS5でNO)、モード切替部255はRAM252のモードデータを“スクロールモード”に書き換え、ステップS25のスクロール処理に移行する。なお、モードデータが“スクロールモード”を示す場合には、データ書き換えは実行されない。   On the other hand, when it is determined that the pressing force does not show a pressure equal to or higher than a predetermined threshold value for a predetermined time (NO in step S5), the mode switching unit 255 rewrites the mode data in the RAM 252 to “scroll mode”, and in step S25 Transition to scroll processing. If the mode data indicates “scroll mode”, data rewriting is not executed.

スクロール処理では、CPUは、RAM252のモードデータを参照し“スクロールモード”を示すと判定したことに応じて、スクロール処理部281を起動する。指位置検出部265は、操作受付部240の出力(座標データ、軌跡データ)に基づき、タッチした指301のタッチパネル140の操作面上のタッチ操作位置の位置情報(指の移動方向および移動距離)を検出する。スクロール処理部281は、指位置検出部265からの出力に基づき、指301の位置情報に従って表示画像をスクロールする(ステップS25)。   In the scroll process, the CPU activates the scroll processing unit 281 in response to determining that the “scroll mode” is indicated by referring to the mode data in the RAM 252. The finger position detection unit 265 is based on the output (coordinate data, trajectory data) of the operation reception unit 240, and the position information (the movement direction and movement distance of the finger) of the touch operation position on the operation surface of the touch panel 140 of the touched finger 301. Is detected. The scroll processing unit 281 scrolls the display image according to the position information of the finger 301 based on the output from the finger position detection unit 265 (step S25).

画像のスクロール処理は公知であるから詳細は繰り返さないが、簡単に説明すると、スクロール処理部281は、検出される位置情報に基づきRAM252のワーク領域に格納された表示すべき画像データをスクロール表示されるように処理し、処理後の画像データを表示制御部290を介しグラフィックメモリ254に格納する。グラフィックメモリ254の画像データに従って表示ドライバ214がLCDパネルを駆動することにより、表示装置212では画像がスクロール表示される(図7(A)を参照)。   The details of the image scrolling process are well known and will not be repeated. In brief, the scroll processing unit 281 scrolls the image data to be displayed stored in the work area of the RAM 252 based on the detected position information. The processed image data is stored in the graphic memory 254 via the display control unit 290. When the display driver 214 drives the LCD panel in accordance with the image data in the graphic memory 254, the display device 212 scrolls the image (see FIG. 7A).

ズーム処理では、CPUの特定位置検出部は、RAM252のモードデータを参照し“ズームモード”を示すと判定したことに応じて、タッチされている操作位置を特定位置として検出する。CPUは、当該特定位置にアイコン300を表示し(図6(C)を参照)、特定位置の座標をRAM252の所定記憶領域に格納し、ズーム処理部275を起動する。指位置検出部265は、操作受付部240の出力(座標データ、軌跡データ)に基づき、タッチした指301の位置情報(指301の移動方向および移動距離)を検出する。ズーム処理部275は、検出される位置情報に従い表示画像を拡大/縮小する。   In the zoom process, the specific position detection unit of the CPU detects the touched operation position as the specific position in response to determining that “zoom mode” is indicated with reference to the mode data in the RAM 252. The CPU displays the icon 300 at the specific position (see FIG. 6C), stores the coordinates of the specific position in a predetermined storage area of the RAM 252, and activates the zoom processing unit 275. The finger position detection unit 265 detects position information (movement direction and movement distance of the finger 301) of the touched finger 301 based on the output (coordinate data, trajectory data) of the operation reception unit 240. The zoom processing unit 275 enlarges / reduces the display image according to the detected position information.

本実施の形態では、画像の拡大/縮小は、たとえば座標値に倍率を乗算するアフィン変換により実現する。アフィン変換では、座標の原点(0,0)を中心として画像を拡大縮小するのが好ましい。たとえば矩形画像の左上端の頂点を中心に拡大処理を行うとすれば、画像を右下方向にしか拡大することができず、表示画像としては、アイコン300が指示する操作位置から右下方向の画像のみが拡大されることになる。   In the present embodiment, enlargement / reduction of an image is realized by, for example, affine transformation that multiplies a coordinate value by a magnification. In the affine transformation, it is preferable to enlarge or reduce the image around the origin (0, 0) of the coordinates. For example, if the enlargement process is performed centering on the vertex at the upper left corner of the rectangular image, the image can be enlarged only in the lower right direction, and the display image is displayed in the lower right direction from the operation position indicated by the icon 300. Only the image will be enlarged.

そこで、本実施の形態では、アイコン300が指示する特定の操作位置を中心として表示画像(矩形画像と想定する)を拡大/縮小するために、ズーム処理部275は、グラフィックメモリ254の画像データを、RAM252のワーク領域に一旦転送(コピー)する。原点設定部272は、ワーク領域における画像の中心点(アイコン300が指示する特定位置の座標)を原点(0,0)に一致させる(ステップS7)。一方、比率計算部271は指位置検出部265が出力する指301の位置情報から比率を算出する。ズーム処理部275は、ワーク領域の原点移動後の画像データを、算出比率が示す倍率に基づきアフィン変換により拡大/縮小し、その後に、アイコン300が指示する座標位置を原点から元の位置に戻すように画像データを処理し、処理後の画像データを表示制御部290を介しグラフィックメモリ254に格納する(ステップS21、S23)。   Therefore, in this embodiment, in order to enlarge / reduce a display image (assumed to be a rectangular image) around a specific operation position indicated by the icon 300, the zoom processing unit 275 uses image data in the graphic memory 254. , Once transferred (copied) to the work area of the RAM 252. The origin setting unit 272 matches the center point of the image in the work area (the coordinates of the specific position indicated by the icon 300) with the origin (0, 0) (step S7). On the other hand, the ratio calculation unit 271 calculates the ratio from the position information of the finger 301 output from the finger position detection unit 265. The zoom processing unit 275 enlarges / reduces the image data after moving the origin of the work area by affine transformation based on the magnification indicated by the calculation ratio, and then returns the coordinate position indicated by the icon 300 from the origin to the original position. The image data is processed as described above, and the processed image data is stored in the graphic memory 254 via the display control unit 290 (steps S21 and S23).

これにより、ユーザが指301で指定した操作位置の部分画像(アイコン300が示す部分画像)を中心に拡大/縮小された画像を表示することができる(図7(C)を参照)。   As a result, an image enlarged / reduced around the partial image (the partial image indicated by the icon 300) at the operation position designated by the user with the finger 301 can be displayed (see FIG. 7C).

ズームモードでは、指301の操作が検出される。具体的には、指位置検出部265は、タッチパネル140の出力に基づき、出力が所定時間途絶えるか否かに基づき、指301がタッチパネル140上から離れる(タッチアップ)か否かを判定する(ステップS9)。   In the zoom mode, the operation of the finger 301 is detected. Specifically, the finger position detection unit 265 determines, based on the output of the touch panel 140, whether or not the finger 301 is separated from the touch panel 140 (touch up) based on whether or not the output is interrupted for a predetermined time (step up). S9).

タッチパネル140から指301が離れた(図7(B)を参照)と判定すると(ステップS9でYES)、再度、タッチ(タッチダウン)されるか否かを判定する(ステップS11)。タッチが検出されない間は(ステップS11でNO)、ステップS11の処理が繰返される。   If it is determined that the finger 301 is removed from the touch panel 140 (see FIG. 7B) (YES in step S9), it is determined again whether or not it is touched (touched down) (step S11). While no touch is detected (NO in step S11), the process in step S11 is repeated.

タッチが検出されると(ステップS11でYES)、指位置検出部265は、操作受付部240の出力に基づきアイコン300がタッチされたか否かを判定する(ステップS13)。具体的には、タッチが検出された操作位置の座標とRAM252の所定記憶エリアのアイコン300の座標を比較し、比較結果に基づき、両座標は一致するか否かを判定する。一致するとき、アイコン300がタッチされたと判定し、不一致のときアイコン300はタッチされていないと判定する。   When a touch is detected (YES in step S11), the finger position detection unit 265 determines whether or not the icon 300 is touched based on the output of the operation reception unit 240 (step S13). Specifically, the coordinates of the operation position where the touch is detected are compared with the coordinates of the icon 300 in the predetermined storage area of the RAM 252, and based on the comparison result, it is determined whether or not the two coordinates match. When they match, it is determined that the icon 300 is touched, and when they do not match, it is determined that the icon 300 is not touched.

アイコン300がタッチされた(図8(B)を参照)と判定されると(ステップS13でYES)、押圧判定部251は、タッチパネル140の出力に基づき、押圧力が予め定められた閾値以上であるか否かを判定する(ステップS15)。閾値以上であると判定すると(ステップS15でYES)、CPUはモードデータを“スクロールモード”に書き換えるとともに、アイコン300の画像を消去する(ステップS17)。これにより、ズームモードが解除され、一連の処理は終了する(図8(A)を参照)。   When it is determined that the icon 300 is touched (see FIG. 8B) (YES in step S13), the pressing determination unit 251 determines that the pressing force is equal to or greater than a predetermined threshold based on the output of the touch panel 140. It is determined whether or not there is (step S15). If it is determined that the value is equal to or greater than the threshold value (YES in step S15), the CPU rewrites the mode data to “scroll mode” and deletes the image of the icon 300 (step S17). As a result, the zoom mode is canceled and the series of processing ends (see FIG. 8A).

一方、指301をタッチパネル140から離していないと判定されると(ステップS9でNO)、またはアイコン300がタッチされたと判定されないと(ステップS13でNO)、またはタッチパネル140の指301による押圧力が予め定められた閾値以上ではないと判定されると(ステップS15でNO)、比率計算部271は指301の移動方向から、比率を算出する(ステップS19)。   On the other hand, if it is determined that the finger 301 is not separated from the touch panel 140 (NO in step S9), or if it is not determined that the icon 300 is touched (NO in step S13), or the pressing force by the finger 301 on the touch panel 140 is If it is determined that it is not equal to or greater than the predetermined threshold (NO in step S15), the ratio calculation unit 271 calculates a ratio from the moving direction of the finger 301 (step S19).

具体的には、比率計算部271は指位置検出部265が検出する位置情報に基づき、指301の操作位置がアイコン300の座標位置から離れる方向に移動したか否かを検出する(ステップS19)。アイコン300から離れる方向に移動したと検出すると(ステップS19でYES)、比率計算部271は、位置情報から指301の移動距離を検出し、検出した移動距離から所定換算式に従って拡大のための比率(≧1.0)を算出し、上述の画像拡大処理(図7(C)を参照)が行われる(ステップS23)。その後、ステップS9の処理に戻る。たとえば、所定換算式により、移動距離が長いほど、拡大のための比率は大きく、短いほど比率は小さいとする。   Specifically, the ratio calculation unit 271 detects whether the operation position of the finger 301 has moved in a direction away from the coordinate position of the icon 300 based on the position information detected by the finger position detection unit 265 (step S19). . When it is detected that the icon 300 has moved away from the icon 300 (YES in step S19), the ratio calculation unit 271 detects the movement distance of the finger 301 from the position information, and the ratio for enlargement according to a predetermined conversion formula from the detected movement distance. (≧ 1.0) is calculated, and the above-described image enlargement process (see FIG. 7C) is performed (step S23). Thereafter, the process returns to step S9. For example, according to the predetermined conversion formula, it is assumed that the longer the moving distance is, the larger the ratio for enlargement is, and the shorter is the smaller the ratio is.

一方、アイコン300から離れる方向に指301が移動していないと検出すると(ステップS19でNO)、つまりアイコン300に向かって指301を移動させると、比率計算部271は上記の位置情報から指301の移動距離を検出し、検出した移動距離から所定換算式に従って縮小のための比率(0≦比率<1.0)を算出し、上述の画像縮小処理(図7(C)を参照)が行われる(ステップS21)。その後、ステップS9の処理に戻る。たとえば、所定換算式により、移動距離が長いほど、縮小のための比率が小さく、短いほど比率は大きいとする。   On the other hand, when it is detected that the finger 301 has not moved in the direction away from the icon 300 (NO in step S19), that is, when the finger 301 is moved toward the icon 300, the ratio calculation unit 271 calculates the finger 301 from the position information. , And a reduction ratio (0 ≦ ratio <1.0) is calculated from the detected movement distance according to a predetermined conversion formula, and the above-described image reduction processing (see FIG. 7C) is performed. (Step S21). Thereafter, the process returns to step S9. For example, according to the predetermined conversion formula, it is assumed that the longer the moving distance, the smaller the ratio for reduction, and the shorter, the larger the ratio.

このように図5の処理では、CPUは、タッチパネル140の操作面上の指301のタッチの強弱(押圧レベル)を検出し、検出結果に従って異なる処理を実行する。   As described above, in the process of FIG. 5, the CPU detects the strength (press level) of the touch of the finger 301 on the operation surface of the touch panel 140 and executes different processes according to the detection result.

まず、ユーザは端末100本体を片手で握り、たとえば親指301で画面にタッチする。その指301による画面への押圧力が予め定められた閾値以上を示す場合(ステップS5でYES)、操作モードは、表示画像を拡大/縮小するためのズームモードに切替わる。   First, the user holds the terminal 100 main body with one hand, and touches the screen with the thumb 301, for example. When the pressing force on the screen by the finger 301 is equal to or greater than a predetermined threshold (YES in step S5), the operation mode is switched to a zoom mode for enlarging / reducing the display image.

ズームモードにおいては、指301がタッチしている操作位置に、アイコン300が表示される(ステップS7)。ユーザはアイコン300とは別の位置に、もう一度指301でタッチし(ステップS9でYES、ステップS11でYES、ステップS13でNO)、指301をアイコン300に近づく方向に、すなわちアイコン300に向かってスライド移動(タッチムーブ)させると(ステップS19でNO)、アイコン300を中心に画像が縮小表示される(ステップS21)。同様に、アイコン300から遠ざかる方向に指301をスライド移動させると(ステップS19でYES)、アイコン300を中心に画像が拡大表示される(ステップS23)。   In the zoom mode, the icon 300 is displayed at the operation position touched by the finger 301 (step S7). The user touches the finger 301 again at a position different from the icon 300 (YES in step S9, YES in step S11, NO in step S13), and moves the finger 301 toward the icon 300, that is, toward the icon 300. When the slide is moved (touch moved) (NO in step S19), the image is reduced and displayed around the icon 300 (step S21). Similarly, when the finger 301 is slid in a direction away from the icon 300 (YES in step S19), an image is enlarged and displayed centering on the icon 300 (step S23).

また、ズームモードにおいて、指301がタッチしている操作位置にアイコン300が表示された後に(ステップS7)、タッチパネル140上から離さずにそのまま指301をスライド移動させると、すなわちアイコン300から遠ざかる方向に指301をスライド移動させると(ステップS9でNO、19でYES)、アイコン300を中心に画像が拡大表示される(ステップS23)。   Further, in the zoom mode, after the icon 300 is displayed at the operation position touched by the finger 301 (step S7), if the finger 301 is slid without moving from the touch panel 140, that is, the direction away from the icon 300. When the finger 301 is slid and moved (NO in step S9, YES in 19), the image is enlarged and displayed around the icon 300 (step S23).

また、予め定められた閾値以上の押圧力で再度、アイコン300をタッチすると(ステップS9でYES、ステップS11でYES、ステップS13でYES、ステップS15でYES)、ズームモードが解除されて操作モードはスクロールモードに戻り、画面からアイコン300が消える(ステップS17)。   When the icon 300 is touched again with a pressing force equal to or greater than a predetermined threshold (YES in step S9, YES in step S11, YES in step S13, YES in step S15), the zoom mode is canceled and the operation mode is Returning to the scroll mode, the icon 300 disappears from the screen (step S17).

本実施の形態では、片手で端末100本体を保持したまま、当該片手の指で操作する場合に、画面の表示画像の所望する座標位置を指で指定することで、当該座標位置を中心に画像の拡大/縮小表示させることができる。   In the present embodiment, when operating with the finger of one hand while holding the terminal 100 main body with one hand, the desired coordinate position of the display image on the screen is designated with the finger, and the image is centered on the coordinate position. Can be enlarged / reduced.

<変形例>
図5ではステップS25の処理後はステップS5に戻るようにしてもよい。これにより、スクロール後の画像を拡大/縮小したい場合にはズームモードに切替えることができる。
<Modification>
In FIG. 5, after the process of step S25, the process may return to step S5. Thereby, when it is desired to enlarge / reduce the image after scrolling, it is possible to switch to the zoom mode.

また、アイコン300は予め定められた画鋲の絵柄を表すが、絵柄は画鋲に限定されない。また、ユーザはアイコン300の絵柄を可変に変更できるとしてもよい。   The icon 300 represents a predetermined thumbtack pattern, but the pattern is not limited to the thumbtack. The user may be able to change the pattern of the icon 300 variably.

また、画像を拡大/縮小するための中心位置をユーザに提示することができれば、アイコン300を用いた表示に限定されない。たとえば、当該中心位置を含む部分画像の表示態様を他の部分画像とは異ならせるとしてもよい。たとえば中心位置を含む部分画像をブリンク表示する、色を反転表示するなどしてもよい。また、アイコンの表示と表示態様の変更の両方を同時に行うとしてもよい。   The display using the icon 300 is not limited as long as the center position for enlarging / reducing the image can be presented to the user. For example, the display mode of the partial image including the center position may be different from other partial images. For example, a partial image including the center position may be displayed blinking, or the color may be displayed in reverse. Further, both icon display and display mode change may be performed simultaneously.

操作モードの切替に関し、指301の押圧力が予め定められた閾値以上である場合にズームモードへの切替え(ステップS5)、またはズームモード解除(ステップS15)を実行するが、ステップS5とS15で用いる閾値は同じであってもよく、または異ならせてもよい。   Regarding the switching of the operation mode, when the pressing force of the finger 301 is equal to or greater than a predetermined threshold value, switching to the zoom mode (step S5) or canceling the zoom mode (step S15) is executed. In steps S5 and S15, The thresholds used may be the same or different.

また、操作モード切替えのための参照値は押圧力としているが、押圧力に限定されるものではない。たとえば、継続して押圧している時間長さに基づき、または押圧力の大きさおよび継続して押圧している時間長さに基づきズームモードへの切替または解除を判定するとしてもよい。   The reference value for switching the operation mode is a pressing force, but is not limited to the pressing force. For example, switching to or canceling the zoom mode may be determined based on the length of time of continuous pressing, or based on the magnitude of the pressing force and the length of time of continuous pressing.

なお、表示される情報は画像に限定されず、文字であってもよい。その場合であっても拡大/縮小およびスクロールを同様に実施することができる。   The displayed information is not limited to images, and may be characters. Even in this case, enlargement / reduction and scrolling can be performed in the same manner.

(他の実施の形態)
上述した実施の形態では、図5のフローチャートに従うプログラムは、端末100に付属するメモリカード152などのように、プロセッサ230のCPUがメモリドライバ151を介して読取り可能な記録媒体に記録させて、プログラム製品として端末100に提供することもできる。あるいは、ネットワークを介してアンテナ120により受信しRAM252の記憶領域へのダウンロードによって、プログラムを提供することもできる。
(Other embodiments)
In the embodiment described above, the program according to the flowchart of FIG. 5 is recorded on a recording medium that can be read by the CPU of the processor 230 via the memory driver 151 such as the memory card 152 attached to the terminal 100. It can also be provided to the terminal 100 as a product. Alternatively, the program can be provided by being received by the antenna 120 via a network and downloaded to the storage area of the RAM 252.

提供されるプログラム製品は、プログラム自体と、プログラムが非一時的に記録された記録媒体とを含む。   The provided program product includes the program itself and a recording medium on which the program is recorded non-temporarily.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 端末、140 タッチパネル、210 表示部、212 表示装置、230 プロセッサ、240 操作受付部、245 指検出部、251 押圧判定部、254 グラフィックメモリ、255 モード切替部、257 時間判定部、265 指位置検出部、271 比率計算部、272 原点設定部、275 ズーム処理部、281 スクロール処理部、290 表示制御部、300 アイコン、301 指。   100 terminal, 140 touch panel, 210 display unit, 212 display device, 230 processor, 240 operation reception unit, 245 finger detection unit, 251 press determination unit, 254 graphic memory, 255 mode switching unit, 257 time determination unit, 265 finger position detection Part, 271 ratio calculation part, 272 origin setting part, 275 zoom processing part, 281 scroll processing part, 290 display control part, 300 icon, 301 finger.

Claims (9)

表示部の表示面上のタッチ操作により指定される位置を検出するための指定位置検出部と、
タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出する特定位置検出部と、
前記指定位置検出部が検出する一連の検出位置を示す位置情報から、前記特定位置に対する検出位置の移動方向を検出する方向検出部と、
前記表示部に表示される情報を処理する処理部と、を備え、
前記処理部は、
検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するズーム処理部を含む、情報処理装置。
A designated position detecting unit for detecting a position designated by a touch operation on the display surface of the display unit;
A specific position detection unit that compares a pressing force at the time of the touch operation with a threshold and detects a specific position from a specified position by the touch operation based on the comparison result;
A direction detection unit that detects a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the designated position detection unit;
A processing unit that processes information displayed on the display unit,
The processor is
An information processing apparatus including a zoom processing unit that enlarges or reduces information displayed on the display unit according to a detected moving direction.
前記処理部は、設定される前記特定位置を中心に表示される情報を拡大または縮小する、請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the processing unit enlarges or reduces the information displayed around the set specific position. 前記処理部は、前記位置情報が示す前記特定位置に対する検出位置の移動距離から、拡大または縮小のための比率を算出する比率算出部を含む、請求項1または2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the processing unit includes a ratio calculation unit that calculates a ratio for enlargement or reduction from a moving distance of the detection position with respect to the specific position indicated by the position information. 前記表示面の前記特定位置において予め定められた絵柄を表示する、請求項1から3のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein a predetermined pattern is displayed at the specific position on the display surface. 前記特定位置がタッチ操作されたとき、表示されている前記絵柄を消去する、請求項4に記載の情報処理装置。   The information processing apparatus according to claim 4, wherein when the specific position is touch-operated, the displayed picture is erased. 前記処理部は、前記表示部に表示される情報を処理するために実行される、前記ズーム処理部を含む複数の情報処理部を含み、
タッチ操作時の押圧力の大きさに基づき、前記複数の情報処理部のうちのいずれかを実行する、請求項1から5のいずれかに記載の情報処理装置。
The processing unit includes a plurality of information processing units including the zoom processing unit, which are executed to process information displayed on the display unit,
The information processing apparatus according to claim 1, wherein any one of the plurality of information processing units is executed based on a magnitude of a pressing force at the time of a touch operation.
前記処理部は、前記表示部に表示される情報を処理するために実行される、前記ズーム処理部を含む複数の情報処理部を含み、
タッチ操作時のタッチされている時間の長さに基づき、前記複数の情報処理部のうちのいずれかを実行する、請求項1から6のいずれかに記載の情報処理装置。
The processing unit includes a plurality of information processing units including the zoom processing unit, which are executed to process information displayed on the display unit,
The information processing apparatus according to claim 1, wherein any one of the plurality of information processing units is executed based on a length of time during which a touch operation is performed.
表示部の表示面上のタッチ操作により指定される位置を検出するステップと、
タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、
前記位置を検出するステップにより検出される一連の検出位置を示す位置情報から、前記特定位置に対する検出位置の移動方向を検出するステップと、
前記表示部に表示される情報を処理するステップと、を備え、
前記処理するステップは、
検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するステップを含む、情報処理方法。
Detecting a position specified by a touch operation on the display surface of the display unit;
Comparing the pressing force at the time of the touch operation with a threshold value, and detecting a specific position from the specified position by the touch operation based on the comparison result;
Detecting a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the step of detecting the position;
Processing information displayed on the display unit,
The processing step includes
An information processing method including a step of enlarging or reducing information displayed on the display unit according to a detected moving direction.
プロセッサに情報処理方法を実行させるためのプログラムであって、
前記プログラムは前記プロセッサに、
表示部の表示面上のタッチ操作により指定される位置を検出するステップと、
タッチ操作時の押圧力と閾値とを比較し、比較結果に基づき当該タッチ操作による指定位置から特定位置を検出するステップと、
前記位置を検出するステップにより検出される一連の検出位置を示す位置情報から、前記特定位置に対する検出位置の移動方向を検出するステップと、
前記表示部に表示される情報を処理するステップと、を実行させ、
前記処理するステップは、
検出される移動方向に従って前記表示部に表示される情報を拡大または縮小するステップを含む、プログラム。
A program for causing a processor to execute an information processing method,
The program is stored in the processor.
Detecting a position specified by a touch operation on the display surface of the display unit;
Comparing the pressing force at the time of the touch operation with a threshold value, and detecting a specific position from the specified position by the touch operation based on the comparison result;
Detecting a moving direction of the detection position with respect to the specific position from position information indicating a series of detection positions detected by the step of detecting the position;
Processing the information displayed on the display unit,
The processing step includes
A program comprising a step of enlarging or reducing information displayed on the display unit according to a detected moving direction.
JP2012197010A 2012-09-07 2012-09-07 Information processing apparatus, information processing method, and program Expired - Fee Related JP5977627B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012197010A JP5977627B2 (en) 2012-09-07 2012-09-07 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012197010A JP5977627B2 (en) 2012-09-07 2012-09-07 Information processing apparatus, information processing method, and program

Publications (2)

Publication Number Publication Date
JP2014052852A true JP2014052852A (en) 2014-03-20
JP5977627B2 JP5977627B2 (en) 2016-08-24

Family

ID=50611292

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012197010A Expired - Fee Related JP5977627B2 (en) 2012-09-07 2012-09-07 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP5977627B2 (en)

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016224688A (en) * 2015-05-29 2016-12-28 シャープ株式会社 Information processing device, control method, control program, and recording medium
JP2017143879A (en) * 2016-02-15 2017-08-24 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
JP2018027238A (en) * 2016-08-18 2018-02-22 株式会社コロプラ Game program, method, and information processing device
WO2018143744A1 (en) * 2017-02-03 2018-08-09 주식회사 하이딥 Touch sensing display device and method for controlling screen thereof
JP2018149302A (en) * 2018-03-16 2018-09-27 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
JP2019050002A (en) * 2012-12-29 2019-03-28 アップル インコーポレイテッドApple Inc. Device, method, and graphical user interface for determining whether to scroll or select content
JP2019166338A (en) * 2019-05-15 2019-10-03 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
JP2020049268A (en) * 2019-12-19 2020-04-02 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
JP2020518897A (en) * 2017-04-20 2020-06-25 株式会社 ハイディープHiDeep Inc. Device and control method capable of touch sensing and touch pressure sensing
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
JP2021010776A (en) * 2020-10-22 2021-02-04 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
CN113865753A (en) * 2021-08-27 2021-12-31 惠州市德赛西威汽车电子股份有限公司 Vehicle-mounted touch steering wheel pressure detection method based on EOL consistency calibration
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015489A (en) * 2008-07-07 2010-01-21 Seiko Epson Corp Display device and program
JP2011028635A (en) * 2009-07-28 2011-02-10 Sony Corp Display control apparatus, display control method and computer program
JP2011053770A (en) * 2009-08-31 2011-03-17 Nifty Corp Information processing apparatus and input processing method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015489A (en) * 2008-07-07 2010-01-21 Seiko Epson Corp Display device and program
JP2011028635A (en) * 2009-07-28 2011-02-10 Sony Corp Display control apparatus, display control method and computer program
JP2011053770A (en) * 2009-08-31 2011-03-17 Nifty Corp Information processing apparatus and input processing method

Cited By (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
JP2019050002A (en) * 2012-12-29 2019-03-28 アップル インコーポレイテッドApple Inc. Device, method, and graphical user interface for determining whether to scroll or select content
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
JP2016224688A (en) * 2015-05-29 2016-12-28 シャープ株式会社 Information processing device, control method, control program, and recording medium
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP2017143879A (en) * 2016-02-15 2017-08-24 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
JP2018027238A (en) * 2016-08-18 2018-02-22 株式会社コロプラ Game program, method, and information processing device
WO2018143744A1 (en) * 2017-02-03 2018-08-09 주식회사 하이딥 Touch sensing display device and method for controlling screen thereof
JP2020518897A (en) * 2017-04-20 2020-06-25 株式会社 ハイディープHiDeep Inc. Device and control method capable of touch sensing and touch pressure sensing
JP2018149302A (en) * 2018-03-16 2018-09-27 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
JP2019166338A (en) * 2019-05-15 2019-10-03 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
JP2020049268A (en) * 2019-12-19 2020-04-02 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
JP2021010776A (en) * 2020-10-22 2021-02-04 株式会社コナミデジタルエンタテインメント Game control device, game system, and program
CN113865753A (en) * 2021-08-27 2021-12-31 惠州市德赛西威汽车电子股份有限公司 Vehicle-mounted touch steering wheel pressure detection method based on EOL consistency calibration
CN113865753B (en) * 2021-08-27 2024-02-02 惠州市德赛西威汽车电子股份有限公司 Vehicle-mounted touch steering wheel pressure detection method based on EOL consistency calibration

Also Published As

Publication number Publication date
JP5977627B2 (en) 2016-08-24

Similar Documents

Publication Publication Date Title
JP5977627B2 (en) Information processing apparatus, information processing method, and program
US9927964B2 (en) Customization of GUI layout based on history of use
JP6049990B2 (en) Portable electronic device, screen control method, and screen control program
KR101152008B1 (en) Method and device for associating objects
JP5759660B2 (en) Portable information terminal having touch screen and input method
CN104932809B (en) Apparatus and method for controlling display panel
KR101971982B1 (en) Apparatus capable of sensing touch and touch pressure and control method thereof
EP2068235A2 (en) Input device, display device, input method, display method, and program
CN111240789A (en) Widget processing method and related device
US10514796B2 (en) Electronic apparatus
JP2012505443A (en) Portable electronic device and method of secondary character rendering and input
EP2613247A2 (en) Method and apparatus for displaying keypad in terminal having touch screen
JP2010205050A (en) User interface device with touch panel, method, and program for controlling user interface
KR102044824B1 (en) Apparatus capable of sensing touch and touch pressure and control method thereof
JP3143474U (en) Electronic devices
WO2013161170A1 (en) Input device, input support method, and program
EP3211510B1 (en) Portable electronic device and method of providing haptic feedback
JP2013206180A (en) Electronic device and display method
KR20190128139A (en) Apparatus capable of sensing touch and touch pressure and control method thereof
JP2014182429A (en) Information processor, information processing method and information processing program
WO2015098061A1 (en) Electronic instrument
KR101920864B1 (en) Method and terminal for displaying of image using touchscreen
JP2011086035A (en) Portable device, and image display control method, and device therefor
JP2013206300A (en) Information input device
JP2013239100A (en) Information input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160722

R150 Certificate of patent or registration of utility model

Ref document number: 5977627

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees