WO2014020765A1 - タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム - Google Patents

タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム Download PDF

Info

Publication number
WO2014020765A1
WO2014020765A1 PCT/JP2012/069887 JP2012069887W WO2014020765A1 WO 2014020765 A1 WO2014020765 A1 WO 2014020765A1 JP 2012069887 W JP2012069887 W JP 2012069887W WO 2014020765 A1 WO2014020765 A1 WO 2014020765A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch panel
image
contact
detected
panel device
Prior art date
Application number
PCT/JP2012/069887
Other languages
English (en)
French (fr)
Inventor
亮 松波
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to EP12882178.2A priority Critical patent/EP2881846A4/en
Priority to PCT/JP2012/069887 priority patent/WO2014020765A1/ja
Priority to US14/417,995 priority patent/US9817567B2/en
Priority to CN201280074952.7A priority patent/CN104508620B/zh
Publication of WO2014020765A1 publication Critical patent/WO2014020765A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a touch panel device including a touch panel, a process determination method, a program, and a touch panel system.
  • touch panel devices such as portable game machines and smartphones that are equipped with a touch panel and enable intuitive operations by operators have become widespread.
  • the touch panel has a function of receiving an input from an operator as well as a function of displaying an image.
  • the operator When performing some processing on the data indicated by the image displayed on the touch panel of the touch panel device, the operator first selects an image by touching the image displayed on the touch panel with a finger or a dedicated pen. Next, the operator selects the type of processing for the data indicated by the selected image, for example, data storage.
  • the operator needs to select the type of processing using a menu screen or the like for selecting the type of processing. That is, the operator must know in advance the operation for displaying the menu screen or the like on the touch panel, and cannot fully utilize the superiority of the touch panel device capable of intuitive operation.
  • Patent Document 1 discloses a technique for executing control of an image displayed on a touch panel by operating another touch panel.
  • Patent Document 1 If the technique disclosed in Patent Document 1 described above is used, it is possible to execute one type of processing on data indicated by an image selected by touching one touch panel by an operation on the other touch panel. .
  • An object of the present invention is to provide a touch panel device, a process determination method, a program, and a touch panel system that can execute each of a plurality of types of processes by an intuitive operation.
  • the touch panel device of the present invention includes: First and second touch panels for detecting contact of an object; An image indicating data displayed on the first touch panel is associated with a display position of the image on the first touch panel, and the first touch panel is selected from among a plurality of predetermined types of processing. A control unit that determines a process to be executed on data indicated by the selected image that is an image corresponding to the detected contact position based on the contact state detected by the second touch panel. .
  • the process determination method of the present invention is a process determination method in a touch panel device having first and second touch panels for detecting contact of an object, Associating an image indicating data displayed on the first touch panel with a display position of the image on the first touch panel; Of the plurality of types of predetermined processes, the second touch panel performs a process to be executed on the data indicated by the selected image that is an image corresponding to the position of contact detected by the first touch panel. And determining based on the detected state of contact.
  • a program of the present invention provides a touch panel device having first and second touch panels for detecting contact of an object.
  • the second touch panel performs a process to be executed on the data indicated by the selected image that is an image corresponding to the position of contact detected by the first touch panel.
  • a function of determining based on the detected contact state is
  • a touch panel system of the present invention includes a first touch panel device including a first touch panel that detects contact of an object, A second touch panel device having a second touch panel for detecting contact of an object, The first touch panel device displays an image associated with a plurality of predetermined types of processing, and associates the displayed image with a display position of the image on the first touch panel.
  • the image corresponding to the contact position detected on the first touch panel is recognized as a selected image, and any of a plurality of types of processing associated with the selected image is detected on the second touch panel.
  • a selection is made based on the state of the contact, and the selected process is executed.
  • FIG. 2 is an external view of the touch panel device illustrated in FIG. 1.
  • 3 is a flowchart for explaining an operation of the touch panel device shown in FIGS. 1 and 2.
  • It is a block diagram which shows the structure of 2nd Embodiment of the touchscreen apparatus of this invention.
  • FIG. 1 is a block diagram showing the configuration of the first embodiment of the touch panel device of the present invention.
  • 2 is an external view of the touch panel device 10 shown in FIG.
  • the touch panel device 10 of the present embodiment includes a control unit 11, a storage unit 12 in which a plurality of folders are set, an external connection unit 13, a touch panel 14 that is a first touch panel, and a second touch panel.
  • the touch panel 15 is a touch panel.
  • the 1st touch panel and the 2nd touch panel are provided in the mutually opposing surface in the touch panel apparatus 10, as shown in FIG.
  • the storage unit 12 is, for example, an HDD (Hard Disk Drive).
  • the external connection unit 13 has, for example, a communication function for connecting to the Internet and a function for connecting the touch panel device 10 to an external device such as a personal computer.
  • the touch panel 14 is an image showing data stored in the storage unit 12, an image showing data on an Internet website that can be referred to via the external connection unit 13, an image showing data on an external device, etc. Is displayed. Note that the image here is specifically an icon image, a thumbnail image, or the like.
  • An operator of the touch panel device 10 (hereinafter simply referred to as an operator) contacts the touch panel 14 with an object such as a finger and selects the displayed image.
  • the touch panel 14 detects contact with an operator's finger or the like, and outputs first detection information indicating the position of the detected contact to the control unit 11. Note that the operator can select a plurality of images by touching the touch panel 14 with a plurality of fingers.
  • the operator can also select a plurality of images collectively by sliding the finger or the like on the touch panel 14 while keeping the finger or the like in contact with the touch panel 14.
  • the touch panel 14 outputs, to the control unit 11, first detection information in which a range in which a finger or the like is slid is set as the detected contact position.
  • the touch panel 15 detects contact with an operator's finger or the like. Then, the touch panel 15 outputs information indicating the detected contact state to the control unit 11 as second detection information. Specifically, the touch panel 15 outputs information indicating the number of detected contact positions to the control unit 11 as second detection information.
  • the control unit 11 stores an image displayed on the touch panel 14 and a display position of the image on the touch panel 14 in association with each other. Moreover, the control part 11 receives the 1st detection information output from the touch panel 14, and recognizes the image corresponding to the contact position which the received 1st detection information shows as the selection image which the operator selected. In addition, when the control unit 11 receives the second detection information output from the touch panel 15, the control unit 11 receives a process to be executed on the data indicated by the recognized selected image among a plurality of predetermined types of processes. It is determined according to the number indicated by the second detection information. An example of a plurality of predetermined types of processing will be described in an operation flow described later.
  • FIG. 3 is a flowchart for explaining the operation of the touch panel device 10 shown in FIGS. 1 and 2.
  • a case will be described in which a plurality of images indicating each of a plurality of data provided by a website are displayed on the touch panel 14 by connecting to the Internet via the external connection unit 13.
  • the operator touches the touch panel 14 with a finger or the like, or slides while touching the touch panel 14 to select at least one of the plurality of images displayed on the touch panel 14.
  • the operator contacts the touch panel 15 with a finger or the like. Note that the operator may contact either the touch panel 14 or the touch panel 15 first.
  • the touch panel 14 detects contact (step S1), and outputs first detection information indicating the detected position of the contact to the control unit 11.
  • the touch panel 15 detects contact (step S2), and outputs second detection information indicating the number of detected contact positions to the control unit 11.
  • the control unit 11 receives first detection information output from the touch panel 14 and second detection information output from the touch panel 15.
  • control part 11 recognizes the image corresponding to the contact position which the received 1st detection information shows as a selection image (step S3).
  • control part 11 confirms the number of selection images (step S4).
  • control unit 11 confirms the number indicated by the received second detection information. That is, the control unit 11 confirms the number of contact positions detected by the touch panel 15 (step S5).
  • control part 11 performs the process performed with respect to the data which the selection image recognized in step S3 among the several types of processes previously determined as a process performed when there is one selection image.
  • the number is determined according to the number confirmed in step S5 (step S6).
  • control part 11 performs the determined process (step S7). Specifically, for example, when the number indicated by the received second detection information is 1, the control unit 11 downloads data indicated by the selected image recognized in step S3 from the website and sets the data in the storage unit 12 Stored in a predetermined folder of the plurality of folders. For example, when the number indicated by the received second detection information is 2, the control unit 11 downloads data indicated by the selected image recognized in step S3 from the website and temporarily stores the data.
  • control unit 11 confirms the number indicated by the received second detection information. That is, the control unit 11 confirms the number of contact positions detected by the touch panel 15 (step S8).
  • control part 11 carries out with respect to the some data which each of the some selection image recognized in step S3 among the several types of process decided beforehand as a process performed when there are a plurality of selection images.
  • the process to be executed is determined according to the number confirmed in step S8 (step S9).
  • step S7 and the control part 11 performs the determined process. Specifically, for example, when the number indicated by the received second detection information is 1, the control unit 11 downloads a plurality of data indicated by each of the plurality of selected images recognized in step S3 from the website. Then, it is stored in a predetermined folder among the plurality of folders set in the storage unit 12. For example, when the number indicated by the received second detection information is 2, the control unit 11 temporarily downloads a plurality of data indicated by each of the plurality of selected images recognized in step S3 from the website. To remember.
  • a plurality of data indicated by each of the plurality of selected images recognized in step S3 are integrated into one data and set in the storage unit 12.
  • the integration of a plurality of data is, for example, integration of a plurality of text data and a plurality of PDF (Portable Document Format) data.
  • the integration of the plurality of data mentioned here includes integration of a plurality of image data. In this case, a plurality of images based on the plurality of image data are combined into one image.
  • the touch panel device 10 includes the touch panels 14 and 15 that detect contact of an object. Moreover, it has the control part 11 which matches the image which shows the data displayed on the touch panel 14, and the display position in the touch panel 14 of the image.
  • control part 11 performs the process performed with respect to the data which the selection image which is an image corresponding to the position of the contact detected by the touch panel 14 among the several types of predetermined processes shown on the touch panel 15. It is determined based on the contact state detected at.
  • the operator operates the touch panel device 10 while holding the touch panel device 10 with a finger. Will do. Therefore, the risk of dropping the touch panel device 10 is reduced.
  • the storage of data and the integration of a plurality of data have been described as examples of a plurality of predetermined types of processing executed by the control unit 11, but these types of processing are examples.
  • the processing executed by the control unit 11 is not limited to these.
  • the touch panel device of this embodiment is applied to a mobile terminal, the operability when inputting characters on the mobile terminal can be improved.
  • a keyboard is displayed on the touch panel 14.
  • the operator touches the displayed keyboard with a finger or the like to input characters for example, when the number of contact positions detected on the touch panel 15 is 1, the Shift key is pressed.
  • the number of contact positions detected on the second touch panel is two, both the Shift key and the ctrl key are pressed. This eliminates the need for the operator to perform a screen operation or the like for pressing the shift key or the ctrl key when inputting characters.
  • a game machine to which a touch panel system is applied can be considered.
  • an operator of one touch panel device touches the touch panel with a finger or the like and selects one of a plurality of images displayed on the touch panel.
  • the selected image is recognized.
  • Each of the plurality of images is, for example, an image indicating items that can be selected in a role playing game or the like.
  • the operator of the other touch panel device contacts the touch panel of the touch panel device with a finger or the like.
  • one of a plurality of types of stories that are associated with the selected image and set in advance for the item indicated by the selected image is selected, and the game is played with the selected story. Is like going on. Thereby, a plurality of players can enjoy the game together.
  • a game machine that realizes a quiz of a correct / incorrect determination formula can be considered as an application of the above touch panel system.
  • a plurality of images showing each of a plurality of questions are displayed on the touch panel of one touch panel device.
  • the operator of the touch panel device touches the touch panel with a finger or the like and selects one of the displayed images.
  • the selected image is recognized and the question indicated by the selected image is displayed on the touch panel of the other touch panel device.
  • the operator of the touch panel device thinks that the displayed question is correct, the operator touches the touch panel with one finger, for example, and when the operator thinks that the displayed question is incorrect, the operator touches the touch panel with two fingers, for example. Contact.
  • any one of a plurality of types of processing that is associated with the selected image and set in advance according to the correctness of the question indicated by the selected image is selected, and the selected processing is executed. Is.
  • FIG. 4 is a block diagram showing the configuration of the second embodiment of the touch panel device of the present invention.
  • the same components as those shown in FIG. 4 are identical to those shown in FIG. 4, the same components as those shown in FIG. 4, the same components as those shown in FIG. 4, the same components as those shown in FIG. 4, the same components as those shown in FIG. 4, the same components as those shown in FIG. 4, the same components as those shown in FIG. 4, the same components as those shown in FIG.
  • the touch panel device 20 includes touch panels 14 and 15 that detect contact of an object. Moreover, it has the control part 11 which matches the image which shows the data displayed on the touch panel 14, and the display position in the touch panel 14 of the image.
  • control part 11 performs the process performed with respect to the data which the selection image which is an image corresponding to the position of the contact detected by the touch panel 14 among the several types of predetermined processes shown on the touch panel 15. It is determined based on the contact state detected at.
  • the number of contact positions detected by the touch panel 15 is executed for the data indicated by the selected image among a plurality of predetermined types of processes.
  • the case of determining according to the above has been described.
  • the process performed on the data indicated by the selected image is not limited to being determined according to the number of contact positions.
  • the operator slides the finger or the like while touching the touch panel 15 with a finger or the like, and the touch panel 15 detects the slid locus as a contact.
  • the control part 11 may determine the process performed with respect to the data which a selection image shows according to the shape, length, etc. of the locus
  • the touch panel 15 when the locus detected as contact on the touch panel 15 is annular, the touch panel 15 outputs information indicating that to the control unit 11 as second detection information. In addition, when the locus detected as contact on the touch panel 15 is linear, the touch panel 15 outputs information indicating that to the control unit 11 as second detection information. And the control part 11 determines the process performed with respect to the data which a selection image shows among the several types of predetermined processes based on the information which the received 2nd detection information shows.
  • the operator may touch the touch panel 15 with a finger or the like divided into a plurality of times, and the process to be performed on the data indicated by the selected image may be determined according to the number of times of contact and the contact interval.
  • the processing in the touch panel device is recorded on a recording medium readable by the touch panel device in addition to the processing realized by the dedicated hardware described above.
  • the program recorded on the recording medium may be read by the touch panel device and executed.
  • the recording medium that can be read by the touch panel device refers to a transfer medium such as a flexible disk, a magneto-optical disk, a DVD, and a CD, and an HDD built in the touch panel device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 物体の接触を検知する第1および第2のタッチパネルと、第1のタッチパネルに表示される、データを示す画像と、その画像の当該第1のタッチパネルにおける表示位置とを対応付け、予め決められた複数の種類の処理のうち、第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、第2のタッチパネルにて検知された接触の状態に基づいて決定する制御部と、を有する。

Description

タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム
 本発明は、タッチパネルを備えたタッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステムに関する。
 近年、携帯ゲーム機やスマートフォン等、タッチパネルを搭載し、操作者の直観的な操作を可能にするタッチパネル装置が普及してきている。タッチパネルは、画像を表示する機能とともに、操作者からの入力を受け付ける機能を有している。
 タッチパネル装置のタッチパネルに表示された画像が示すデータに対して何らかの処理を実行する場合、操作者はまず、指や専用ペン等でタッチパネルに表示された画像に接触して画像を選択する。次に、操作者は、選択した画像が示すデータに対する処理の種類、例えばデータの記憶等を選択する。
 このとき、操作者は、処理の種類を選択するためのメニュー画面等を用いて処理の種類を選択する必要がある。つまり、操作者は、メニュー画面等をタッチパネルに表示させるための操作を予め知っていなくてはならず、直観的な操作が可能なタッチパネル装置の優位性を十分に活用することができない。
 ここで、タッチパネル上に表示された画像の制御を、もう1つのタッチパネルを操作することで実行するための技術が例えば、特許文献1に開示されている。
特開2009-187290号公報
 上述した特許文献1に開示された技術を用いれば、1つのタッチパネルに接触して選択された画像が示すデータに対する1つの種類の処理を、もう1つのタッチパネルに対する操作で実行することは可能である。
 ところが通常、タッチパネルに表示された画像が示すデータに対する処理の種類は、データの記憶やデータの移動、データの削除等、複数ある。
 特許文献1に開示された技術を用いても、実行したい処理の種類をメニュー画面を用いて選択する必要があり、直観的な操作が可能なタッチパネル装置の優位性を十分に活用できなくなってしまうという問題点は解決されない。
 本発明は、複数の種類の処理のそれぞれを直観的な操作で実行させることが可能なタッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステムを提供することを目的とする。
 上記目的を達成するために本発明のタッチパネル装置は、
 物体の接触を検知する第1および第2のタッチパネルと、
 前記第1のタッチパネルに表示される、データを示す画像と、該画像の当該第1のタッチパネルにおける表示位置とを対応付け、予め決められた複数の種類の処理のうち、前記第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の状態に基づいて決定する制御部と、を有する。
 また、上記目的を達成するために本発明の処理決定方法は、物体の接触を検知する第1および第2のタッチパネルを有するタッチパネル装置における処理決定方法であって、
 前記第1のタッチパネルに表示される、データを示す画像と、該画像の当該第1のタッチパネルにおける表示位置とを対応付けるステップと、
 予め決められた複数の種類の処理のうち、前記第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の状態に基づいて決定するステップと、を有する。
 また、上記目的を達成するために本発明のプログラムは、物体の接触を検知する第1および第2のタッチパネルを有するタッチパネル装置に、
 前記第1のタッチパネルに表示される、データを示す画像と、該画像の当該第1のタッチパネルにおける表示位置とを対応付ける機能と、
 予め決められた複数の種類の処理のうち、前記第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の状態に基づいて決定する機能と、を実現させる。
 また、上記目的を達成するために本発明のタッチパネルシステムは、物体の接触を検知する第1のタッチパネルを備えた第1のタッチパネル装置と、
 物体の接触を検知する第2のタッチパネルを備えた第2のタッチパネル装置と、を有し、
 前記第1のタッチパネル装置は、予め決められた複数の種類の処理が対応付けられた画像を表示するとともに、該表示された画像と、該画像の前記第1のタッチパネルにおける表示位置とを対応付け、前記第1のタッチパネルにて検知された接触の位置に対応する画像を選択画像として認識し、前記選択画像に対応付けられた複数の種類の処理のいずれかを前記第2のタッチパネルにて検知された接触の状態に基づいて選択し、該選択された処理を実行する。
本発明のタッチパネル装置の第1の実施形態の構成を示すブロック図である。 図1に示したタッチパネル装置の外観図である。 図1および図2に示したタッチパネル装置の動作を説明するためのフローチャートである。 本発明のタッチパネル装置の第2の実施形態の構成を示すブロック図である。
 10,20  タッチパネル装置
 11  制御部
 12  記憶部
 13  外部接続部
 14,15  タッチパネル
 以下に、本発明の実施の形態について図面を参照して説明する。
 (第1の実施形態)
 図1は、本発明のタッチパネル装置の第1の実施形態の構成を示すブロック図である。また、図2は、図1に示したタッチパネル装置10の外観図である。
 本実施形態のタッチパネル装置10は図1に示すように、制御部11と、複数のフォルダが設定された記憶部12と、外部接続部13と、第1のタッチパネルであるタッチパネル14と、第2のタッチパネルであるタッチパネル15とを備えている。なお、第1のタッチパネルと第2のタッチパネルとは図2に示すように、タッチパネル装置10において相互に対向する面に設けられている。
 記憶部12は、例えばHDD(Hard Disk Drive)である。
 外部接続部13は例えば、インターネットに接続するための通信機能や、パーソナルコンピュータ等の外部機器にタッチパネル装置10を接続するための機能を備えている。
 タッチパネル14は、記憶部12に記憶されたデータを示す画像や、外部接続部13を介して参照可能となったインターネットのWebサイト上のデータを示す画像や、外部機器上のデータ等を示す画像を表示する。なお、ここでいう画像とは具体的には、アイコン画像やサムネイル画像等である。タッチパネル装置10の操作者(以降、単に操作者という)は、指等の物体でタッチパネル14に接触し、表示された画像を選択することになる。タッチパネル14は、操作者の指等での接触を検知し、検知した接触の位置を示す第1の検知情報を制御部11へ出力する。なお、操作者は、複数の指でタッチパネル14に接触することで、複数の画像を選択することも可能である。また、操作者は、タッチパネル14に指等を接触させたまま、タッチパネル14上でその指等を滑らせることで複数の画像をまとめて選択することも可能である。この場合、タッチパネル14は、指等を滑らせた範囲を、検知した接触の位置とした第1の検知情報を制御部11へ出力することになる。
 タッチパネル15は、操作者の指等での接触を検知する。そして、タッチパネル15は、検知された接触の状態を示す情報を第2の検知情報として制御部11へ出力する。具体的にはタッチパネル15は、検知した接触の位置の数を示す情報を第2の検知情報として制御部11へ出力する。
 制御部11は、タッチパネル14に表示される画像と、その画像のタッチパネル14における表示位置とを対応付けて記憶している。また、制御部11は、タッチパネル14から出力された第1の検知情報を受け付け、受け付けた第1の検知情報が示す接触の位置に対応する画像を、操作者が選択した選択画像として認識する。また、制御部11は、タッチパネル15から出力された第2の検知情報を受け付けると、予め決められた複数の種類の処理のうち認識された選択画像が示すデータに対して実行する処理を、受け付けた第2の検知情報が示す数に応じて決定する。なお、予め決められた複数の種類の処理の一例については、後述する動作フローで説明する。
 以下に、上記のように構成されたタッチパネル装置10の動作について説明する。
 図3は、図1および図2に示したタッチパネル装置10の動作を説明するためのフローチャートである。なお、ここでは、外部接続部13を介してインターネットに接続し、Webサイトが提供している複数のデータのそれぞれを示す複数の画像がタッチパネル14に表示されている場合について説明する。
 操作者は、タッチパネル14に指等で接触し、または、接触させながら滑らせて、タッチパネル14に表示された複数の画像のうちの少なくとも1つを選択する。また、操作者は、タッチパネル15に指等で接触する。なお、操作者は、タッチパネル14とタッチパネル15とのどちらから先に接触してもよい。
 タッチパネル14は、接触を検知し(ステップS1)、検知した接触の位置を示す第1の検知情報を制御部11へ出力する。
 タッチパネル15は、接触を検知し(ステップS2)、検知した接触の位置の数を示す第2の検知情報を制御部11へ出力する。
 制御部11は、タッチパネル14から出力された第1の検知情報と、タッチパネル15から出力された第2の検知情報とを受け付ける。
 そして、制御部11は、受け付けた第1の検知情報が示す接触の位置に対応する画像を選択画像として認識する(ステップS3)。
 そして、制御部11は、選択画像の数を確認する(ステップS4)。
 ステップS4における確認の結果、選択画像の数が1つである場合、制御部11は、受け付けた第2の検知情報が示す数を確認する。すなわち、制御部11は、タッチパネル15にて検知された接触の位置の数を確認する(ステップS5)。
 そして、制御部11は、選択画像が1つである場合に実行する処理として予め決められた複数の種類の処理のうち、ステップS3にて認識した選択画像が示すデータに対して実行する処理を、ステップS5にて確認した数に応じて決定する(ステップS6)。
 そして、制御部11は、決定した処理を実行する(ステップS7)。具体的には例えば、受け付けた第2の検知情報が示す数が1である場合、制御部11は、ステップS3にて認識した選択画像が示すデータをWebサイトからダウンロードし、記憶部12に設定された複数のフォルダのうちの所定のフォルダ内に記憶させる。また、例えば受け付けた第2の検知情報が示す数が2である場合、制御部11は、ステップS3にて認識した選択画像が示すデータをWebサイトからダウンロードして一時的に記憶する。
 一方、ステップS4における確認の結果、選択画像の数が複数である場合、制御部11は、受け付けた第2の検知情報が示す数を確認する。すなわち、制御部11は、タッチパネル15にて検知された接触の位置の数を確認する(ステップS8)。
 そして、制御部11は、選択画像が複数である場合に実行する処理として予め決められた複数の種類の処理のうち、ステップS3にて認識した複数の選択画像のそれぞれが示す複数のデータに対して実行する処理を、ステップS8にて確認した数に応じて決定する(ステップS9)。
 そして、ステップS7の処理へ遷移し、制御部11は、決定した処理を実行する。具体的には例えば、受け付けた第2の検知情報が示す数が1である場合、制御部11は、ステップS3にて認識した複数の選択画像のそれぞれが示す複数のデータをWebサイトからダウンロードし、記憶部12に設定された複数のフォルダのうちの所定のフォルダ内に記憶させる。また、例えば受け付けた第2の検知情報が示す数が2である場合、制御部11は、ステップS3にて認識した複数の選択画像のそれぞれが示す複数のデータをWebサイトからダウンロードして一時的に記憶する。また、例えば受け付けた第2の検知情報が示す数が3である場合、ステップS3にて認識した複数の選択画像のそれぞれが示す複数のデータを1つのデータに統合し、記憶部12に設定された複数のフォルダのうちの所定のフォルダ内に記憶させる。なお、複数のデータの統合とは例えば、複数のテキストデータや、複数のPDF(Portable Document Format)データの統合である。また、ここでいう複数のデータの統合には、複数の画像データを統合することも含んでいる。この場合、その複数の画像データに基づく複数の画像が合成されて1つの画像となる。
 このように本実施形態においてタッチパネル装置10は、物体の接触を検知するタッチパネル14,15を有する。また、タッチパネル14に表示される、データを示す画像と、その画像のタッチパネル14における表示位置とを対応付ける制御部11を有する。
 そして、制御部11は、予め決められた複数の種類の処理のうち、タッチパネル14にて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、タッチパネル15にて検知された接触の状態に基づいて決定する。
 これにより、操作者は実行したい処理の種類をメニュー画面等を用いて選択する必要がない。従って、複数の種類の処理のそれぞれを直観的な操作で実行させることが可能となる。
 また、図2に示すように、タッチパネル14とタッチパネル15とを、タッチパネル装置10の相互に対向する面に設けることで、操作者はタッチパネル装置10を指で挟み込むようにしながらタッチパネル装置10の操作を行うことになる。そのため、タッチパネル装置10を落下させてしまう危険性が低くなる。
 なお、本実施形態においては、制御部11が実行する予め決められた複数の種類の処理として、データの記憶や複数のデータの統合を一例として説明したが、これらの処理の種類は一例であり、制御部11が実行する処理は、これらに限定されない。
 また、本実施形態のタッチパネル装置を携帯端末に適用すれば、携帯端末において文字を入力する際の操作性を向上させることができる。具体的には、タッチパネル14にキーボードを表示する。そして、操作者が、表示されたキーボードに指等で接触して文字を入力する際、例えばタッチパネル15において検知された接触の位置の数が1である場合は、Shiftキーが押下された状態とし、第2のタッチパネルにおいて検知された接触の位置の数が2の場合は、Shiftキーとctrlキーとの両方が押下された状態とする。これにより、操作者は、文字入力をする際にshiftキーやctrlキーが押下された状態にするための画面操作等を行う必要がなくなる。
 また、本実施形態では、2つのタッチパネルが1つの筺体に備えられたタッチパネル装置について説明したが、例えば、タッチパネルを1つずつ備えた2つのタッチパネル装置からなるタッチパネルシステムにも本発明を適用することもできる。
 例えば、タッチパネルシステムを適用したゲーム機が考えられる。このゲーム機では、一方のタッチパネル装置の操作者が、指等でタッチパネルに接触してそのタッチパネルに表示された複数の画像のうちのいずれかを選択する。これにより、選択画像が認識される。なお、この複数の画像のそれぞれは例えば、ロールプレイングゲーム等において選択可能なアイテム等を示す画像である。そして、もう一方のタッチパネル装置の操作者が、指等でそのタッチパネル装置のタッチパネルに接触する。その際に接触した指等の数に応じ、選択画像に対応付けられ、選択画像が示すアイテム等に予め設定された複数の種類のストーリーのうちのいずれかが選択され、選択されたストーリーでゲームが進行していくというようなものである。これにより、複数のプレーヤーが共同してゲームを楽しむことができる。
 また、上記のタッチパネルシステムを適用したものとして、正誤判定式のクイズを実現するゲーム機が考えられる。このゲーム機では、一方のタッチパネル装置のタッチパネルに、複数の設問のそれぞれを示す複数の画像を表示しておく。そして、そのタッチパネル装置の操作者が、指等でタッチパネルに接触し、表示された複数の画像のうちのいずれかを選択する。これにより、選択画像が認識されるとともに、選択画像が示す設問がもう一方のタッチパネル装置のタッチパネルに表示される。そして、そのタッチパネル装置の操作者は、表示された設問が正しいと思った場合には、例えば指1本でタッチパネルに接触し、誤っていると思った場合には、例えば指2本でタッチパネルに接触する。これにより、選択画像に対応付けられ、その選択画像が示す設問に対する正誤に応じて予め設定された複数の種類の処理のうちのいずれかが選択され、選択された処理が実行されるというようなものである。
 (第2の実施形態)
 図4は、本発明のタッチパネル装置の第2の実施形態の構成を示すブロック図である。図4において、図1に示したものと同一の構成のものには同一の符号を付してある。
 本実施形態においてタッチパネル装置20は、物体の接触を検知するタッチパネル14,15を有する。また、タッチパネル14に表示される、データを示す画像と、その画像のタッチパネル14における表示位置とを対応付ける制御部11を有する。
 そして、制御部11は、予め決められた複数の種類の処理のうち、タッチパネル14にて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、タッチパネル15にて検知された接触の状態に基づいて決定する。
 これにより、操作者は実行したい処理の種類をメニュー画面等を用いて選択する必要がない。従って、複数の種類の処理のそれぞれを直観的な操作で実行させることが可能となる。
 なお、上述した第1および第2の実施形態では、予め決められた複数の種類の処理のうち選択画像が示すデータに対して実行する処理を、タッチパネル15にて検知された接触の位置の数に応じて決定する場合について説明した。ただし、選択画像が示すデータに対して実行する処理は、接触の位置の数に応じて決定されることに限定されない。例えば操作者が指等でタッチパネル15に接触したままその指等を滑らせ、その滑らせた軌跡をタッチパネル15が接触として検知する。そして、制御部11が、その軌跡の形や長さ等に応じ、選択画像が示すデータに対して実行する処理を決定するようにしてもよい。
 一例としては、タッチパネル15にて接触として検知された軌跡が環状である場合、タッチパネル15がその旨を示す情報を第2の検知情報として制御部11へ出力する。また、タッチパネル15にて接触として検知された軌跡が直線状である場合、タッチパネル15がその旨を示す情報を第2の検知情報として制御部11へ出力する。そして、制御部11は、予め決められた複数の種類の処理のうち選択画像が示すデータに対して実行する処理を、受け付けた第2の検知情報が示す情報に基づいて決定する。
 また、例えば操作者が複数回に分けて指等でタッチパネル15に接触し、接触した回数や接触した間隔に応じ、選択画像が示すデータに対して実行する処理を決定するようにしてもよい。
 また、本発明においては、タッチパネル装置内の処理は上述の専用のハードウェアで実現されるもの以外に、その機能を実現するためのプログラムをタッチパネル装置にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムをタッチパネル装置に読み込ませ、実行するものであっても良い。タッチパネル装置にて読取可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、DVD、CDなどの移設可能な記録媒体の他、タッチパネル装置に内蔵されたHDDなどを指す。
 以上、実施形態を参照して本発明を説明したが、本発明は上述した実施形態に限定されるものではない。本発明の構成および動作については、本発明の趣旨を逸脱しない範囲において、当業者が理解し得る様々な変更を行うことができる。
 この出願は、2011年2月17日に出願された日本出願特願2011-031940の開示の全てをここに取り込む。

Claims (8)

  1.  物体の接触を検知する第1および第2のタッチパネルと、
     前記第1のタッチパネルに表示される、データを示す画像と、該画像の当該第1のタッチパネルにおける表示位置とを対応付け、予め決められた複数の種類の処理のうち、前記第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の状態に基づいて決定する制御部と、を有するタッチパネル装置。
  2.  請求項1に記載のタッチパネル装置において、
     前記制御部は、前記予め決められた複数の種類の処理のうち前記選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の位置の数に応じて決定するタッチパネル装置。
  3.  請求項2に記載のタッチパネル装置において、
     記憶部を有し、
     前記制御部は、前記第2のタッチパネルにて検知された接触の位置の数が第1の数である場合、前記選択画像が示すデータを前記記憶部に記憶させるタッチパネル装置。
  4.  請求項3に記載のタッチパネル装置において、
     前記制御部は、前記選択画像の数が複数であり、前記第2のタッチパネルにて検知された接触の位置の数が第2の数である場合、前記複数の選択画像のそれぞれが示す複数のデータを1つのデータに統合して前記記憶部に記憶させるタッチパネル装置。
  5.  請求項1乃至4のいずれか1項に記載のタッチパネル装置において、
     前記第1のタッチパネルと前記第2のタッチパネルとは、当該タッチパネル装置の相互に対向する面に設けられたタッチパネル装置。
  6.  物体の接触を検知する第1および第2のタッチパネルを有するタッチパネル装置における処理決定方法であって、
     前記第1のタッチパネルに表示される、データを示す画像と、該画像の当該第1のタッチパネルにおける表示位置とを対応付けるステップと、
     予め決められた複数の種類の処理のうち、前記第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の状態に基づいて決定するステップと、を有する処理決定方法。
  7.  物体の接触を検知する第1および第2のタッチパネルを有するタッチパネル装置に、
     前記第1のタッチパネルに表示される、データを示す画像と、該画像の当該第1のタッチパネルにおける表示位置とを対応付ける機能と、
     予め決められた複数の種類の処理のうち、前記第1のタッチパネルにて検知された接触の位置に対応する画像である選択画像が示すデータに対して実行する処理を、前記第2のタッチパネルにて検知された接触の状態に基づいて決定する機能と、を実現させるためのプログラム。
  8.  物体の接触を検知する第1のタッチパネルを備えた第1のタッチパネル装置と、
     物体の接触を検知する第2のタッチパネルを備えた第2のタッチパネル装置と、を有し、
     前記第1のタッチパネル装置は、予め決められた複数の種類の処理が対応付けられた画像を表示するとともに、該表示された画像と、該画像の前記第1のタッチパネルにおける表示位置とを対応付け、前記第1のタッチパネルにて検知された接触の位置に対応する画像を選択画像として認識し、前記選択画像に対応付けられた複数の種類の処理のいずれかを前記第2のタッチパネルにて検知された接触の状態に基づいて選択し、該選択された処理を実行するタッチパネルシステム。
PCT/JP2012/069887 2012-08-03 2012-08-03 タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム WO2014020765A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP12882178.2A EP2881846A4 (en) 2012-08-03 2012-08-03 TOUCH PANEL DEVICE, PROCESS CONTROL METHOD, PROGRAM AND TOUCH PANEL SYSTEM
PCT/JP2012/069887 WO2014020765A1 (ja) 2012-08-03 2012-08-03 タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム
US14/417,995 US9817567B2 (en) 2012-08-03 2012-08-03 Touch panel device, process determination method, program, and touch panel system
CN201280074952.7A CN104508620B (zh) 2012-08-03 2012-08-03 触摸板设备、处理确定方法、程序和触摸板系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/069887 WO2014020765A1 (ja) 2012-08-03 2012-08-03 タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム

Publications (1)

Publication Number Publication Date
WO2014020765A1 true WO2014020765A1 (ja) 2014-02-06

Family

ID=50027489

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/069887 WO2014020765A1 (ja) 2012-08-03 2012-08-03 タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム

Country Status (4)

Country Link
US (1) US9817567B2 (ja)
EP (1) EP2881846A4 (ja)
CN (1) CN104508620B (ja)
WO (1) WO2014020765A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10444959B2 (en) * 2014-06-02 2019-10-15 Fujifilm North America Corporation Method and apparatus for managing multiple views for graphics data

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
WO2010090106A1 (ja) * 2009-02-04 2010-08-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2011031940A (ja) 2009-07-31 2011-02-17 Sekisui Plastics Co Ltd 保冷容器

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10229068B3 (de) 2002-06-28 2004-02-05 Fujitsu Siemens Computers Gmbh PDA (Personal Digital Assistant) mit Touch-Screen Display
US20040019724A1 (en) 2002-07-24 2004-01-29 Singleton, Charles W. Computer system with docking port for a handheld computing device
KR100672605B1 (ko) 2006-03-30 2007-01-24 엘지전자 주식회사 아이템 선택 방법 및 이를 위한 단말기
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
JP5184018B2 (ja) 2007-09-14 2013-04-17 京セラ株式会社 電子機器
JP4762262B2 (ja) 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
JP5066055B2 (ja) 2008-10-28 2012-11-07 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
KR101587211B1 (ko) 2009-05-25 2016-01-20 엘지전자 주식회사 이동 단말기 및 이동 단말기의 제어 방법
JP5557316B2 (ja) * 2010-05-07 2014-07-23 Necカシオモバイルコミュニケーションズ株式会社 情報処理装置、情報生成方法及びプログラム
JP5010714B2 (ja) * 2010-05-21 2012-08-29 株式会社東芝 電子機器、入力制御プログラム、及び入力制御方法
JP6049990B2 (ja) 2010-09-15 2016-12-21 京セラ株式会社 携帯電子機器、画面制御方法および画面制御プログラム
JP5709206B2 (ja) 2011-02-17 2015-04-30 Necカシオモバイルコミュニケーションズ株式会社 タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009187290A (ja) 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
WO2010090106A1 (ja) * 2009-02-04 2010-08-12 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2011031940A (ja) 2009-07-31 2011-02-17 Sekisui Plastics Co Ltd 保冷容器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2881846A4 *

Also Published As

Publication number Publication date
CN104508620A (zh) 2015-04-08
US9817567B2 (en) 2017-11-14
US20150160822A1 (en) 2015-06-11
EP2881846A4 (en) 2016-01-20
EP2881846A1 (en) 2015-06-10
CN104508620B (zh) 2018-06-05

Similar Documents

Publication Publication Date Title
TWI564757B (zh) 具有觸控螢幕的電腦裝置與其操作方法及電腦可讀媒體
US10642432B2 (en) Information processing apparatus, information processing method, and program
CN103123568B (zh) 输入精度的改进
EP2652579B1 (en) Detecting gestures involving movement of a computing device
US20120030628A1 (en) Touch-sensitive device and touch-based folder control method thereof
US20090102809A1 (en) Coordinate Detecting Device and Operation Method Using a Touch Panel
CN106104450B (zh) 选择图形用户界面某一部分的方法
CN103294337A (zh) 电子装置及控制方法
JP2009536385A (ja) スクロール付き多機能キー
TW201523420A (zh) 資訊處理裝置、資訊處理方法及電腦程式
US20130227463A1 (en) Electronic device including touch-sensitive display and method of controlling same
EP2859430B1 (en) Method and apparatus for entering symbols from a touch-sensitive screen
US9274632B2 (en) Portable electronic device, touch operation processing method, and program
WO2014141548A1 (ja) 表示制御
JP5709206B2 (ja) タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム
US20150143295A1 (en) Method, apparatus, and computer-readable recording medium for displaying and executing functions of portable device
WO2014020765A1 (ja) タッチパネル装置、処理決定方法、プログラムおよびタッチパネルシステム
JP5810554B2 (ja) 電子装置、表示方法、およびプログラム
CN103620530A (zh) 信息输入方法及触摸屏终端
JP2013228786A (ja) 情報端末、情報表示方法及びプログラム
EP2631755A1 (en) Electronic device including touch-sensitive display and method of controlling same
JP2017157057A (ja) 表示制御装置
JP6344355B2 (ja) 電子端末、及びその制御方法とプログラム
JP6341171B2 (ja) 電子端末、及びその制御方法とプログラム
JP2015011675A (ja) 端末及びそれが備えるタッチパネル上の入力ボタン表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12882178

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012882178

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14417995

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP