WO2013008615A1 - 入力装置、画像表示方法およびプログラム - Google Patents

入力装置、画像表示方法およびプログラム Download PDF

Info

Publication number
WO2013008615A1
WO2013008615A1 PCT/JP2012/066228 JP2012066228W WO2013008615A1 WO 2013008615 A1 WO2013008615 A1 WO 2013008615A1 JP 2012066228 W JP2012066228 W JP 2012066228W WO 2013008615 A1 WO2013008615 A1 WO 2013008615A1
Authority
WO
WIPO (PCT)
Prior art keywords
plane
screen
display
image
icon
Prior art date
Application number
PCT/JP2012/066228
Other languages
English (en)
French (fr)
Inventor
昌子 和田
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to JP2013523877A priority Critical patent/JP5991320B2/ja
Priority to US14/232,532 priority patent/US9983700B2/en
Publication of WO2013008615A1 publication Critical patent/WO2013008615A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to an input device that includes a position input unit such as a touch pad that receives designation of a position in a plane and outputs a position signal indicating the designated position, and controls display according to the position signal.
  • a position input unit such as a touch pad that receives designation of a position in a plane and outputs a position signal indicating the designated position, and controls display according to the position signal.
  • the touch panel is a combination of a display unit such as a liquid crystal display and a position input unit such as a touch pad that outputs a position signal indicating a contact position of an indicator such as a finger within the screen.
  • the position input unit when the user touches a part of the screen with the user, the position input unit outputs a position signal indicating the contact position of the finger in the screen. And a control part controls the display of a display part according to the position signal from a position input part.
  • Figure 1 shows an example of the screen display.
  • a plurality of icons 101 are displayed on the screen 100 of the display unit at regular intervals.
  • a specific function such as application activation is assigned to each icon 101.
  • the position input unit When the user touches the position of a desired icon 101 on the screen 100 of the display unit, the position input unit outputs a position signal indicating the contact position of the finger in the screen 100, and the control unit displays the position. Based on the signal, the icon 101 corresponding to the contact position of the finger in the screen 100 is specified. Then, the control unit executes the function assigned to the identified icon 101 and controls the display on the screen 100.
  • the icon 101 is small with respect to the size of the finger and the interval between the icons 101 is small, for example, as shown in FIG.
  • a part may be applied to the adjacent icon 101b, and the control unit may erroneously recognize the adjacent icon 101b as a designated icon. In this case, a function different from the function desired by the user is executed.
  • Patent Document 1 discloses a touch panel that can solve the problem of erroneous designation of icons.
  • the size of the icon is changed according to the contact area of the finger. Specifically, if the finger contact area is larger than the icon display area, the icon display area is increased. By enlarging the icon, the user can reliably specify a desired icon with a finger.
  • the enlarged icon is displayed in multiple pages. At this time, the enlarged icons are rearranged and displayed in a predetermined order.
  • the enlarged icons may be rearranged and displayed.
  • the display position of the icons differs between before and after enlargement. It is necessary to check one by one. Such confirmation work is a factor that reduces operability.
  • the light from the sun or an external light source may interfere with the visibility of the icon.
  • the visibility of an icon improves by changing the direction with respect to the light of a portable apparatus, such a change operation is troublesome for a user.
  • An object of the present invention is to provide an input device, an image display method, and a program excellent in operability that allow a user to reliably specify an icon.
  • the input device of the present invention provides: A display for displaying images on the screen; A position input unit that receives designation of an in-plane position with respect to the screen and outputs a position signal indicating the designated in-plane position; When a plurality of in-plane positions are designated, each in-plane position is specified based on the position signal, and a plurality of images are displayed at each in-plane position, and the interval between the in-plane positions is set. And a control unit for controlling the display size of each image accordingly.
  • the image display method of the present invention includes: The position input unit accepts designation of the in-plane position with respect to the screen of the display unit, and outputs a position signal indicating the designated in-plane position, When a plurality of in-plane positions are specified, the control unit specifies each in-plane position based on the position signal, displays a plurality of images at each in-plane position, and It includes controlling the display size of each image according to the position interval.
  • the program of the present invention A process of receiving a position signal indicating each of a plurality of in-plane positions designated with respect to the screen from the position input unit; Based on the position signal, the plurality of in-plane positions are specified, a plurality of images are displayed at each in-plane position, and the display size of each image is controlled according to the interval between the in-plane positions. Processing to be executed by a computer.
  • FIG. 5 is a block diagram showing a configuration of an input device according to an embodiment of the present invention.
  • the input device shown in FIG. 5 includes a screen 11 that is a display unit, a touch pad 12 that is a position input unit, a storage unit 13, and a control unit 10.
  • the screen 11 and the touch pad 12 are arranged side by side for convenience, but actually, the screen 11 and the touch pad 12 are arranged to face each other.
  • the in-plane position (coordinates) of the touch pad 12 and the in-plane position (coordinates) of the screen 11 correspond one-to-one.
  • the screen 11 is a liquid crystal display, for example, and displays a plurality of images (including images such as icons) on the screen.
  • the touch pad 12 accepts designation of an in-plane position with respect to the screen and outputs a position signal indicating the designated in-plane position.
  • a combination of the screen 11 and the touch pad 12 is a so-called touch panel.
  • touch pad 12 there are various types of touch pad 12 such as a resistive film type, an infrared type, and an electromagnetic induction type. In this embodiment, any type can be adopted. However, the touch pad 12 can detect multiple contacts on the screen at the same time, and can output a position signal indicating each contact location, and can perform multi-touch.
  • the contact is contact of an indicator such as a finger or a pen.
  • a position signal is a signal which shows the coordinate of the contact location on a screen, for example.
  • the storage unit 13 is a storage device such as a semiconductor memory, and stores data and programs necessary for operating the input device.
  • the program includes a plurality of applications.
  • the data includes various data such as icon image data.
  • the storage unit 13 also stores an application / icon correspondence table in which applications and icon image data are stored in association with each other.
  • the control unit 10 operates according to a program stored in the storage unit 13. For example, the control unit 10 controls display of an image such as an icon on the screen 11 based on a position signal from the touch pad 12 or is designated. The function (application) assigned to the icon is executed.
  • the control unit 10 includes a contact position / interval calculation unit 1, a display position / size calculation unit 2, a display control unit 3, and an application execution unit 4.
  • the contact position / interval calculation unit 1 specifies an in-plane position (contact position of the indicator) on the touch pad 12 specified by the user with the indicator based on the position signal from the touch pad 12. When a plurality of in-plane positions are designated, the contact position / interval calculating unit 1 specifies each in-plane position on the touch pad 12 based on a position signal from the touch pad 12, and also determines each in-plane position. Calculate the interval.
  • the display position / size calculation unit 2 determines a display position on the screen 11 corresponding to each in-plane position on the touch pad 12 specified by the contact position / interval calculation unit 1, and the contact position / interval calculation unit 1 Based on the acquired interval between the in-plane positions, the size of each icon image is calculated so that adjacent icon images do not overlap.
  • the width of the icon image displayed in the first contact area is set to be smaller than D / 2.
  • the width on the second contact area side from the center of gravity is set to be smaller than D / 2.
  • the horizontal and vertical widths of adjacent icon images may be set so as to satisfy the following conditions.
  • the two in-plane positions on the touch pad 12 are P1 and P2, respectively.
  • the length of the straight line D connecting the center of gravity of the in-plane position P1 and the center of gravity of the in-plane position P2 is L, and the angle between the straight line D and the horizontal straight line is ⁇ .
  • the horizontal interval W1 between the center of gravity of the in-plane position P1 and the center of gravity of the in-plane position P2 is given by L ⁇ cos ⁇ .
  • the interval W2 in the vertical direction between the center of gravity of the in-plane position P1 and the center of gravity of the in-plane position P2 is given by L ⁇ sin ⁇ .
  • the width from the center of gravity of the in-plane position P1 to the in-plane position P2 side is set to be smaller than W1 / 2.
  • the width from the center of gravity of the in-plane position P2 to the in-plane position P1 is set to be smaller than W1 / 2.
  • the width from the center of gravity of the in-plane position P1 to the in-plane position P2 is set to be smaller than W2 / 2. Further, among the vertical widths of the icon image displayed at the in-plane position P2, the width from the center of gravity of the in-plane position P2 to the in-plane position P1 is set to be smaller than W2 / 2.
  • the display control unit 3 displays an image of a predetermined icon at a position determined by the display position / size calculation unit 2 at a position determined by the display position / size calculation unit 2.
  • the application execution unit 4 Based on the position signal from the touch pad 12, the application execution unit 4 selects an icon image selected by the user through a predetermined contact operation using an indicator from the icon images displayed on the screen 11. The application corresponding to the identified icon image is acquired from the application / icon correspondence table in the storage unit 13. Then, the application execution unit 4 executes the acquired application.
  • Fig. 7 shows the procedure of icon image display processing. Hereinafter, the display process will be described with reference to FIGS. 5 and 7.
  • the contact position / interval calculator 1 determines whether or not a plurality of positions are designated based on the position signal from the touch pad 12 (step S10).
  • the designation of a plurality of positions is not only a state in which a plurality of fingers are in contact with the screen at the same time, but a state in which a plurality of locations are touched by at least one finger within a predetermined time. means.
  • two points may be specified by bringing the index finger and middle finger into contact with the screen at the same time, or two points may be designated by bringing the middle finger into contact with the screen within a predetermined time after making the index finger contact with the screen. May be.
  • step S10 If the determination result in step S10 is “No”, this display process ends.
  • step S10 If the determination result in step S10 is “Yes”, then the contact position / interval calculator 1 detects each contact position based on the position signal from the touch pad 12 (step S11), The interval between the contact positions is calculated (step S12).
  • the display position / size calculation unit 2 determines the display position on the screen 11 corresponding to each contact position detected in step S11, and the icon image based on the contact position interval calculated in step S12. The size is determined (step S13).
  • the display control unit 3 determines the image data to be displayed at each display position in accordance with a predetermined order from the icon image data stored in the storage unit 13 (step S14).
  • the predetermined order is, for example, a ranking (priority order) in which priority is given to applications having a high execution frequency.
  • the display control unit 3 displays an image (icon image) based on the selected image data on the screen 11 based on the display position and size determined in step S13 (step S15).
  • Which image is to be displayed at which display position may be determined based on, for example, the positional relationship of contact. Specifically, when a plurality of locations are specified with a plurality of fingers, an image (icon image) is sorted to a display position so that a higher-order image (icon image) is displayed on the left side. I do.
  • the contact position / interval calculation unit 1 outputs a position signal from the touch pad 12. Based on this, even if it is detected that the indicator has left the screen, the display control unit 3 maintains the display of the image (icon image) for a predetermined time from the detection timing.
  • the user designates a plurality of positions in the screen using an indicator such as a finger, displays an image (icon image) at each designated position, and then moves the indicator away from the screen. Also, the image (icon image) is displayed over a certain period of time. In this display period, the user can confirm and designate an icon image.
  • Fig. 8 shows the procedure for starting the icon.
  • step S20 When the icon image is displayed in the procedure shown in FIG. 7 (step S20), the application execution unit 4 subsequently determines whether or not the indicator has left the screen based on the position signal from the touch pad 12. Determination is made (step S21).
  • step S21 If the determination result in step S21 is “Yes”, then the application execution unit 4 measures the elapsed time from when the indicator has left the screen (step S22), and the indicator is within the predetermined time. It is determined whether or not the screen is touched (step S23).
  • step S23 If the determination result in step S23 is “No”, the activation process ends.
  • step S23 If the determination result of step S23 is “Yes”, then the application execution unit 4 determines whether or not there is one contact location (step S24).
  • step S24 If the determination result in step S24 is “No”, the activation process ends. In this case, since a plurality of contacts are detected, the processing of steps S11 to S15 of the icon image display processing shown in FIG. 7 may be executed. However, the icon image to be displayed is determined to have the next highest priority of the previously displayed image.
  • step S24 If the determination result in step S24 is “Yes”, then the application execution unit 4 detects the designated position on the screen 11 based on the position signal from the touch pad 12 (step S25). Then, the application execution unit 4 determines whether or not the detected position matches the display position of the icon image (step S26).
  • step S26 If the determination result in step S26 is “No”, the activation process ends.
  • step S26 If the determination result in step S26 is “Yes”, the application execution unit 4 acquires the application assigned to the icon image that matches the specified position from the application / icon correspondence table in the storage unit 13, and The acquired application is executed (step S27).
  • an icon image is displayed at the designated positions.
  • an indicator such as a finger
  • the icon images 6 and 7 are displayed at the designated positions, respectively. Therefore, if the display position of the icon image is designated with the middle finger and the index finger so as to avoid the finger holding the casing of the input device, the casing of the input device is held in the designation of the icon image. Fingers do not get in the way.
  • the finger contact position directly becomes the icon image display position
  • the user can recognize the icon image display position from the finger contact position without looking at the screen. Therefore, since it is not necessary to confirm how the icon images are displayed, the operability is improved.
  • the user can reliably recognize the position of the displayed image based on the contact position of the finger even in a state where the external light as shown in FIG. it can.
  • the interval between the middle finger and the index finger touching the screen is set to the interval between the icon images 6 and 7, the user may touch the screen with an interval such that the middle finger and the index finger are not erroneously specified. Thereby, it is possible to suppress erroneous specification of the icon image.
  • the input device of this embodiment described above is an example of the present invention, and the configuration and operation thereof can be changed as appropriate.
  • the control unit 10 displays an icon image according to the adjustment width.
  • the display range of 6 and 7 may be changed. Thereby, for example, if the interval between the contact position of the middle finger and the contact position of the index finger is reduced, the display range of the icon images 6 and 7 is reduced, and if the interval between the contact position of the middle finger and the contact position of the index finger is increased. The display range of the icon images 6 and 7 is increased.
  • the screen 11 and the touch pad 12 may be provided on the same surface side or different surface sides.
  • the screen 11 is provided on a predetermined surface (front surface) of the housing, and the touch pad 12 is provided on the surface opposite to the surface on which the screen 11 is provided (back surface). You may provide so that it may oppose.
  • the user designates a plurality of positions on the touch pad 12 on the back side. For example, as shown in FIG. 10, when two positions are specified on the touch pad 12 on the back side, icon images 6 and 7 are displayed at positions corresponding to the specified positions on the screen 11.
  • the size of the touch pad 12 may be different from that of the screen 11.
  • a coordinate conversion table indicating the correspondence between the in-plane position (coordinates) of the touch pad 12 and the in-plane position (coordinates) of the screen 11 is stored in the storage unit 13.
  • the in-plane position (coordinates) of the touch pad 12 is converted into the in-plane position (coordinates) of the screen 11 with reference to this coordinate conversion table.
  • the image displayed at the contact position at the predetermined location is controlled to display the image displayed at the contact location at another location.
  • the control function may be assigned.
  • the contact position / interval calculation unit 1 detects the contact of the indicator to the first to third locations on the screen and also detects the contact order.
  • the display position / size calculation unit 2 determines the display position from the first to third locations, and determines the size of the image based on the interval between the locations.
  • the display control part 3 displays the image to which the function which controls the display in the display position of another location is assigned to the display position of the location where the contact order is a predetermined number, and the icon is displayed at the display location of the other location. Display an image.
  • FIG. 11 After designating two places in the screen 5 of the screen 11 with the index finger and the middle finger, when another place in the screen 5 is designated with the ring finger, An image to which the control function is assigned is displayed. Specifically, in the control unit 10 shown in FIG. 5, the display control unit 3 displays the icon images 6 and 7 at the contact positions of the middle finger and the index finger, and the control image 8 at the contact position of the ring finger. Display. Here, a function for changing the display of the icon images 6 and 7 is assigned to the control image 8.
  • the contact position / interval calculator 1 slides the ring finger on the screen 5 based on the position signal from the touch pad 12. And detect slide amount.
  • the case where the control image 8 slides upward is defined as a first slide direction
  • the case where the control image 8 slides downward is defined as a second slide direction.
  • the display position / display size calculation unit 2 determines the display contents of the icon images 6 and 7 according to the detected slide direction and slide amount. Specifically, when the control image 8 slides by a predetermined amount in the first sliding direction, the image data having the second highest priority order after the image data displayed so far is selected as the icon images 6 and 7. . Then, the display control unit 3 displays images based on the selected image data as icon images 6 and 7.
  • the display position where the image to which the control function is assigned is displayed is determined based on the contact order, but is not limited thereto.
  • the display position where the image to which the control function is assigned is displayed may be determined according to the contact positional relationship. Specifically, when a plurality of locations are designated with a plurality of fingers, the contact position located on the rightmost side on the screen may be set as a display position where an image to which a control function is assigned is displayed.
  • an image is displayed at a display position corresponding to the contact position of the indicator, but the present invention is not limited to this.
  • An image may be displayed at a position having a relative relationship with the contact position of the indicator.
  • control unit 10 may be a computer (CPU: Central Processing unit) that operates according to a program.
  • the program can cause a computer to execute processing for controlling the screen 11 and the touch pad 12, and at least icon image display processing and image display processing to which a control function is assigned.
  • the program may be provided using an optical disk such as a CD (Compact Disc) or DVD (Digital Versatile Disc), a recording medium such as a USB (Universal Serial Bus) memory, and is provided via a communication network (for example, the Internet). May be.
  • the input device of the present invention can be applied not only to a terminal device such as a tablet terminal or a mobile phone terminal, but also to an electronic device (for example, a game machine) that operates independently.
  • a terminal device such as a tablet terminal or a mobile phone terminal
  • an electronic device for example, a game machine

Abstract

入力装置は、画像を画面上に表示するスクリーン11と、画面に対する面内位置の指定を受け付けてその指定された面内位置を示す位置信号を出力するタッチパッド12と、複数の面内位置が指定された場合に、位置信号に基づいて、各面内位置を特定し、複数の画像を各面内位置にて表示させるとともに、各面内位置の間隔に応じて各画像の表示の大きさを制御する制御部10と、を有する。

Description

入力装置、画像表示方法およびプログラム
 本発明は、面内の位置の指定を受け付けてその指定された位置を示す位置信号を出力する、タッチパッド等の位置入力部を備え、位置信号に応じて表示を制御する入力装置に関する。
 最近では、携帯電話機やタブレット端末など、タッチパネル(タッチスクリーンと呼ばれる場合もある。)を備えた携帯機器が提供されている。タッチパネルは、液晶ディスプレイ等の表示部と、画面内における指等の指示体の接触位置を示す位置信号を出力する、タッチパッド等の位置入力部とを組み合わせたものである。
 上記携帯機器において、使用者が指を画面の一部に接触させると、位置入力部が、画面内の指の接触位置を示す位置信号を出力する。そして、制御部が、位置入力部からの位置信号に応じて表示部の表示を制御する。
 図1に、画面の表示の一例を示す。図1を参照すると、複数のアイコン101が一定の間隔で表示部の画面100上に表示されている。各アイコン101に対して、アプリケーションの起動等、特定の機能が割り当てられている。
 使用者が指を表示部の画面100上の所望のアイコン101の位置に接触させると、位置入力部が、画面100内の指の接触位置を示す位置信号を出力し、制御部が、その位置信号に基づいて、画面100内の指の接触位置に対応するアイコン101を特定する。そして、制御部が、その特定したアイコン101に割り当てられた機能を実行するとともに画面100上の表示を制御する。
 しかし、指の大きさに対してアイコン101が小さく、かつ、アイコン101の間隔が狭いと、例えば、図2に示すように、所望のアイコン101aを指で指定した場合に、指の接触領域の一部が隣接のアイコン101bにかかり、制御部が、誤って隣接のアイコン101bを指定されたアイコンとして認識する場合がある。この場合は、使用者が所望する機能とは異なる機能が実行されてしまう。
 そこで、アイコンの誤指定の問題を解決することができるタッチパネルが特許文献1に開示されている。
 特許文献1に記載のタッチパネルでは、指の接触面積に応じてアイコンの大きさを変化させる。具体的には、指の接触面積がアイコンの表示面積より大きな場合は、アイコンの表示面積を大きくする。アイコンを拡大することで、使用者は、指で所望のアイコンを確実に指定することができる。
 なお、複数のアイコンが表示されている場合で、拡大後のアイコンが画面に収まらない場合は、複数ページに分けて拡大後のアイコンを表示させる。このとき、拡大後のアイコンは所定の順番で並び変えて表示する。
特開2007-328421号公報
 特許文献1に記載のタッチパネルにおいては、アイコンが一定の間隔で所定の位置に表示されるようになっているので、携帯機器の保持の仕方によってはアイコンの指定が困難になる場合がある。例えば、図3に示すように、一方の手で携帯機器を保持して他方の手の指で画面100のアイコン101aを指定する場合に、携帯機器を保持している指がアイコン101aの指定を妨げる場合がある。
 また、拡大後のアイコンを並び変えて表示する場合があり、その場合は、拡大前と拡大後とでアイコンの表示位置が異なるため、使用者は、拡大後のアイコンがどのような配置で表示されているかを一々確認する必要がある。このような確認作業は、操作性を低下させる要因となる。
 さらに、図4に示すように、太陽または外部光源からの光がアイコンの視認の妨げとなる場合がある。この場合は、所望のアイコンを指定することが困難となる。なお、携帯機器の光に対する向きを変えることで、アイコンの視認性が向上するが、そのような向き変えの操作は使用者にとって煩わしい。
 本発明の目的は、使用者が確実にアイコンを指定することができる、操作性に優れた、入力装置、画像表示方法およびプログラムを提供することにある。
 上記目的を達成するため、本発明の入力装置は、
 画像を画面上に表示する表示部と、
 前記画面に対する面内位置の指定を受け付けてその指定された面内位置を示す位置信号を出力する位置入力部と、
 複数の面内位置が指定された場合に、前記位置信号に基づいて、各面内位置を特定し、複数の画像を前記各面内位置にて表示させるとともに、前記各面内位置の間隔に応じて各画像の表示の大きさを制御する制御部と、を有する。
 本発明の画像表示方法は、
 位置入力部が、表示部の画面に対する面内位置の指定を受け付けてその指定された面内位置を示す位置信号を出力し、
 制御部が、複数の面内位置が指定された場合に、前記位置信号に基づいて、各面内位置を特定し、複数の画像を前記各面内位置にて表示させるとともに、前記各面内位置の間隔に応じて各画像の表示の大きさを制御することを含む。
 本発明のプログラムは、
 画面に対して指定された複数の面内位置それぞれを示す位置信号を位置入力部から受信する処理と、
 前記位置信号に基づいて、前記複数の面内位置を特定し、複数の画像を各面内位置にて表示させるとともに、前記各面内位置の間隔に応じて各画像の表示の大きさを制御する処理と、をコンピュータに実行させる。
アイコンの表示の一例を示す模式図である。 アイコンの誤指定を説明するための模式図である。 携帯機器を保持している指がアイコンの指定を妨げる状態を示す模式図である。 外部からの光がアイコンの指定を妨げる状態を示す模式図である。 本発明の一実施形態である入力装置の構成を示すブロック図である。 隣接するアイコンの画像の水平方向および垂直方向の幅の条件を説明するための図である。 アイコンの画像の表示処理の一手順を示すフローチャートである。 アイコンの起動処理の一手順を示すフローチャートである。 アイコンの画像の表示の一例を示す模式図である。 タッチパッドをスクリーンが設けられた側とは反対側に設けた場合のアイコンの画像の表示の一例を示す模式図である。 制御用機能が割り当てられた画像の表示の一例を示す模式図である。
 1 接触位置・間隔算出部
 2 表示位置・サイズ算出部
 3 表示制御部
 4 アプリケーション実行部
 10 制御部
 11 スクリーン
 12 タッチパッド
 13 記憶部
 次に、本発明の実施形態について図面を参照して説明する。
 図5は、本発明の一実施形態である入力装置の構成を示すブロック図である。
 図5に示す入力装置は、表示部であるスクリーン11、位置入力部であるタッチパッド12、記憶部13、および制御部10を有する。図5において、スクリーン11とタッチパッド12は便宜上、並べて配置されているが、実際は、スクリーン11とタッチパッド12は対向するように配置される。タッチパッド12の面内位置(座標)とスクリーン11の面内位置(座標)とは一対一で対応する。
 スクリーン11は、例えば液晶ディスプレイであって、複数の画像(アイコン等の画像を含む)を画面上に表示する。タッチパッド12は、画面に対する面内位置の指定を受け付けてその指定された面内位置を示す位置信号を出力する。これらスクリーン11とタッチパッド12を組み合わせた構成が、いわゆるタッチパネルである。
 タッチパッド12には、抵抗膜方式、赤外線方式、電磁誘導方式など種々の方式があり、本実施形態では、いずれの方式のものでも採用することができる。ただし、タッチパッド12は、画面上の複数の箇所への接触を同時に検出することができ、それぞれの接触箇所を示す位置信号を出力することができる、マルチタッチが可能なものである。ここで、接触は、指やペンなどの指示体の接触である。位置信号は、例えば画面上の接触箇所の座標を示す信号である。
 記憶部13は、半導体メモリ等の記憶装置であって、入力装置を動作させるのに必要なデータやプログラムを格納する。プログラムは、複数のアプリケーションを含む。データは、アイコンの画像データ等、種々のデータを含む。この他、記憶部13は、アプリケーションとアイコンの画像データとが対応付けられて格納されたアプリケーション/アイコン対応テーブルも格納している。
 制御部10は、記憶部13に格納されたプログラムに従って動作するものであって、例えば、タッチパッド12からの位置信号に基づいてスクリーン11のアイコン等の画像の表示を制御したり、指定されたアイコンに割り当てられた機能(アプリケーション)を実行したりする。
 制御部10は、接触位置・間隔算出部1、表示位置・サイズ算出部2、表示制御部3、およびアプリケーション実行部4を有する。
 接触位置・間隔算出部1は、タッチパッド12からの位置信号に基づいて、使用者が指示体で指定したタッチパッド12上の面内位置(指示体の接触位置)を特定する。複数の面内位置が指定された場合は、接触位置・間隔算出部1は、タッチパッド12からの位置信号に基づいてタッチパッド12上の各面内位置を特定するとともに、各面内位置の間隔を算出する。
 表示位置・サイズ算出部2は、接触位置・間隔算出部1が特定したタッチパッド12上の各面内位置に対応するスクリーン11上の表示位置を決定するとともに、接触位置・間隔算出部1が取得した各面内位置の間隔に基づいて、隣接するアイコンの画像が重ならないように、各アイコンの画像の大きさを算出する。
 例えば、第1の接触領域の重心(面内位置)と第2の接触領域の重心(面内位置)との間隔をDとすると、第1の接触領域にて表示するアイコンの画像の幅のうち、その重心から第2の接触領域側の幅が、D/2より小さくなるように設定される。同様に、第2の接触領域にて表示するアイコンの画像の幅のうち、その重心から第2の接触領域側の幅が、D/2より小さくなるように設定される。
 また、隣接するアイコンの画像の水平方向および垂直方向の幅を、以下の条件を満たすように設定してもよい。
 図6に示すように、タッチパッド12上の2つの面内位置をそれぞれP1、P2とする。面内位置P1の重心と面内位置P2の重心とを結ぶ直線Dの長さをLとし、直線Dと水平方向の直線とのなす角度をθとする。
 上記の場合、面内位置P1の重心と面内位置P2の重心との水平方向における間隔W1は、L×cosθで与えられる。また、面内位置P1の重心と面内位置P2の重心との垂直方向における間隔W2は、L×sinθで与えられる。
 面内位置P1にて表示するアイコンの画像の水平方向の幅のうち、面内位置P1の重心から面内位置P2側の幅が、W1/2より小さくなるように設定される。また、面内位置P2にて表示するアイコンの画像の水平方向の幅のうち、面内位置P2の重心から面内位置P1側の幅が、W1/2より小さくなるように設定される。このように設定することで、面内位置P1、P2にて表示されるアイコンの画像が水平方向において重なることを防止することができる。
 面内位置P1にて表示するアイコンの画像の垂直方向の幅のうち、面内位置P1の重心から面内位置P2側の幅が、W2/2より小さくなるように設定される。また、面内位置P2にて表示するアイコンの画像の垂直方向の幅のうち、面内位置P2の重心から面内位置P1側の幅が、W2/2より小さくなるように設定される。このように設定することで、面内位置P1、P2にて表示されるアイコンの画像が垂直方向において重なることを防止することができる。
 再び、図5を参照する。表示制御部3は、表示位置・サイズ算出部2が決定した位置に、表示位置・サイズ算出部2が決定した大きさで所定のアイコンの画像を表示させる。
 アプリケーション実行部4は、タッチパッド12からの位置信号に基づいて、スクリーン11上に表示されたアイコンの画像のうちから、使用者が指示体を用いて所定の接触操作を通じて選択したアイコンの画像を特定し、該特定したアイコンの画像と対応するアプリケーションを、記憶部13のアプリケーション/アイコン対応テーブルから取得する。そして、アプリケーション実行部4は、取得したアプリケーションを実行する。
 次に、本実施形態の入力装置の動作について説明する。
 図7に、アイコンの画像の表示処理の一手順を示す。以下、図5および図7を参照して表示処理を説明する。
 まず、接触位置・間隔算出部1が、タッチパッド12からの位置信号に基づいて、複数の位置が指定されたか否かを判定する(ステップS10)。ここで、複数の位置の指定とは、例えば、複数の指が画面に同時に接触している状態だけではなく、所定時間内に少なくとも1つの指により複数の箇所への接触が行われた状態を意味する。例えば、人差し指および中指を同時に画面に接触させることで2点を指定してもよいし、人差し指を画面に接触させた後、所定時間内に中指を画面に接触させることで、2点を指定してもよい。
 ステップS10の判定結果が「No」である場合は、本表示処理は終了する。
 ステップS10の判定結果が「Yes」である場合は、続いて、接触位置・間隔算出部1が、タッチパッド12からの位置信号に基づいて、それぞれの接触位置を検出するとともに(ステップS11)、それら接触位置の間隔を算出する(ステップS12)。
 次に、表示位置・サイズ算出部2が、ステップS11で検出した各接触位置に対応するスクリーン11上の表示位置を決定するとともに、ステップS12で算出した接触位置の間隔に基づいてアイコンの画像の大きさを決定する(ステップS13)。
 次に、表示制御部3が、記憶部13に格納されているアイコンの画像データのうちから、所定の順序に従って、各表示位置にて表示すべき画像データをそれぞれ決定する(ステップS14)。ここで、所定の順序は、例えば、実行頻度が高いアプリケーションを優先するように順位付けしたもの(優先順位)である。
 最後に、表示制御部3が、その選択した画像データに基づく画像(アイコンの画像)を、ステップS13で決定した表示位置および大きさに基づいてスクリーン11で表示させる(ステップS15)。
 どの画像をどの表示位置にて表示させるかについては、例えば、接触の位置関係に基づいて決定してもよい。具体的には、複数の指で複数の箇所を指定した場合、左側のものほど、順位の高い画像(アイコンの画像)が表示されるように、画像(アイコンの画像)の表示位置への振り分けを行う。
 なお、指等の指示体を用いて画面内の複数の位置を指定して複数の画像(アイコンの画像)を表示した後、接触位置・間隔算出部1が、タッチパッド12からの位置信号に基づいて、指示体が画面から離れたことを検出しても、表示制御部3は、その検出タイミングから所定時間にわたって、画像(アイコンの画像)の表示を維持する。これにより、使用者が、例えば指等の指示体を用いて画面内の複数の位置を指定し、それぞれの指定位置に画像(アイコンの画像)を表示させた後、指示体を画面から離しても、画像(アイコンの画像)は一定時間にわたって表示される。この表示期間において、使用者は、アイコンの画像を確認して指定することができる。
 次に、アイコンの起動処理を説明する。
 図8に、アイコンの起動処理の一手順を示す。
 図7に示した手順でアイコンの画像が表示されると(ステップS20)、続いて、アプリケーション実行部4が、タッチパッド12からの位置信号に基づいて、画面から指示体が離れたか否かを判定する(ステップS21)。
 ステップS21の判定結果が「Yes」である場合は、続いて、アプリケーション実行部4が、画面から指示体が離れた時点からの経過時間を測定し(ステップS22)、所定時間内に指示体が画面に接触したか否かを判定する(ステップS23)。
 ステップS23の判定結果が「No」である場合は、本起動処理は終了する。
 ステップS23の判定結果が「Yes」である場合は、続いて、アプリケーション実行部4が、接触箇所が1つであるか否かを判定する(ステップS24)。
 ステップS24の判定結果が「No」である場合は、本起動処理は終了する。この場合、複数の接触を検出したことになるので、図7に示したアイコンの画像の表示処理のステップS11~S15の処理を実行してもよい。ただし、表示されるアイコンの画像として、前回、表示した画像の優先順位の次に高いものが決定される。
 ステップS24の判定結果が「Yes」である場合は、続いて、アプリケーション実行部4が、タッチパッド12からの位置信号に基づいて、スクリーン11上の指定位置を検出する(ステップS25)。そして、アプリケーション実行部4が、その検出した位置がアイコンの画像の表示位置と一致するか否かを判定する(ステップS26)。
 ステップS26の判定結果が「No」である場合は、本起動処理は終了する。
 ステップS26の判定結果が「Yes」である場合は、アプリケーション実行部4が、指定位置と一致したアイコンの画像に割り当てられたアプリケーションを、記憶部13のアプリケーション/アイコン対応テーブルから取得して、その取得したアプリケーションを実行する(ステップS27)。
 以上説明した本実施形態の入力装置によれば、指等の指示体でスクリーン11の画面内の複数の位置を指定した場合に、それら指定された位置にて、アイコンの画像が表示される。例えば、図9に示すように、中指と人差し指とでスクリーン11の画面5内の2箇所を指定した場合は、それぞれ指定した位置にてアイコン画像6、7が表示される。したがって、入力装置の筐体を保持している指を避けるように中指と人差し指とでアイコンの画像の表示位置を指定すれば、アイコンの画像の指定において、入力装置の筐体を保持している指が妨げとなることはない。
 また、指の接触位置がそのままアイコンの画像の表示位置となるので、使用者は、画面を見なくても、指の接触位置からアイコンの画像の表示位置を認識することができる。よって、アイコンの画像がどのような配置で表示されているかを一々確認する必要がないので、操作性が向上する。
 加えて、使用者が、アイコンの画像の順位(優先順位)や、画像の表示位置への振り分けの基準を把握していれば、どの表示位置にどのアイコンの画像が表示されるかをある程度予測することができる。
 加えて、図4に示したような外部からの光が画像の視認の妨げになる状態でも、使用者は、指の接触位置に基づいて、表示された画像の位置を確実に認識することができる。
 さらに、画面に接触させた中指および人差し指の間隔がアイコン画像6、7の間隔とされるので、使用者は、中指および人差し指を誤指定が生じないような間隔で画面に接触させればよい。これにより、アイコン画像の誤指定を抑制することができる。
 上述した本実施形態の入力装置は、本発明の一例であり、その構成および動作は、適宜に変更することができる。
 例えば、図9に示した例において、中指と人差し指を接触させた状態において、中指の接触位置と人差し指の接触位置との間隔を調整すると、制御部10が、その調整幅に応じて、アイコン画像6、7の表示範囲を変更してもよい。これにより、例えば、中指の接触位置と人差し指の接触位置との間隔を小さくすれば、アイコン画像6、7の表示範囲が小さくなり、中指の接触位置と人差し指の接触位置との間隔を大きくすれば、アイコン画像6、7の表示範囲が大きくなる。
 また、スクリーン11とタッチパッド12は、同じ面側または異なる面側に設けられても良い。例えば、スクリーン11を筐体の所定の面(表側の面)に設け、タッチパッド12を、筐体のスクリーン11が設けられた面とは反対側の面(裏側の面)に、スクリーン11と対向するように設けてもよい。
 上記の場合は、使用者は、裏面側のタッチパッド12上で複数の位置を指定する。例えば、図10に示すように、裏面側のタッチパッド12上で2つの位置を指定すると、スクリーン11上のそれら指定位置に対応する位置にアイコン画像6、7が表示される。
 スクリーン11とタッチパッド12が異なる面に設けられた構成において、タッチパッド12の大きさがスクリーン11と異なっていてもよい。この場合は、タッチパッド12の面内位置(座標)とスクリーン11の面内位置(座標)との対応関係を示す座標変換テーブルが記憶部13に格納される。制御部10では、この座標変換テーブルを参照して、タッチパッド12の面内位置(座標)がスクリーン11の面内位置(座標)に変換される。
 また、指示体でスクリーン11の画面内の複数の箇所を指定した場合において、所定の箇所の接触位置に表示される画像に、他の箇所の接触位置に表示される画像の表示を制御するための制御用機能が割り当てられてもよい。
 以下に、指示体を用いて画面内の第1から第3の箇所を指定した場合について、具体的な動作を説明する。
 図5に示した制御部10では、接触位置・間隔算出部1が、画面への第1から第3の箇所への指示体の接触を検出するとともに、その接触順序も検出する。表示位置・サイズ算出部2が、第1から第3の箇所から表示位置を決定し、各箇所の間隔に基づいて画像のサイズを決定する。そして、表示制御部3が、接触順序が所定番目の箇所の表示位置に、他の箇所の表示位置における表示を制御する機能が割り当てられた画像を表示させ、他の箇所の表示位置にアイコンの画像を表示させる。
 また、図11に示すように、人差し指および中指でスクリーン11の画面5内の2箇所を指定した後、薬指で画面5内の別の箇所を指定した場合に、接触順序が最も遅い箇所に、制御用機能が割り当てられた画像が表示される。具体的には、図5に示した制御部10において、表示制御部3が、中指、人差し指のそれぞれの接触位置にアイコン画像6、7を表示させるとともに、薬指の接触位置に制御用画像8を表示させる。ここで、制御用画像8には、アイコン画像6、7の表示を変化させるための機能が割り当てられている。
 人差し指、中指、薬指を画面5に接触させた状態で薬指をスライドさせると、接触位置・間隔算出部1が、タッチパッド12からの位置信号に基づいて、その薬指の画面5上でのスライド方向とスライド量を検出する。ここでは、制御用画像8が上方向へスライドした場合を第1のスライド方向とし、制御用画像8が下方向へスライドした場合を第2のスライド方向とする。
 次に、表示位置・表示サイズ算出部2が、検出したスライド方向とスライド量に応じてアイコン画像6、7の表示内容を決定する。具体的には、制御用画像8が第1のスライド方向に所定量だけスライドした場合は、アイコン画像6、7として、それまで表示された画像データの次に優先順位が高い画像データを選択する。そして、表示制御部3が、その選択した画像データに基づく画像をアイコン画像6、7として表示させる。
 上記の例では、制御用機能が割り当てられた画像が表示される表示位置を接触順序に基づいて決定しているが、これに限定されない。例えば、接触の位置関係によって、制御用機能が割り当てられた画像が表示される表示位置を決定してもよい。具体的には、複数の指で複数の箇所を指定した場合、画面上の最も右側に位置する接触位置を、制御用機能が割り当てられた画像が表示される表示位置としてもよい。
 また、本実施形態の入力装置において、指示体の接触位置に対応する表示位置に画像を表示しているが、これに限定されない。指示体の接触位置と相対的な関係がある位置に画像を表示してもよい。
 また、本実施形態の端末装置において、制御部10は、プログラムに従って動作するコンピュータ(CPU:Central Processing unit)であってもよい。プログラムは、スクリーン11やタッチパッド12を制御するための処理や、少なくともアイコンの画像の表示処理や制御用機能が割り当てられた画像の表示処理などを、コンピュータに実行させることが可能なものである。プログラムは、CD(Compact Disc)やDVD(Digital Versatile Disc)などの光ディスク、USB(Universal Serial Bus)メモリなどの記録媒体を用いて提供されてもよく、通信網(例えばインターネット)を介して提供されてもよい。
 本発明の入力装置は、タブレット端末や携帯電話端末のような端末装置に適用することができる他、単独で動作する電子機器(例えば、ゲーム機)にも適用することができる。
 以上、実施形態を参照して本発明を説明したが、本発明は上述した実施形態に限定されるものではない。本発明の構成および動作については、本発明の趣旨を逸脱しない範囲において、当業者が理解し得る様々な変更を行うことができる。
 この出願は、2011年7月14日に出願された日本出願特願2011-155719を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (7)

  1.  画像を画面上に表示する表示部と、
     前記画面に対する面内位置の指定を受け付けてその指定された面内位置を示す位置信号を出力する位置入力部と、
     複数の面内位置が指定された場合に、前記位置信号に基づいて、各面内位置を特定し、複数の画像を前記各面内位置にて表示させるとともに、前記各面内位置の間隔に応じて各画像の表示の大きさを制御する制御部と、を有する入力装置。
  2.  前記制御部は、前記複数の面内位置のうちの特定の面内位置に、他の面内位置に表示される他の画像の表示を制御するための機能が割り当てられた画像を表示し、該画像に対する操作に応じて前記他の画像の表示内容を制御する、請求項1に記載の入力装置。
  3.  表示の順位付けがなされた複数の画像データが格納された記憶部を、さらに有し、
     前記制御部は、前記複数の画像データのうちから前記順位付けに基づいて前記各面内位置にて表示される画像の画像データを決定する、請求項1または2に記載の入力装置。
  4.  前記位置入力部は、前記画面が形成された面側に設けられている、請求項1から3のいずれか1項に記載の入力装置。
  5.  前記位置入力部は、前記画面が形成された面とは反対側の面に設けられている、請求項1から3のいずれか1項に記載の入力装置。
  6.  位置入力部が、表示部の画面に対する面内位置の指定を受け付けてその指定された面内位置を示す位置信号を出力し、
     制御部が、複数の面内位置が指定された場合に、前記位置信号に基づいて、各面内位置を特定し、複数の画像を前記各面内位置にて表示させるとともに、前記各面内位置の間隔に応じて各画像の表示の大きさを制御する、画像表示方法。
  7.  画面に対して指定された複数の面内位置それぞれを示す位置信号を位置入力部から受信する処理と、
     前記位置信号に基づいて、前記複数の面内位置を特定し、複数の画像を各面内位置にて表示させるとともに、前記各面内位置の間隔に応じて各画像の表示の大きさを制御する処理と、をコンピュータに実行させるプログラム。
PCT/JP2012/066228 2011-07-14 2012-06-26 入力装置、画像表示方法およびプログラム WO2013008615A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013523877A JP5991320B2 (ja) 2011-07-14 2012-06-26 入力装置、画像表示方法およびプログラム
US14/232,532 US9983700B2 (en) 2011-07-14 2012-06-26 Input device, image display method, and program for reliable designation of icons

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-155719 2011-07-14
JP2011155719 2011-07-14

Publications (1)

Publication Number Publication Date
WO2013008615A1 true WO2013008615A1 (ja) 2013-01-17

Family

ID=47505912

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066228 WO2013008615A1 (ja) 2011-07-14 2012-06-26 入力装置、画像表示方法およびプログラム

Country Status (3)

Country Link
US (1) US9983700B2 (ja)
JP (1) JP5991320B2 (ja)
WO (1) WO2013008615A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157347A (ja) * 2015-02-25 2016-09-01 京セラ株式会社 電子機器、制御方法、及び制御プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8381135B2 (en) 2004-07-30 2013-02-19 Apple Inc. Proximity detector in handheld device
US20100231506A1 (en) * 2004-09-07 2010-09-16 Timothy Pryor Control of appliances, kitchen and home
KR101789332B1 (ko) * 2011-06-03 2017-10-24 삼성전자주식회사 휴대단말기에서 홈 스크린을 표시하는 방법
US10019151B2 (en) * 2013-02-08 2018-07-10 Motorola Solutions, Inc. Method and apparatus for managing user interface elements on a touch-screen device
CN111027107B (zh) * 2019-12-10 2023-05-23 维沃移动通信有限公司 一种对象显示控制方法及电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004013381A (ja) * 2002-06-05 2004-01-15 Kazuyoshi Kotani 仮想キー片手入力装置
JP2004062867A (ja) * 2002-06-03 2004-02-26 Fuji Xerox Co Ltd 機能制御装置およびその方法
JP2009301094A (ja) * 2008-06-10 2009-12-24 Sharp Corp 入力装置及び入力装置の制御方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3721628B2 (ja) * 1996-02-16 2005-11-30 松下電工株式会社 設備管理装置
JPH1139093A (ja) * 1997-07-15 1999-02-12 Toshiba Corp 情報処理装置およびポインティング装置
US6211856B1 (en) * 1998-04-17 2001-04-03 Sung M. Choi Graphical user interface touch screen with an auto zoom feature
US6765557B1 (en) * 2000-04-10 2004-07-20 Interlink Electronics, Inc. Remote control having touch pad to screen mapping
US7461356B2 (en) 2002-06-03 2008-12-02 Fuji Xerox Co., Ltd. Function control unit and method thereof
JP2004295716A (ja) * 2003-03-28 2004-10-21 I'm Co Ltd 表示機能付電子機器
JP2006268313A (ja) * 2005-03-23 2006-10-05 Fuji Xerox Co Ltd 表示制御装置およびその表示内容の配置方法
JP2007156866A (ja) 2005-12-06 2007-06-21 Matsushita Electric Ind Co Ltd データ処理装置
JP2007256338A (ja) 2006-03-20 2007-10-04 Denso Corp 地図表示装置
JP2007328421A (ja) 2006-06-06 2007-12-20 Canon Inc タッチパネル、及び該装置制御方法
JP4927633B2 (ja) 2006-09-28 2012-05-09 京セラ株式会社 携帯端末及びその制御方法
KR20080073868A (ko) * 2007-02-07 2008-08-12 엘지전자 주식회사 단말기 및 메뉴표시방법
JP4979600B2 (ja) 2007-09-05 2012-07-18 パナソニック株式会社 携帯端末装置、及び表示制御方法
JPWO2009031214A1 (ja) 2007-09-05 2010-12-09 パナソニック株式会社 携帯端末装置、及び表示制御方法
CN102047204A (zh) * 2008-06-02 2011-05-04 夏普株式会社 输入装置、输入方法、程序以及记录介质
US8704775B2 (en) * 2008-11-11 2014-04-22 Adobe Systems Incorporated Biometric adjustments for touchscreens
JP2010146506A (ja) 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
US8665227B2 (en) * 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
US9122318B2 (en) * 2010-09-15 2015-09-01 Jeffrey R. Spetalnick Methods of and systems for reducing keyboard data entry errors
US20120144337A1 (en) * 2010-12-01 2012-06-07 Verizon Patent And Licensing Inc. Adjustable touch screen keyboard

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004062867A (ja) * 2002-06-03 2004-02-26 Fuji Xerox Co Ltd 機能制御装置およびその方法
JP2004013381A (ja) * 2002-06-05 2004-01-15 Kazuyoshi Kotani 仮想キー片手入力装置
JP2009301094A (ja) * 2008-06-10 2009-12-24 Sharp Corp 入力装置及び入力装置の制御方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016157347A (ja) * 2015-02-25 2016-09-01 京セラ株式会社 電子機器、制御方法、及び制御プログラム

Also Published As

Publication number Publication date
JPWO2013008615A1 (ja) 2015-02-23
US9983700B2 (en) 2018-05-29
US20140139475A1 (en) 2014-05-22
JP5991320B2 (ja) 2016-09-14

Similar Documents

Publication Publication Date Title
JP5675622B2 (ja) 表示装置
KR102255830B1 (ko) 복수 개의 윈도우를 디스플레이하는 방법 및 장치
US8614682B2 (en) Touchscreen panel unit, scrolling control method, and recording medium
US10198163B2 (en) Electronic device and controlling method and program therefor
JP5991320B2 (ja) 入力装置、画像表示方法およびプログラム
JP2009110286A (ja) 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
JP6225911B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2015005173A (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5429627B2 (ja) 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
US20130093712A1 (en) Touch sensing method and electronic apparatus using the same
JP5848732B2 (ja) 情報処理装置
JP2015508547A (ja) タッチ感応式デバイスを使用する方向制御
KR20140122076A (ko) 휴대형 전자장치의 객체 표시 방법 및 그에 관한 장치
KR20140070745A (ko) 디스플레이 장치 및 이의 구동 방법
JP2013137739A (ja) 電子機器、動作制御方法およびプログラム
WO2017022031A1 (ja) 情報端末装置
JP2014197164A (ja) 表示装置、表示方法、及び表示プログラム
JP2014106806A (ja) 情報処理装置
WO2018082256A1 (zh) 一种终端及其切换应用的方法
WO2013047023A1 (ja) 表示装置、表示方法およびプログラム
CN111142775A (zh) 一种手势交互方法和装置
JP2013073365A (ja) 情報処理装置
JP2015153083A (ja) 表示制御プログラム、装置、及び方法
JP2015022675A (ja) 電子機器、インターフェース制御方法、および、プログラム
KR20140075391A (ko) 멀티 터치와 탭핑을 결합하여 사용자 명령을 입력하는 방식의 사용자 인터페이스 방법 및 이를 적용한 전자 기기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12811353

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013523877

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14232532

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12811353

Country of ref document: EP

Kind code of ref document: A1