WO2009022671A1 - 接触型入力装置、接触型入力方法及びプログラム - Google Patents

接触型入力装置、接触型入力方法及びプログラム Download PDF

Info

Publication number
WO2009022671A1
WO2009022671A1 PCT/JP2008/064370 JP2008064370W WO2009022671A1 WO 2009022671 A1 WO2009022671 A1 WO 2009022671A1 JP 2008064370 W JP2008064370 W JP 2008064370W WO 2009022671 A1 WO2009022671 A1 WO 2009022671A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact
user
display
enlarged
type input
Prior art date
Application number
PCT/JP2008/064370
Other languages
English (en)
French (fr)
Inventor
Hideaki Tetsuhashi
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to JP2009528124A priority Critical patent/JPWO2009022671A1/ja
Priority to US12/671,013 priority patent/US20100201641A1/en
Priority to CN200880103046.9A priority patent/CN101779184A/zh
Priority to EP20080792354 priority patent/EP2180398A4/en
Publication of WO2009022671A1 publication Critical patent/WO2009022671A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a contact type input device and a contact type input method, and more particularly to a contact type input device, a contact type input method, and a program for assisting an input operation to an information processing terminal by a user.
  • Patent Document 1 discloses a technique related to a contact-type input device.
  • Patent Document 1 Japanese Patent Laid-Open No. 2006-5655
  • the present invention has been made in view of the above problems, and a contact-type input that can easily enlarge a display screen without using a stylus pen for a contact-type input device.
  • An object is to provide a device, a contact input method, and a program.
  • a contact-type input device is a contact-type input device that performs an input operation by touching a display means, and receives a contact operation on the display means to acquire a contact position.
  • An input receiving means and an enlarged display means for enlarging and displaying a display image on the display means based on the contact position are provided.
  • a contact-type input method is a contact-type input method in which an input operation is performed by touching a display screen.
  • the contact-type input method accepts a contact operation on the display screen, and accepts the received contact operation.
  • a contact position is acquired, and a display image is enlarged and displayed on the display screen based on the contact position.
  • the program of the present invention is a program for causing a computer to execute a contact-type input method in which an input operation is performed by touching a display screen.
  • An input receiving process for acquiring a position and an enlarged display process for enlarging and displaying a display image on the display screen based on the contact position are performed by a computer.
  • the terminal device of the present invention is a terminal device including a display unit and an input device that performs a re-input operation by contacting the display unit, and the input device is connected to the display unit.
  • Input receiving means for receiving a contact operation and acquiring a contact position; and an enlarged display means for enlarging and displaying a display image on the display means based on the contact position.
  • FIG. 1 is a block diagram showing a configuration of a contact-type input auxiliary device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing an operation flow chart of the contact-type input assist method according to Embodiment 1 of the present invention.
  • FIG. 3 is a block diagram showing a configuration of an input receiving unit according to the first embodiment of the present invention.
  • FIG. 4 is a block diagram showing a configuration of a contact-type input auxiliary device according to Embodiment 2 of the present invention.
  • FIG. 5 is a diagram showing an operation flow chart of a contact-type input assist method according to Embodiment 2 of the present invention.
  • FIG. 6 is a block diagram showing a configuration of an operation determination unit according to Embodiment 2 of the present invention.
  • Fig. 7 is a diagram showing an operation flowchart of operation determination means according to the second embodiment of the present invention.
  • FIG. 8 is a block diagram showing a configuration of enlarged display means according to the second embodiment of the present invention.
  • FIG. 9 is a diagram showing a flowchart of an enlarged display process according to the second embodiment of the present invention.
  • FIG. 10 is a diagram showing a flowchart of an operation for closing an enlarged display image according to Embodiment 2 of the present invention.
  • FIG. 11 shows a straight-type mobile phone equipped with a touch panel input device in Embodiment 3 according to the present invention.
  • FIG. 12 shows a folding mobile phone equipped with a touch panel input device in Embodiment 3 according to the present invention.
  • FIG. 13 shows a specific example of a display screen in the third embodiment according to the present invention.
  • FIG. 14 shows a specific example of a display image in which a portion of an image is enlarged and displayed based on a designated portion in Embodiment 3 according to the present invention.
  • FIG. 15 shows a state where the user is holding the mobile phone with the left hand in the third embodiment according to the present invention.
  • FIG. 16 shows a specific example in which the user closes the detailed window by operating the left hand in the third embodiment according to the present invention.
  • FIG. 17 shows a state where the user is holding the mobile phone with the right hand in Embodiment 3 according to the present invention.
  • FIG. 18 shows a specific example when the user closes the detail window by the right-hand operation in the third embodiment according to the present invention.
  • FIG. 1 shows an example of a contact-type input device according to this embodiment.
  • the contact type input device includes, for example, an input receiving unit 4 and an enlarged display unit 6 connected to the touch panel display 2.
  • Input accepting means 4 is an enlarged display hand Connected to stage 6 and connected to touch panel display 2.
  • the input receiving means 4 is further connected to an interface I-suffer of an information terminal device (not shown).
  • Each means may be a part of a dedicated component including a semiconductor circuit designed for exclusive use, or a function realized by the CPU of the terminal body.
  • the user touches the touch panel display 2 and performs an input operation (S 1 01).
  • the input receiving means 4 receives the user's contact operation (S 10 02) and obtains coordinate information of the contact position (S 10 03). The coordinate information is input to the interface 7.
  • the enlargement display means 6 enlarges and displays the image information on the touch panel display 2 based on the coordinate information of the contact position (S 104).
  • FIG. 3 shows an example of the input receiving unit 4 in the present embodiment.
  • the input receiving means 4 includes coordinate information acquisition means 4a and input information selection means 4b.
  • the coordinate information acquisition unit 4a calculates the coordinate information of the contact position on the touch panel display 2, and sends the coordinate information to the input information selection unit 4b.
  • the input method selection unit 4 b acquires state information related to screen processing from the interface 7. That is, if the touch operation on the touch panel display 2 instructs to enlarge the screen, the coordinate information of the contact position is sent to the enlargement display means 6 and the interface. If the contact operation does not instruct to enlarge the screen, the coordinate information of the contact position is sent to the interface 7 without being sent to the enlarged display means 6.
  • FIG. 4 shows an example of a contact input device according to the second embodiment.
  • the contact input device of this embodiment is obtained by adding an operation determination unit 3 and a malfunction prevention unit 5 to the contact input device of the first embodiment.
  • the operation judging means 3 is connected to the touch panel display 2.
  • Input acceptance means 4 The operation determining means 3 and the enlarged display means 6 are coupled to each other.
  • the input receiving means 4 is further connected to an interface of an information terminal device (not shown) via the malfunction preventing means 5.
  • the operation determination unit 3 is connected to the interface 7.
  • the user touches the touch panel display 2 and performs an input operation (S201).
  • the operation determining means 3 determines whether or not the contact with the touch panel display 2 is a contact operation by the user (S202). That is, a sensor is provided outside the touch panel display 2, and when the touch panel display 2 is touched, an operation such as light shielding of the sensor by the user is detected. When the touch panel display 2 is touched for the purpose of touching the touch panel display 2, the touch panel I performs operations such as shielding the sensor at the same time. In this way, it is determined whether the touch on the touch panel display 2 is due to a user operation or whether the touch panel display 2 is unintentionally touched.
  • the malfunction preventing unit 5 blocks the input to the interface 7 for the contact operation (S203).
  • the input receiving unit 4 receives the user's contact operation (S204) and obtains information on the coordinates of the contact position (S204). S205). The coordinate information is input to the interface 7.
  • the enlargement display means 6 enlarges and displays the image information on the touch panel display 2 based on the coordinate information of the contact position (S206).
  • FIG. 6 shows an example of the operation determination unit 3 in the present embodiment.
  • the operation determination means 3 includes contact operation acceptability detection means 3a and auxiliary signal detection means 3b.
  • the contact operation acceptability detecting means 3 a is connected to the interface 7 and is controlled by the interface 7.
  • a sensor is connected to the auxiliary signal detecting means 3b. With reference to FIG. 7, the operation of the operation determination means 3 will be described.
  • the contact operation acceptability detecting means 3a determines whether or not the touch panel display 2 is in a state where it can output a signal upon receiving the contact operation (S301).
  • the interface 7 instructs the contact operation acceptability detecting means 3a to indicate that the contact operation can be accepted. Send.
  • the auxiliary signal detection means 3b detects the state of the user when the user operates the touch panel input device 1. (S302)
  • the operation determining means 3 is based on the detection result of the contact operation acceptability detecting means 3a and the detection result of the auxiliary signal detecting means 3b, and the user touches the touch panel display 2 to enlarge the screen. Judge whether or not you are looking at the screen by opening and closing. Based on the result, a signal representing the state of the user is output. (S 303)
  • the process After outputting a signal representing the user's state, the process returns to S301, where it is determined whether the contact operation is acceptable, and the state due to the user's operation is detected. By repeating this process, the user's status is periodically checked. If there is a change in the user status, it will be dealt with immediately.
  • the signal detected by the auxiliary signal detection means 3b is, for example, a signal from a connected sensor.
  • the senor is, for example, an optical sensor.
  • the sensor may be a touch sensor.
  • the senor may be a static electricity sensor. A state in which the user shields the sensor with a finger or the like is detected, and it is determined whether or not the user is operating the touch panel display 2.
  • FIG. 8 shows an example of the enlarged display means 6 in the present embodiment.
  • the enlarged display means 6 includes an enlarged range defining means 6a and a screen enlargement means 6b connected thereto. Furthermore, an enlarged display image end means 6 c and an operation screen end means 6 d are provided. Further, the screen enlarging means 6 b may be provided with a character font information holding unit 6 e. The screen data for enlarged display generated by the screen enlargement means is held in the enlarged display image data holding means 6f. The enlarged display means 6 is connected to the input receiving means 4 Connected.
  • the operation determining means 3 determines that the user is in a state of opening and closing the enlarged screen and viewing the screen (S402)
  • a signal is input by touching the touch display 2 (S401).
  • the input receiving means 4 detects the coordinate value of the contact position on the touch panel display 2 (S403). That is, the input signal from the touch panel display 2 includes coordinate information on the screen, and the input receiving means 4 transmits the coordinate information to the enlarged display means.
  • the enlargement range demarcation means demarcates an area of a predetermined size centered on the detected coordinates on the screen (S404). The predetermined size may be appropriately determined depending on the enlargement ratio of the region.
  • the center position may be moved as appropriate so as to be included.
  • the defined area is enlarged at a designated enlargement ratio (S405).
  • the enlarged screen includes a close button for closing the enlarged image by a user operation.
  • the enlarged image may be enlarged by appropriately complementing the bit with a specified enlargement ratio to an area of a predetermined size on the display screen, or from the character font information holding unit. It is possible to replace the character font by extracting the information.
  • the enlarged area data is sent to the touch panel display 2 (S406).
  • one enlarged image may be closed or all display images may be closed simultaneously. Alternatively, multiple screens may be closed while displaying a dialog for confirmation.
  • the enlarged image can be closed (S507) when the user performs an operation for closing the enlarged image (S506). This is to operate a closing button provided in the enlarged image, whereby the operation screen end means 6 d closes the enlarged image.
  • a return button (not shown) may be provided to display the closed screen again before proceeding to the next operation.
  • This return button is displayed on the display screen after the enlarged display image is closed, and is erased when proceeding to the next operation.
  • the display data of the enlarged display image stored in the enlarged display image data holding means 6f is displayed on the touch panel display 2 again.
  • the display data of the enlarged display image stored in the enlarged display image data holding means 6f is released.
  • FIG. 11 shows a mobile phone equipped with a touch panel input device as an embodiment of the present invention.
  • the mobile phone shown in FIG. 11 has a touch panel display 10 that can be displayed, and a display.
  • a sensor 100 provided at the top of the play 10 and sensors 110 and 120 provided on the side surface of the mobile phone are provided.
  • the sensors 100 1, 1 1 0, and 1 20 are desirably optical sensors, but the present embodiment is not limited to this.
  • an electrostatic sensor may be used on the side surface of a mobile phone. .
  • FIG. 11 shows a straight type mobile phone, but in this embodiment, the mobile phone is not limited to the straight type, and may be a folding type mobile phone.
  • FIG. 1 An example of this folding cellular phone is shown in FIG.
  • the folding mobile phone shown in FIG. 12 is provided with a touch panel display 10A that can be displayed, a sensor 100A provided at the top of the display 10A, and a side surface of the mobile phone. Sensors 1 1 OA and 1 20A.
  • the mobile phone shown in FIG. 12 displays a browser page on, for example, a touch panel display 1 OA.
  • Touch panel display 1 Figure 13 shows a specific example of the display screen displayed on the OA.
  • FIG. 13 shows a screen displayed when browsing a certain Web site.
  • page information of a website is displayed on the touch panel display 1 OA.
  • This touch panel display 1 OA displays all the contents, but the characters displayed on the browser become too small and it is difficult to read the characters.
  • the user uses the user's finger 30 to select and touch the location 40 to be displayed in detail on the screen displayed on the touch panel display 1OA.
  • the vicinity of the portion 40 touched by the user on the touch panel display 1OA is displayed in an enlarged manner.
  • FIG. 1 A specific example of the display screen at this time is shown in FIG.
  • the touch panel display 1 OA defines an area in the vicinity of the point 40 touched by the user. This area is enlarged and displayed from the screen display newly generated as the detail window 20.
  • the user can display a small character that could not be read in FIG. 13 in an enlarged manner as shown in FIG. 14;
  • this mobile phone uses the user's finger 30 again to display the details in detail when it is desired to confirm more detailed contents of the detail window 20 enlarged on the touch panel display 1 OA. You can zoom in further by selecting the location 45 you want.
  • FIG. 15 shows a state in which the user is holding the mobile phone with the left hand during the operation as described above.
  • this mobile phone is assumed to operate when the sensor 100A (FIG. 15) is receiving light.
  • the enlarged detail window 20 can be closed by releasing the user's little finger from the sensor 120A located in the little finger of the left hand. . This operation returns to the state shown in Fig. 13.
  • the detail window 20 is closed using the sensor 1 20A located on the left hand of the user, but the embodiment is not limited to this, and the right hand of the user is used.
  • the details window 20 may be closed.
  • FIG. 17 an embodiment in which the user is holding the mobile terminal with the right hand is shown in FIG. Then, from the state shown in FIG. 17, the user releases the little finger of the user from the sensor 11 OA located on the little finger of the right hand as shown in FIG. 20 can be closed and can be returned to the state shown in FIG.
  • Tatsuchipaneru input device by enlarging displayed by points a detail window 20 to be displayed in detail, it is possible to browse in detail the W e b page even without a stylus pen.
  • the third embodiment exemplifies a cellular phone including a touch panel input device
  • the present embodiment is not limited to this, and can be applied to, for example, a force navigation system or a game machine.
  • the input device applied to the car navigation system displays, for example, an enlarged map of the user who wants to check the detailed route, and when the user operates the power navigation system, To refuse to start.
  • the sensor 100A, the sensors 110A and 120A are the operation determination means and the malfunction prevention means, and the touch panel display 1OA is the input reception means and the enlarged display means.
  • the embodiment is not limited to this, and may be realized by other configurations.
  • the contact-type input device displays a detailed screen on the display screen by enlarging the display based on the touch-operated position of the screen displayed on the display screen. This enables accurate touch input operation.

Abstract

表示画面2を接触することにより、入力操作を行う接触型入力装置1に対し、スタイラスペンを使用することなく、容易に表示画面の拡大を行うことができるタッチパネル入力装置及びタッチパネル入力方法を提供する。表示画面2への接触操作を受け付けて、接触位置を取得する入力受付手段4と、接触位置に基づき、表示画面2に表示画像を拡大表示する拡大表示手段6とを備える。

Description

明細書
接触型入力装置、接触型入力方法及びプログラム
技術分野
[0001 ] 本発明は、接触型入力装置 ¾び接触型入力方法に関し、特に、ユーザに よる情報処理端末への入力操作を補助する、接触型入力装置、接触型入力 方法及びプログラムに関する。
背景技術
[0002] 近年、自動車の進路を案内する端末や銀行業務の操作を行う端末などに、 接触型の入力装置を備えた、情報処理装置が普及しつつある。
[0003] このような接触型の入力装置において、ユーザは、タツチパネル上の一部分 を接触操作して、該当する部分の処理填目を選択し、或いは、文字情報或い は画像情報を入力する。これにより、目的の情報処理を実行する。
[0004] また、最近の技術の進歩により、携帯型の情報処理端末やゲーム機等も普 及している。これらの情報処理端末やゲーム機にも、接触型の入力装置が適 用されている。
[0005] 接触型の入力装置を備えた携帯端末やゲーム機などの普及と共に、携帯 端末における WWW (world wid e web)サイトのブラウジングの機能が普及 している。 WWWサイトのブラウジングの操作の際には;細かい操作に対応した スタイラスペンが使用されている。
[0006] このスタイラスペンを用いても、ユーザに入力を要求する接触型のディスプレ ィを備える端末においては、ディスプレイ上での細かい操作が必要である。その ため、誤作動が起き易かった。
[0007] 接触型の入力装置に関する技術が、特許文献 1に記載される。
[0008] 特許文献 1:特開 2006— 5655号公報
発明の開示
[0009] しかしながら、特許文献 1に記載された接触型の入力装置において、タツチ パネルに自分の指を使って入力する場合、指がタツチパネルに接触する面積 が大きくなる。隣り合うアイコンを識別して、目的のアイコンのみに指を接触させ ることが困難である。それゆえ、自分が選択したいアイコン付近の間違ったアイ コンを選択してしまうことがあった。
[001 0] 特に、フルブラウザ画面を、携帯電話などの携帯端末の小さい画面上で表 示する際には、ブラウザの拡大、縮小などの表示を素早く行う必要がある。ま た、密集したアイコンに対する選択操作が必要とされる。このため、スタイラス ペンが必須であった。
[001 1 ] このスタイラスペンを使用した場合でも、誤ったアイコンが選択されることがあ リ、操作性はあまり良くなかった。
[001 2] P DA ( person a l d igital a ss i stant)や携帯電話等の携帯端末の小さい 画面では、パーソナルコンピュータと異なり、ブラウザの広い範囲を確認するこ とが困難である。ブラウザの文字サイズを大きくして、文字を見易く設定した状 態ではなおさらである。
[001 3] このため、目的のアイコン等に、なかなか迪リ着けないという問題があった。
[0014] また、ブラウザに表示される文字の大きさの変更などの煩雑な作業に対して、 ユーザがスタイラスペンの操作に慣れる必要があった。
[001 5] 本発明は、上記問題点を鑑みてなされたものであり、接触型の入力装置に 対し、スタイラスペンを使用することなく、容易に表示画面の拡大を行うことが できる接触型入力装置、接触型入力方法及びプログラムを提供することを目 的とする。
[001 6] 本発明に係る接触型入力装置は、表示手段を接触することにより入力操 作を行う接触型入力装置であって、前記表示手段への接触操作を受け付け て、接触位置を取得する入力受付手段と、前記接触位置に基づき、前記表 示手段に表示画像を拡大表示する拡大表示手段とを備えたことを特徴とす る。
[001 7] 本発明に係る接触型入力方法は、表示画面を接触することにより入力操 作を行う接触型入力方法であって、前記表示画面への接触操作を受け付け、 受け付けられた接触操作の接触位置を取得し、前記接触位置に基づき、前 記表示画面に表示画像を拡大表示することを特徴とする。 [001 8] 本発明のプログラムは、表示画面を接触することにより入力操作を行う接触 型入力方法をコンピュータに実行させるためのプログラムであって、前記表示 画面への接触搡作を受け付けて、接触位置を取得する入力受付処理と、前 記接触位置に基づき、前記表示画面に表示画像を拡大表示する拡大表示 処理とをコンピュータに実行させることを特徴とする。
[001 9] 本発明の端末装置は、表示手段と、前記表示手段を接触することによリ入 力操作を行う入力装置を備えた端末装置であって、前記入力装置は、前記 表示手段への接触操作を受け付けて、接触位置を取得する入力受付手段と、 前記接触位置に基づき、前記表示手段に表示画像を拡大表示する拡大表 示手段とを備えたことを特徴とする。
図面の簡単な説明
[0020] 上述した目的、及びその他の目的、特徴及び利点は、以下に述べる好適な 実施の形態、及びそれに付随する以下の図面によってさらに明らかになる。
[0021 ] [図 1 ]本発明の実施形態 1に係る、接触型入力補助装置の構成を示すプロ ック図である。
[図 2]本発明の実施形態 1に係る、接触型入力補助方法の動作フローチヤ一 トを示す図である。
[図 3]本発明の実施形態 1に係る、入力受付手段の構成を示すブロック図で ある。
[図 4] 本発明の実施形態 2に係る、接触型入力補助装置の構成を示すプロ ック図である。
[図 5]本発明の実施形態 2に係る、接触型入力補助方法の動作フローチヤ一 トを示す図である。
[図 6]本発明の実施形態 2に係る、操作判断手段の構成を示すブロック図で ある
[図 7]本発明の実施形態 2に係る、操作判断手段の動作フローチャートを示す 図である。
[図 8]本発明の実施形態 2に係る、拡大表示手段の構成を示すブロック図で [図 9]本発明の実施形態 2に係る、拡大表示処理のフローチヤ一トを示す図で
[図 1 0]本発明の実施形態 2に係る、拡大表示画像を閉じる動作のフロ一チヤ —トを示す図である。
[図 1 1 ]本発明に係る実施形態 3において、タツチパネル入力装置を備えるスト レート型の携帯電話を示したものである。
[図 1 2]本発明に係る実施形態 3において、タツチパネル入力装置を備える折 リたたみ式の携帯電話を示したものである。
[図 1 3]本発明に係る実施形態 3において、表示画面の具体例を示したもので ある。
[図 1 4]本発明に係る実施形態 3において、指定した箇所をもとにして、画像の —部を拡大表示した表示画像の具体例を示したものである。
[図 1 5]本発明に係る実施形態 3において、ユーザが携帯電話を左手で握って いる状態を示したものである。
[図 1 6]本発明に係る実施形態 3において、ユーザが左手の操作で詳細ウィン ドウを閉じる場合の具体例を示したものである。
[図 1 7]本発明に係る実施形態 3において、ユーザが携帯電話を右手で握って いる状態を示したものである。
[図 1 8]本発明に係る実施形態 3において、ュ一ザが右手の操作で詳細ウィン ドウを閉じる場合の具体例を示したものである
発明を実施するための最良の形態
[0022] 次に、本発明を実施するための実施形態 1について、図面を参照して詳細 に説明する。
[0023] (実施形態 1 )
図 1は、本実施形態における接触型入力装置の一例を示す。
[0024] 接触型入力装置は、例えば、タツチパネルディスプレイ 2に接続された、入力 受付手段 4と、拡大表示手段 6とを備える。入力受付手段 4は、拡大表示手 段 6に接続され、タツチパネルディスプレイ 2に接続される。入力受付手段 4は、 さらに、図示しない情報端末装置のインタフ I—スフに接続される。
[0025] それぞれの手段は、専用に設計された半導体回路を含む専用部品の一部 でも良いし、端末本体の CPUにより機能を実現したものでも良い。
[0026] 図 2を参照して、接触型入力装置の動作を示す。
[0027] ユーザは、タツチパネルディスプレイ 2に接触し、入力操作を行う(S 1 01 )。
[0028] 入力受付手段 4は、ユーザの接触操作を受け付けて(S 1 02 )、接触位置の 座標情報を得る(S 1 03 )。座標情報は、インタフェース 7に入力される。
[0029] 拡大表示手段 6は、接触位置の座標情報を元にして、タツチパネルディスプ レイ 2上の画像情報を拡大して表示する(S 1 04)。
[0030] 図 3は、本実施形態における入力受付手段 4の一例を示す。
[0031 ] 入力受付手段 4は、座標情報取得手段 4aと、入力情報選択手段 4bとをそ なえる。
[0032] タツチパネルディスプレイ 2の接触により、座標情報取得手段 4aは、タツチパ ネルディスプレイ 2上の接触位置の座標情報を算出し、入力情報選択手段 4b に座標情報を送る。
[0033] 入力方法選択手段 4bは、インタフェース 7から、画面の処理に関する状態 の情報を取得する。すなわち、タツチパネルディスプレイ 2への接触操作が、画 面の拡大を指示するものであれば、接触位置の座標情報を拡大表示手段 6と インタフヱ一スフに送る。接触操作が、画面の拡大を指示するものでなければ、 接触位置の座標情報を拡大表示手段 6に送らずに、インタフェース 7に送る。
[0034] これにより、スタイラスペンなどの補助的な入力手段を特に必要とせずに、容 易に表示画面の拡大を行うことが出来る。
[0035] (実施形態 2)
図 4は、第 2の実施形態における接触型入力装置の一例を示す。
[0036] 本実施形態の接触型入力装置は、上記の第 1の実施形態の接触型入力 装置に、操作判断手段 3と、誤動作防止手段 5を追加したものである。操作判 断手段 3は、タツチパネルディスプレイ 2に接続されている。入力受付手段 4は、 操作判断手段 3と、拡大表示手段 6とを相互に結合する。入力受付手段 4は、 さらに、誤動作防止手段 5を介して、図示しない情報端末装置のインタフエ一 スフに接続される。操作判断手段 3は、インタフェース 7に接続される。
[0037] 図 5を参照して、本実施形態の接触型入力装置の動作を示す。
[0038] ユーザは、タツチパネルディスプレイ 2に接触し、入力操作を行う(S201 )。
[0039] 操作判断手段 3は、タツチパネルディスプレイ 2への接触が、ユーザによる接 触操作であるのか否かを判断する(S202 )。すなわち、タツチパネルディスプレ ィ 2の外部にセンサを備え、タツチパネルディスプレイ 2が接触されたときに、ュ —ザによるこのセンサの遮光などの操作を検出する。ュ一I は、タツチパネルデ イスプレイ 2を接触する目的でタツチパネルディスプレイ 2を接触操作するときに は、同時に、センサの遮光などの操作をすることにする。このようにして、タツチ パネルディスプレイ 2の接触がユーザの操作によるものか、或いは、意図せず にタツチパネルディスプレイ 2が何かに触れたことによるものか、が判定される。
[0040] 誤動作防止手段 5は、操作判断手段 3により、接触操作がユーザによるも のではないと判断された場合、接触操作のインタフェース 7への入力を遮断す る(S203 )。
[0041 ] 操作判断手段 3により、接触操作がユーザによるものであると判断された場 合、入力受付手段 4は、ユーザの接触操作を受け付けて ( S204)、接触位置 の座標の情報を得る(S205)。座標情報は、インタフェース 7に入力される。
[0042] 拡大表示手段 6は、接触位置の座標情報を元にして、タツチパネルディスプ レイ 2上の画像情報を拡大して表示する(S206)。
[0043] これにより、ユーザによらずに画面が接触された場合に、誤って拡大画面を 表示することを防止し、効率的なブラウズ操作が可能になる。
[0044] 図 6は、本実施形態における操作判断手段 3の一例を示す。
[0045] 操作判断手段 3は、接触操作受付可能性検出手段 3aと、補助信号検出 手段 3 bを備える。
[0046] 接触操作受付可能性検出手段 3aは、インタフェース 7に接続され、インタフ エース 7の制御を受ける。補助信号検出手段 3bには、センサが接続される。 [0047] 図 7を参照して、操作判断手段 3の動作を説明する。
[0048] 接触操作受付可能性検出手段 3 aは、タツチパネルディスプレイ 2が接触操 作を受けて信号を出力できる状態にあるかどうかを判断する(S301 )。
[0049] 情報処理端末が、タツチパネルディスプレイ 2から信号を入力する段階であ るときには、インタフェース 7は、接触操作受付可能性検出手段 3 aに接触操 作受付可能状態であることを示す指示を送信する。
[0050] 補助信号検出手段 3 bは、ユーザがタツチパネル入力装置 1を操作するとき の、ユーザの状態を検出する。(S302 )
[0051 ] 操作判断手段 3は、接触操作受付可能性検出手段 3aの検出結果と、補 助信号検出手段 3 bの検出結果を元にして、ユーザがタツチパネルディスプレイ 2を接触することにより拡大画面を開閉して画面を見ているか否かを判断ずる。 その結果により、ユーザの状態を表す信号を出力する。(S 303 )
[0052] ユーザの状態を表す信号を出力した後、 S 301に戻り、接触操作が受け付 けられる状態にあるか判断し、ユーザの操作による状態を検出する。この処理 を繰り返すことにより、ユーザの状態を周期的に確認する。ユーザの状態に変 化があれば、すぐに対応する。
[0053] 補助信号検出手段 3 bが検出する信号は、例えば、接続されたセンサからの 信号である。
[0054] センサは、例えば、光センサなどである。また、センサはタツチセンサでもよい。
さらに、センサは、静電気によるセンサでもよい。ユーザがセンサを指などで遮 光している状態を検出して、ユーザがタツチパネルディスプレイ 2を操作している か否かを判断する。
[0055] 図 8は、本実施形態における、拡大表示手段 6の一例を示す。
[0056] 拡大表示手段 6は、拡大範囲画定手段 6aとそれに接続された画面拡大手 段 6 bを備える。さらに、拡大表示画像終了手段 6 c及び操作画面終了手段 6 dを備える。また、画面拡大手段 6 bに、文字フォント情報保持部 6 eを備えてい てもよい。画面拡大手段で生成された拡大表示する画面デ一タは、拡大表示 画像データ保持手段 6fに保持される。拡大表示手段 6は、入力受付手段 4に 接続される。
[0057] 図 9を参照して、画面を拡大表示する処理を説明する。
[0058] 操作判断手段 3により、ユーザが拡大画面を開閉して画面を見ている状態 であると判断される場合(S402)に、タツチパ才ルディスプレイ 2の接触により 信号が入力される(S401 )と、入力受付手段 4は、タツチパネルディスプレイ 2 上の接触位置の座標値を検出する(S403 )。すなわち、タツチパネルディスプ レイ 2からの入力信号は、画面上の座標の情報を含んでおり、入力受付手段 4は、この座標の情報を、拡大表示手段に送信する。拡大範囲画定手段は、 検出された座標を中心とした所定の大きさの領域を画面上に画定する(S40 4)。所定の大きさは、領域の拡大率によって、適宜定めればよい。また、接触 位置が画面の表示領域の周辺部に近 座標を中心とした所定の大きさの領 域の一部が表示画面の外に出るときは、所定の大きさの領域が表示画面内 に含まれるように、中心位置を適宜移動してもよい。
[0059] 画定された領域は、指定された拡大率で拡大される(S405)。
[0060] また、拡大された画面は、ユーザの操作により拡大画像を閉じる閉じポタン を備える。
[0061 ] 拡大画像は、表示画面の所定の大きさの領域を、指定された拡大率に、ビ ットを適宜補完して拡大しても良いし、文字フォント情報保持部から、文字フォ ント情報をとリだして、文字フォントを置き換えても良い。拡大した領域のデータ をタツチパネルディスプレイ 2に送出する(S406 )。
[0062] この操作を複数回繰り返すと、拡大表示が繰り返される。すなわち、拡大表 示された画面上で、さらに、ユーザが接触操作をすると、さらに拡大された画面 が表示される。
[0063] 図 1 0を参照して、拡大した画面を閉じる処理を説明する。
[0064] 既にユーザの操作により、拡大画像が表示されている場合(S501 )、操作 判断手段の出力により、ユーザが拡大画面を開閉して画面を見ている状態を 維持しているか、見ている状態でなくなつたかが判断される(S 502)。例えば、 センサ 8が、ユーザが情報処理端末の操作を続行しないことを検出し、それに より、この遷移が判断される。
[0065] または、接触操作受付可能の状態から、接触操作受付可能でない状態に 遷移した場合は(S 503 )、拡大画像を保持する(S 505)。或いは、処理内容 によっては閉じても良い。
[0066] 接触操作受付可能な状態が変更されない場合は、ユーザが操作を続行し ないと判断されるので、拡大した表示画像を閉じる(S 504)。
[0067] 複数の拡大画像が表示されている場'合は、一つの拡大画像を閉じても良い し、全ての表示画像を同時に閉じても良い。或いは、ダイアログを表示して確 認しながら複数の画面を閉じても良い。
[0068] ユーザが画面を見ている状態が変更されない場合、ユーザが拡大画像を閉 じる操作をすると(S506 )、拡大画像を閉じることが出来る(S507 )。これは、 拡大画像に備えられる閉じポタンを操作し、それにより、操作画面終了手段 6 dが拡大画像を閉じる。
[0069] ユーザが拡大画像を閉じる操作をしなければ、拡大画像は保持される。
[0070] 拡大画像を閉じた後に、次の操作に進む前に、ユーザが閉じた画面を再び 表示する、戻しポタン(図示せず)を備えても良い。この戻しポタンは、拡大表示 画像が閉じた後の表示画面に表示し、次の操作に進むときに消去する。戻し ポタンが接触されると、拡大表示画像データ保持手段 6fに格納されている拡 大表示画像の表示データを、再びタツチパネルディスプレイ 2に表示する。戻し ポタンが接触されずに、次の操作に進むときは、拡大表示画像データ保持手 段 6fに格納された拡大表示画像の表示データを解放する。
[0071 ] これにより、ユーザが拡大画面を見ていたにもかかわらず、誤って閉じてしま つた拡大表示画像を、簡単な操作で再び表示することができる。
[0072] (実施形態 3 )
( 1 )タツ パネル入力装置を備える携帯電話
図 1 1は、本発明に係る実施形態として、タツチパネル入力装置を備える携 帯電話を示したものである。
[0073] 図 1 1に示す携帯電話は、表示可能なタツチパネルディスプレイ 1 0と、デイス プレイ 1 0の上部に設けられたセンサ 1 00と、携帯電話の側面に設けられたセ ンサ 1 1 0及び 1 20とを備えている。
[0074] このセンサ 1 00、 1 1 0及び 1 20は、光センサが望ましいが、本実施形態はこ れに限られるものではな《例えば、携帯電話の側面に、静電気センサを用い ても良い。
[0075] また、図 1 1は、ストレート型の携帯電話を示すが、本実施形態では、携帯 電話はストレート型に限定されるものではな 折りたたみ式の携帯電話でも良 い。
[0076] この折りたたみ式の携帯電話の一例を図 1 2に示す。
[0077] 図 1 2に示す折リたたみ式の携帯電話は、表示可能なタツチパネルディスプ レイ 1 0Aと、ディスプレイ 1 0Aの上部に設けられたセンサ 1 00Aと、携帯電話の 側面に設けられたセンサ 1 1 OA及び 1 20Aとを備えている。
[0078] 図 1 1のストレート型の携帯電話と、図 1 2の折りたたみ式の携帯電話は、基 本的な構成は同じである。従って、以後、図 1 2に示す折りたたみ式の携帯電 話を用いて説明する。
[0079] (2)タツチパネル入力装置を備える携帯電話の動作
次に、図 1 2に示す携帯電話の動作を説明する。
[0080] 図 1 2に示した携帯電話は、例えば、タツチパネルディスプレイ 1 OA上にブラ ゥザページを表示する。
[0081 ] タツチパネルディスプレイ 1 OAに表示される表示画面の具体例を図 1 3に示 す。
[0082] 図 1 3は、ある Webサイトを閲覧するときに表示される画面を示す。
[0083] 図 1 3を参照すると、タツチパネルディスプレイ 1 OAに、ある Webサイトのぺ一 ジ情報が表示される。このタツチパネルディスプレイ 1 OAは全てのコンテンツを 表示するが、ブラウザ上に表示される文字が小さくなつてしまい、文字の読み 取りが困難である。
[0084] そこで、ュ一ザは、ユーザの指 30を用いて、タツチパネルディスプレイ 1 OAに 表示される画面において、詳細に表示したい箇所 40を選択し、接触する。 [0085] ユーザによる接触操作により、タツチパネルディスプレイ 1 OA上の、ユーザに よって触られた箇所 40の近傍が拡大表示される。
[0086] このときの表示画面の具体例が、図 1 4に示される。
[0087] 図 1 4に示す例において、タツチパネルディスプレイ 1 OAはユーザによって触 られた箇所 40の近傍の領域を画定する。この領域は、詳細ウィンドウ 20とし て新たに生成された画面表示より、拡大して表示される。
[0088] これにより、ユーザは、図 1 3において読み取ることができなかった小さい文字 を、図 1 4のように拡大表示する; Iとにより、読み取ることができる。
[0089] 更にこの携帯電話は、タツチパネルディスプレイ 1 OA上に拡大表示された詳 細ウィンドウ 20のうち、より詳細な内容を確認したい場合には、再びユーザの 指 30を用いて、詳細に表示したい箇所 45を選択することにより、更に拡大表 示することができる。
[0090] ここで、図 1 5は、上記のような操作を行っている際に、ユーザが携帯電話を 左手で握っている状態を示したものである。
[0091 ] なお、図 1 5に示した左手は、センサ 1 20A (図 1 5 )の光センサ部分を、小指 で遮光するように握っている。
[0092] また、この携帯電話は、センサ 1 00A (図 1 5 )が受光しているときに稼働する ものとする。
[0093] そして、図 1 5の状態において、図 1 4に示す詳細ウィンドウ 20を閉じる場合 は、ユーザは図 1 4のクローズポタン 50を接触操作する。この接触操作により、 ユーザは詳細ウィンドウ 20を閉じることができる。
[0094] また更に、本実施形態では、図 1 6に示すように、左手の小指に位置するセ ンサ 1 20Aからユーザの小指を離すことにより、拡大表示した詳細ウィンドウ 2 0を閉じることができる。この操作により、図 1 3の状態に戻る。
[0095] なお、本実施形態では、ユーザの左手に位置するセンサ 1 20Aを利用して 詳細ウィンドウ 20を閉じるが、実施形態はこれに限定されるものではなく、ユー ザの右手を用いて、詳細ウィンドウ 20を閉じても良い。
[0096] 例えば、ユーザが携帯端末を右手で握っている実施形態を、図 1 7に示す。 [0097] そして、ュ一ザは、図 1 7の状態から、図 1 8のように、右手の小指に位置す るセンサ 1 1 OAからユーザの小指を離すことにより、拡大表示した詳細ウィンド ゥ 20を閉じることができ、図 1 3の状態に戻すことができる。
[0098] このように、光センサを使用して詳細ウィンドウ 20を閉じる場合には、センサ
1 00Aが光を感知している状態で、遮光されていたセンサ 1 1 0Aもしくはセンサ 1 20Aの何れか一方が光を感知すると、詳細ウィンドウ 20を閉じる。
[0099] ( 3 )タツチパネル入力装置を備える携帯電話の効果
本実施形態によれば、タツチパネル入力装置は、詳細に表示したい箇所を 詳細ウィンドウ 20によって拡大表示することにより、スタイラスペンが無くても W ebページを詳細に閲覧することができる。
[00,1 00]また、ユーザの指だけで詳細に表示したい箇所を拡大表示することができる ので、ユーザは、正確かつ簡単に詳細な閲覧ができる。
[00101 ]更に、センサを使用することにより、タツチパネルディスプレイ 1 OAのセンサ 1
OOAが受光し、かつセンサ 1 1 OA及び 1 20Aが受光しない場合のみ、タツチパ ネルディスプレイ 1 OAの入力を受け付けるようにすることができる。
[00102]センサ 1 00Aが受光しない場合には、この携帯電話は動作しない。これによ リ、誤動作が防止される。
[00103]また、センサ 1 00Aが受光すると共に、センサ 1 1 0A又は 1 20Aが受光したと きに、詳細ウィンドウを閉じるので、タツチパネルディスプレイ 1 OAを簡単に操作 できる。これにより、鉋の中での誤動作や落下などによる誤動作が防止され る。
[00104] ( 4 )他の実施形態
実施形態 3は、タツチパネル入力装置を備える携帯電話を例示したが、本 実施形態はこれに限定されるものではな 例えば、力一ナビゲーシヨンゃゲ一 ム機などにも適用できる。
[00105]具体的には、カーナビゲ一シヨンに適用した入力装置は、例えば、詳細な道 順を確認したい地図を拡大表示させると共に、ユーザが力一ナビゲ一シヨンを 操作している場合に、自動車の発進を拒否させる。 [001 06]なお、実施形態 3では、センサ 1 00A、センサ 1 1 0A及び 1 20Aが操作判断 手段及び誤動作防止手段であり、タツチパネルディスプレイ 1 OAが入力受付 手段及び拡大表示手段であるが、実施形態はこれに限られるものではな 他 の構成によって、これらを実現しても良い。
[00107]本発明によれば、接触型入力装置は、表示画面に表示された画面のうち接 触操作された位置に基づいて拡大表示することにより、表示画面に詳細な画 面を表示する。これにより、正確なタツチパ ルの入力操作が可能になる。
[001 08]これにより、スタイラスペンを使用することな 容易に表示画面の拡大を行 うことができる接触型入力装置及び接触型入力方法を実現できる。
[001 09]この出願は、 2007年 8月 1 3日に出願された日本出願特願 2007— 2 1 08 42号を基礎とする優先権を主張するものであり、その開示の全ては、本明細 の一部として援用、 i n corporation herein by reference )さ τしる。
[001 1 0]以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施 形態に限定されるものではない。本願発明の構成や詳細には、本願発明のス コープ内で当業者が理解しうる様々な変更をすることができる。

Claims

請求の範囲
[ 1 ] 表示手段を接触することにより、入力操作を行う接触型入力装置であって、 前記表示手段への接触操作を受け付けて、接触位置を取得する入力受付 手段と、
前記接触位置に基づき、前記表示手段に表示画像を拡大表示する拡大 表示手段と、
を備えたことを特徴とする接触型入力装置。
[2] 前記表示手段への前記接触操作が、ユーザによる接触操作であるか否か、 を判断する操作判断手段と、
前記操作判断手段により前記接触操作が前記ユーザによる接触操作では ないと判断された場合には、前記入力操作を拒否する誤動作防止手段をさら に備え、
前記入力受付手段は、前記操作判断手段により前記接触操作が前記ュ —ザによる接触操作であると判断された場合には、前記入力操作を受け付け ることを特徴とする請求項 1 に記載の接触型入力装置。
[3] 前記拡大表示手段は、前記拡大表示された表示画像を接触することにより、 前記入力受付手段によって取得された接触位置に基づき、前記表示画像を さらに拡大表示することを特徴とする請求項 1又は 2に記載の接触型入力装 置。
[4] センサをさらに備え、
前記操作判断手段は、
前記表示手段が、前記ユーザによる前記接触操作を受付可能であるか否 か、を判断する第 1の判断手段と、
前記センサにょリ検知された結果に基づき、前記ユーザの状態を判断する 第 2の判断手段と、
を備えることを特徴とする請求項 1乃至 3の何れか 1項に記載の接触型入 力装置。
[5] 前記拡大表示手段は、拡大表示した表示画像がある場合であって、前記 操作判断手段によって前記ユーザの状態が第 1の状態から第 2の状態に変 化したと判断される場合に、前記拡大表示した表示画像を閉じる拡大表示画 像終了手段を備えることを特徴とする請求項 1乃至 4の何れか 1項に記載の 接触型入力装置。
[6] 前記ユーザの操作により、前記拡大表示された表示画像を閉じる操作画面 終了手段を更に備えることを特徴とする請求項 1乃至 5の何れか 1項に記載 の接触型入力装置。
[7] 前記センサは光センサであって、
前記第 2の判断手段は、前記光センサの遮光を検知して、前記ユーザの状 態を判断することを特徴とする請求項 4に記載の接触型入力装置。
[8] 表示画面を接触することにより、入力操作を行う接触型入力方法であって、 前記表示画面への接触操作を受け付け、
受け付けられた接触操作の接触位置を取得し、
前記接触位置に基づき、前記表示画面に表示画像を拡大表示することを 特徴とする接触型入力方法。 .
[9] 前記表示画面への前記接触操作が、ユーザによる接触操作であるか否か、 を判断し、
前記接触操作が、前記ユーザによる接触操作ではないと判断された場合に は、前記入力操作を拒否し、
前記接触操作が、前記ユーザによる接触操作であると判断された場合には、 前記入力操作を受け付けることを特徴とする請求項 8に記載の接触型入力 方法。
[10] 前記拡大表示された表示画像を接触することにより、受け付けられた接触 位置に基づき、前記表示画像をさらに拡大表示することを特徴とする請求項 8 又は 9に記載の接触型入力方法。
[1 1 ] 前記表示画面が、前記ユーザによる前記接触操作を受付可能であるか否 か、を判断し、
センサにょリ検知された結果に基づき、前記ユーザの状態を判断する、 ことを特徴とする請求項 8乃至 1 0の何れか 1項に記載の接触型入力方 法。
[1 2] 拡大表示した表示画面がある場合であって、前記ユーザの状態が第 1の状 態から第 2の状態に変化したと判断される場合に、前記拡大表示した表示画 像を閉じることを特徴とする請求項 8乃至 1 1の何れか 1項に記載の接触型入 力方法。
[1 3] 前記ュ一ザの操作により、前記拡大表示された表示画面を閉じることを特 徴とする請求項 8乃至 1 2の何れか 1項に記載の接触型入力方法。
[14] . 前記センサは光センサであって、
前記光センサの遮光を検知して、前記ユーザの状態を判断することを特徴 とする請求項 1 1に記載の接触型入力方法。
[1 5] 表示画面を接触することにより、入力操作を行う接触型入力方法をコンビュ —タに実行させるためのプログラムであって、
前記表示画面への接触操作を受け付けて、接触位置を取得する入力受付 処理と、
前記接触位置に基づき、前記表示画面に表示画像を拡大表示する拡大 表示処理と、
をコンピュータに実行させることを特徴とするプログラム。
[1 6] 前記表示画面への前記接触操作が、ユーザによる接触操作であるか否か、 を判断する操作判断処理と、
前記接触操作が、前記ユーザによる接触操作ではないと判断された場合に は、前記入力操作を拒否する誤動作防止処理と、
前記接触操作が、前記ユーザによる接触操作であると判断された場合には、 前記ュ ザの入力操作を受け付ける入力受付処理をコンピュータに実行させ ることを特徴とする請求項 1 5に記載のプログラム。
[1 7] 前記拡大表示された表示画像を接触することにより、受け付けられた接触 位置に基づき、前記表示画像をさらに拡大表示する処理をコンピュータに実 行させることを特徴とする請求項 1 5又は 1 6に記載のプログラム。
[1 8] 前記表示画面が、前記ユーザによる前記接触操作を受付可能であるか否 か、を判断する第 1の判断処理と、
センサにょリ検知された結果に基づき、前記ユーザの状態を判断する第 2の 判断処理と、
をコンピュータに実行させることを特徴とする請求項 1 5乃至 1 7の何れか 1 項に記載のプログラム。.
[1 9] 拡大表示した表示画面がある場合であって、前記ユーザの状態が第 1の状 態から第 2の状態に変化したと判断される場合に、前記拡大表示した表示画 像 閉じる処理をコンピュータに実行させることを特徴とする請求項 1 5乃至 1
8の何れか 1項に記載のプログラム。
[20] 前言さユーザの操作により、前記拡大表示された表示画面を閉じる処理をコ ンピュータに実行させることを特徴とする請求項 1 5乃至 1 9の何れか 1項に記 載のプログラム。
[21 ] 前記センサは光センサであって、
前記光センサの遮光を検知して、前記ユーザの状態を判断することを特徴 とする請求項 1 8に記載のプログラム。
[22] 表示手段と、前記表示手段を接触することにより入力操作を行う入力装置 を備えた端末装置であって、
前記入力装置は、前記表示手段への接触操作を受け付けて、接触位置を 取得する入力受付手段と、前記接触位置に基づき、前記表示手段に表示画 像を拡大表示する拡大表示手段とを備えたことを特徴とする端末装置。
PCT/JP2008/064370 2007-08-13 2008-08-04 接触型入力装置、接触型入力方法及びプログラム WO2009022671A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2009528124A JPWO2009022671A1 (ja) 2007-08-13 2008-08-04 接触型入力装置、接触型入力方法及びプログラム
US12/671,013 US20100201641A1 (en) 2007-08-13 2008-08-04 Contact type input device, contact type input method, and program
CN200880103046.9A CN101779184A (zh) 2007-08-13 2008-08-04 接触型输入设备、接触型输入方法及程序
EP20080792354 EP2180398A4 (en) 2007-08-13 2008-08-04 CONTACT INPUT DEVICE, CONTACT INPUT METHOD AND PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007210842 2007-08-13
JP2007-210842 2007-08-13

Publications (1)

Publication Number Publication Date
WO2009022671A1 true WO2009022671A1 (ja) 2009-02-19

Family

ID=40350725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/064370 WO2009022671A1 (ja) 2007-08-13 2008-08-04 接触型入力装置、接触型入力方法及びプログラム

Country Status (5)

Country Link
US (1) US20100201641A1 (ja)
EP (1) EP2180398A4 (ja)
JP (1) JPWO2009022671A1 (ja)
CN (1) CN101779184A (ja)
WO (1) WO2009022671A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154424A (ja) * 2010-01-26 2011-08-11 Nec Corp タッチパネル搭載電子機器とその誤反応防止方法
JP2012043452A (ja) * 2011-10-05 2012-03-01 Toshiba Corp 情報処理装置およびタッチ操作支援プログラム
JP2012084125A (ja) * 2010-09-14 2012-04-26 Sanyo Electric Co Ltd 画像表示装置
WO2013051046A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
JP2017106932A (ja) * 2017-03-09 2017-06-15 株式会社ニコン 画像測定用プログラム、画像測定機、及び画像測定方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4843696B2 (ja) * 2009-06-30 2011-12-21 株式会社東芝 情報処理装置およびタッチ操作支援プログラム
CN103477316B (zh) * 2011-03-28 2017-03-15 富士胶片株式会社 触摸面板装置和其显示方法
CN109961694B (zh) * 2019-02-28 2023-02-28 重庆京东方显示技术有限公司 一种柔性显示装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0424818A (ja) * 1990-05-21 1992-01-28 Casio Comput Co Ltd 入力表示装置
JPH0457117A (ja) * 1990-06-27 1992-02-24 Toshiba Corp タッチ操作式入力装置
JP2001242981A (ja) * 2000-02-29 2001-09-07 Matsushita Electric Ind Co Ltd 平面型座標入力装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080094367A1 (en) * 2004-08-02 2008-04-24 Koninklijke Philips Electronics, N.V. Pressure-Controlled Navigating in a Touch Screen
US7561145B2 (en) * 2005-03-18 2009-07-14 Microsoft Corporation Systems, methods, and computer-readable media for invoking an electronic ink or handwriting interface
US9019209B2 (en) * 2005-06-08 2015-04-28 3M Innovative Properties Company Touch location determination involving multiple touch location processes
US20070067798A1 (en) * 2005-08-17 2007-03-22 Hillcrest Laboratories, Inc. Hover-buttons for user interfaces
US7728316B2 (en) * 2005-09-30 2010-06-01 Apple Inc. Integrated proximity sensor and light sensor
US8943035B2 (en) * 2005-11-14 2015-01-27 Patrick J. Ferrel Distributing web applications across a pre-existing web
US7603621B2 (en) * 2006-01-25 2009-10-13 Microsoft Corporation Computer interface for illiterate and near-illiterate users
KR100866484B1 (ko) * 2006-05-17 2008-11-03 삼성전자주식회사 다접점 터치 센서를 이용한 손가락의 이동 감지 장치 및방법
US20080119217A1 (en) * 2006-11-16 2008-05-22 Sony Ericsson Mobile Communications Ab Portable communication having accidental key press filtering
US20080196945A1 (en) * 2007-02-21 2008-08-21 Jason Konstas Preventing unintentional activation of a sensor element of a sensing device
WO2008138030A1 (en) * 2007-05-11 2008-11-20 Rpo Pty Limited User-defined enablement protocol

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0424818A (ja) * 1990-05-21 1992-01-28 Casio Comput Co Ltd 入力表示装置
JPH0457117A (ja) * 1990-06-27 1992-02-24 Toshiba Corp タッチ操作式入力装置
JP2001242981A (ja) * 2000-02-29 2001-09-07 Matsushita Electric Ind Co Ltd 平面型座標入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2180398A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011154424A (ja) * 2010-01-26 2011-08-11 Nec Corp タッチパネル搭載電子機器とその誤反応防止方法
JP2012084125A (ja) * 2010-09-14 2012-04-26 Sanyo Electric Co Ltd 画像表示装置
WO2013051046A1 (ja) * 2011-10-03 2013-04-11 古野電気株式会社 タッチパネルを有する装置、レーダ装置、プロッタ装置、舶用ネットワークシステム、情報表示方法及び情報表示プログラム
JP2012043452A (ja) * 2011-10-05 2012-03-01 Toshiba Corp 情報処理装置およびタッチ操作支援プログラム
JP2017106932A (ja) * 2017-03-09 2017-06-15 株式会社ニコン 画像測定用プログラム、画像測定機、及び画像測定方法

Also Published As

Publication number Publication date
JPWO2009022671A1 (ja) 2010-11-18
EP2180398A4 (en) 2013-07-03
CN101779184A (zh) 2010-07-14
US20100201641A1 (en) 2010-08-12
EP2180398A1 (en) 2010-04-28

Similar Documents

Publication Publication Date Title
US20210389871A1 (en) Portable electronic device performing similar operations for different gestures
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US9671880B2 (en) Display control device, display control method, and computer program
USRE46864E1 (en) Insertion marker placement on touch sensitive display
KR101919169B1 (ko) 컴퓨팅 디바이스와 사용작용할 때 생성된 입력 이벤트의 해석을 향상시키기 위해 컴퓨팅 디바이스의 이동을 사용하는 방법
EP2399187B1 (en) Method and apparatus for causing display of a cursor
WO2009022671A1 (ja) 接触型入力装置、接触型入力方法及びプログラム
KR100770936B1 (ko) 문자 입력 방법 및 이를 위한 이동통신단말기
JP5977627B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101861395B1 (ko) 컴퓨팅 디바이스의 의도적 이동을 수반하는 제스처를 검출하는 방법
JP5184528B2 (ja) 携帯情報端末
JP4787087B2 (ja) 位置検出装置及び情報処理装置
US20110185308A1 (en) Portable computer device
JP5611763B2 (ja) 携帯端末装置及び処理方法
US20150234566A1 (en) Electronic device, storage medium and method for operating electronic device
EP1832958A2 (en) Touch sensitive scrolling system and method
EP1832960A2 (en) Method for dialing telephone number using mobile handset and the mobile handset
US9298364B2 (en) Mobile electronic device, screen control method, and storage medium strong screen control program
CN103140826A (zh) 信息终端装置以及触控面板的显示方法
JP5820414B2 (ja) 情報処理装置及び情報処理方法
WO2018123320A1 (ja) ユーザーインターフェイス装置及び電子機器
JP6176853B2 (ja) 画像表示処理装置、画像表示処理方法および画像表示処理プログラム
KR20110066545A (ko) 터치스크린을 이용하여 이미지를 표시하기 위한 방법 및 단말
JP2015158759A (ja) 機能選択実行装置、機能選択実行方法及び機能選択実行プログラム
US11893229B2 (en) Portable electronic device and one-hand touch operation method thereof

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880103046.9

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08792354

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2009528124

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2008792354

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12671013

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE