WO2013128989A1 - 表示装置及びその動作方法 - Google Patents

表示装置及びその動作方法 Download PDF

Info

Publication number
WO2013128989A1
WO2013128989A1 PCT/JP2013/051412 JP2013051412W WO2013128989A1 WO 2013128989 A1 WO2013128989 A1 WO 2013128989A1 JP 2013051412 W JP2013051412 W JP 2013051412W WO 2013128989 A1 WO2013128989 A1 WO 2013128989A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
contact
unit
proximity
tactile sense
Prior art date
Application number
PCT/JP2013/051412
Other languages
English (en)
French (fr)
Inventor
広務 加藤
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/382,405 priority Critical patent/US9563297B2/en
Priority to EP13754946.5A priority patent/EP2821892A4/en
Priority to JP2014502071A priority patent/JP6048489B2/ja
Publication of WO2013128989A1 publication Critical patent/WO2013128989A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Definitions

  • the present invention relates to a display device and an operation method thereof, and more particularly, to a display device operated using a touch panel and an operation method thereof.
  • a touch panel is arranged on a display, and an operation corresponding to the button or the like is performed by touching a region where the button or the like is displayed on the display.
  • JP 2010-250750 A Special table 2011-501298 gazette
  • the tactile sensation presentation and display control are one set in advance according to the trajectory of the finger touching the touch panel. There is a case where an operation different from the operation actually desired by the user is performed.
  • the present invention has been made in view of the above-described problems, and corresponds to each of various operations performed by a user in a display device that performs an operation according to a contact operation and a tactile sensation by contact. It is an object of the present invention to provide a display device capable of performing the above operation and an operation method thereof.
  • the present invention provides: Display means for displaying information; A contact / proximity detecting means provided on the display means for detecting a contact and / or proximity operation; Tactile sense presenting means for presenting a tactile sense via the contact / proximity detecting means; Based on the conditions set for the contact and / or proximity operation, the display of the display unit and the operation of the tactile sense presenting unit according to the contact and / or proximity operation detected by the contact / proximity detection unit are determined.
  • Input determination means for Control means for controlling the display of the display means and the operation of the tactile sense presenting means based on the determination in the input determining means.
  • display means for displaying information comprising: Based on the conditions set for the contact and / or proximity operation, the display of the display unit and the operation of the tactile sense providing unit according to the contact and / or proximity operation detected by the contact / proximity detection unit are controlled. To do.
  • display means for displaying information comprising: In the display device, Based on the conditions set for the contact and / or proximity operation, the display of the display unit and the operation of the tactile sense presenting unit according to the contact and / or proximity operation detected by the contact / proximity detection unit are determined. And the steps to Based on the determination, a procedure for controlling the display of the display means and the operation of the tactile sense presenting means is executed.
  • the present invention since it is configured to control the display of the display unit and the operation of the tactile sense providing unit according to the detected contact and / or proximity operation based on the conditions set for the contact and / or proximity operation, Operations corresponding to various operations performed by the user can be performed.
  • FIG. 1 and FIG.2 It is an external appearance perspective view which shows one Embodiment of the display apparatus of this invention. It is a block diagram which shows an example of an internal structure of the portable terminal shown in FIG. It is a figure which shows an example of the table which the input determination part shown in FIG. 2 has. 4 is a flowchart for explaining an operation method based on the table shown in FIG. 3 in the portable terminal shown in FIGS. It is a figure for demonstrating an example of operation
  • FIG. 1 is an external perspective view showing an embodiment of a display device of the present invention.
  • FIG. 2 is a block diagram showing an example of the internal configuration of the mobile terminal 1 shown in FIG.
  • a touch panel unit 10 serving as a contact / proximity detection unit
  • a display unit 20 serving as a display unit
  • a speaker unit 30 are provided on one surface of a flat housing 2.
  • the mobile terminal 1 is provided with the microphone unit 40 and the key button unit 50 on the side surface of the housing 2.
  • the display unit 20 is composed of a liquid crystal or the like, and displays information such as an image under the control of the CPU 90 which is a control means.
  • the touch panel unit 10 is provided on the display unit 20, and detects a contact operation when a contact operation with a contact body such as a finger is performed. For example, one using a resistance film, one using a capacitance, and the like can be given.
  • the speaker unit 30 outputs sound received via the communication unit 80, sound stored in a memory (not shown) of the CPU 90, and the like under the control of the CPU 90.
  • the microphone unit 40 is for inputting sound.
  • the key button unit 50 is used to input information for operating the mobile terminal 1.
  • the communication unit 80 transmits and receives information via the mobile terminal network.
  • the tactile sensation presentation unit 60 includes, for example, a small vibrator or the like, and responds to an image displayed on the display unit 20 with respect to a contact body such as a finger touching the touch panel unit 10 by vibrating the touch panel unit 10. The tactile sensation is presented via the touch panel unit 10.
  • the input determination unit 70 has a table (not shown) for determining the display of the display unit 20 and the operation of the tactile sense providing unit 60 according to the touch operation on the touch panel unit 10.
  • the input determination unit 70 refers to this table and determines the display of the display unit 20 and the operation of the tactile sense presentation unit 60 according to the touch operation on the touch panel unit 10.
  • FIG. 3 is a diagram illustrating an example of a table included in the input determination unit 70 illustrated in FIG.
  • the table included in the input determination unit 70 shown in FIG. 2 is displayed by the display unit 20 and the tactile sense presentation unit 60 for each contact operation performed on the touch panel unit 10.
  • the actions are associated. That is, in this table, the conditions for the touch operation on the touch panel unit 10 regarding the display of the display unit 20 and the operation of the tactile sense providing unit 60 are set. For example, when an operation of tracing the touch panel unit 10 is detected within 0.5 seconds after the touch operation is detected on the touch panel unit 10, an operation such as page display by scroll display or flicking is performed on the display unit 20.
  • an operation that does not operate and does not present a tactile sense is set.
  • Whether to perform scroll display on the display unit 20 or to turn the page by flicking is set according to the speed of movement by the operation of tracing the touch panel unit 10.
  • the tactile sense providing unit 60 operates without changing the display on the display unit 20. Then, an operation for presenting a sense of touch is set.
  • the moving image displayed on the display unit 20 is displayed.
  • the input determination unit 70 determines the display of the display unit 20 and the operation of the tactile sense presentation unit 60 according to the contact operation detected by the touch panel unit 10 based on the conditions set in the table as described above. become.
  • the CPU 90 incorporates a memory (not shown) and controls the entire portable terminal 1, and controls the display of the display unit 20 and the operation of the tactile sense presentation unit 60 based on the determination in the input determination unit 70.
  • FIG. 4 is a flowchart for explaining an operation method based on the table shown in FIG. 3 in the portable terminal 1 shown in FIGS.
  • step 1 When an image is displayed on the display unit 20 of the mobile terminal 1, when the user touches the touch panel unit 10 with a finger, the touch operation is detected on the touch panel unit 10 (step 1), and the CPU 90 performs the contact operation. The control of the operation of the corresponding portable terminal 1 is started.
  • the input determination unit 70 pauses the moving image displayed on the display unit 20 based on the conditions set in the table shown in FIG.
  • the tactile sense presenting unit 60 determines an operation that does not present a tactile sense. Then, this determination is sent to the CPU 90, and when the moving image is displayed on the display unit 20 under the control of the CPU 90, the moving image is temporarily stopped (step 4). At this time, when the tactile sense providing unit 60 is not operating, it is not necessary to perform control to stop the operation of the tactile sense providing unit 60. However, when the tactile sense providing unit 60 is operating, the tactile sense is controlled by the control of the CPU 90. The operation of the presentation unit 60 is temporarily stopped.
  • step 5 In a state where the touch operation is detected on the touch panel unit 10, the user moves a finger touching the touch panel unit 10, and the region where the touch operation is detected on the touch panel unit 10 moves (step 5).
  • the input determination unit 70 it is determined whether the contact operation is pinch-in or pinch-out (step 6). Whether or not the touch operation is a pinch-in or pinch-out is determined by the number of touch operations detected by the touch panel unit 10 being two, and the positions of the two points are directed toward or away from each other. For example, it is possible to use a technique generally used in a display device having the touch panel unit 10 such as determining that the pinch-in or pinch-out occurs when the user touches the screen.
  • the input determination unit 70 determines that the touch operation on the touch panel unit 10 is pinch-in, among the images displayed on the display unit 20 based on the conditions set in the table shown in FIG.
  • the image of the area where the pinch-in operation has been performed is reduced and displayed, and the tactile sense providing unit 60 determines an operation that does not present a tactile sense. Then, this determination is sent to the CPU 90, and the image of the area where the pinch-in operation has been performed among the images displayed on the display unit 20 is reduced and displayed under the control of the CPU 90 without the tactile sense providing unit 60 operating.
  • the input determination unit 70 determines that the touch operation on the touch panel unit 10 is a pinch-out
  • an enlarged image of an area in which the pinch-out operation has been performed among the images displayed on the display unit 20 is displayed.
  • the tactile sense providing unit 60 determines an operation that does not present a tactile sense. Then, this determination is sent to the CPU 90. Under the control of the CPU 90, the image of the area where the pinch-out operation is performed among the images displayed on the display unit 20 without operating the tactile sense providing unit 60 is displayed in an enlarged manner. (Step 7).
  • the input determination unit 70 detects the touch operation on the touch panel unit 10 after the touch operation is detected on the touch panel unit 10. It is determined whether or not the time until the area has moved is within 0.5 seconds (step 8).
  • the input determination unit 70 Based on the conditions set in the table shown in FIG. 3, the operation of presenting a tactile sensation is determined by the tactile sense presenting unit 60 without changing the image displayed on the display unit 20 by scroll display or the like. Then, this determination is sent to the CPU 90, and the display of the display unit 20 does not change under the control of the CPU 90, and the tactile sense providing unit 60 operates and a tactile sensation is presented to the finger in contact with the touch panel unit 10. (Step 9). As described above, the tactile sense providing unit 60 is configured by a small vibrator or the like.
  • the operation of the tactile sense providing unit 60 corresponding to the area where the touch operation is detected by the touch panel unit 10 is set in advance. ing.
  • the tactile sense providing unit 60 is configured by a small vibrator
  • the magnitude of vibration of the vibrator is set according to the area where the touch operation is detected by the touch panel unit 10. Then, by controlling the vibrator to vibrate at the size in the CPU 90, it is possible to make the user feel as if he / she is touching the object by the image displayed in the contact area.
  • the input determining unit 70 3 When the time from when the touch operation is detected by the touch panel unit 10 until the region where the touch operation is detected by the touch panel unit 10 is within 0.5 seconds, the input determining unit 70 3, the image displayed on the display unit 20 is scroll-displayed in the direction in which the region where the touch operation is detected on the touch panel unit 10 is moved based on the conditions set in the table shown in FIG. At 60, an action not presenting a tactile sense is determined. Then, this determination is sent to the CPU 90, and the area where the touch operation is detected on the touch panel unit 10 moves in the image displayed on the display unit 20 without operating the tactile sense providing unit 60 under the control of the CPU 90. The display is scrolled in the direction (step 10).
  • the input determination unit 70 determines that the flick operation has been performed based on the detected movement speed of the contact operation, the transition to the next item or page turning is performed. You may go. Further, a tactile sensation may be presented even when scroll display is performed. In that case, the input determination unit 70 sets that fact.
  • FIGS. 5a to 5c are diagrams for explaining an example of the operation of the mobile terminal 1 shown in FIGS. 1 and 2.
  • FIG. 5a to 5c are diagrams for explaining an example of the operation of the mobile terminal 1 shown in FIGS. 1 and 2.
  • the touch operation on the image 4 is performed on the touch panel unit 10. Detected. Then, when the surface of the touch panel unit 10 is traced by the finger 3 that is in contact with the touch panel unit 10, after the contact operation is detected by the touch panel unit 10 in the input determination unit 70, the surface of the touch panel unit 10 is traced. Then, it is determined whether or not the time until the region where the touch operation is detected is within 0.5 seconds.
  • the two contact operations detected by the touch panel unit 10 are identical to each other based on the time during which the contact operation is performed and the conditions regarding the locus of the contact operation on the touch panel unit 10. Even when the trajectory is drawn, when the touch times on the touch panel unit 10 before the trajectory are drawn are different from each other, the display of the display unit 10 and the operation of the tactile sense presentation unit 60 are determined to be different from each other. become.
  • the contact operation is not detected in Step 2 after 0.3 seconds have passed since the contact operation was detected in Step 1 or the contact operation was detected in Step 1.
  • the input determination unit 70 determines whether or not the state where the touch operation is detected in step 1 continues for 1 second or more (step 11). ).
  • the input determination unit 70 displays the state on the display unit 20 based on the conditions set in the table shown in FIG.
  • the image displayed in the area where the touch operation is detected on the touch panel unit 10 is enlarged and displayed, and the tactile sense providing unit 60 determines the operation for enhancing the tactile sense to be presented. Then, this determination is sent to the CPU 90.
  • the image displayed in the area where the touch operation is detected in the touch panel unit 10 among the images displayed on the display unit 20 is enlarged and displayed.
  • the presented tactile sensation is strengthened (step 12). Note that, for example, when the tactile sense providing unit 60 is composed of a small vibrator as described above, the tactile sense can be enhanced by increasing the vibration of the vibrator to increase the tactile sense given to the finger 3. It is done.
  • the input determination unit 70 determines the operation of presenting the tactile sense in the tactile sense presenting unit 60. Then, this determination is sent to the CPU 90, and under the control of the CPU 90, a tactile sensation corresponding to the image displayed in the area where the contact operation is detected is presented by the tactile sense providing unit 60 (step 13). At this time, the display on the display unit 20 may be switched according to the image displayed in the area where the contact operation is detected in step 1 or may be left as it is.
  • the display operation of the display unit 20 and the operation condition of the tactile sense providing unit 60 are set for the touch operation on the touch panel unit 10, and the touch panel unit 10 detects the touch condition based on this condition. Since the display of the display unit 20 and the operation of the tactile sense providing unit 60 are controlled in accordance with the touch operation, the conditions for the touch operation that the user is supposed to perform on the touch panel unit 10 are set. The operation corresponding to each of various operations performed by the user can be performed. For example, when the user traces the touch panel unit 10 with a finger, it can be determined whether the operation is a scroll operation or an operation for confirming a tactile sense, and an operation corresponding to the operation can be performed.
  • the touch panel unit 10 by setting the operation according to any combination among the number, position, time, locus, and movement speed of the touch operation on the touch panel unit 10 in the table of the input determination unit 70, the touch panel unit The operation according to the number, position, time, trajectory, speed of movement, and a combination of these for the contact operation with respect to 10 is possible.
  • an example using only the touch operation with respect to the touch panel unit 10 has been described as an example.
  • a device that detects a proximity operation of a contact body such as a user's finger may be used.
  • the touch panel unit 10 may detect not only a contact operation but also a proximity operation based on a distance from a contact body such as a user's finger.
  • the information displayed on the display unit 20 may be information displayed on a browser screen, an e-mail screen, or the like received via the communication unit 80 in addition to the above-described images and moving images. .
  • the display device of the present invention is not limited to the portable terminal 1 as described above, and can be applied as long as it displays information and can detect a contact and / or proximity operation.
  • the processing in the mobile terminal 1 is recorded on a recording medium readable by the mobile terminal 1 in addition to the above-described dedicated hardware.
  • the program recorded on the recording medium may be read by the portable terminal 1 and executed.
  • the recording medium readable by the portable terminal 1 includes an IC card, a memory card, a recording medium that can be transferred such as a floppy disk (registered trademark), a magneto-optical disk, a DVD, and a CD, as well as a built-in portable terminal 1. Refers to the HDD or the like.
  • the program recorded on this recording medium is read by a control block, for example, and the same processing as described above is performed under the control of the control block.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 情報を表示するディスプレイ部20と、ディスプレイ部20上に設けられ、接触操作を検知するタッチパネル部10と、タッチパネル部10を介して触覚を提示する触覚提示部60と、接触操作について設定された条件に基づいて、タッチパネル部10にて検知された接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作を決定する入力判定部70と、入力判定部70における決定に基づいて、ディスプレイ部20の表示及び触覚提示部60の動作を制御するCPU90とを有する。

Description

表示装置及びその動作方法
 本発明は、表示装置及びその動作方法に関し、特に、タッチパネルを用いて操作される表示装置及びその動作方法に関する。
 近年、スマートフォンを始めとして、タッチパネルを用いて操作される表示装置が普及している。このような表示装置は、ディスプレイ上にタッチパネルが配置されており、ディスプレイにてボタン等が表示された領域に触れることにより、そのボタン等に応じた動作が行われる。
 さらに、このようにタッチパネルを用いて操作される表示装置においては、タッチパネルに触れた場合に、皮膚に電気的刺激を与えたり振動を与えたりすることにより、その領域に表示された画像等の情報に応じた触覚を提示するものも考えられている(例えば、特許文献1,2参照)。
特開2010-250750号公報 特表2011-501298号公報
 上述したような表示装置の普及に伴い、タッチパネルに対する操作が多様化している。ディスプレイに表示された情報を単に選択、指定するだけではなく、情報をスクロール表示するために画面をなぞったり、次の項目への移行やページ捲りを行うためにフリック操作をしたり、情報を縮小/拡大表示するためにピンチイン/ピンチアウト操作をしたりすることが行われている。ところで、このような操作を行う場合は、触れる領域に表示された画像等の情報に応じた触覚を提示する必要はない。またその逆に、画面をなぞる操作をした場合であっても、情報をスクロール表示せずに触覚を提示することのみが求められる場合もある。
 ところが、上述したような触覚を提示する表示装置においては、触覚の提示と表示の制御が、タッチパネルに触れた指の動きの軌跡に応じて予め決められた一通りのものとなっているため、利用者が実際に望む動作とは異なる動作が行われてしまう場合がある。
 本発明は、上述したような問題点に鑑みてなされたものであって、接触操作に応じた動作と接触による触覚提示とが行われる表示装置において、利用者が行う様々な操作のそれぞれに対応した動作を行うことができる表示装置及びその動作方法を提供することを目的とする。
 上記目的を達成するために本発明は、
 情報を表示する表示手段と、
 前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、
 前記接触/近接検知手段を介して触覚を提示する触覚提示手段と、
 前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する入力判定手段と、
 前記入力判定手段における決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する制御手段とを有する。
 また、情報を表示する表示手段と、前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、前記接触/近接検知手段を介して触覚を提示する触覚提示手段とを有する表示装置の動作方法であって、
 前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を制御する。
 また、情報を表示する表示手段と、前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、前記接触/近接検知手段を介して触覚を提示する触覚提示手段とを有する表示装置を動作させるためのプログラムであって、
 前記表示装置に、
 前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する手順と、
 当該決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する手順とを実行させる。
 本発明によれば、接触及び/または近接操作について設定された条件に基づいて、検知された接触及び/または近接操作に応じた表示手段の表示及び触覚提示手段の動作を制御する構成としたため、利用者が行う様々な操作のそれぞれに対応した動作を行うことができる。
本発明の表示装置の実施の一形態を示す外観斜視図である。 図1に示した携帯端末の内部構成の一例を示すブロック図である。 図2に示した入力判定部が有するテーブルの一例を示す図である。 図1及び図2に示した携帯端末における図3に示したテーブルに基づく動作方法を説明するためのフローチャートである。 図1及び図2に示した携帯端末の動作の一例を説明するための図である。 図1及び図2に示した携帯端末の動作の一例を説明するための図である。 図1及び図2に示した携帯端末の動作の一例を説明するための図である。
 以下に、本発明の実施の形態について図面を参照して説明する。
 図1は、本発明の表示装置の実施の一形態を示す外観斜視図である。図2は、図1に示した携帯端末1の内部構成の一例を示すブロック図である。
 本形態は図1及び図2に示すように、平板状の筐体2の一方の面に、接触/近接検知手段となるタッチパネル部10と、表示手段となるディスプレイ部20と、スピーカ部30と、マイク部40とが設けられているとともに、筐体2の側面にキーボタン部50が設けられた携帯端末1である。
 ディスプレイ部20は、液晶等から構成されており、制御手段であるCPU90の制御によって画像等の情報を表示する。
 タッチパネル部10は、ディスプレイ部20上に設けられており、指等の接触体による接触操作が行われた場合にその接触操作を検知する。例えば、抵抗膜を用いたものや、静電容量を用いたもの等が挙げられる。
 スピーカ部30は、CPU90の制御によって、通信部80を介して受信した音声や、CPU90のメモリ(不図示)に記憶された音声等を出力する。
 マイク部40は、音声が入力されるものである。
 キーボタン部50は、携帯端末1を操作するための情報が入力されるものである。
 通信部80は、携帯端末網を介して情報を送受信する。
 触覚提示部60は、例えば、小型の振動子等からなり、タッチパネル部10を振動させることにより、タッチパネル部10に接触した指等の接触体に対して、ディスプレイ部20に表示された画像に応じた触覚をタッチパネル部10を介して提示する。
 入力判定部70は、タッチパネル部10に対する接触操作に応じてディスプレイ部20の表示及び触覚提示部60の動作を決定するためのテーブル(不図示)を有している。入力判定部70は、このテーブルを参照して、タッチパネル部10に対する接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作を決定する。
 図3は、図2に示した入力判定部70が有するテーブルの一例を示す図である。
 図3に示すように、図2に示した入力判定部70が有するテーブルには、タッチパネル部10に対して行われた接触操作のそれぞれについて、ディスプレイ部20の表示、並びに触覚提示部60が行う動作が対応づけられている。すなわち、このテーブルには、ディスプレイ部20の表示及び触覚提示部60の動作についてのタッチパネル部10に対する接触操作の条件が設定されていることになる。例えば、タッチパネル部10にて接触操作が検知されてから0.5秒以内にタッチパネル部10をなぞる操作が検知された場合は、ディスプレイ部20にてスクロール表示またはフリックによるページ捲り等の動作が行われるとともに、触覚提示部60においては、動作せずに触覚を提示しない動作が設定されている。なお、ディスプレイ部20にてスクロール表示をするかフリックによるページ捲りをするかについては、タッチパネル部10をなぞる操作による移動の速さに応じて設定されている。また、タッチパネル部10にて接触操作が検知されてから0.5秒経過後にタッチパネル部10をなぞる操作が検知された場合は、ディスプレイ部20における表示を変化させることなく、触覚提示部60が動作して触覚を提示する動作が設定されている。また、ディスプレイ部20にて動画が再生されている状態において、タッチパネル部10にて接触操作が検知されてから0.3秒以内に接触操作が検知されなくなると、ディスプレイ部20に表示された動画が一時停止するとともに、触覚提示部60においては、動作せずに触覚を提示しない動作が設定されている。また、タッチパネル部10にてピンチイン/ピンチアウトの接触操作が検知された場合は、ディスプレイ部20にて表示されている画像が縮小/拡大表示されるとともに、触覚提示部60においては、動作せずに触覚を提示しない動作が設定されている。また、タッチパネル部10にてタッチパネル部10の1つの領域に対する接触が1秒以上継続して検知された場合は、ディスプレイ部20にて表示されている画像が拡大表示されるとともに、触覚提示部60においては、提示する触覚を強化する旨が設定されている。
 入力判定部70は、上述したようにテーブルにて設定された条件に基づいて、タッチパネル部10にて検知された接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作を決定することになる。
 CPU90は、メモリ(不図示)を内蔵し、携帯端末1全体を制御するものであって、入力判定部70における決定に基づいて、ディスプレイ部20の表示及び触覚提示部60の動作を制御する。
 以下に、上記のように構成された携帯端末1の動作方法について、図3に示したテーブルに基づく動作方法を例に挙げて説明する。
 図4は、図1及び図2に示した携帯端末1における図3に示したテーブルに基づく動作方法を説明するためのフローチャートである。
 携帯端末1のディスプレイ部20に画像が表示されている状態において、利用者がタッチパネル部10に指を触れると、タッチパネル部10にて接触操作が検知され(ステップ1)、CPU90において、接触操作に応じた携帯端末1の動作の制御が開始される。
 タッチパネル部10にて接触操作が検知された後、0.3秒以内に利用者がタッチパネル部10から指を離すことにより、タッチパネル部10にて接触操作が検知されてから0.3秒以内に接触操作が検知されなくなると(ステップ2,3)、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示されている動画を一時停止させるとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、ディスプレイ部20にて動画が表示されている場合はその動画が一時停止する(ステップ4)。この際、触覚提示部60が動作していない場合は、触覚提示部60の動作を停止する制御を行う必要はないが、触覚提示部60が動作している場合は、CPU90の制御によって、触覚提示部60の動作が一時的に停止する。
 また、タッチパネル部10にて接触操作が検知されている状態において、利用者がタッチパネル部10に触れている指を動かし、タッチパネル部10にて接触操作が検知された領域が移動した場合(ステップ5)、入力判定部70において、その接触操作がピンチインあるいはピンチアウトであるかが判定される(ステップ6)。接触操作がピンチインあるいはピンチアウトであるかの判定は、タッチパネル部10にて接触操作が検知されている数が2つであり、その2つの点の位置が互いに近づく方向に向かったり、互いに離れる方向に向かったりした場合にピンチインあるいはピンチアウトであると判定する等、タッチパネル部10を有する表示装置にて一般的に行われている技術を用いることができる。
 入力判定部70において、タッチパネル部10に対する接触操作がピンチインであると判定された場合は、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像のうち、ピンチイン操作が行われた領域の画像を縮小表示するとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、触覚提示部60が動作せずに、ディスプレイ部20に表示されている画像のうち、ピンチイン操作が行われた領域の画像が縮小表示される。また、入力判定部70において、タッチパネル部10に対する接触操作がピンチアウトであると判定された場合は、ディスプレイ部20に表示された画像のうち、ピンチアウト操作が行われた領域の画像を拡大表示するとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、触覚提示部60が動作せずに、ディスプレイ部20に表示されている画像のうち、ピンチアウト操作が行われた領域の画像が拡大表示される(ステップ7)。
 また、タッチパネル部10に対する接触操作がピンチイン/ピンチアウトではないと判定された場合は、入力判定部70において、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒以内であったかどうかが判定される(ステップ8)。
 そして、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒を超えている場合は、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像をスクロール表示等で変化させずに、触覚提示部60にて触覚を提示する動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、ディスプレイ部20の表示が変化せず、また、触覚提示部60が動作し、タッチパネル部10に接触している指に触覚が提示される(ステップ9)。触覚提示部60は、上述したように小型の振動子等から構成されており、CPU90においては、タッチパネル部10にて接触操作が検知された領域に応じた触覚提示部60の動作が予め設定されている。例えば、触覚提示部60が小型の振動子から構成されている場合は、タッチパネル部10にて接触操作が検知された領域に応じて振動子の振動の大きさが設定されている。そして、CPU90において、振動子がその大きさで振動するように制御されることにより、利用者があたかも接触している領域に表示された画像による物体に触れているように感じさせることができる。
 また、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒以内である場合は、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像について、タッチパネル部10にて接触操作が検知された領域が移動する方向にスクロール表示するとともに、触覚提示部60においては触覚を提示しない動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、触覚提示部60が動作せずに、ディスプレイ部20に表示された画像が、タッチパネル部10にて接触操作が検知された領域が移動する方向にスクロール表示される(ステップ10)。なお、上述したようなスクロール表示ではなく、入力判定部70において、検知された接触操作の移動の速さによってフリック操作が行われたと判定された場合に、次の項目への移行やページ捲りを行ってもよい。また、スクロール表示する場合であっても触覚を提示してもよい。その場合は、入力判定部70にてその旨が設定されている。
 ここで、上述したステップ9,10における動作について詳細に説明する。
 図5a~図5cは、図1及び図2に示した携帯端末1の動作の一例を説明するための図である。
 図5aに示すように、ディスプレイ部20上に画像4が表示されている状態において、タッチパネル部10の画像4が表示された領域に指3が接触すると、タッチパネル部10において画像4に対する接触操作が検知される。そして、タッチパネル部10に接触している指3によってタッチパネル部10の表面がなぞられると、入力判定部70において、タッチパネル部10にて接触操作が検知されてから、タッチパネル部10の表面がなぞられて接触操作が検知された領域が移動するまでの時間が0.5秒以内であったかどうかが判定される。
 そして、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒を超えている場合は、図5bに示すように、ディスプレイ部20に表示された画像4がスクロール表示されずに、触覚提示部60にて画像4に応じた触覚がタッチパネル部10を介して指3に提示されることになる。
 また、タッチパネル部10にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が移動するまでの時間が0.5秒以内である場合は、図5cに示すように、ディスプレイ部20に表示された画像4が、タッチパネル部10にて接触操作が検知された領域が移動する方向にスクロール表示され、また、触覚提示部60においては、触覚が提示されないことになる。
 このように、入力判定部70において、接触操作が行われている時間とタッチパネル部10上における接触操作の軌跡に関する条件に基づいて、タッチパネル部10にて検知された2つの接触操作が、互いに同一の軌跡を描くものであっても、その軌跡を描く前のタッチパネル部10に対する接触の時間が互いに異なる場合に、ディスプレイ部10の表示及び触覚提示部60の動作を互いに異なるものとして決定されることになる。
 また、ステップ2にて接触操作が検知されなくなったのがステップ1にて接触操作が検知されてから0.3秒を経過した後であった場合や、ステップ1にて接触操作が検知されてからタッチパネル部10にて接触操作が検知された領域が動かない場合は、入力判定部70において、ステップ1にて接触操作が検知された状態が1秒以上続いたかどうかが判定される(ステップ11)。
 そして、ステップ1にて接触操作が検知された状態が1秒以上続いた場合は、入力判定部70において、図3に示したテーブルにて設定された条件に基づいて、ディスプレイ部20に表示された画像のうちタッチパネル部10にて接触操作が検知された領域に表示された画像を拡大表示するとともに、触覚提示部60において、提示する触覚を強化する動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御によって、ディスプレイ部20に表示された画像のうちタッチパネル部10にて接触操作が検知された領域に表示された画像が拡大表示されるとともに、触覚提示部60において、提示される触覚が強化される(ステップ12)。なお、触覚の強化は、例えば、触覚提示部60が上述したように小型の振動子から構成されている場合、振動子の振動を大きくすることによって指3に与える触覚を強くすること等が考えられる。
 また、ステップ1にて接触操作が検知された状態が1秒以上続かなかった場合は、入力判定部70において、触覚提示部60にて触覚を提示する動作が決定される。そして、この決定がCPU90に送られ、CPU90の制御により、接触操作が検知された領域に表示された画像に応じた触覚が触覚提示部60によって提示される(ステップ13)。この際、ディスプレイ部20における表示は、ステップ1にて接触操作が検知された領域に表示された画像に応じて切り替えてもよく、表示をそのままとしてもよい。
 このように、本形態においては、タッチパネル部10に対する接触操作について、ディスプレイ部20の表示及び触覚提示部60の動作の条件が設定されており、この条件に基づいて、タッチパネル部10にて検知された接触操作に応じたディスプレイ部20の表示及び触覚提示部60の動作が制御されるので、利用者がタッチパネル部10に対して行うことが想定される接触操作について条件を設定しておくことにより、利用者が行う様々な操作のそれぞれに対応した動作を行うことができる。例えば、利用者がタッチパネル部10を指でなぞった場合、それがスクロール操作なのか、それとも触覚を確かめる操作なのかを判定することができ、それに応じた動作が可能となる。その際、タッチパネル部10に対する接触操作についての数、位置、時間、軌跡、移動の速さのうち、任意の組み合わせに応じた動作を入力判定部70のテーブルに設定しておくことにより、タッチパネル部10に対する接触操作についての数、位置、時間、軌跡、移動の速さ、さらにはこれらの組み合わせに応じた動作が可能となる。
 なお、本形態においては、タッチパネル部10に対する接触操作のみを用いたものを例に挙げて説明したが、利用者の指等の接触体の近接操作を検知するものを用いてもよく、また、タッチパネル部10として、利用者の指等の接触体との距離に基づいて、接触操作のみならず近接操作を検知するものを用いてもよい。
 また、ディスプレイ部20に表示される情報としては、上記のような画像、動画の他に、通信部80を介して受信されたブラウザ画面や電子メール画面等に表示されたものであってもよい。
 また、本発明の表示装置としては、上述したような携帯端末1に限らず、情報を表示するとともに、接触及び/または近接操作を検知可能であれば適用することができる。
 なお、本発明においては、携帯端末1内の処理は上述の専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを携帯端末1にて読取可能な記録媒体に記録し、この記録媒体に記録されたプログラムを携帯端末1に読み込ませ、実行するものであっても良い。携帯端末1にて読取可能な記録媒体とは、ICカードやメモリカード、あるいは、フロッピーディスク(登録商標)、光磁気ディスク、DVD、CD等の移設可能な記録媒体の他、携帯端末1に内蔵されたHDD等を指す。この記録媒体に記録されたプログラムは、例えば、制御ブロックにて読み込まれ、制御ブロックの制御によって、上述したものと同様の処理が行われる。
 以上、実施例を参照して本願発明を説明したが、本願発明は上記実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2012年3月2日に出願された日本出願特願2012-047144を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (6)

  1.  情報を表示する表示手段と、
     前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、
     前記接触/近接検知手段を介して触覚を提示する触覚提示手段と、
     前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する入力判定手段と、
     前記入力判定手段における決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する制御手段とを有する表示装置。
  2.  請求項1に記載の表示装置において、
     前記入力判定手段は、前記接触及び/または近接操作についての数、位置、時間、軌跡もしくは移動の速さ、またはこれらの組み合わせに関する条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する表示装置。
  3.  請求項2に記載の表示装置において、
     前記入力判定手段は、前記接触/近接検知手段にて検知された2つの操作が、互いに同一の軌跡を描くものであっても、前記軌跡を描く前の前記接触及び/または近接の時間が互いに異なる場合に、前記表示手段の表示及び前記触覚提示手段の動作を互いに異なるものとして決定する表示装置。
  4.  請求項3に記載の表示装置において、
     前記入力判定手段は、前記接触/近接検知手段にて検知された接触及び/または近接操作によっては、前記表示手段による表示が変化する動作と、前記触覚提示手段によって触覚を提示する動作とのうちいずれか一方しか動作させない決定をする表示装置。
  5.  情報を表示する表示手段と、前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、前記接触/近接検知手段を介して触覚を提示する触覚提示手段とを有する表示装置の動作方法であって、
     前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を制御する、表示装置の動作方法。
  6.  情報を表示する表示手段と、前記表示手段上に設けられ、接触及び/または近接操作を検知する接触/近接検知手段と、前記接触/近接検知手段を介して触覚を提示する触覚提示手段とを有する表示装置を動作させるためのプログラムであって、
     前記表示装置に、
     前記接触及び/または近接操作について設定された条件に基づいて、前記接触/近接検知手段にて検知された接触及び/または近接操作に応じた前記表示手段の表示及び前記触覚提示手段の動作を決定する手順と、
     当該決定に基づいて、前記表示手段の表示及び前記触覚提示手段の動作を制御する手順とを実行させるプログラム。
PCT/JP2013/051412 2012-03-02 2013-01-24 表示装置及びその動作方法 WO2013128989A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US14/382,405 US9563297B2 (en) 2012-03-02 2013-01-24 Display device and operating method thereof
EP13754946.5A EP2821892A4 (en) 2012-03-02 2013-01-24 DISPLAY DEVICE AND METHOD OF OPERATION
JP2014502071A JP6048489B2 (ja) 2012-03-02 2013-01-24 表示装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-047144 2012-03-02
JP2012047144 2012-03-02

Publications (1)

Publication Number Publication Date
WO2013128989A1 true WO2013128989A1 (ja) 2013-09-06

Family

ID=49082194

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/051412 WO2013128989A1 (ja) 2012-03-02 2013-01-24 表示装置及びその動作方法

Country Status (4)

Country Link
US (1) US9563297B2 (ja)
EP (1) EP2821892A4 (ja)
JP (1) JP6048489B2 (ja)
WO (1) WO2013128989A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015111416A (ja) * 2013-11-26 2015-06-18 イマージョン コーポレーションImmersion Corporation 摩擦効果及び振動触覚効果を生成するシステム及び方法
JP2015521328A (ja) * 2012-05-31 2015-07-27 ノキア コーポレイション ディスプレイ装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9715279B2 (en) 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
JP6341294B2 (ja) * 2014-12-05 2018-06-13 富士通株式会社 触感提供システム、及び、触感提供装置
JP2018005274A (ja) * 2016-06-27 2018-01-11 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US11232530B2 (en) * 2017-02-28 2022-01-25 Nec Corporation Inspection assistance device, inspection assistance method, and recording medium

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217816A (ja) * 2008-03-10 2009-09-24 Lg Electronics Inc 端末機及びその制御方法
JP2010147973A (ja) * 2008-12-22 2010-07-01 Nec Corp 携帯端末装置、操作通知方法および操作通知プログラム
JP2010250750A (ja) 2009-04-20 2010-11-04 Sharp Corp 入力器具、その制御方法、その制御プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、タッチパネル入力システム
JP2011501298A (ja) 2007-10-18 2011-01-06 マイクロソフト コーポレーション 音声、視覚、および触覚のフィードバックを使用した三次元オブジェクトシュミレーション
JP2011054025A (ja) * 2009-09-03 2011-03-17 Denso Corp 触感付与装置及びプログラム
US20110210834A1 (en) * 2010-03-01 2011-09-01 Research In Motion Limited Method of providing tactile feedback and apparatus

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8174503B2 (en) * 2008-05-17 2012-05-08 David H. Cain Touch-based authentication of a mobile device through user generated pattern creation
US9880621B2 (en) * 2010-04-08 2018-01-30 Disney Enterprises, Inc. Generating virtual stimulation devices and illusory sensations using tactile display technology
US9678569B2 (en) * 2010-04-23 2017-06-13 Immersion Corporation Systems and methods for providing haptic effects
US20110273380A1 (en) * 2010-05-07 2011-11-10 Research In Motion Limited Portable electronic device and method of controlling same

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011501298A (ja) 2007-10-18 2011-01-06 マイクロソフト コーポレーション 音声、視覚、および触覚のフィードバックを使用した三次元オブジェクトシュミレーション
JP2009217816A (ja) * 2008-03-10 2009-09-24 Lg Electronics Inc 端末機及びその制御方法
JP2010147973A (ja) * 2008-12-22 2010-07-01 Nec Corp 携帯端末装置、操作通知方法および操作通知プログラム
JP2010250750A (ja) 2009-04-20 2010-11-04 Sharp Corp 入力器具、その制御方法、その制御プログラムおよびコンピュータ読み取り可能な記録媒体、ならびに、タッチパネル入力システム
JP2011054025A (ja) * 2009-09-03 2011-03-17 Denso Corp 触感付与装置及びプログラム
US20110210834A1 (en) * 2010-03-01 2011-09-01 Research In Motion Limited Method of providing tactile feedback and apparatus

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2821892A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015521328A (ja) * 2012-05-31 2015-07-27 ノキア コーポレイション ディスプレイ装置
JP2015111416A (ja) * 2013-11-26 2015-06-18 イマージョン コーポレーションImmersion Corporation 摩擦効果及び振動触覚効果を生成するシステム及び方法

Also Published As

Publication number Publication date
EP2821892A1 (en) 2015-01-07
US20150103017A1 (en) 2015-04-16
US9563297B2 (en) 2017-02-07
JP6048489B2 (ja) 2016-12-21
JPWO2013128989A1 (ja) 2015-07-30
EP2821892A4 (en) 2015-10-28

Similar Documents

Publication Publication Date Title
JP6553136B2 (ja) タッチ感応表面上でのマルチ圧力相互作用のためのシステムと方法
JP6048489B2 (ja) 表示装置
US10013063B2 (en) Systems and methods for determining haptic effects for multi-touch input
JP6177669B2 (ja) 画像表示装置およびプログラム
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US9836150B2 (en) System and method for feedforward and feedback with haptic effects
JP6157885B2 (ja) 携帯端末装置の表示制御方法
US10514796B2 (en) Electronic apparatus
JP2013546110A (ja) コンピューティング装置の動きを利用するコンピューティング装置と相互作用するときに発生する入力イベントの解釈の強化
EP2860610A2 (en) Devices and methods for generating tactile feedback
KR20140055880A (ko) 가상 화면 제어 방법 및 장치
JP2016126363A (ja) タッチスクリーンに入力する方法、携帯式電子機器およびコンピュータ・プログラム
TWI564780B (zh) 觸控螢幕姿態技術
JP2014059722A (ja) 携帯情報装置、ソフトキーボード表示方法、ソフトキーボード表示プログラム、および、プログラム記録媒体
AU2022291627A1 (en) Touch input device and method
JP6283280B2 (ja) 電子書籍閲覧装置及び電子書籍閲覧方法
JP7077024B2 (ja) 電子機器、情報処理方法、プログラム及び記憶媒体
WO2017159796A1 (ja) 情報処理方法及び情報処理装置
JP2017167792A (ja) 情報処理方法及び情報処理装置
JP2014160301A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13754946

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2013754946

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013754946

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2014502071

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14382405

Country of ref document: US