WO2010029619A1 - 携帯端末 - Google Patents

携帯端末 Download PDF

Info

Publication number
WO2010029619A1
WO2010029619A1 PCT/JP2008/066357 JP2008066357W WO2010029619A1 WO 2010029619 A1 WO2010029619 A1 WO 2010029619A1 JP 2008066357 W JP2008066357 W JP 2008066357W WO 2010029619 A1 WO2010029619 A1 WO 2010029619A1
Authority
WO
WIPO (PCT)
Prior art keywords
window
display
displayed
display area
touch panel
Prior art date
Application number
PCT/JP2008/066357
Other languages
English (en)
French (fr)
Inventor
町田 聡
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Priority to PCT/JP2008/066357 priority Critical patent/WO2010029619A1/ja
Priority to JP2010528557A priority patent/JPWO2010029619A1/ja
Publication of WO2010029619A1 publication Critical patent/WO2010029619A1/ja
Priority to US13/042,229 priority patent/US20110191712A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to a mobile terminal, and more particularly to a mobile terminal that can control display / non-display of a window displayed on a display unit by touch input.
  • portable terminals equipped with a pressure-sensitive or electrostatic touch panel combined with a display unit have been proposed.
  • a user can execute various processes using a window displayed on the display unit by operating a touch panel provided in the portable terminal with a pointing device such as a stylus pen or a user's finger.
  • the following techniques are also known for portable terminals equipped with a touch panel.
  • the area occupied by the touch panel having the same size as the display area of the normal display unit is further increased, and a touch panel dedicated area without the display unit is provided, and the touch panel dedicated area is allocated in advance for each application.
  • the partition assigned is operated by the pointing device, thereby starting the application assigned to the partition.
  • the present invention has been made in view of such a situation, and an object of the present invention is to provide a portable terminal capable of suitably controlling display / non-display of a window displayed on a display unit by touch input. .
  • a mobile terminal includes a display unit that displays an image based on image information, a touch panel that is provided on a display area that displays an image by the display unit, and a display unit that displays the image.
  • Movement that moves the window display according to the movement of the object in a state where the object is touched at any position within the area of the touch panel corresponding to the predetermined area of the window to be touched and the touch to the touch panel by the object is maintained
  • means for determining whether or not a part of the window moved by the moving means has exited the display area of the display means, and a part of the window moved by the moving means has exited the display area of the display means In this case, a window displayed in a preset size is hidden, and an image based on instruction information indicating the window is displayed in a predetermined display area.
  • Characterized in that it comprises a display control means for controlling display means to display.
  • a mobile terminal includes a display unit that displays an image based on image information, a touch panel that is provided on a display area that displays an image by the display unit, and a display of the display unit.
  • a determination means for determining whether or not an object is touched at any position within the area of the touch panel corresponding to the area and the locus of the object moving on the touch panel has a predetermined shape;
  • a display unit is configured to hide a window displayed in a predetermined size and display an image based on instruction information indicating the window in a predetermined display area.
  • Display control means for controlling the display.
  • display / non-display of the window displayed on the display unit can be suitably controlled by touch input.
  • FIG. 1 shows an external configuration of a mobile terminal 1 according to the present invention.
  • a transmitting / receiving antenna (not shown) is provided at a predetermined position inside the portable terminal 1, and is connected to a base station (not shown) via a built-in antenna. Send and receive radio waves with.
  • the portable terminal 1 is provided with an input unit 19 including operation keys 19-1 to 19-4, and various instructions can be input using the input unit 19.
  • the mobile terminal 1 is provided with a display unit 20 on the front surface thereof.
  • the display unit 20 may be, for example, a display constituted by an organic EL, or a liquid crystal display (Liquid Crystal Display).
  • a transparent touch panel 18 is overlaid on the display unit 20.
  • the touch panel 18 is also provided in a portion beyond the display area of the display unit 20. Contact with the touch panel 18 by the stylus pen 2 or the user's finger is detected by a pressure-sensitive method or an electrostatic method.
  • the touch panel 18 may be provided under the display unit 20.
  • FIG. 2 shows an internal configuration of the mobile terminal 1 according to the present invention.
  • the control unit 11 includes a CPU (Central Processing Unit) 12, a ROM (Read Only Memory) 13, a RAM (Random Access Memory) 14, and the like.
  • the CPU 12 is stored in the ROM 13.
  • Various processes are executed according to various application programs including an operating system (OS) loaded from the program or storage unit 21 to the RAM 14, and various control signals are generated and supplied to each unit. Control all over.
  • the RAM 14 appropriately stores data necessary for the CPU 12 to execute various processes.
  • OS operating system
  • the CPU 12, the ROM 13, and the RAM 14 are connected to each other via a bus 15.
  • An input / output interface 16 is also connected to the bus 15.
  • the input / output interface 16 is connected to an input unit 19 including operation keys 19-1 to 19-4, a display unit 20, a storage unit 21 including a hard disk and a nonvolatile memory.
  • a touch input control unit 17 is connected to the input / output interface 16.
  • the touch input control unit 17 displays the coordinates at which the touch input is performed (represented by two axes, the X axis and the Y axis). Coordinate) is detected, and a coordinate detection signal is output to the control unit 11.
  • This coordinate detection signal includes coordinate values represented by two axes, the X axis and the Y axis.
  • a mobile phone communication unit 22 is connected to the input / output interface 16.
  • the cellular phone communication unit 22 is connected to a base station (not shown) through a built-in antenna (not shown) by, for example, a W-CDMA communication method.
  • the portable terminal 1 having the pressure-sensitive or electrostatic touch panel 18 when various windows are displayed on the screen, a display area hidden under the window is generated, and the limited display area is effective. It was difficult to use. For example, as shown in FIG. 3A, when a window is displayed on the display unit 20, there is an overlapping portion between the display area ⁇ of the display unit 20 where the image is displayed and the display area where the window is displayed. This will cause a display area that is hidden under the window. As a result, it becomes impossible to display an image to be displayed in the overlapping portion of the display area ⁇ , and it becomes difficult to effectively use the limited display area.
  • the transmittance of the window displayed on the display unit 20 is set to be high, it is possible to display the image displayed in the overlapping portion to the extent that it can be visually recognized, but input using the window is performed. I can't do that. In particular, when the user thinks that it is not necessary to operate various windows, the display becomes annoying.
  • the window when the title bar P of the window is dragged and the window is moved from the initial setting position, the window is, for example, such that a part of the window comes out of the display area of the display unit 20.
  • the window When moved, the window is hidden and displayed as an icon in a predetermined display area of the display unit 20. Accordingly, the window displayed on the display unit 20 can be appropriately hidden in a series of flows in the drag operation of the window using the stylus pen 2 or the user's finger.
  • the window non-display control process using this method will be described below.
  • the window non-display control process in the mobile terminal 1 in FIG. 2 will be described with reference to the flowchart in FIG. In the window non-display control process using FIG. 4, it is assumed that the user performs touch input using the stylus pen 2 as a pointing device.
  • the present invention can also be applied to the case where touch input is performed using the.
  • step S1 the CPU 12 of the control unit 11 controls the display unit 20 when an instruction to display a window is received by operating the input unit 19 by the user, for example, as shown in FIG. In this way, the window is displayed at a preset initial position.
  • the window is placed at a preset initial position, and the coordinates of the vertices S, T, U, and V of the window are S (Xs0, Ys0), T (Xt0, Yt0), U (Xu0, Yu0) and V (Xv0, Yv0).
  • step S ⁇ b> 2 the CPU 12 of the control unit 11 operates the stylus pen 2 by the user based on the coordinate detection signal from the touch input control unit 17, so that the stylus pen 2 is placed in a predetermined display area of the display unit 20.
  • a pen-down is performed on one of the title bars of the displayed window, and it is determined whether there is a touch input in the title bar of the window. For example, when the user does not operate the stylus pen 2 as a pointing device and the stylus pen 2 is not pen-downed on any of the title bars of the window displayed on the display unit 20, the stylus pen on the window title bar is displayed. It is determined that there is no touch input by 2.
  • FIG. 5A for example, when the stylus pen 2 is penned down to M (x 1 , y 1 ) in the title bar area of the window, the window title bar is touched by the stylus pen 2. It is determined that there is input.
  • step S2 If the CPU 12 of the control unit 11 determines in step S2 that there is no touch input by the stylus pen 2 to the title bar of the window, the process waits in step S2. On the other hand, when the CPU 12 of the control unit 11 determines in step S2 that there is a touch input by the stylus pen 2 to the title bar of the window, the CPU 12 of the control unit 11 is input by touching the title bar of the window in step S3. It is determined whether the window title bar has been dragged later.
  • drag means that the stylus pen 2 (the user's finger or the like) is in contact with the touch panel 18 from the first position on the touch panel 18 once contacted with the stylus pen 2 ( A user's finger or the like) is defined as moving to a second position different from the first position.
  • the first position M (x 1 , y 1 ) (display unit) on the touch panel 18 where the stylus pen 2 (user's finger or the like) is once pen-down (contacted).
  • the stylus pen 2 is different from the first position in a state in which the touch to the touch panel 18 is maintained from the position on the touch panel 18 corresponding to any position in the title bar area of the window displayed in FIG.
  • the window title bar is determined to have been dragged after being touch-inputted on the window title bar.
  • step S3 If the CPU 12 of the control unit 11 determines in step S3 that the window title bar has been touched but the window title bar has not been dragged after being touched on the window title bar, the process proceeds to step S2. Return.
  • step S3 If the CPU 12 of the control unit 11 determines in step S3 that the title bar of the window has been dragged after the touch input has been performed on the title bar of the window, the CPU 12 of the control unit 11 controls the display unit 20 in step S4 and drags it. Start moving the window according to the amount and drag direction. For example, in the case of FIG.
  • the vertices S, T, U, and V of the window are S (Xs1, Ys1), T (Xt1, Yt1), U (Xu1, Yu1), and V ( Move to the position represented by Xv1, Yv1).
  • step S ⁇ b> 5 after the dragging of the title bar of the window is started, the CPU 12 of the control unit 11 operates the stylus pen 2 by the user based on the coordinate detection signal from the touch input control unit 17, and thereby the stylus. It is determined whether or not the pen 2 is no longer in contact with the title bar of the window displayed in the predetermined display area of the display unit 20 and there is no touch input to the title bar of the window.
  • the CPU 12 of the control unit 11 determines in step S5 that the touch input to the title bar of the window has been lost, the display unit 20 is controlled, and the movement of the window according to the drag amount and the drag direction is ended. Thereafter, the process returns to step S2, and the processes after step S2 are repeatedly executed.
  • the CPU 12 of the control unit 11 determines in step S5 that there is still a touch input to the title bar of the window, the CPU 12 of the control unit 11 displays a part of the window displayed on the display unit 20 in step S7. It is determined whether or not the display area has been left. In other words, the CPU 12 of the control unit 11 indicates that the coordinates of the X axis or the Y axis indicating one of the vertices S, T, U, and V of the window displayed on the display unit 20 are the display unit 20. It is determined whether or not the coordinates are not included in the display area.
  • the X-axis or Y-axis coordinates indicating any one of the vertices S, T, U, and V of the window displayed on the display unit 20 may be the X-axis or If the minimum or maximum value of the Y-axis coordinates is exceeded, it is determined that the X-axis or Y-axis coordinates indicating any vertex are coordinates that are not included in the display area of the display unit 20.
  • the present invention it is determined whether or not a part of the window has left the display area of the display unit 20 for any one of the vertices S, T, U, and V of the window.
  • the present invention is not limited to such a case, and the monitoring target may be a part of the window, and may be any point or part of the window.
  • step S7 When the CPU 12 of the control unit 11 determines in step S7 that a part of the window displayed on the display unit 20 is not out of the display area of the display unit 20, the CPU 12 of the control unit 11 determines in step S8 the drag amount and The movement of the window according to the drag direction is continued, and the process returns to step S5.
  • the drag amount and the coordinates of the X axis or the Y axis indicating any one of the vertices S, T, U, and V of the window become coordinates that are not included in the display area of the display unit 20.
  • the window can be moved according to the drag direction.
  • the CPU 12 of the control unit 11 determines in step S ⁇ b> 7 that a part of the window displayed on the display unit 20 has left the display area of the display unit 20, the CPU 12 of the control unit 11 displays on the display unit 20 in step S ⁇ b> 9.
  • the display unit 20 is controlled to hide the display of the window at a preset size, and instead of this, the window is iconified. Then, it is displayed in a predetermined display area (a display area that is less likely to become an obstacle when viewing an image displayed on the display unit 20).
  • a predetermined display area a display area that is less likely to become an obstacle when viewing an image displayed on the display unit 20.
  • a window after iconification is displayed in the display area in the lower right corner.
  • the display area is not limited to the display area in the lower right corner, and may be any display area such as the upper right corner that is less likely to become an obstacle when viewing the image displayed on the display unit 20.
  • FIG. 6A shows a window related to 10 keys for character input.
  • the characters “ABCDEF” are currently being input.
  • FIGS. 6B and 6C are windows related to other character input keys. Note that FIGS. 6B and 6C can be switched as appropriate by pressing the “mode” key.
  • soft keys such as “menu” and “mode” are also displayed. As a result, the user can select a menu from the “menu” of the window.
  • the window is iconified.
  • the display is performed in the predetermined display area, the present invention is not limited to such a case. For example, even when it is determined that a part of the window displayed on the display unit 20 has left the display area of the display unit 20, touch input to the title bar of the window thereafter disappears (to the title bar of the window) Only when contact is lost, the window may be iconified and displayed in a predetermined display area, and when there is a touch input to the title bar of the window, the iconization of the window may be suspended.
  • the iconization of the window can finally be executed with the presence or absence of touch input to the title bar of the window as a trigger. Therefore, the operability of the mobile terminal 1 can be further improved while considering usability.
  • the window non-display control process in this case is shown in FIG.
  • step S27 When the CPU 12 of the control unit 11 determines in step S27 that a part of the window displayed on the display unit 20 has left the display area of the display unit 20, the CPU 12 of the control unit 11 performs the touch input control unit 17 in step S29.
  • the stylus pen 2 When the stylus pen 2 is operated by the user based on the coordinate detection signal from, the stylus pen 2 does not touch the title bar of the window displayed in the predetermined display area of the display unit 20, and the window title It is determined whether or not the touch input to the bar is lost.
  • step S30 When the CPU 12 of the control unit 11 determines in step S29 that there is no touch input to the title bar of the window, the CPU 12 of the control unit 11 recognizes that the window is not finally displayed by the user, and step S30.
  • the display unit 20 is controlled to hide the display of the window with a preset size, and instead, the window is iconified and displayed in a predetermined display area.
  • the CPU 12 of the control unit 11 determines in step S29 that there is a touch input to the title bar of the window, the CPU 12 of the control unit 11 recognizes that the window is not finally instructed by the user. The process returns to step S27, and the processes after step S27 are repeatedly executed.
  • the window non-display control process described with reference to the flowchart of FIG. 4 when a part of the window exits the display area of the display unit 20, which part of the window exits the display area of the display unit 20. Regardless of the case, the iconified window is displayed in the same predetermined display area uniformly.
  • the present invention is not limited to such a case, and it depends on the portion of the window that has left the display area of the display unit 20.
  • the display area for displaying the window after iconification may be changed. The window non-display control process using this method will be described below.
  • step S129 the CPU 12 of the control unit 11 determines whether or not a part of the window coming out from the display area of the display unit 20 is the right end.
  • the window that is out of the display area of the display section 20 Is determined to be the right end.
  • FIG. 9A since the X-axis or Y-axis coordinates indicating the vertices T and S of the window are out of the display area of the display section 20, It is determined that a part of the opened window is not the right edge.
  • the CPU 12 of the control unit 11 determines in step S129 that a part of the window exiting the display area of the display unit 20 is the right end, the CPU 12 of the control unit 11 displays the window displayed on the display unit 20 in step S130.
  • the display unit 20 is controlled to hide the window displayed on the display unit 20, and the window is iconified and displayed in the display area in the lower right corner. For example, in the case of FIG. 5D, an iconified window is displayed in the display area in the lower right corner.
  • step S129 when the CPU 12 of the control unit 11 determines in step S129 that a part of the window that has left the display area of the display unit 20 is not the right end, the CPU 12 of the control unit 11 displays the display area of the display unit 20 in step S131. It is determined whether a part of the window exiting from the left is the left end. For example, in the case of FIG. 9A, since the coordinates of the X axis or the Y axis indicating the vertices of the vertices T and S of the window are out of the display area of the display section 20, A part of the window is determined to be the left edge.
  • the CPU 12 of the control unit 11 determines in step S131 that a part of the window that has left the display area of the display unit 20 is not the left end, the process returns to step S127.
  • the CPU 12 of the control unit 11 determines in step S131 that a part of the window exiting the display area of the display unit 20 is the left end, the CPU 12 of the control unit 11 displays the window displayed on the display unit 20 in step S132. Recognizing that an instruction to hide is given, the display unit 20 is controlled to hide the window displayed on the display unit 20, and the window is iconified and displayed in the display area in the lower left corner. For example, in the case of FIG. 9B, an iconified window is displayed in the display area in the lower left corner.
  • the window after iconification is displayed in the lower right corner, thereby improving the operability according to the operation of the right hand. Can do. The same applies to the left hand.
  • the window non-display control process shown in FIG. 8 the window non-display control process in the case of applying a method of finally performing iconization of a window triggered by the presence or absence of touch input to the title bar of the window, As shown in FIG. Note that the processing in FIG. 10 is a combination of the processing in FIGS. 7 and 8, and a description thereof will be omitted because it will be repeated.
  • step S241 the CPU 12 of the control unit 11 taps the iconified window on the touch panel 18 when the user operates the stylus pen 2 based on the coordinate detection signal from the touch input control unit 17, It is determined whether there is a touch input in the window after iconification, and waits until it is determined that there is a touch input in the window after iconification.
  • step S241 If the CPU 12 of the control unit 11 determines in step S241 that there is a touch input in the iconified window, the CPU 12 of the control unit 11 controls the display unit 20 in step S242 to display the iconified window. Is displayed again just before the window is hidden. For example, from the state shown in FIG. 5A, with the touch input being continued, the transition is made as shown in FIG. 5B, FIG. 5C, and FIG. In the case of being displayed, it is re-displayed in the state immediately before the window is not displayed (the position is the position of FIG. 5A before touching) as shown in FIG. Further, when the characters “ABCDEF” are being input in the state of FIG. 5A, in the case of FIG.
  • the window When redisplaying a window displayed as an icon, the window may be redisplayed at any position in the display area. For example, as shown in FIG.
  • the window may be redisplayed at a limit position where the window does not exit from the display area of the display unit 20 in the vicinity of the position where the window has exited from the display area.
  • the display unit 20 displays an image based on image information, and a touch panel 18 provided to be superimposed on a display region for displaying the image, and a predetermined region of a window displayed on the display unit 20.
  • the object touches at any position within the corresponding touch panel area, and the window is moved according to the movement of the object in a state in which the touch to the touch panel 18 by the object (for example, the stylus pen 2 or the user's finger) is maintained.
  • the display unit 20 is controlled so as to hide the window displayed in the above and display an image based on instruction information indicating the window in a predetermined display area. It can be.
  • the window displayed on the display unit 20 can be appropriately hidden and redisplayed in a series of flows in the drag operation of the window using the stylus pen 2 or the user's finger.
  • the display / non-display of the displayed window can be suitably controlled by touch input. Accordingly, the display area hidden under the window can be reduced as much as possible, and the limited display area can be used effectively.
  • there is no need to provide a dedicated hardware operation key for hiding and redisplaying the window and it is possible to reduce the manufacturing cost of the mobile terminal 1 while saving the trouble of installing the dedicated hardware operation key. Can do.
  • the user can easily hide / redisplay the character input window using touch input as necessary, the operability of the portable terminal 1 can be improved.
  • the transmittance of the window after iconification may be increased so that the user can easily see the image displayed on the display unit 20.
  • the window displayed in the size set in advance on the display unit 20 is not displayed.
  • the window after iconification is displayed in a predetermined display area.
  • the locus of the stylus pen 2 has a predetermined shape such as a circle or a rectangle.
  • the window may be hidden and the iconified window may be displayed in a predetermined display area. The window non-display control process using this method will be described below.
  • step S251 the CPU 12 of the control unit 11 controls the display unit 20 when an instruction to display a window is received, for example, when the input unit 19 is operated by the user, for example, as illustrated in FIG. In this way, the window is displayed at a preset initial position.
  • step S ⁇ b> 252 the CPU 12 of the control unit 11 operates the stylus pen 2 by the user based on the coordinate detection signal from the touch input control unit 17, so that the stylus pen 2 has a predetermined display area of the display unit 20. It is pen-down at any position, and it is determined whether or not there is a touch input, and waits until it is determined that there is a touch input.
  • the CPU 12 of the control unit 11 determines in step S252 that there is a touch input
  • the CPU 12 of the control unit 11 determines in step S253 a predetermined shape (for example, a locus of the stylus pen 2 that moves on the touch panel 18). Round or rectangular).
  • the CPU 12 of the control unit 11 determines in step S253 that the locus of the stylus pen 2 moving on the touch panel 18 has a predetermined shape
  • the CPU 12 of the control unit 11 displays the display unit 20 in step S254. Recognizing that an instruction to hide the window displayed on the screen is made, the display unit 20 is controlled to hide the display of the window in a preset size. As shown in FIG. 5D, the window is iconified and displayed in a predetermined display area. Note that the locus of the stylus pen 2 in which the window is hidden may be registered as appropriate according to the user's preference.
  • step S253 When the CPU 12 of the control unit 11 determines in step S253 that the locus of the stylus pen 2 moving on the touch panel 18 is not a predetermined shape set in advance, the process returns to step S252.
  • the window displayed on the display unit 20 can be appropriately hidden and displayed again, and the display / non-display of the window displayed on the display unit 20 can be suitably controlled by touch input.
  • the present invention can be applied to a PDA (Personal Digital Assistant), a personal computer, a portable game machine, a portable music player, a portable video player, and other portable terminals.
  • PDA Personal Digital Assistant
  • the steps of the flowchart show an example of processing performed in time series in the order described, but parallel or individual execution is not necessarily performed in time series.
  • the processing to be performed is also included.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 本発明の携帯端末においては、表示部は画像情報に基づく画像を表示し、タッチパネルは画像を表示する表示領域に重ねられて設けられ、制御部は、表示部に表示されるウィンドウの所定の領域に対応するタッチパネルの領域内のいずれかの位置で物体が接触し、物体によるタッチパネルへの接触が維持された状態における物体の移動に応じてウィンドウを移動し、移動されるウィンドウの一部が表示部の表示領域から出たか否かを判定し、移動されるウィンドウの一部が表示部の表示領域から出た場合、予め設定されているサイズで表示されるウィンドウを非表示にし、ウィンドウを示す指示情報に基づく画像を所定の表示領域に表示するように表示部を制御する。

Description

携帯端末
 本発明は携帯端末に係り、特に、表示部に表示されるウィンドウの表示・非表示をタッチ入力によって制御することができるようにした携帯端末に関する。
 近年、表示部と組み合わされた感圧式または静電式のタッチパネルを備える携帯端末が提案されている。ユーザは、携帯端末に備えられたタッチパネルをスタイラスペンなどのポインティングデバイスやユーザの指によって操作することで、表示部に表示されるウィンドウを用いた種々の処理を実行させることができる。
 また、表示部に表示されるウィンドウの操作性を向上させるために、既存のウィンドウの操作方法と共存してウィンドウのサイズや位置変更を支援する技術も知られている(例えば特許文献1参照)。特許文献1に提案されている技術によれば、表示サイズに対して「最大ウィンドウのサイズと座標」、「最小ウィンドウのサイズと座標」、および「サイズと座標の変化関係」を予め設定しておくことにより、ウィンドウのサイズの変更と移動を1回で実行することができる。
 さらに、タッチパネルを備える携帯端末において、次のような技術も知られている。すなわち、通常表示部の表示面積とほぼ同じ大きさを有するタッチパネルの占有面積をさらに大きくし、表示部が存在しないタッチパネル専用領域を設けるようにするとともに、そのタッチパネル専用領域にアプリケーションごとに予め割り当てられた区画がポインティングデバイスによって操作されることで、区画に割り当てられたアプリケーションを起動する。
特開2006-185025号公報
発明の開示
 しかしながら、感圧式または静電式のタッチパネルを備える携帯端末においては、各種のウィンドウを画面上に表示すると、ウィンドウの下に隠れてしまう表示領域が生じてしまい、限られた表示領域を有効に利用することが困難であるという課題があった。勿論、特許文献1に提案されている技術を用いれば、ウィンドウのサイズの変更と移動を1回で実行することも可能ではあるが、予め設定しておく必要があり、ユーザにとって煩わしいものであった。また、たとえウィンドウのサイズを変更してウィンドウを移動したとしても、移動後の場所においても同様にウィンドウの下に隠れてしまう表示領域が生じてしまい、依然として表示領域を有効に利用することが困難であった。
 本発明は、このような状況に鑑みてなされたものであり、表示部に表示されるウィンドウの表示・非表示をタッチ入力によって好適に制御することができる携帯端末を提供することを目的とする。
 本発明の携帯端末は、上述した課題を解決するために、画像情報に基づく画像を表示する表示手段と、表示手段により画像を表示する表示領域に重ねられて設けられるタッチパネルと、表示手段に表示されるウィンドウの所定の領域に対応するタッチパネルの領域内のいずれかの位置で物体が接触され、物体によるタッチパネルへの接触が維持された状態における物体の移動に応じてウィンドウの表示を移動する移動手段と、移動手段により移動されるウィンドウの一部が表示手段の表示領域から出たか否かを判定する判定手段と、移動手段により移動されるウィンドウの一部が表示手段の表示領域から出た場合、予め設定されているサイズで表示されるウィンドウを非表示にし、ウィンドウを示す指示情報に基づく画像を所定の表示領域に表示するように表示手段を制御する表示制御手段とを備えることを特徴とする。
 本発明の携帯端末は、上述した課題を解決するために、画像情報に基づく画像を表示する表示手段と、表示手段により画像を表示する表示領域に重ねられて設けられるタッチパネルと、表示手段の表示領域に対応するタッチパネルの領域内のいずれかの位置で物体が接触され、タッチパネル上で移動する物体の軌跡が予め設定されている所定の形状であるか否かを判定する判定手段と、物体の軌跡が予め設定されている所定の形状である場合、予め設定されているサイズで表示されるウィンドウを非表示にし、ウィンドウを示す指示情報に基づく画像を所定の表示領域に表示するように表示手段を制御する表示制御手段とを備えることを特徴とする。
 本発明によれば、表示部に表示されるウィンドウの表示・非表示をタッチ入力によって好適に制御することができる。
は、本発明に係る携帯端末の外観の構成を示す図である。 は、本発明に係る携帯端末の内部の構成を示すブロック図である。 (A)および(B)は、従来においてウィンドウの下に隠れてしまう表示領域が生じてしまう様子を示す図である。 は、図2の携帯端末におけるウィンドウ非表示処理を説明するフローチャートである。 は、表示部に表示されるウィンドウの遷移およびウィンドウのアイコン化を示す図である。 は、表示部に表示されるウィンドウの種類を示す図である。 は、図2の携帯端末における他のウィンドウ非表示制御処理を説明するフローチャートである。 は、図2の携帯端末における他のウィンドウ非表示制御処理を説明するフローチャートである。 は、表示部に表示されるウィンドウの遷移およびウィンドウのアイコン化を示す図である。 は、図2の携帯端末における他のウィンドウ非表示制御処理を説明するフローチャートである。 は、図2の携帯端末におけるウィンドウ再表示制御処理を説明するフローチャートである。 (A)および(B)は、表示部に表示されるウィンドウの再表示を示す図である。 は、図2の携帯端末における他のウィンドウ非表示制御処理を説明するフローチャートである。
 以下、本発明の実施の形態について、図面を参照しながら説明する。図1は、本発明に係る携帯端末1の外観の構成を表している。図1に示されるように、携帯端末1の内部の所定の位置には、図示せぬ送受信用のアンテナが設けられており、内蔵されたアンテナを介して基地局(図示せず)との間で電波を送受信する。
 携帯端末1には、操作キー19-1乃至19-4から成る入力部19が設けられており、入力部19を用いて各種指示を入力することができる。また、携帯端末1には、その正面に表示部20が設けられている。なお、表示部20は、例えば有機ELにより構成されるディスプレイでもよいし、液晶ディスプレイ(Liquid Crystal Display)でもよい。表示部20には、透明なタッチパネル18が重ねて貼り合わされている。このタッチパネル18は、表示部20の表示領域を超えた部分にも設けられている。タッチパネル18へのスタイラスペン2やユーザの指による接触は、感圧式または静電式で検知される。勿論、タッチパネル18は、表示部20の下に設けるようにしてもよい。
 図2は、本発明に係る携帯端末1の内部の構成を表している。図2に示されるように、制御部11は、CPU(Central Processing Unit)12、ROM(Read Only Memory)13、およびRAM(Random Access Memory)14などからなり、CPU12は、ROM13に記憶されているプログラムまたは記憶部21からRAM14にロードされた、オペレーティングシステム(OS)を含む各種のアプリケーションプログラムに従って各種の処理を実行するとともに、種々の制御信号を生成し、各部に供給することにより携帯端末1を統括的に制御する。RAM14は、CPU12が各種の処理を実行する上において必要なデータなどを適宜記憶する。
 CPU12、ROM13、およびRAM14には、バス15を介して相互に接続されている。このバス15にはまた、入出力インタフェース16が接続される。入出力インタフェース16には、操作キー19-1乃至19-4などによりなる入力部19、表示部20、ハードディスクや不揮発性メモリなどより構成される記憶部21が接続される。
 また、入出力インタフェース16には、タッチ入力制御部17が接続される。タッチ入力制御部17は、ユーザによりスタイラスペン2(またはユーザの指)を用いたタッチ入力がタッチパネル18上で行われると、タッチ入力が行われた座標(X軸とY軸の2軸により表される座標)を検出し、座標検出信号を制御部11に出力する。この座標検出信号には、X軸とY軸の2軸により表される座標値が含まれている。これにより、携帯端末1においてはタッチパネル18による入力を行うことができる。
 さらに、入出力インタフェース16には、携帯電話通信部22が接続される。携帯電話通信部22は、内蔵されたアンテナ(図示せず)を介して、例えばW-CDMA通信方式などにより基地局(図示せず)に接続される。
 ところが、感圧式または静電式のタッチパネル18を備える携帯端末1においては、各種のウィンドウを画面上に表示すると、ウィンドウの下に隠れてしまう表示領域が生じてしまい、限られた表示領域を有効に利用することが困難であった。例えば図3(A)に示されるように、ウィンドウが表示部20に表示される場合、画像が表示される表示部20の表示領域αとウィンドウが表示される表示領域との間に重複部分が生じてしまい、ウィンドウの下に隠れてしまう表示領域が生じてしまう。その結果、表示領域αのうちの重複部分で表示されるべき画像を表示することができなくなり、限られた表示領域を有効に利用することは困難となる。このとき、表示部20に表示されるウィンドウの透過率を高く設定したとしても、重複部分で表示される画像を視認可能な程度に表示することは可能となるが、ウィンドウを用いた入力を行うことはできなくなってしまう。とくに各種のウィンドウを操作する必要がないとユーザが考える場合においては、邪魔な表示となってしまう。
 勿論、特許文献1に提案されている技術を用いれば、ウィンドウのサイズの変更と移動を1回で実行することも可能ではあるが、予め設定しておく必要があり、ユーザにとって煩わしいものであった。また、たとえウィンドウのサイズを変更してウィンドウを移動したとしても、あるいは、ウィンドウの一部であるタイトルバーPをドラッグすることでウィンドウを移動したとしても、例えば図3(B)に示されるように、移動後の場所においても同様にウィンドウの下に隠れてしまう表示領域が生じてしまい、依然として表示領域を有効に利用することが困難であった。
 そこで、本発明の実施形態においては、ウィンドウのタイトルバーPがドラッグされ、ウィンドウが初期設定位置から移動した場合に、例えばウィンドウの一部が表示部20の表示領域から出てしまう程度にウィンドウが移動したとき、ウィンドウを非表示にするとともに、表示部20の所定の表示領域にてアイコン化して表示するようにする。これにより、スタイラスペン2やユーザの指を用いたウィンドウのドラッグ動作における一連の流れの中で、表示部20に表示されるウィンドウを適宜非表示にすることができる。以下、この方法を用いたウィンドウ非表示制御処理について説明する。
 図4のフローチャートを参照して、図2の携帯端末1におけるウィンドウ非表示制御処理について説明する。なお、図4を用いたウィンドウ非表示制御処理においては、ユーザがポインティングデバイスとしてのスタイラスペン2を用いてタッチ入力を行う場合を想定するが、このような場合に限られず、ユーザがユーザの指を用いてタッチ入力を行う場合についても本発明を適用することができる。
 ステップS1において、制御部11のCPU12は、例えばユーザにより入力部19が操作されることによりウィンドウを表示するとの指示が受け付けられると、表示部20を制御し、例えば図5(A)に示されるように、ウィンドウを予め設定された初期位置に表示させる。図5(A)の場合、ウィンドウは予め設定された初期位置に配置され、ウィンドウの各頂点S、T、U、およびVの座標はS(Xs0、Ys0)、T(Xt0、Yt0)、U(Xu0、Yu0)、およびV(Xv0、Yv0)で表される。
 ステップS2において、制御部11のCPU12は、タッチ入力制御部17からの座標検出信号に基づいて、ユーザによりスタイラスペン2が操作されることで、スタイラスペン2が表示部20の所定の表示領域に表示されるウィンドウのタイトルバーのいずれかにペンダウンされ、ウィンドウのタイトルバーでタッチ入力があるか否かを判定する。例えばユーザによりポインティングデバイスとしてのスタイラスペン2が操作されずに、スタイラスペン2が表示部20に表示されるウィンドウのタイトルバーのいずれかにもペンダウンされていない場合、ウィンドウのタイトルバーへのスタイラスペン2によるタッチ入力はないと判定される。一方、図5(A)に示されるように、例えばウィンドウのタイトルバー領域内のM(x、y)にスタイラスペン2がペンダウンされると、ウィンドウのタイトルバーへのスタイラスペン2によるタッチ入力があると判定される。
 ステップS2において制御部11のCPU12が、ウィンドウのタイトルバーへのスタイラスペン2によるタッチ入力はないと判定した場合、処理はステップS2にて待機する。一方、ステップS2において制御部11のCPU12が、ウィンドウのタイトルバーへのスタイラスペン2によるタッチ入力があると判定した場合、制御部11のCPU12はステップS3で、ウィンドウのタイトルバーでタッチ入力された後にウィンドウのタイトルバーがドラッグされたか否かを判定する。なお、ここで「ドラッグ」とは、スタイラスペン2(ユーザの指など)が一旦接触されたタッチパネル18上の第1の位置から、タッチパネル18への接触が維持された状態で、スタイラスペン2(ユーザの指など)が第1の位置と異なる第2の位置に移動することであると定義する。
 そして、例えば図5(B)に示されるように、スタイラスペン2(ユーザの指など)が一旦ペンダウン(接触)されたタッチパネル18上の第1の位置M(x、y)(表示部20に表示されるウィンドウのタイトルバー領域内のいずれかの位置に対応するタッチパネル18上の位置)から、タッチパネル18への接触が維持された状態で、スタイラスペン2が第1の位置と異なる第2の位置M(x、y)に移動した場合、ウィンドウのタイトルバーでタッチ入力された後にウィンドウのタイトルバーがドラッグされたと判定される。
 ステップS3において制御部11のCPU12が、ウィンドウのタイトルバーでタッチ入力はあったがウィンドウのタイトルバーでタッチ入力された後にウィンドウのタイトルバーがドラッグされていないと判定した場合、処理はステップS2に戻る。
 ステップS3において制御部11のCPU12が、ウィンドウのタイトルバーでタッチ入力された後にウィンドウのタイトルバーがドラッグされたと判定した場合、制御部11のCPU12はステップS4で、表示部20を制御し、ドラッグ量およびドラッグ方向に応じたウィンドウの移動を開始する。例えば図5(B)の場合、スタイラスペン2の位置がM(x、y)からM(x、y)に移動していることから、M(x、y)からM(x、y)までの距離(すなわち、√(x-x+(y-y)のドラッグ量と、M(x、y)からM(x、y)のドラッグ方向に従い、表示部20に表示されるウィンドウの移動が開始される。より具体的には、ドラッグ量およびドラッグ方向に従い、ウィンドウの各頂点S、T、U、およびVはS(Xs1、Ys1)、T(Xt1、Yt1)、U(Xu1、Yu1)、およびV(Xv1、Yv1)により表わされる位置に移動する。
 ステップS5において、ウィンドウのタイトルバーのドラッグが開始された後、制御部11のCPU12は、タッチ入力制御部17からの座標検出信号に基づいて、ユーザによりスタイラスペン2が操作されることで、スタイラスペン2が表示部20の所定の表示領域に表示されるウィンドウのタイトルバーへの接触がなくなり、ウィンドウのタイトルバーへのタッチ入力がなくなったか否かを判定する。ステップS5において制御部11のCPU12がウィンドウのタイトルバーへのタッチ入力がなくなったと判定した場合、表示部20を制御し、ドラッグ量およびドラッグ方向に応じたウィンドウの移動を終了する。その後、処理はステップS2に戻り、ステップS2以降の処理が繰り返し実行される。
 ステップS5において制御部11のCPU12がウィンドウのタイトルバーへのタッチ入力がまだあると判定した場合、制御部11のCPU12はステップS7で、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出たか否かを判定する。換言すれば、制御部11のCPU12は、表示部20に表示されるウィンドウの各頂点S、T、U、およびVのうちのいずれかの頂点を示すX軸またはY軸の座標が表示部20の表示領域に含まれない座標になったか否かを判定する。例えば表示部20に表示されるウィンドウの各頂点S、T、U、およびVのうちのいずれかの頂点を示すX軸またはY軸の座標が、表示部220の表示領域においてとりうるX軸またはY軸の座標の最小値または最大値を超えた場合には、いずれかの頂点を示すX軸またはY軸の座標が表示部20の表示領域に含まれない座標になったと判定される。
 図5(C)の場合、ウィンドウの各頂点UおよびVの頂点を示すX軸またはY軸の座標が表示部20の表示領域から出ていることから、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出たと判定される。
 なお、本発明の実施形態においては、ウィンドウの各頂点S、T、U、およびVのうちのいずれかの頂点に関し、ウィンドウの一部が表示部20の表示領域から出たか否かを判定するようにしたが、このような場合に限られず、監視対象はウィンドウの一部であればよく、ウィンドウのうちのいずれかの点や部分であればよい。
 ステップS7において制御部11のCPU12が、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出ていないと判定した場合、制御部11のCPU12はステップS8で、ドラッグ量およびドラッグ方向に応じたウィンドウの移動を継続し、処理はステップS5に戻る。これにより、ウィンドウの各頂点S、T、U、およびVのうちのいずれかの頂点を示すX軸またはY軸の座標が表示部20の表示領域に含まれない座標になるまで、ドラッグ量およびドラッグ方向に応じてウィンドウを移動することができる。
 ステップS7において制御部11のCPU12が、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出たと判定した場合、制御部11のCPU12はステップS9で、表示部20に表示されるウィンドウを非表示にするとの指示がなされたと認識し、表示部20を制御し、予め設定されているサイズでのウィンドウの表示を非表示とするとともに、これに代えて、ウィンドウをアイコン化して所定の表示領域(表示部20に表示される画像を視認する際に障害となりにくい表示領域)に表示させる。例えば図5(D)の場合、予め設定されているサイズでのウィンドウの表示に代えて、右下隅の表示領域にアイコン化後のウィンドウが表示される。勿論、右下隅の表示領域に限られず、右上隅などのように、表示部20に表示される画像を視認する際に障害となりにくい表示領域であればよい。
 ここで、表示部20に表示されるウィンドウの種類について説明する。図6(A)は、文字入力用の10キーに関するウィンドウを示している。図6(A)の場合、現在、「ABCDEF」の文字が入力中である。図6(B)と(C)は、他の文字入力用のキーに関するウィンドウである。なお、図6(B)と(C)は、適宜、「モード」キーを押下することにより切り替え可能である。また、図6(A)乃至(C)のいずれにおいても、「メニュ」や「モード」などのソフトキーも表示される。これにより、ユーザは、ウィンドウの「メニュ」からメニュ選択を行うことができる。
 なお、図4のフローチャートを参照して説明したウィンドウ非表示制御処理においては、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出たと判定した場合、ウィンドウをアイコン化して所定の表示領域に表示するようにしたが、このような場合に限られない。例えば表示部20に表示されるウィンドウの一部が表示部20の表示領域から出たと判定した場合であっても、その後にウィンドウのタイトルバーへのタッチ入力がなくなった(ウィンドウのタイトルバーへの接触がなくなった)ときのみ、ウィンドウをアイコン化して所定の表示領域に表示し、ウィンドウのタイトルバーへのタッチ入力があるときには、ウィンドウのアイコン化を保留するようにしてもよい。これにより、ウィンドウのタイトルバーへのタッチ入力の有無をトリガとして最終的にウィンドウのアイコン化を実行することができる。従って、ユーザビリティを考慮しつつ、携帯端末1の操作性をより向上させることができる。この場合におけるウィンドウ非表示制御処理は、図7に示される。
 図7のフローチャートを参照して、図2の携帯端末1における他のウィンドウ非表示制御処理について説明する。なお、図7のステップS21乃至S28、およびステップS30の処理は、図4のステップS1乃至S9の処理と同様であり、その説明は繰り返しになるので省略する。
 ステップS27において制御部11のCPU12が、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出たと判定した場合、制御部11のCPU12はステップS29で、タッチ入力制御部17からの座標検出信号に基づいて、ユーザによりスタイラスペン2が操作されることで、スタイラスペン2が表示部20の所定の表示領域に表示されるウィンドウのタイトルバーへの接触がなくなり、ウィンドウのタイトルバーへのタッチ入力がなくなったか否かを判定する。ステップS29において制御部11のCPU12が、ウィンドウのタイトルバーへのタッチ入力がなくなったと判定した場合、制御部11のCPU12は、ウィンドウの非表示がユーザから最終的に指示されたと認識し、ステップS30で表示部20を制御し、予め設定されているサイズでのウィンドウの表示を非表示とするとともに、これに代えて、ウィンドウをアイコン化して所定の表示領域に表示させる。一方、ステップS29において制御部11のCPU12が、ウィンドウのタイトルバーへのタッチ入力があると判定した場合、制御部11のCPU12はウィンドウの非表示がユーザから最終的に指示されていないと認識し、処理はステップS27に戻り、ステップS27以降の処理が繰り返し実行される。
 なお、図4のフローチャートを用いて説明したウィンドウ非表示制御処理の場合、ウィンドウの一部が表示部20の表示領域から出たときには、ウィンドウのいずれの部分が表示部20の表示領域から出たかに関わらず、画一的に同じ所定の表示領域にアイコン化後のウィンドウを表示するようにしたが、このような場合に限られず、表示部20の表示領域から出たウィンドウの部分に応じて、アイコン化後のウィンドウを表示する表示領域を変更するようにしてもよい。以下、この方法を用いたウィンドウ非表示制御処理について説明する。
 図8のフローチャートを参照して、図2の携帯端末1における他のウィンドウ非表示制御処理について説明する。なお、図8のステップS121乃至S128の処理は、図4のステップS1乃至S8の処理と同様であり、その説明は繰り返しになるので省略する。
 ステップS129において、制御部11のCPU12は、表示部20の表示領域から出たウィンドウの一部は右端であるか否かを判定する。図5(C)の場合、ウィンドウの各頂点UおよびVの頂点を示すX軸またはY軸の座標が表示部20の表示領域から出ていることから、表示部20の表示領域から出たウィンドウの一部は右端であると判定される。一方、図9(A)の場合、ウィンドウの各頂点TおよびSの頂点を示すX軸またはY軸の座標が表示部20の表示領域から出ていることから、表示部20の表示領域から出たウィンドウの一部は右端ではないと判定される。
 ステップS129において制御部11のCPU12が、表示部20の表示領域から出たウィンドウの一部は右端であると判定した場合、制御部11のCPU12はステップS130で、表示部20に表示されるウィンドウを非表示にするとの指示がなされたと認識し、表示部20を制御し、表示部20に表示されるウィンドウを非表示とするとともに、ウィンドウをアイコン化して右下隅の表示領域に表示させる。例えば図5(D)の場合、右下隅の表示領域にアイコン化後のウィンドウが表示される。
 一方、ステップS129において制御部11のCPU12が、表示部20の表示領域から出たウィンドウの一部は右端ではないと判定した場合、制御部11のCPU12はステップS131で、表示部20の表示領域から出たウィンドウの一部は左端であるか否かを判定する。例えば図9(A)の場合、ウィンドウの各頂点TおよびSの頂点を示すX軸またはY軸の座標が表示部20の表示領域から出ていることから、表示部20の表示領域から出たウィンドウの一部は左端であると判定される。ステップS131において制御部11のCPU12が表示部20の表示領域から出たウィンドウの一部は左端ではないと判定した場合、処理はステップS127に戻る。
 ステップS131において制御部11のCPU12が表示部20の表示領域から出たウィンドウの一部は左端であると判定した場合、制御部11のCPU12はステップS132で、表示部20に表示されるウィンドウを非表示にするとの指示がなされたと認識し、表示部20を制御し、表示部20に表示されるウィンドウを非表示とするとともに、ウィンドウをアイコン化して左下隅の表示領域に表示させる。例えば図9(B)の場合、左下隅の表示領域にアイコン化後のウィンドウが表示される。
 これにより、例えばユーザが右利きで右手のみで携帯端末1を操作している場合に、右下隅にアイコン化後のウィンドウが表示されることで、右手の操作に応じて操作性を向上させることができる。左手についても同様である。
 なお、図8に示されるウィンドウ非表示制御処理に関し、ウィンドウのタイトルバーへのタッチ入力の有無をトリガとして最終的にウィンドウのアイコン化を実行する方法を適用した場合におけるウィンドウ非表示制御処理は、図10に示される。なお、図10の処理は、図7および図8の処理を組み合わせたものであり、その説明は繰り返しになることから省略する。
 次に、図11のフローチャートを参照して、図2の携帯端末1におけるウィンドウ再表示制御処理について説明する。
 ステップS241において、制御部11のCPU12は、タッチ入力制御部17からの座標検出信号に基づいて、ユーザによりスタイラスペン2が操作されることでタッチパネル18上にてアイコン化後のウィンドウがタップされ、アイコン化後のウィンドウでタッチ入力があるか否かを判定し、アイコン化後のウィンドウでタッチ入力があると判定するまで待機する。
 ステップS241において制御部11のCPU12がアイコン化後のウィンドウでタッチ入力があると判定した場合、制御部11のCPU12はステップS242で、表示部20を制御し、アイコン化されて表示されているウィンドウをウィンドウの非表示直前の状態で再表示させる。例えば図5(A)の状態から、タッチ入力が継続されたまま図5(B)、図5(C)、図5(D)に示されるように遷移してウィンドウが非表示にされ、アイコン化されて表示された場合、図12(A)に示されるようにウィンドウの非表示直前の状態(位置はタッチ前の図5(A)の位置)で再表示される。また、図5(A)の状態で「ABCDEF」の文字入力中であった場合には、図12の場合、文字入力中の「ABCDEF」がウィンドウ上に再表示される。勿論、他の状態についても同様に維持される。なお、ウィンドウが表示領域内に収まる範囲内で一旦ドラッグされてウィンドウの表示が移動した後、再度ウィンドウのタイトルバーへのタッチ入力があり、ドラッグされてウィンドウの一部が表示領域から出た場合、ウィンドウの再表示位置は、再度タッチ入力がされる前の位置となる。
 なお、アイコン化されて表示されているウィンドウを再表示させる場合、ウィンドウの再表示の位置は表示領域のいずれの位置でもよく、例えば図12(B)に示されるように、ウィンドウが表示部20の表示領域から出た位置の近傍で、かつ、ウィンドウが表示部20の表示領域から出ない限界の位置でウィンドを再表示するようにしてもよい。
 本発明の実施形態においては、表示部20は画像情報に基づく画像を表示し、画像を表示する表示領域に重ねられて設けられるタッチパネル18と、表示部20に表示されるウィンドウの所定の領域に対応するタッチパネルの領域内のいずれかの位置で物体が接触し、物体(例えばスタイラスペン2やユーザの指など)によるタッチパネル18への接触が維持された状態における物体の移動に応じてウィンドウを移動し、移動されるウィンドウの一部が表示部20の表示領域から出たか否かを判定し、移動されるウィンドウの一部が表示部20の表示領域から出た場合、予め設定されているサイズで表示されるウィンドウを非表示にし、ウィンドウを示す指示情報に基づく画像を所定の表示領域に表示するように表示部20を制御することができる。
 これにより、スタイラスペン2やユーザの指を用いたウィンドウのドラッグ動作における一連の流れの中で、表示部20に表示されるウィンドウを適宜非表示および再表示にすることができ、表示部20に表示されるウィンドウの表示・非表示をタッチ入力によって好適に制御することができる。従って、ウィンドウの下に隠れてしまう表示領域をできる限り少なくすることができ、限られた表示領域を有効に利用することができる。また、ウィンドウの非表示・再表示を行うための専用のハードウェアの操作キーを設ける必要がなく、専用のハードウェアの操作キーを取り付ける手間を省くとともに、携帯端末1の製造コストを低減することができる。さらに、ユーザは必要に応じて文字入力のためのウィンドウをタッチ入力を用いて簡単に非表示・再表示にすることができることから、携帯端末1の操作性を向上させることができる。
 なお、ウィンドウをアイコン化して表示する場合、ユーザが表示部20に表示される画像をより見やすくするために、アイコン化後のウィンドウの透過率を高くするようにしてもよい。
 また、本発明の実施形態においては、表示部20に表示されるウィンドウの一部が表示部20の表示領域から出た場合、表示部20に予め設定されているサイズで表示されるウィンドウを非表示にするようにし、アイコン化後のウィンドウを所定の表示領域に表示するようにしたが、このような場合に限られず、例えばスタイラスペン2の軌跡が円形や長方形などの所定の形状になるようにスタイラスペン2が移動した場合、ウィンドウを非表示にするようにし、アイコン化後のウィンドウを所定の表示領域に表示するようにしてもよい。以下、この方法を用いたウィンドウ非表示制御処理について説明する。
 図13のフローチャートを参照して、図2の携帯端末2における他のウィンドウ非表示制御処理について説明する。
 ステップS251において、制御部11のCPU12は、例えばユーザにより入力部19が操作されることによりウィンドウを表示するとの指示が受け付けられると、表示部20を制御し、例えば図5(A)に示されるように、ウィンドウを予め設定された初期位置に表示させる。
 ステップS252において、制御部11のCPU12は、タッチ入力制御部17からの座標検出信号に基づいて、ユーザによりスタイラスペン2が操作されることで、スタイラスペン2が表示部20の所定の表示領域のいずれかの位置にペンダウンされ、タッチ入力があるか否かを判定し、タッチ入力があると判定するまで待機する。ステップS252において制御部11のCPU12がタッチ入力があると判定した場合、制御部11のCPU12はステップS253で、タッチパネル18上で移動するスタイラスペン2の軌跡が予め設定されている所定の形状(例えば円形や長方形など)であるか否かを判定する。
 ステップS253において制御部11のCPU12が、タッチパネル18上で移動するスタイラスペン2の軌跡が予め設定されている所定の形状であると判定した場合、制御部11のCPU12がステップS254で、表示部20に表示されるウィンドウを非表示にするとの指示がなされたと認識し、表示部20を制御し、予め設定されているサイズでのウィンドウの表示を非表示とするとともに、これに代えて、例えば図5(D)に示されるようにウィンドウをアイコン化して所定の表示領域に表示させる。なお、ユーザの好みに応じて適宜、ウィンドウが非表示とされるスタイラスペン2の軌跡を登録するようにしてもよい。
 ステップS253において制御部11のCPU12が、タッチパネル18上で移動するスタイラスペン2の軌跡が予め設定されている所定の形状ではないと判定した場合、処理はステップS252に戻る。
 これにより、表示部20に表示されるウィンドウを適宜非表示および再表示にすることができ、表示部20に表示されるウィンドウの表示・非表示をタッチ入力によって好適に制御することができる。
 なお、本発明は、PDA(Personal Digital Assistant)、パーソナルコンピュータ、携帯型ゲーム機、携帯型音楽再生機、携帯型動画再生機、その他の携帯端末に適用することができる。
 また、本発明の実施形態において説明した一連の処理は、ソフトウェアにより実行させることもできるが、ハードウェアにより実行させることもできる。
 さらに、本発明の実施形態では、フローチャートのステップは、記載された順序に沿って時系列的に行われる処理の例を示したが、必ずしも時系列的に処理されなくとも、並列的あるいは個別実行される処理をも含むものである。

Claims (6)

  1.  画像情報に基づく画像を表示する表示手段と、
     前記表示手段により前記画像を表示する表示領域に重ねられて設けられるタッチパネルと、
     前記表示手段に表示されるウィンドウの所定の領域に対応する前記タッチパネルの領域内のいずれかの位置で物体が接触され、前記物体による前記タッチパネルへの接触が維持された状態における前記物体の移動に応じて前記ウィンドウの表示を移動する移動手段と、
     前記移動手段により移動される前記ウィンドウの一部が前記表示手段の表示領域から出たか否かを判定する判定手段と、
     前記移動手段により移動される前記ウィンドウの一部が前記表示手段の表示領域から出た場合、予め設定されているサイズで表示される前記ウィンドウを非表示にし、前記ウィンドウを示す指示情報に基づく画像を所定の表示領域に表示するように前記表示手段を制御する表示制御手段とを備えることを特徴とする携帯端末。
  2.  前記表示制御手段は、前記表示手段の表示領域から出た前記ウィンドウの部分に応じて、前記指示情報に基づく画像を表示する表示領域を変更することを特徴とする請求項1に記載の携帯端末。
  3.  前記判定手段は、前記移動手段により移動される前記ウィンドウの領域内に含まれるいずれかの座標値が前記表示手段の表示領域でとりうる座標の最小値または最大値を超えた場合、前記移動手段により移動される前記ウィンドウの一部が前記表示手段の表示領域から出たと判定することを特徴とする請求項1に記載の携帯端末。
  4.  前記表示制御手段は、前記表示手段により前記指示情報に基づく画像が表示されている場合に、前記指示情報に基づく画像に対応する前記タッチパネルの領域内のいずれかの位置で物体が接触したとき、前記ウィンドウの非表示直前の状態で前記ウィンドウを再表示するように制御することを特徴とする請求項1に記載の携帯端末。
  5.  前記表示制御手段は、前記移動手段により移動される前記ウィンドウの一部が前記表示手段の表示領域から出た場合に、前記物体による前記タッチパネルへの接触が維持された状態では、前記ウィンドウを非表示にせず、前記物体による前記タッチパネルへの接触がなくなったとき、前記ウィンドウを非表示にすることを特徴とする請求項1に記載の携帯端末。
  6.  画像情報に基づく画像を表示する表示手段と、
     前記表示手段により前記画像を表示する表示領域に重ねられて設けられるタッチパネルと、
     前記表示手段の表示領域に対応する前記タッチパネルの領域内のいずれかの位置で物体が接触され、前記タッチパネル上で移動する前記物体の軌跡が予め設定されている所定の形状であるか否かを判定する判定手段と、
     前記物体の軌跡が予め設定されている所定の形状である場合、予め設定されているサイズで表示される前記ウィンドウを非表示にし、前記ウィンドウを示す指示情報に基づく画像を所定の表示領域に表示するように前記表示手段を制御する表示制御手段とを備えることを特徴とする携帯端末。
PCT/JP2008/066357 2008-09-10 2008-09-10 携帯端末 WO2010029619A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2008/066357 WO2010029619A1 (ja) 2008-09-10 2008-09-10 携帯端末
JP2010528557A JPWO2010029619A1 (ja) 2008-09-10 2008-09-10 携帯端末
US13/042,229 US20110191712A1 (en) 2008-09-10 2011-03-07 Portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/066357 WO2010029619A1 (ja) 2008-09-10 2008-09-10 携帯端末

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/042,229 Continuation US20110191712A1 (en) 2008-09-10 2011-03-07 Portable terminal

Publications (1)

Publication Number Publication Date
WO2010029619A1 true WO2010029619A1 (ja) 2010-03-18

Family

ID=42004888

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/066357 WO2010029619A1 (ja) 2008-09-10 2008-09-10 携帯端末

Country Status (3)

Country Link
US (1) US20110191712A1 (ja)
JP (1) JPWO2010029619A1 (ja)
WO (1) WO2010029619A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035049A (ja) * 2013-08-08 2015-02-19 東芝テック株式会社 情報処理装置、プログラム
JP2018088054A (ja) * 2016-11-28 2018-06-07 シャープ株式会社 電子機器および表示制御方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9645699B2 (en) 2012-02-10 2017-05-09 Apple Inc. Device, method, and graphical user interface for adjusting partially off-screen windows
CN102855053B (zh) * 2012-09-13 2016-06-15 惠州Tcl移动通信有限公司 基于移动终端的信息对照输入的方法及移动终端
US20140218313A1 (en) * 2013-02-07 2014-08-07 Kabushiki Kaisha Toshiba Electronic apparatus, control method and storage medium
KR102157270B1 (ko) * 2013-04-26 2020-10-23 삼성전자주식회사 펜을 이용하는 사용자 단말 장치 및 그 제어 방법
JP6647103B2 (ja) * 2016-03-23 2020-02-14 キヤノン株式会社 表示制御装置およびその制御方法
CN111552425A (zh) * 2020-04-24 2020-08-18 北京小米移动软件有限公司 一种控制小窗显示的方法、装置及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05134838A (ja) * 1991-11-13 1993-06-01 Sony Corp ウインドウ制御装置
JPH10187404A (ja) * 1996-12-26 1998-07-21 Nec Off Syst Ltd アイコン表示制御方式
JPH11161405A (ja) * 1993-12-02 1999-06-18 Casio Comput Co Ltd ウィンドウ表示制御装置
JP2000056889A (ja) * 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd 携帯端末装置及びウインドウ制御方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305435A (en) * 1990-07-17 1994-04-19 Hewlett-Packard Company Computer windows management system and method for simulating off-screen document storage and retrieval
US9292111B2 (en) * 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US8230359B2 (en) * 2003-02-25 2012-07-24 Microsoft Corporation System and method that facilitates computer desktop use via scaling of displayed objects with shifts to the periphery
US8196055B2 (en) * 2006-01-30 2012-06-05 Microsoft Corporation Controlling application windows in an operating system
JP2008165574A (ja) * 2006-12-28 2008-07-17 Sharp Corp 入力装置、送受信システム、入力処理方法、および制御プログラム
US20090237363A1 (en) * 2008-03-20 2009-09-24 Microsoft Corporation Plural temporally overlapping drag and drop operations

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05134838A (ja) * 1991-11-13 1993-06-01 Sony Corp ウインドウ制御装置
JPH11161405A (ja) * 1993-12-02 1999-06-18 Casio Comput Co Ltd ウィンドウ表示制御装置
JPH10187404A (ja) * 1996-12-26 1998-07-21 Nec Off Syst Ltd アイコン表示制御方式
JP2000056889A (ja) * 1998-08-04 2000-02-25 Matsushita Electric Ind Co Ltd 携帯端末装置及びウインドウ制御方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035049A (ja) * 2013-08-08 2015-02-19 東芝テック株式会社 情報処理装置、プログラム
JP2018088054A (ja) * 2016-11-28 2018-06-07 シャープ株式会社 電子機器および表示制御方法

Also Published As

Publication number Publication date
JPWO2010029619A1 (ja) 2012-02-02
US20110191712A1 (en) 2011-08-04

Similar Documents

Publication Publication Date Title
WO2010029619A1 (ja) 携帯端末
US11269486B2 (en) Method for displaying item in terminal and terminal using the same
US10282081B2 (en) Input and output method in touch screen terminal and apparatus therefor
US9223471B2 (en) Touch screen control
US10310706B2 (en) System and methods for touch target presentation
KR101720849B1 (ko) 터치 스크린 호버 입력 핸들링
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
JP5625599B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5841791B2 (ja) 携帯用端末機における電子書籍ページめくり装置及び方法
JP5402322B2 (ja) 情報処理装置および情報処理方法
US10198163B2 (en) Electronic device and controlling method and program therefor
US20110157027A1 (en) Method and Apparatus for Performing an Operation on a User Interface Object
WO2009084140A1 (ja) 電子機器の入力装置及び入力操作処理方法、並びに入力制御プログラム
EP2204729A2 (en) Information processing apparatus, information processing method, and program
KR101654335B1 (ko) 터치스크린의 베젤을 이용한 제스처 명령 방법 및 그 단말
CA2773386A1 (en) Portable electronic device and method of controlling same
KR102212830B1 (ko) 휴대 단말기에서 화면을 표시하는 방법 및 장치
JP2013528304A (ja) ジャンプ、チェックマーク、および取消し線のジェスチャー
US20140035853A1 (en) Method and apparatus for providing user interaction based on multi touch finger gesture
RU2607272C2 (ru) Способ и устройство для обеспечения графического пользовательского интерфейса в мобильном терминале
JP2010224663A (ja) 情報処理装置、情報処理方法、およびプログラム
WO2010095255A1 (ja) 情報処理装置、表示制御方法および表示制御プログラム
KR102138913B1 (ko) 입력 처리 방법 및 그 전자 장치
JP2013143144A (ja) ディスプレイ装置およびそのアイテム選択方法
JP7337975B2 (ja) ユーザインタフェース間でのナビゲーション、ドックの表示、及びシステムユーザインタフェース要素の表示のためのデバイス、方法、及びグラフィカルユーザインタフェース

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08810411

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2010528557

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08810411

Country of ref document: EP

Kind code of ref document: A1