WO2012108144A1 - 携帯端末装置、表示制御方法、及び表示制御プログラム - Google Patents

携帯端末装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
WO2012108144A1
WO2012108144A1 PCT/JP2012/000647 JP2012000647W WO2012108144A1 WO 2012108144 A1 WO2012108144 A1 WO 2012108144A1 JP 2012000647 W JP2012000647 W JP 2012000647W WO 2012108144 A1 WO2012108144 A1 WO 2012108144A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input
display
area
unit
Prior art date
Application number
PCT/JP2012/000647
Other languages
English (en)
French (fr)
Inventor
中尾 雅俊
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2012108144A1 publication Critical patent/WO2012108144A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Definitions

  • the present invention relates to a mobile terminal device, a display control method, and a display control program.
  • mobile terminal devices equipped with a so-called touch panel function that performs input by touching a display screen instead of input by key operation or separately from input by key operation have become widespread as mobile terminal devices such as mobile phones. ing. According to a mobile terminal device equipped with a touch panel function, an intuitive input can be performed, and an input that is easy for the user to understand can be performed.
  • a mobile terminal device generally has a small display screen.
  • a small character for example, writing a schedule by a schedule function, a character, a figure, a symbol, etc. may not be input as a user desires.
  • the display screen of a mobile terminal device is generally small, there are many scenes where an enlarged screen is used when inputting via a touch panel. Therefore, in such a case, when the end of the input area is reached on the enlarged screen, the scrolling operation is performed many times or the enlargement ratio is changed to change from the enlarged screen to the normal screen to the enlarged screen. The user operation is complicated.
  • the present invention has been made in view of the above circumstances, and is a portable device capable of easily drawing a handwritten image with high accuracy even when input is performed in an input area partitioned in units of rows or columns. It is an object to provide a terminal device, a display control method, and a display control program.
  • the portable terminal device of the present invention includes an input unit for inputting an image via a touch panel, a display unit for displaying an image, an image storage unit for storing an image as a stored image, and an input for input by the input unit.
  • an input area designating section for designating an area and the input area over a plurality of rows or columns are designated by the input area designating section
  • the input area is included in the input area from the saved image saved in the image saving section.
  • a virtual input region generating unit that generates virtual input regions in which each region is logically continuously arranged in one row or one column, and the display unit displays the input regions over the plurality of rows or columns. Display and edit display for displaying the virtual input area, and the image storage unit generates the stored image being stored and the virtual input area generation unit
  • the entered image in the virtual input region is stored as a new saved image.
  • the mobile terminal device of the present invention when the length of the row or column of the virtual input area generated by the virtual input area generation unit is longer than the length in the same direction on the display screen displayed on the display unit Includes a scroll control unit that performs scroll control.
  • This configuration makes it possible to use the entire lower input area even when the generated virtual input area is larger than the display screen. In particular, even when the virtual input area is smaller than the desired size, the input operation can be smoothly performed in the continuous input area.
  • the mobile terminal device of the present invention includes a display control unit that performs display control of an image displayed on the display unit, and the display control unit includes a logically continuous previous region and a rear region in the virtual input region.
  • the list display is controlled so that the one image is displayed at each of the end part of the previous area and the start part of the subsequent area.
  • the display control unit changes a display mode of a portion input outside the both areas in the one image displayed in each of the both areas.
  • the image in the list display, the image can be reliably recognized in any region where one image is input, and it can be easily understood that the image is drawn across the region.
  • the display control unit changes a display mode of the one image displayed in the previous area or the subsequent area.
  • This configuration makes it possible to recognize the image reliably. Further, it is possible to display as usual in the area where the user has priority, and simply display it in the area where priority is not given.
  • the display control method of the present invention is a display control method for displaying an image input via a touch panel, and includes a display step for displaying an image on a display unit, and an input area for input by an input unit. And when the input area over a plurality of rows or columns is specified, each area included in the input area is stored from the stored image stored in the image storage unit that stores the image as a stored image.
  • This method makes it possible to easily draw a handwritten image with high accuracy even when input is performed in an input area divided in units of rows or columns.
  • an input operation is facilitated by generating virtual input areas arranged in a line or a line based on logical connections.
  • the display control program of the present invention is a program for causing a computer to execute each step of the display control method.
  • This program makes it possible to easily draw handwritten images with high accuracy even when input is performed in an input area divided in units of rows or columns.
  • an input operation is facilitated by generating virtual input areas arranged in a line or a line based on logical connections.
  • the portable terminal device of the present invention it is possible to easily draw a handwritten image with high accuracy even when inputting into an input area divided in units of rows or columns.
  • FIGS. 8A to 8C are diagrams showing display examples when one image is input across a logical joint in the input to the virtual input area in the embodiment of the present invention.
  • the sequence diagram which shows the operation example when the portable terminal device in embodiment of this invention performs handwriting input The figure for demonstrating an example of the conventional handwritten input
  • the mobile terminal device in the embodiment of the present invention widely includes devices having a display screen such as a mobile phone, a personal digital assistant (PDA), a personal computer, and the like.
  • a device with a small touch panel area for inputting an image is assumed.
  • a portable terminal device will be described as an example.
  • FIG. 1 is a block diagram illustrating a configuration example of a mobile terminal device according to an embodiment of the present invention.
  • a mobile terminal device 1 illustrated in FIG. 1 includes a handwriting input unit 11, an editing instruction unit 12, a virtual input region generation unit 13, a display control unit 14, a display unit 15, and an image management unit 16.
  • the handwriting input unit 11 has a touch panel and detects handwriting input by touching or pressing with a finger or the like. For example, when the user continuously moves a finger or the like on the touch panel, the handwriting input unit 11 detects the movement of the finger or the like as a locus.
  • Information (trajectory information) of the trajectory of the image input (drawn) by the handwriting input unit 11 is sent to the virtual input area generation unit 13. This trajectory information is represented by a set of coordinate information, for example.
  • the handwriting input unit 11 performs input to a list-displayed input area described later or a virtual input area VI described later (see FIG. 2B).
  • the image here includes a wide range of images such as characters, figures and symbols.
  • the input means (such as a finger) may be a touch pen or the like, and widely includes input means that make it difficult to perform fine input on the touch panel.
  • the editing instruction unit 12 issues an editing start instruction and an editing end instruction.
  • the edit start instruction is an instruction for starting input using the virtual input area VI.
  • the editing end instruction is an instruction for ending the input using the virtual input area VI.
  • the editing instruction unit 12 designates an input area IA for inputting an image by the handwriting input unit 11 when performing an editing start instruction.
  • a logically continuous but physically separated area is designated as the input area IA.
  • the input area IA For example, in the calendar shown in FIG. 2A, when the schedule from the 16th to the 23rd is written by the calendar function of the portable terminal device 1, the area from the 16th to the 23rd is designated as the input area IA.
  • input areas IA are displayed in a matrix in a list display.
  • the display unit 15 is instructed to end the display of the virtual input area VI in order to end the editing work.
  • the virtual input area generation unit 13 When the input area IA extending over a plurality of rows or a plurality of columns is designated by the editing instruction unit 12, the virtual input area generation unit 13 logically continuously arranges the areas included in the input area IA into one line or one column. A virtual input area VI is generated.
  • the virtual input area VI is generated from a saved image (background image or the like) saved in the image management unit 16.
  • FIG. 2B is a background image diagram of the virtual input area VI.
  • the virtual input area generation unit 13 synthesizes the generated virtual input area VI and the image input to the virtual input area VI.
  • the synthesized image is sequentially displayed as an editing screen.
  • the virtual input area generation unit 13 overwrites and saves the synthesized image on the corresponding part in the saved image saved by the image management unit 16. For example, as shown in FIGS. 2B and 2C, only the part of the 16th to 23rd day region corresponding to the virtual input region VI is included in the image for the calendar January, including the input image. To overwrite. Note that if the input to the virtual input area VI has not yet been performed, only the background image of the virtual input area VI is stored in the image management unit 16.
  • the display control unit 14 controls (for example, moves) an area displayed on the display unit 15 among the areas included in the virtual input area VI. For example, in the state where the virtual input area VI of the area from the 16th to the 23rd in FIG. 2B is generated, the display unit 15 displays the 18th to 20th as shown in FIG. To control. Further, the length of the row (X direction) or the column (Y direction orthogonal to the X direction) of the virtual input area VI is longer than the length in the same direction (X direction or Y direction) on the display screen displayed on the display unit 15. If it is long, for example, as shown in FIG. 2C, a scroll bar SB for scrolling in that direction is displayed, and scroll control is performed as necessary.
  • the display control unit 14 forms an image displayed by the display unit 15.
  • the image to be displayed is at least a part of the stored image stored by the image management unit 16. If the saved image is larger than the display screen size of the display unit 15, a part of the saved image is cut out to form an image to be displayed.
  • the display control unit 14 controls the enlargement ratio of the display screen of the display unit 15.
  • the display screen of the display unit 15 is mainly an enlarged screen that is a screen having an enlargement ratio larger than 1, a normal screen that is a screen having an enlargement ratio of 1 (equal magnification), and a screen that has an enlargement ratio smaller than 1. There is a reduced screen.
  • the enlarged screen is mainly used when performing fine input which is difficult to input by handwriting on the normal screen, and the normal screen is used when performing normal general input.
  • the display control unit 14 displays the images separately in the list display, but when one image is input across logically continuous regions, the display control unit 14 controls to display the images in both regions.
  • the display control of the input image is performed (see FIGS. 4A to 4C described later).
  • the display unit 15 is composed of a liquid crystal panel or the like, and displays the image formed by the display control unit 14 on the display screen.
  • the display by the display unit 15 includes a list display and an edit display.
  • images stored by the image management unit 16 are displayed in a list, and input areas extending over a plurality of rows or columns are displayed.
  • the edit display the image of the virtual input area VI designated as the area for editing is displayed among the images stored by the image management unit 16. At this time, the images input to the virtual input area VI are sequentially edited and displayed.
  • 2A and 2D are image diagrams of a list display
  • FIGS. 2B and 2C are image diagrams of an edit display. It is assumed that the image shown in FIG.
  • 2B is not input directly with a finger or the like, but is input to the image shown in FIG.
  • a background image such as a frame surrounding each date area of the calendar, an image of characters written in the date area, and an arrow indicating that there are similar plans over multiple days.
  • logically continuous regions are displayed in a state where they are separated and separated for each row or column.
  • the image management unit 16 includes a RAM (Random Access Memory) and the like, and stores an image as a storage image.
  • the stored image for example, there is a background image displayed in the background when performing list display or edit display.
  • the background image for list display and the background image for edit display the same image may be used in common or different images may be used.
  • Another stored image is an image in which the background image and the input image are combined by the virtual input area generation unit 13. Further, when handwritten input or the like has already been performed and the combined storage image has been stored, the image management unit 16 uses the combined image of the storage image and the input image as a new storage image. save.
  • a display control program for executing each step of the display control method described in the present embodiment is stored in a predetermined memory (not shown) in the mobile terminal device 1.
  • the mobile terminal device 1 can freely input by handwriting on a two-dimensional space on the display screen of the display unit 15 via a touch panel or the like, as shown in FIG. A line portion L in FIG. 3A is an example of free handwriting input.
  • the mobile terminal device 1 is provided with a “virtual input mode” for handwritten input using the virtual input area VI.
  • the virtual input mode may be set in advance, or the virtual input mode may be designated by a user operation or the like.
  • the virtual input area generation unit 13 In the virtual input mode, as shown in FIG. 2A, when an input area IA extending over a plurality of rows or columns is designated, the virtual input area generation unit 13 generates a virtual input area VI. Even if the virtual input area VI is displayed separately in the list display LD, as shown in FIG. 2 (B), if the virtual input area VI has logical continuity, the separated parts are also combined. Displayed in one column or row.
  • the display control unit 14 can easily perform handwriting input with respect to the width of the display screen of the display unit 15 in the direction orthogonal to the logically continuous direction. Control the magnification. For example, as shown in FIG. 3B, when it is difficult to input by hand with respect to the vertical width simply by generating the virtual input area VI, the enlargement ratio is increased. Thereby, the convenience at the time of a user's handwriting input improves.
  • the display control unit 14 when the enlargement ratio is increased, the length of the input direction (X direction) of the virtual input area VI is the same as the input direction of the virtual input area VI on the display screen. If it is longer than the length in the direction (X direction), the display control unit 14 enables scrolling in that direction. Specifically, the display control unit 14 displays a scroll bar SB and the like, and performs scroll control as necessary. Thereby, the position of the display target can be scrolled and switched in the virtual input area VI.
  • the display control unit 14 when the display control unit 14 detects that one image straddles a logical seam, the display control unit 14 applies a logical end of the preceding area and a start end of the subsequent area. One image is displayed. That is, in the list display LD, the image is displayed at both the separated end and start ends.
  • the character “U” as an image is input across the 19th and 20th days of the virtual input area VI, but is displayed separately in the list display LD.
  • the letters “u” are displayed on the 19th and 20th, respectively. Since the character “U” is input beyond the end of the 19th region and the start of the 20th region, the list display LD displays the characters beyond the frame.
  • changing the display form means, for example, reducing the size of the character of the corresponding part in the list display LD, changing the display color of the corresponding part, or making the character of the corresponding part italic. Conceivable.
  • the character “U” as an image is input across the 19th and 20th day of the virtual input area VI, but is displayed separately in the list display LD.
  • the character color is changed for portions outside the region.
  • the change of the character color in the present embodiment for example, the corresponding part is made lighter or the luminance of the corresponding part is decreased so that it is clear that the part is a character drawn outside the area (out of the frame). Can be considered.
  • it includes making the character color colorless.
  • the display colors of the characters are changed for the portion on the right side from the end (right end) of the 19th region and the portion on the left side of the start end (left end) of the 20th region.
  • the display control unit 14 when the display control unit 14 detects that one image straddles a logical joint, the display unit 14 displays it in a logically continuous previous area or subsequent area in the list display LD.
  • the display mode of one image to be changed is changed.
  • the character “U” as an image is input across the 19th and 20th days of the virtual input area VI, but in the list display LD, “U” is displayed as usual, and the display color of “U” is changed and displayed in the 20th day area. Furthermore, in the 20th day area, the display color of “u” may be colorless, and “u” may not be displayed.
  • FIG. 5 is a sequence diagram illustrating an operation example when the mobile terminal device 1 performs handwriting input.
  • the schedule is written in the calendar displayed by the calendar function.
  • the display unit 15 displays a list of images stored in the image management unit 16 (step S101).
  • the images displayed as a list include a background image for list display, an image written and stored in advance in the background image, and the like.
  • a calendar for January with a line feed for each week is displayed.
  • the area of each day of the displayed calendar is the input area.
  • the editing instruction unit 12 issues an editing start instruction for starting input using the virtual input area VI (step S102).
  • an area to be edited is designated from among the input areas displayed on the display unit 15. For example, as shown in FIG. 2A, a logically continuous region from the 16th to the 23rd is selected as an editing target. In the example shown in FIG. 2A, a line feed is made between the 19th area and the 20th area.
  • the virtual input area generation unit 13 logically continuously arranges the areas selected as objects to be edited in one row or column, and generates a virtual input area VI. That is, the area designated as the input area IA in the image stored by the image management unit 16 is cut out and aligned (step S103). For example, as shown in FIG. 2B, the areas to be edited from the 16th to the 23rd are arranged in one line to generate a virtual input area VI.
  • the display unit 15 displays (edits and displays) at least a part of the generated virtual input area VI (step S104).
  • the display control unit 14 causes the display unit 15 to display the scroll bar SB.
  • scroll control can be performed.
  • the display unit 15 can display the 17th to 19th region, and the scroll control can display the 16th region and the 20th to 23rd region. To do.
  • an image is input using the virtual input area VI by the handwriting input unit 11 (step S105).
  • the virtual input area generation unit 13 synthesizes the background image of the virtual input area VI or the image written and stored together with the background image and the image input this time by the handwriting input unit 11. For example, as shown in FIG. 2C, the background image of the virtual input area VI and the characters “Tokyo” input as a schedule in the area from the 18th to the 19th are synthesized.
  • the display unit 15 displays the image synthesized by the virtual input area generation unit 13 (step S106). For example, as shown in FIG. 2D, an image obtained by combining the background image of the virtual input area VI and the characters “Tokyo” input as a schedule in the area from the 18th to the 19th is displayed. .
  • the image displayed here is an image in an edit display, and is sequentially updated each time an image is input by the handwriting input unit 11.
  • the editing instruction unit 12 issues an editing end instruction for ending the input using the virtual input area VI (step S107). At this time, the editing instruction unit 12 instructs the display unit 15 to end the display of the virtual input area VI. Thereby, the display of the virtual input area VI ends.
  • the synthesized image is determined by the virtual input area generation unit 13.
  • the image management unit 16 stores the determined image as a new storage image (step S108).
  • the image management unit 16 displays a list of saved images newly saved by the image management unit 16 (step S109). For example, as shown in FIG. 2D, the letters “Tokyo business trip” are displayed in the area from the 18th to the 19th, and the image of the double arrow is displayed over the area from the 16th to the 23rd. When one image is input over the 19th to 20th region, the display as shown in FIGS. 4A to 4C is performed.
  • the mobile terminal device 1 of the present embodiment by using the virtual input area VI, images such as character strings and symbols are efficiently displayed in areas that are logically continuous but separated in the middle of the list display. I can draw well. Therefore, for example, a handwritten image can be easily drawn on a calendar or the like in which regions are arranged in a matrix.
  • the present invention is useful for a portable terminal device, a display control program, and the like that can easily draw a handwritten image even when input is performed in an input area that is divided in units of rows or columns.

Abstract

 行単位又は列単位で区切られた入力領域に入力する場合であっても、細かい手書きイメージを容易に高精度に描くことが可能な携帯端末装置を提供する。 本携帯端末装置は、タッチパネルを介してイメージを入力する手書き入力部11と、イメージを表示する表示部15と、保存イメージとしてのイメージを保存するイメージ管理部16と、入力領域を指定する編集指示部12と、複数行又は複数列に渡る入力領域が指定された場合、保存イメージから、入力領域に含まれる各領域が論理的に連続して一行又は一列に整列した仮想入力領域を生成する仮想入力領域生成部13と、を備える。表示部15は、複数行又は複数列に渡る入力領域を表示する一覧表示と仮想入力領域を表示する編集表示とを行う。イメージ管理部16は、保存中の保存イメージと仮想入力領域に入力されたイメージとを新たな保存イメージとして保存する。

Description

携帯端末装置、表示制御方法、及び表示制御プログラム
 本発明は、携帯端末装置、表示制御方法、及び表示制御プログラムに関する。
 近年、携帯電話等の携帯端末装置として、キー操作による入力の代わりに、もしくはキー操作による入力とは別に、表示画面上をタッチして入力を行う所謂タッチパネル機能を搭載した携帯端末装置が普及している。タッチパネル機能を搭載した携帯端末装置によれば、直感的な入力を行うことができ、ユーザにとって理解しやすい入力を行うことができる。
 一方、携帯端末装置は、一般的に表示画面が小型であることが多い。この場合、例えばスケジュール機能により予定を書き込むなど、小さな文字をタッチパネルにより入力するときには、文字、図形、記号等をユーザの思い通りに入力することができないことがある。
 小さな画面等で小さな文字等を入力するための装置として、小さな表示画面で手書きイメージを入力する際、手書きに適したサイズの枠を表示し、入力が完了した時点でイメージを適切なサイズに縮小して表示する手書き入力装置が知られている(例えば、特許文献1参照)。この手書き入力装置によれば、操作者は、表示画面上の手書き表示領域に情報を直接手書きするのではなく、手書き表示範囲より拡大された枠内に情報を手書きすることができるので、例えば画数の多い文字や複雑なパターン等の手書き入力を容易に行うことができる。
 また、小さな文字を描くために描画部分を拡大する機能を有し、座標入力面の右端(下端)を含む領域にある描画方向判定面におけるタッチやドラッグのデタッチから所定の時間タッチが検出されない場合には、横方向(縦方向)にスクロールするタッチパネル付きディスプレイ装置が知られている(例えば、特許文献2参照)。このディスプレイ装置によれば、自動的にスクロールの方向を判定して行の始端に向けて画像をスクロールすることができる。
 また、小さな文字を描くために描画部分を拡大する機能を有し、入力位置が拡大画面の端に近づいたときに、手書き入力できるスペースを確保するためにスクロールする表示装置が知られている(例えば、特許文献3参照)。この表示装置によれば、拡大画面上の入力位置と拡大画面の端との間にスペースが生じ、このスペースに手書き入力を連続して行うことができる。
日本国特開平6-124164号公報 日本国特開2004-046797号公報 日本国特開2009-098990号公報
 ところで、スケジュール機能やカレンダー機能により、行単位や列単位で区切られた入力領域に文字等を入力するとき、行又は列の終端に達した後に入力を継続する場合には、次行又は次列の始端から入力しなければならないことがある。例えば、図6を示すようなカレンダー機能を用いた場合に、1行目の入力領域の終端である土曜日(19日)のスケジュールを入力した後に、2行目の入力領域の始端である日曜日(20日)のスケジュールを入力することがある。また、例えば19日から20日にかけて連続する予定を記入するために、複数期間に渡る矢印等を入力することがある。
 さらに、携帯端末装置は一般的に表示画面が小さいので、タッチパネルを介して入力を行うときには拡大画面で対応する場面が多い。そのため、このような場合には、拡大画面で入力領域の終端に達したときに、スクロール操作を何度も行ったり、拡大画面→通常画面→拡大画面と変更するために拡大率の変更を何度も行ったりする必要があり、ユーザ操作が煩雑となっていた。
 本発明は、上記事情に鑑みてなされたものであって、行単位又は列単位で区切られた入力領域に入力する場合であっても、手書きイメージを容易に高精度に描くことが可能な携帯端末装置、表示制御方法、及び表示制御プログラムを提供することを目的とする。
 本発明の携帯端末装置は、タッチパネルを介してイメージを入力する入力部と、イメージを表示する表示部と、保存イメージとしてのイメージを保存するイメージ保存部と、前記入力部により入力するための入力領域を指定する入力領域指定部と、前記入力領域指定部により複数行又は複数列に渡る前記入力領域が指定された場合、前記イメージ保存部に保存された保存イメージから、前記入力領域に含まれる各領域が論理的に連続して一行又は一列に整列した仮想入力領域を生成する仮想入力領域生成部と、を備え、前記表示部が、前記複数行又は複数列に渡る入力領域を表示する一覧表示と、前記仮想入力領域を表示する編集表示と、を行い、前記イメージ保存部が、保存中の前記保存イメージと、前記仮想入力領域生成部により生成された仮想入力領域に入力されたイメージとを、新たな保存イメージとして保存する。
 この構成により、行単位又は列単位で区切られた入力領域に入力する場合であっても、手書きイメージを容易に高精度に描くことが可能である。特に、一覧表示では物理的には分離された入力領域であっても、論理的な繋がりを基に一列又は一行に整列された仮想入力領域を生成することで、入力操作が容易になる。
 また、本発明の携帯端末装置は、前記仮想入力領域生成部により生成された仮想入力領域の行又は列の長さが、前記表示部に表示される表示画面における同方向の長さより長い場合には、スクロール制御を行うスクロール制御部を備える。
 この構成により、生成された仮想入力領域が表示画面に対して大きい場合であっても、下層入力領域の全体を利用することができる。特に、仮想入力領域が所望のサイズよりも小さい場合であっても、連続的な入力領域においてスムーズに入力操作を行うことができる。
 また、本発明の携帯端末装置は、前記表示部に表示されるイメージの表示制御を行う表示制御部を備え、前記表示制御部が、前記仮想入力領域における論理的に連続する先の領域及び後の領域の両領域に渡り1つのイメージが入力された場合、前記一覧表示では、前記先の領域の終端部及び前記後の領域の始端部の各々に、前記1つのイメージを表示するよう制御する。
 この構成により、一覧表示において、1つのイメージが入力されたいずれの領域においても、イメージを確実に認識することができる。
 また、本発明の携帯端末装置は、前記表示制御部が、両領域の各々に表示される前記1つのイメージのうち、両領域外に入力された部分の表示態様を変更する。
 この構成により、一覧表示において、1つのイメージが入力されたいずれの領域においても、イメージを確実に認識することができ、かつイメージが領域をまたいで描かれたことが容易に理解できる。
 また、本発明の携帯端末装置は、前記表示制御部が、先の領域又は後の領域に表示される前記1つのイメージの表示態様を変更する。
 この構成により、イメージを確実に認識することができる。また、ユーザが優先する領域では通常通り表示し、優先しない領域では簡易的に表示することができる。
 また、本発明の表示制御方法は、タッチパネルを介して入力されたイメージを表示するための表示制御方法であって、表示部によりイメージを表示する表示ステップと、入力部により入力するための入力領域を指定するステップと、複数行又は複数列に渡る前記入力領域が指定された場合、保存イメージとしてのイメージを保存するイメージ保存部に保存された保存イメージから、前記入力領域に含まれる各領域が論理的に連続して一行又は一列に整列した仮想入力領域を生成するステップと、前記イメージ保存部に保存中の前記保存イメージと、前記生成された仮想入力領域に入力されたイメージとを、前記イメージ保存部により新たな保存イメージとして保存するステップと、を有し、前記表示ステップにおいて、前記複数行又は複数列に渡る入力領域を表示する一覧表示と、前記仮想入力領域を表示する編集表示と、を行う。
 この方法により、行単位又は列単位で区切られた入力領域に入力する場合であっても、手書きイメージを容易に高精度に描くことが可能である。特に、一覧表示では物理的には分離された入力領域であっても、論理的な繋がりを基に一列又は一行に整列された仮想入力領域を生成することで、入力操作が容易になる。
 また、本発明の表示制御プログラムは、上記表示制御方法の各ステップをコンピュータに実行させるためのプログラムである。
 このプログラムにより、行単位又は列単位で区切られた入力領域に入力する場合であっても、手書きイメージを容易に高精度に描くことが可能である。特に、一覧表示では物理的には分離された入力領域であっても、論理的な繋がりを基に一列又は一行に整列された仮想入力領域を生成することで、入力操作が容易になる。
 本発明の携帯端末装置によれば、行単位又は列単位で区切られた入力領域に入力する場合であっても、手書きイメージを容易に高精度に描くことが可能である。
本発明の実施形態における携帯端末装置の構成例を示すブロック図 (A)~(D)本発明の実施形態における仮想入力領域を用いた手書き入力の一例を説明するための図 (A),(B)本発明の実施形態における仮想入力領域を用いた手書き入力の一例を説明するための図 (A)~(C)本発明の実施形態における仮想入力領域への入力において、1つのイメージが論理的な繋ぎ目をまたいで入力されたときの表示例を示す図 本発明の実施形態における携帯端末装置が手書き入力を行うときの動作例を示すシーケンス図 従来の手書き入力の一例を説明するための図
 本発明の実施形態について、図面を参照しながら以下に説明する。
 本発明の実施形態における携帯端末装置は、携帯電話、携帯情報端末(PDA)、パーソナルコンピュータ等、表示画面を有する機器を広く含む。特に、イメージを入力するためのタッチパネルの面積が小さな機器を想定している。以下、携帯端末装置を例に説明する。
 図1は、本発明の実施形態における携帯端末装置の構成例を示すブロック図である。図1に示す携帯端末装置1は、手書き入力部11、編集指示部12、仮想入力領域生成部13、表示制御部14、表示部15、イメージ管理部16、を有して構成される。
 手書き入力部11は、タッチパネルを有し、指等での接触又は押下による手書き入力を検知する。例えば、ユーザが指等をタッチパネル上で連続的に移動させることにより、手書き入力部11は、その指等の移動を軌跡として検知する。手書き入力部11により入力された(描かれた)イメージの軌跡の情報(軌跡情報)は、仮想入力領域生成部13に送られる。この軌跡情報は、例えば座標情報の集合により表される。手書き入力部11は、後述する一覧表示された入力領域、又は、後述する仮想入力領域VI(図2(B)参照)、への入力を行う。
 なお、ここでのイメージとは、文字、図形、記号などの画像を広く含む。また、入力手段(指等)としては、指以外にタッチペン等であってもよく、タッチパネルに対して細かい入力を行うことが困難な入力手段が広く含まれる。
 編集指示部12は、編集開始指示及び編集終了指示を行う。編集開始指示は、仮想入力領域VIを用いた入力を開始するための指示である。編集終了指示は、仮想入力領域VIを用いた入力を終了するための指示である。
 編集指示部12は、編集開始指示を行うときには、手書き入力部11によりイメージを入力するための入力領域IAを指定する。例えば、論理的に連続するが物理的に分離された領域を入力領域IAとして指定する。例えば、図2(A)に示すカレンダーにおいて、携帯端末装置1が有するカレンダー機能により、16日~23日までのスケジュールを書き込む場合、16日~23日までの領域を入力領域IAとして指定する。このカレンダーでは、一覧表示においてマトリックス状に入力領域IAが表示されている。
 また、編集終了指示を行うときには、編集作業を終了するために、仮想入力領域VIの表示を終了するよう表示部15へ指示する。
 仮想入力領域生成部13は、編集指示部12により複数行又は複数列に渡る入力領域IAが指定された場合、入力領域IAに含まれる各領域が論理的に連続して一行又は一列に整列した仮想入力領域VIを生成する。仮想入力領域VIは、イメージ管理部16に保存されている保存イメージ(背景イメージ等)から生成される。図2(B)は、仮想入力領域VIの背景イメージ図である。
 また、仮想入力領域生成部13は、生成された仮想入力領域VIとこの仮想入力領域VIに入力されたイメージとを合成する。合成されたイメージは逐次、編集画面として表示される。また、仮想入力領域生成部13は、合成されたイメージを、イメージ管理部16により保存された保存イメージにおける該当部分に、上書き保存させる。例えば、図2(B)、(C)に示すように、カレンダー1月分のイメージのうち、仮想入力領域VIに対応する16~23日の領域の部分のみを、入力されたイメージを含むように上書き保存させる。なお、仮想入力領域VIへの入力が未だ行われていない場合には、仮想入力領域VIの背景イメージのみがイメージ管理部16に保存されている。
 表示制御部14は、仮想入力領域VIに含まれる領域のうち、表示部15に表示される領域を制御(例えば移動)する。例えば、図2(B)において16日~23日までの領域の仮想入力領域VIが生成された状態で、図2(C)に示すような18日~20日を表示部15に表示されるように制御する。また、仮想入力領域VIの行(X方向)又は列(X方向と直交するY方向)の長さが、表示部15に表示される表示画面における同方向(X方向又はY方向)の長さより長い場合には、例えば図2(C)に示すように、その方向にスクロールするためのスクロールバーSBを表示させ、必要に応じてスクロール制御を行う。
 また、表示制御部14は、表示部15により表示されるイメージを形成する。表示対象となるイメージは、イメージ管理部16により保存された保存イメージの少なくとも一部である。表示部15の表示画面のサイズよりも保存イメージの方が大きい場合には、保存イメージの一部を切出して表示対象となるイメージを形成する。
 また、表示制御部14は、表示部15の表示画面の拡大率を制御する。表示部15の表示画面としては、主に、拡大率が1より大きい画面である拡大画面と、拡大率が1(等倍)の画面である通常画面と、拡大率が1より小さい画面である縮小画面と、がある。拡大画面は、主に、通常画面では手書き入力が困難な細かい入力を行う場合に利用され、通常画面は、通常の一般的な入力を行う場合に利用される。
 また、表示制御部14は、一覧表示では分離して表示されるが、論理的に連続する領域にまたがって1つのイメージが入力された場合には、両領域の各々にイメージを表示するよう制御するなど、入力イメージの表示制御を行う(後述する図4(A)~(C)参照)。
 表示部15は、液晶パネル等で構成され、表示画面上で、表示制御部14により形成されたイメージを表示する。表示部15による表示には、一覧表示と編集表示とがある。一覧表示では、イメージ管理部16により保存されたイメージが一覧表示され、複数行又は複数列に渡る入力領域が表示される。また、編集表示では、イメージ管理部16により保存されたイメージのうち、編集のための領域として指定された仮想入力領域VIのイメージを表示される。このとき、仮想入力領域VIに入力されたイメージは、逐次、編集表示される。図2(A)、(D)は一覧表示のイメージ図であり、図2(B)、(C)は編集表示のイメージ図である。なお、図2(B)に示すイメージに対して直接指等で入力するのではなく、図2(C)に示すイメージに対して入力することを想定している。表示されるイメージとしては、例えばカレンダーの各日付の領域を囲む枠などの背景イメージ、その日付の領域に書き込まれた文字のイメージ、複数日に渡って同様の予定があることを示すための矢印のイメージ、などがある。なお、一覧表示では、論理的に連続する領域が行又は列毎に区切られて分離されている状態で表示される。
 イメージ管理部16は、RAM(Random Access Memory)等を有して構成され、保存イメージとしてのイメージを保存する。保存イメージとしては、例えば、一覧表示や編集表示を行うときに背景に表示される背景イメージがある。一覧表示用の背景イメージと編集表示用の背景イメージとしては、共通して同じものを用いてもよいし、別々のものを用いてもよい。また、他の保存イメージとしては、仮想入力領域生成部13により背景イメージと入力イメージとが合成されたイメージがある。さらに、イメージ管理部16は、既に手書き入力等が行われており、合成された保存イメージが保存されている場合には、保存イメージと入力イメージとが合成されたイメージを、新たな保存イメージとして保存する。
 なお、本実施形態で説明する表示制御方法の各ステップを実行させるための表示制御プログラムは、携帯端末装置1内の所定のメモリ(不図示)に格納される。
 次に、携帯端末装置1の動作例について説明する。
 本実施形態の携帯端末装置1は、図3(A)に示すように、表示部15の表示画面上の二次元空間に自由にタッチパネル等を介して手書き入力することができる。図3(A)の線部Lは、自由な手書き入力の一例である。これに加え、携帯端末装置1では、仮想入力領域VIを用いて手書き入力するための「仮想入力モード」を設ける。仮想入力モードは、あらかじめ設定されているものであってもよいし、ユーザ操作等により仮想入力モードを指定することができるようにしてもよい。仮想入力モードでは、図2(A)に示すように、複数行又は列に渡る入力領域IAが指定された場合には、仮想入力領域生成部13が仮想入力領域VIを生成する。仮想入力領域VIは、一覧表示LDでは分離して表示される場合であっても、図2(B)に示すように、論理的な連続性を有する場合には分離されていた個所も結合して一列又は一行で表示される。
 また、仮想入力領域VIを用いた入力では、表示制御部14が、表示部15の表示画面について、論理的に連続する方向とは直交する方向の幅に対して、手書き入力が容易に行えるよう拡大率を制御する。例えば、図3(B)に示すように、単に仮想入力領域VIを生成しただけでは縦幅に対して手書き入力が困難である場合には、拡大率を大きくする。これにより、ユーザの手書き入力の際の利便性が向上する。
 また、図3(B)に示すように、例えば拡大率を大きくした場合などに、仮想入力領域VIの入力方向(X方向)の長さが、表示画面における仮想入力領域VIの入力方向と同一方向(X方向)の長さよりも長い場合には、表示制御部14が、その方向にスクロールが行えるようにする。具体的には、表示制御部14が、スクロールバーSBなどを表示し、必要に応じてスクロール制御する。これにより、仮想入力領域VI内で、表示対象の位置をスクロールして切り替えることができる。
 また、仮想入力領域VIへの入力において、文字等の1つのイメージが論理的な繋ぎ目をまたいで入力された場合、つまり仮想入力領域VIにおける複数の領域に渡って1つのイメージが入力された場合、以下の例のように一覧表示する。
 第1例としては、表示制御部14は、1つのイメージが論理的な繋ぎ目をまたいだことを検知すると、論理的に連続する先の領域の終端部及び後の領域の始端部の各々に、1つのイメージを表示させる。つまり、一覧表示LDでは、分離された終端及び始端のいずれにも、そのイメージを表示させる。
 図4(A)に示す例では、仮想入力領域VIの19日と20日の領域にまたいでイメージとしての文字「う」が入力されているが、一覧表示LDでは、分離して表示される19日と20日のそれぞれに、文字「う」が表示されている。文字「う」は19日の領域の終端及び20日の領域の始端を超えて入力されているので、一覧表示LDでも枠を超えて表示させる。
 これにより、1つのイメージが入力されたいずれの領域においても、イメージを確実に認識することができる。
 また、第2例としては、表示制御部14は、1つのイメージが論理的な繋ぎ目をまたいだことを検知すると、一覧表示LDでは、論理的に連続する先の領域及び後の領域の両端部の各々に表示される1つのイメージのうち、両領域外に入力された部分の表示態様を変更する。本実施形態において表示形態を変更するとは、例えば、一覧表示LDにおける該当部分の文字の大きさを小さくしたり、該当部分の表示色を変更したり、該当部分の文字を斜体にしたりすることが考えられる。
 図4(B)に示す例では、仮想入力領域VIの19日と20日の領域にまたいでイメージとしての文字「う」が入力されているが、一覧表示LDでは、分離して表示される19日と20日の領域のそれぞれにおいて、領域外の部分については文字色を変更している。本実施形態における文字色の変更としては、例えば、領域外(枠外)に描かれた文字の部分であることが明確になるように、該当部分を薄い色にしたり、該当部分の輝度を小さくしたりすることが考えられる。さらに、文字色を無色にすることも含まれる。ここでは、19日の領域の終端(右端)より右側の部分、20日の領域の始端(左端)より左側の部分について、文字の表示色が変更されている。
 これにより、1つのイメージが入力されたいずれの領域においても、イメージを確実に認識することができ、かつイメージが領域をまたいで描かれたことが容易に理解できる。
 また、第3例としては、表示制御部14は、1つのイメージが論理的な繋ぎ目をまたいだことを検知すると、一覧表示LDでは、論理的に連続する先の領域又は後の領域に表示される1つのイメージの表示態様を変更する。
 図4(C)に示す例では、仮想入力領域VIの19日と20日の領域にまたいでイメージとしての文字「う」が入力されているが、一覧表示LDでは、19日の領域では「う」が通常通りに表示され、20日の領域では「う」の表示色が変更されて表示されている。さらに、20日の領域では「う」の表示色を無色とし、「う」が表示されないようにしてもよい。
 これにより、1つのイメージが入力されたいずれの領域においても、イメージを確実に認識することができる。また、ユーザがスケジュール機能で優先する日付の領域では通常通り表示し、優先しない日付の領域では簡易的に表示することができる。
 次に、携帯端末装置1が手書き入力を行うときの動作について説明する。
 図5は、携帯端末装置1が手書き入力を行うときの動作例を示すシーケンス図である。ここでは、カレンダー機能により表示されるカレンダーにスケジュールを書き込むことを想定する。
 まず、表示部15は、イメージ管理部16に保存されているイメージを一覧表示する(ステップS101)。ここで一覧表示されるイメージとは、一覧表示用の背景イメージ、その背景イメージにあらかじめ書き込まれて保存されたイメージ、などである。例えば、週毎に改行された1月分のカレンダーが表示される。ここでは、表示されたカレンダーの各日の領域が入力領域となる。
 続いて、編集指示部12は、仮想入力領域VIを用いた入力を開始するための編集開始指示を行う(ステップS102)。このとき、表示部15に表示された入力領域の各領域のうち、編集すべき領域を指定する。例えば、図2(A)に示すように、論理的に連続する16日~23日の領域を編集対象として選択する。図2(A)に示す例では、19日の領域と20日の領域との間で改行されている。
 続いて、仮想入力領域生成部13は、編集対象として選択された領域を論理的に連続して一行又は一列に整列し、仮想入力領域VIを生成する。つまり、イメージ管理部16により保存されたイメージのうちの入力領域IAに指定された領域を切出し、整列させる(ステップS103)。例えば、図2(B)に示すように、編集対象である16日~23日の領域を1行に整列し、仮想入力領域VIを生成する。
 続いて、表示部15は、生成された仮想入力領域VIの少なくとも一部を表示(編集表示)する(ステップS104)。拡大率との関係で、表示部15に表示される表示領域よりも仮想入力領域VIの方が大きい場合には、表示制御部14が、スクロールバーSBを表示部15に表示させる。これにより、スクロール制御を行うことが可能となる。例えば、図2(C)に示すように、表示部15により17日~19日の領域を表示し、スクロール制御により16日の領域及び20日~23日の領域を表示させることができる状態とする。
 続いて、手書き入力部11により、仮想入力領域VIを用いてイメージを入力する(ステップS105)。また、仮想入力領域生成部13は、仮想入力領域VIの背景イメージ又は背景イメージとともにあらかじめ書き込まれ保存されていたイメージと、手書き入力部11により今回入力されたイメージと、を合成する。例えば、図2(C)に示すように、仮想入力領域VIの背景イメージと、18日~19日の領域にスケジュールとして入力された「東京」の文字とを合成する。
 続いて、表示部15は、仮想入力領域生成部13により合成されたイメージを表示する(ステップS106)。例えば、図2(D)に示すように、仮想入力領域VIの背景イメージと、18日~19日の領域にスケジュールとして入力された「東京」の文字と、が合成されたイメージが表示される。ここで表示されるイメージは、編集表示でのイメージであり、手書き入力部11によりイメージが入力される度に逐次更新される。
 手書き入力が終了したら、編集指示部12は、仮想入力領域VIを用いた入力を終了するための編集終了指示を行う(ステップS107)。このとき、編集指示部12は、表示部15に対して仮想入力領域VIの表示を終了するよう指示する。これにより、仮想入力領域VIの表示が終了する。
 編集終了指示に伴い、仮想入力領域生成部13により合成されたイメージが確定される。イメージ管理部16は、確定されたイメージを新たな保存イメージとして保存する(ステップS108)。
 そして、イメージ管理部16は、イメージ管理部16により新たに保存された保存イメージを一覧表示する(ステップS109)。例えば、図2(D)に示すように、18日~19日の領域に「東京出張」の文字が表示され、16日~23日の領域にわたって両方向矢印のイメージが表示される。また、1つのイメージが19日~20日の領域にわたって入力された場合には、先に説明した図4(A)~(C)のような表示を行う。
 このような本実施形態の携帯端末装置1によれば、仮想入力領域VIを用いることで、論理的に連続するが一覧表示では途中で分離された領域に、文字列や記号等のイメージを効率良く描くことができる。したがって、例えばマトリックス状に領域が配列されたカレンダー等に対して、容易に手書きイメージを描くことができる。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2011年2月10日出願の日本特許出願No.2011-027718に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、行単位又は列単位で区切られた入力領域に入力する場合であっても、手書きイメージを容易に描くことが可能な携帯端末装置、表示制御プログラム等に有用である。
1 携帯端末装置
11 手書き入力部
12 編集指示部
13 仮想入力領域生成部
14 表示制御部
15 表示部
16 イメージ管理部

Claims (7)

  1.  タッチパネルを介してイメージを入力する入力部と、
     イメージを表示する表示部と、
     保存イメージとしてのイメージを保存するイメージ保存部と、
     前記入力部により入力するための入力領域を指定する入力領域指定部と、
     前記入力領域指定部により複数行又は複数列に渡る前記入力領域が指定された場合、前記イメージ保存部に保存された保存イメージから、前記入力領域に含まれる各領域が論理的に連続して一行又は一列に整列した仮想入力領域を生成する仮想入力領域生成部と、
     を備え、
     前記表示部は、前記複数行又は複数列に渡る入力領域を表示する一覧表示と、前記仮想入力領域を表示する編集表示と、を行い、
     前記イメージ保存部は、保存中の前記保存イメージと、前記仮想入力領域生成部により生成された仮想入力領域に入力されたイメージとを、新たな保存イメージとして保存する携帯端末装置。
  2.  請求項1に記載の携帯端末装置であって、
     前記仮想入力領域生成部により生成された仮想入力領域の行又は列の長さが、前記表示部に表示される表示画面における同方向の長さより長い場合には、スクロール制御を行うスクロール制御部を備える携帯端末装置。
  3.  請求項1または2に記載の携帯端末装置であって、更に、
     前記表示部に表示されるイメージの表示制御を行う表示制御部を備え、
     前記表示制御部は、前記仮想入力領域における論理的に連続する先の領域及び後の領域の両領域に渡り1つのイメージが入力された場合、前記一覧表示では、前記先の領域の終端部及び前記後の領域の始端部の各々に、前記1つのイメージを表示するよう制御する携帯端末装置。
  4.  請求項3に記載の携帯端末装置であって、
     前記表示制御部は、両領域の各々に表示される前記1つのイメージのうち、両領域外に入力された部分の表示態様を変更する携帯端末装置。
  5.  請求項3に記載の携帯端末装置であって、
     前記表示制御部は、先の領域又は後の領域に表示される前記1つのイメージの表示態様を変更する携帯端末装置。
  6.  タッチパネルを介して入力されたイメージを表示するための表示制御方法であって、
     表示部によりイメージを表示する表示ステップと、
     保存イメージとしてのイメージをイメージ保存部により保存するイメージ保存ステップと、
     入力部により入力するための入力領域を指定するステップと、
     複数行又は複数列に渡る前記入力領域が指定された場合、保存イメージとしてのイメージを保存する前記イメージ保存部に保存された保存イメージから、前記入力領域に含まれる各領域が論理的に連続して一行又は一列に整列した仮想入力領域を生成するステップと、
     前記イメージ保存部に保存中の前記保存イメージと、前記生成された仮想入力領域に入力されたイメージとを、前記イメージ保存部により新たな保存イメージとして保存するステップと、
     を有し、
     前記表示ステップにおいて、前記複数行又は複数列に渡る入力領域を表示する一覧表示と、前記仮想入力領域を表示する編集表示と、を行う表示制御方法。
  7.  請求項6に記載の表示制御方法の各ステップをコンピュータに実行させるための表示制御プログラム。
PCT/JP2012/000647 2011-02-10 2012-01-31 携帯端末装置、表示制御方法、及び表示制御プログラム WO2012108144A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-027718 2011-02-10
JP2011027718A JP2012168649A (ja) 2011-02-10 2011-02-10 携帯端末装置、表示制御方法、及び表示制御プログラム

Publications (1)

Publication Number Publication Date
WO2012108144A1 true WO2012108144A1 (ja) 2012-08-16

Family

ID=46638371

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/000647 WO2012108144A1 (ja) 2011-02-10 2012-01-31 携帯端末装置、表示制御方法、及び表示制御プログラム

Country Status (2)

Country Link
JP (1) JP2012168649A (ja)
WO (1) WO2012108144A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713838A (zh) * 2012-10-04 2014-04-09 纬创资通股份有限公司 电子装置和虚拟键盘定位方法
EP2998855A1 (en) * 2014-09-22 2016-03-23 Samsung Electronics Co., Ltd. Method and apparatus for inputting object in electronic device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6507968B2 (ja) * 2015-09-24 2019-05-08 富士通株式会社 表示制御プログラム、表示制御方法、及び表示制御装置
JP6458889B2 (ja) * 2018-02-07 2019-01-30 富士通株式会社 表示制御プログラム及び表示制御装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124164A (ja) * 1992-10-12 1994-05-06 Sharp Corp 手書き入力装置
JPH08335210A (ja) * 1995-06-08 1996-12-17 Casio Comput Co Ltd 入力装置
JPH09282285A (ja) * 1996-04-11 1997-10-31 Sharp Corp スケジュール管理装置
JP2003288330A (ja) * 2002-03-28 2003-10-10 Casio Comput Co Ltd スケジュール管理装置、スケジュール管理プログラム、およびスケジュール管理システム
JP2005301648A (ja) * 2004-04-12 2005-10-27 Sony Corp 情報処理装置および方法、並びにプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06124164A (ja) * 1992-10-12 1994-05-06 Sharp Corp 手書き入力装置
JPH08335210A (ja) * 1995-06-08 1996-12-17 Casio Comput Co Ltd 入力装置
JPH09282285A (ja) * 1996-04-11 1997-10-31 Sharp Corp スケジュール管理装置
JP2003288330A (ja) * 2002-03-28 2003-10-10 Casio Comput Co Ltd スケジュール管理装置、スケジュール管理プログラム、およびスケジュール管理システム
JP2005301648A (ja) * 2004-04-12 2005-10-27 Sony Corp 情報処理装置および方法、並びにプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103713838A (zh) * 2012-10-04 2014-04-09 纬创资通股份有限公司 电子装置和虚拟键盘定位方法
EP2998855A1 (en) * 2014-09-22 2016-03-23 Samsung Electronics Co., Ltd. Method and apparatus for inputting object in electronic device
CN105446523A (zh) * 2014-09-22 2016-03-30 三星电子株式会社 用于在电子设备中输入对象的方法和装置

Also Published As

Publication number Publication date
JP2012168649A (ja) 2012-09-06

Similar Documents

Publication Publication Date Title
US9690474B2 (en) User interface, device and method for providing an improved text input
US8335993B1 (en) Enhanced touch sensitive interface and methods and software for making and using the same
US9176653B2 (en) Methods for combination tools that zoom, pan, rotate, draw, or manipulate during a drag
JP4611031B2 (ja) 手書き入力装置及び方法
US20140189593A1 (en) Electronic device and input method
JPH06274586A (ja) 表示方式
CN113785267A (zh) 用于操纵用户界面的设备、方法和系统
CN102867470A (zh) 显示控制设备、显示控制方法和计算机程序
US9084023B2 (en) Image processing device, image processing method and image processing program
JPWO2008132977A1 (ja) 画像編集装置及び画像編集システム
WO2012108144A1 (ja) 携帯端末装置、表示制御方法、及び表示制御プログラム
JP6043221B2 (ja) 情報端末、操作領域制御方法及び操作領域制御プログラム
JP2013125488A (ja) 手書き入力装置及び情報編集プログラム並びに情報編集方法
CN109656435B (zh) 显示控制装置及记录介质
JP2013012063A (ja) 表示制御装置
KR101601691B1 (ko) 전자문서 상에서 레이어를 이용하는 방법 및 그 장치
JP2004102455A (ja) タッチパネル付きディスプレイ装置
WO2014103357A1 (ja) 電子機器および入力方法
JP4722784B2 (ja) 電子黒板装置および電子黒板装置における画像処理方法並びにそのプログラム
KR100913002B1 (ko) 터치 스크린 또는 터치 패드를 이용한 한글모음 입력장치 및 방법
JP2004239998A (ja) ディスプレイ装置
JP6691818B2 (ja) インターフェース、文字入力ガイド方法及びプログラム
JP2012133562A (ja) タブレット方式の携帯端末における文字編集方法
JP2020061179A (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP4143529B2 (ja) 情報入力装置、情報入力方法、コンピュータプログラム及びコンピュータ読み取り可能な記憶媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12744632

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12744632

Country of ref document: EP

Kind code of ref document: A1