JP2010049654A - Terminal device and program - Google Patents

Terminal device and program Download PDF

Info

Publication number
JP2010049654A
JP2010049654A JP2008215668A JP2008215668A JP2010049654A JP 2010049654 A JP2010049654 A JP 2010049654A JP 2008215668 A JP2008215668 A JP 2008215668A JP 2008215668 A JP2008215668 A JP 2008215668A JP 2010049654 A JP2010049654 A JP 2010049654A
Authority
JP
Japan
Prior art keywords
display
instruction
objects
displayed
target object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008215668A
Other languages
Japanese (ja)
Other versions
JP5356752B2 (en
Inventor
Hitohisa Koyama
仁久 小山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Hitachi Mobile Communications Co Ltd
Original Assignee
Casio Hitachi Mobile Communications Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Hitachi Mobile Communications Co Ltd filed Critical Casio Hitachi Mobile Communications Co Ltd
Priority to JP2008215668A priority Critical patent/JP5356752B2/en
Publication of JP2010049654A publication Critical patent/JP2010049654A/en
Application granted granted Critical
Publication of JP5356752B2 publication Critical patent/JP5356752B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to accurately and easily select one or more of a plurality of objects. <P>SOLUTION: In response to a touch operation on an object display area for setting one or more of a plurality of displayed objects to a selected state (step B2), a central control part 11 specifies target objects on the basis of the touch area and the object display area (step B5), compares the number of specified target objects and the number of objects which can be selected (step B7), and controls whether the target objects are enlarged for display or set to the selected state (step B8), on the basis of the comparison result (step B12). <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

この発明は、表示手段に表示されている複数のオブジェクトから1以上のオブジェクトを選択状態にする端末装置及びプログラムに関する。 The present invention relates to a terminal device and a program for selecting one or more objects from a plurality of objects displayed on a display means.

一般に、携帯電話機などの端末装置においては、各種のデータや情報を表示する表示部(表示画面)上での操作として、接触操作、非接触操作を行うことができるものがある。すなわち、物体の接触を検出する透明な接触センサを表示部の表面に配設し、その接触センサによって表示部への操作器具や指の接触を接触操作として検出するようにしている。また、静電容量などで近距離に存在する物体の動きを検出する非接触センサを配設し、その非接触センサによって表示部上(表示部に接触していなくてもよい)での操作器具や指の動きを非接触操作として検出するようにしている。 In general, some terminal devices such as mobile phones can perform contact operations and non-contact operations as operations on a display unit (display screen) that displays various data and information. That is, a transparent contact sensor that detects contact of an object is disposed on the surface of the display unit, and the contact sensor detects contact of an operating instrument or a finger with the display unit as a contact operation. In addition, a non-contact sensor that detects the movement of an object existing at a short distance due to capacitance or the like is provided, and the non-contact sensor is used to operate the display device on the display unit (which may not be in contact with the display unit). And the movement of a finger is detected as a non-contact operation.

このような表示部上で行われる操作には、表示部に表示されている複数のオブジェクトから1つ以上のオブジェクトを指示して選択状態にするという操作がある。例えば、表示部に表示されている複数のデータアイコン(オブジェクト)の中から削除したいデータのアイコンを指示して選択状態にする操作、表示部に表示されている複数の機能アイコン(オブジェクト)の中から起動したい機能のアイコンを指示して選択状態にする操作などである。 Such an operation performed on the display unit includes an operation of instructing one or more objects from a plurality of objects displayed on the display unit to select them. For example, an operation of instructing a data icon to be deleted from a plurality of data icons (objects) displayed on the display unit to make a selection state, a plurality of function icons (objects) displayed on the display unit For example, the icon of the function to be started is designated to select the selected state.

この場合、厳密な位置を指し示すことが困難であるため、ユーザの意図とは異なるオブジェクトが選択状態になることがある。特に、非接触操作の場合には操作器具や指とオブジェクトの表示位置との距離が開いていることが原因で誤操作になりやすく、接触操作の場合には指示位置が操作器具や指で隠れてしまうことが原因で誤操作になりやすい。また、指で操作する場合には指の太さのためにユーザが所望するオブジェクト以外のオブジェクトも選択状態になるという誤操作になりやすい。このような場合には、もう一度選択操作を最初からやり直さなければならないという煩雑さがあった。
そこで、従来では、指示位置の周辺を拡大表示するようにした従来技術が知られている(特許文献1参照)。
特開2005−056286号公報
In this case, since it is difficult to indicate a precise position, an object different from the user's intention may be selected. In particular, in the case of non-contact operation, the operation tool or finger is likely to be erroneously operated due to the distance between the display position of the object and in the case of contact operation, the indicated position is hidden by the operation tool or finger. It is easy to make a mistake by the cause. In addition, when an operation is performed with a finger, an erroneous operation in which an object other than the object desired by the user is also selected due to the thickness of the finger is likely to occur. In such a case, there is a trouble that the selection operation has to be performed again from the beginning.
Therefore, conventionally, a conventional technique is known in which the periphery of the indicated position is enlarged and displayed (see Patent Document 1).
JP 2005-056286 A

しかしながら、上述した特許文献1の技術では、指示位置の周辺を一律に拡大表示するようにしているので、どのオブジェクトが選択状態の候補になっているかは不明のままである。また、ユーザが所望するオブジェクトを指示して選択状態とすることができても、その周辺が拡大表示されるので、余計な処理が必要になるし、ユーザにとっても余計な拡大表示が目について快適な操作感とはいえなかった。 However, in the technique of Patent Document 1 described above, since the periphery of the designated position is uniformly enlarged and displayed, it remains unclear which object is a candidate for the selected state. Even if the user can specify the desired object and select it, the surrounding area is enlarged and displayed, so that extra processing is required and the user is comfortable with the enlarged display. It was not a good feeling of operation.

この発明の課題は、複数のオブジェクトから1以上のオブジェクトを選択するための選択操作を、ユーザが正確かつ容易に行うことができるようにすることである。 An object of the present invention is to enable a user to accurately and easily perform a selection operation for selecting one or more objects from a plurality of objects.

上述した課題を解決するために請求項1記載の発明は、表示手段に表示されている複数のオブジェクトから1以上のオブジェクトを選択状態にする端末装置であって、前記表示手段上で行われる指示操作を検出する検出手段と、この検出手段によって検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置とに基づいて指示対象オブジェクトを特定する特定手段と、この特定手段によって特定された指示対象オブジェクトの数と、前記表示手段に表示されているオブジェクトの表示目的に応じて決められている選択可能なオブジェクトの数とを比較する比較手段と、この比較手段による比較結果に基づいて前記指示対象オブジェクトを拡大表示させるか、選択状態にするかを制御する制御手段と、を具備したことを特徴とする。 In order to solve the above-described problem, the invention described in claim 1 is a terminal device for selecting one or more objects from a plurality of objects displayed on the display means, and instructions issued on the display means Detection means for detecting an operation, specification means for specifying an instruction target object based on the indication position of the instruction operation detected by the detection means and the display position of the object displayed on the display means, and the specification means A comparison means for comparing the number of objects to be designated specified by the number of selectable objects determined according to the display purpose of the object displayed on the display means, and a comparison result by the comparison means And a control means for controlling whether to display the instruction target object in an enlarged manner or in a selected state based on And wherein the door.

請求項1に従属する発明として、前記制御手段は、前記比較手段による比較の結果、指示対象オブジェクトの数が選択可能なオブジェクトの数よりも多い場合に、当該指示対象オブジェクトを拡大表示させる、ようにしたことを特徴とする請求項2記載の発明であってもよい。 As an invention dependent on claim 1, the control means enlarges the instruction target object when the number of the instruction target objects is larger than the number of selectable objects as a result of the comparison by the comparison means. The invention according to claim 2, which is characterized in that, is provided.

請求項1に従属する発明として、前記制御手段は、前記比較手段による比較の結果、指示対象オブジェクトの数が選択可能なオブジェクトの数と等しい又は少ない場合に、当該指示対象オブジェクトを選択状態にする、ようにしたことを特徴とする請求項3記載の発明であってもよい。 As an invention dependent on claim 1, the control means places the instruction target object in a selected state when the number of instruction target objects is equal to or less than the number of selectable objects as a result of the comparison by the comparison means. According to the third aspect of the present invention, the invention may be provided.

請求項1に従属する発明として、前記制御手段は、前記検出手段によって検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置とに基づいて決定された大きさで前記指示対象オブジェクトを拡大表示させる、ようにしたことを特徴とする請求項4記載の発明であってもよい。 As an invention dependent on claim 1, the control means has a size determined based on the indication position of the indication operation detected by the detection means and the display position of the object displayed on the display means. The invention according to claim 4, wherein the instruction target object is enlarged and displayed.

請求項4に従属する発明として、前記制御手段は、前記検出手段によって検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置との重なり度合い又は近接度合いを検出し、この重なり度合い又は近接度合いに応じて前記指示対象オブジェクト毎にその大きさを決定する、ようにしたことを特徴とする請求項5記載の発明であってもよい。 As an invention dependent on claim 4, the control means detects the degree of overlap or the degree of proximity between the indication position of the indication operation detected by the detection means and the display position of the object displayed on the display means, 6. The invention according to claim 5, wherein the size is determined for each of the instruction target objects according to the degree of overlap or the degree of proximity.

請求項1に従属する発明として、前記制御手段は、前記検出手段によって検出された指示操作の指示位置に基づいて決定された表示位置で、前記指示対象オブジェクトを拡大表示させる、ようにしたことを特徴とする請求項6記載の発明であってもよい。 As an invention dependent on claim 1, the control means enlarges the indication target object at a display position determined based on the indication position of the indication operation detected by the detection means. The invention according to claim 6 may be used.

請求項1に従属する発明として、前記制御手段は、前記指示対象オブジェクトが拡大表示されている状態において、前記検出手段によって検出された指示操作が解除された場合に、拡大表示されている指示対象オブジェクトの中からその大きさに基づいて所定の指示対象オブジェクトを選択状態にする、ようにしたことを特徴とする請求項7記載の発明であってもよい。 As an invention dependent on claim 1, the control means displays the instruction target displayed in an enlarged manner when the instruction operation detected by the detection means is canceled in a state where the instruction target object is displayed in an enlarged display. 8. The invention according to claim 7, wherein a predetermined instruction target object is selected from the objects based on the size thereof.

請求項7に従属する発明として、前記制御手段は、指示対象オブジェクトの拡大表示を解除してから前記所定の指示対象オブジェクトを選択状態にする、ようにしたことを特徴とする請求項8記載の発明であってもよい。 The invention according to claim 7 is characterized in that the control means releases the enlarged display of the instruction target object and then places the predetermined instruction target object in a selected state. It may be an invention.

請求項1に従属する発明として、前記制御手段は、前記指示対象オブジェクトが拡大表示されている状態において、前記検出手段によって検出された指示操作が解除されたのちに、再び、前記検出手段によって指示操作が検出された場合に、その指示操作の指示位置と拡大表示されている指示対象オブジェクトの表示位置とに基づいて所定の指示対象オブジェクトを選択状態にする、ようにしたことを特徴とする請求項9記載の発明であってもよい。 As an invention dependent on claim 1, the control means instructs the detection means again after the instruction operation detected by the detection means is released in a state where the indication target object is enlarged. When an operation is detected, a predetermined instruction target object is selected based on an instruction position of the instruction operation and a display position of the instruction object displayed in an enlarged manner. Item 9 may be the invention.

また、上述した課題を解決するために請求項10記載の発明は、コンピュータに対して、表示手段上で行われる指示操作を検出する機能と、前記検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置とに基づいて指示対象オブジェクトを特定する機能と、前記特定された指示対象オブジェクトの数と、前記表示手段に表示されているオブジェクトの表示目的に応じて決められている選択可能なオブジェクトの数とを比較する機能と、前記比較結果に基づいて前記指示対象オブジェクトを拡大表示させるか、選択状態にするかを制御する機能と、を実現させるためのプログラムを特徴とする。 In order to solve the above-described problem, the invention described in claim 10 is a function for detecting an instruction operation performed on a display means for a computer, an indication position of the detected instruction operation, and the display means. Based on the display position of the object displayed on the screen, the number of the specified target object, the number of the specified target object, and the display purpose of the object displayed on the display means A program for realizing a function for comparing the number of selectable objects, and a function for controlling whether the instruction target object is enlarged or displayed based on the comparison result. And

この発明によれば、複数のオブジェクトから1以上のオブジェクトを選択するための選択操作を、ユーザが正確かつ容易に行うことができ、作業の効率化を図ることが可能となる。 According to the present invention, a user can perform a selection operation for selecting one or more objects from a plurality of objects accurately and easily, and work efficiency can be improved.

以下、図1〜図10を参照して本発明の実施形態を説明する。
この実施形態は、端末装置として携帯電話機に適用した場合を例示したもので、図1は、この携帯電話機が利用可能な通信ネットワークシステムを示したブロック図である。
携帯電話機1は、通話機能、電子メール機能、インターネット接続機能(Webアクセス機能)などが備えられている。携帯電話機1は、最寄りの基地局2A、交換機2Bから無線通信網(移動体通信網)2に接続されると、この無線通信網2を介して他の携帯電話機1との間で通話可能状態となる。また、携帯電話機1は、無線通信網2を介してインターネット3に接続されると、Webサイトをアクセスして閲覧可能となり、また、音楽、映画などのコンテンツをインターネット3、無線通信網2を介してダウンロード可能となる。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the present invention is applied to a mobile phone as a terminal device, and FIG. 1 is a block diagram showing a communication network system in which the mobile phone can be used.
The mobile phone 1 is provided with a call function, an e-mail function, an Internet connection function (Web access function), and the like. When the mobile phone 1 is connected to the wireless communication network (mobile communication network) 2 from the nearest base station 2A and exchange 2B, the mobile phone 1 can communicate with other mobile phones 1 via the wireless communication network 2. It becomes. Further, when the mobile phone 1 is connected to the Internet 3 via the wireless communication network 2, the mobile phone 1 can access and browse a website, and contents such as music and movies can be viewed via the Internet 3 and the wireless communication network 2. Can be downloaded.

図2は、携帯電話機1の基本的な構成要素を示したブロック図である。
中央制御部11は、二次電池を備えた電池部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置、メモリなどを有している。記憶部13には、プログラム記憶部M1、各種情報一時記憶部M2などが設けられている。このプログラム記憶部M1は、図4〜図7に示す動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要な各種の情報が記憶されている。各種情報一時記憶部M2は、画面情報、フラグ情報、タイマ情報など、携帯電話機1が動作するために必要な各種の情報を一時的に記憶するワーク領域である。
FIG. 2 is a block diagram showing basic components of the mobile phone 1.
The central control unit 11 operates by supplying power from the battery unit 12 including a secondary battery, and controls the overall operation of the mobile phone 1 according to various programs in the storage unit 13. Etc. The storage unit 13 includes a program storage unit M1, various information temporary storage units M2, and the like. The program storage unit M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIGS. 4 to 7, and stores various information necessary for the program. Yes. The various information temporary storage unit M2 is a work area that temporarily stores various information necessary for the mobile phone 1 to operate, such as screen information, flag information, and timer information.

無線通信部14は、無線部、ベースバンド部、多重分離部などを備え、例えば、通話機能、電子メール機能、インターネット接続機能などの動作時に、最寄りの基地局2Aとの間でデータの送受信を行うもので、通話機能の動作時にはベースバンド部の受信側から信号を取り込んで受信ベースバンド信号に復調したのち、音声信号処理部15を介して送話スピーカSPから音声出力させ、また、受話マイクMCからの入力音声データを音声信号処理部15から取り込み、送信ベースバンド信号に符号化したのち、ベースバンド部の送信側に与えてアンテナから発信出力させる。 The radio communication unit 14 includes a radio unit, a baseband unit, a demultiplexing unit, and the like. For example, during operation of a call function, an e-mail function, an internet connection function, etc., data is transmitted to and received from the nearest base station 2A. When the call function is in operation, a signal is taken from the receiving side of the baseband unit and demodulated into a received baseband signal, and then the voice is output from the transmitting speaker SP via the audio signal processing unit 15, and the receiving microphone The input audio data from the MC is taken from the audio signal processing unit 15 and encoded into a transmission baseband signal, which is then given to the transmission side of the baseband unit and transmitted from the antenna.

表示部16は、高精細液晶あるいは有機ELなどを使用し、例えば、文字情報、待受画像、データアイコン、機能アイコンなど、各種の情報を表示させるもので、その表示パネルの表面に、指、器具などの物体の接触を検出する接触操作部(透明な接触センサ)17を積層配設することによってタッチスクリーン(タッチ画面)TDを構成している。なお、表示部16の全面をタッチ画面TDとする場合に限らず、その一部分をタッチ画面TDとしてもよい。 The display unit 16 uses a high-definition liquid crystal or an organic EL, and displays various information such as character information, a standby image, a data icon, a function icon, and the like. A touch screen (touch screen) TD is configured by laminating and arranging a contact operation unit (transparent contact sensor) 17 that detects contact of an object such as an instrument. Note that the entire surface of the display unit 16 is not limited to the touch screen TD, and a part thereof may be the touch screen TD.

接触操作部17は、表示部16に対する接触操作(タッチ操作)が行われた際に、表示部16への接触をタッチ操作として検出し、その検出結果を中央制御部11に与える。なお、接触操作部17は、接触の他に操作器具や指の押し込み(押圧)も検出可能となっている。中央制御部11は、接触操作部17からの操作信号に基づいてタッチ操作や押圧操作の有無を検出したり、その操作位置(タッチ領域)を検出したりする。そして、中央制御部11は、表示部16にメニュー項目などの複数のアイコン(オブジェクト)が表示されている状態において、この複数のオブジェクトの中から1以上のオブジェクトを選択状態とするためにその表示位置への指示操作(タッチ操作)が行われると、指示操作の指示位置(タッチ領域)とオブジェクトの表示位置(オブジェクト表示領域)とに基づいて指示対象オブジェクトを特定するようにしている。ここで、“指示対象オブジェクト”とは、選択状態にするための候補のオブジェクト(選択候補のオブジェクト)を意味している。 When a contact operation (touch operation) is performed on the display unit 16, the contact operation unit 17 detects a contact with the display unit 16 as a touch operation, and gives the detection result to the central control unit 11. In addition to the contact, the contact operation unit 17 can detect pushing (pressing) of an operating instrument or a finger. The central control unit 11 detects the presence or absence of a touch operation or a pressing operation based on an operation signal from the contact operation unit 17 or detects the operation position (touch area). Then, in a state where a plurality of icons (objects) such as menu items are displayed on the display unit 16, the central control unit 11 displays the one or more objects from the plurality of objects in a selected state. When a pointing operation (touch operation) to a position is performed, the pointing target object is specified based on the pointing position (touch area) of the pointing operation and the display position (object display area) of the object. Here, the “instruction target object” means a candidate object (selection candidate object) to be selected.

言い換えれば、“指示対象オブジェクト”とは、複数のオブジェクトが表示されている状態において、ユーザによるタッチ操作によって指示されたオブジェクトを意味し、例えば、メニュー項目などの複数のオブジェクトが3×3のようにマトリックス状に配列表示されている状態において、ユーザが所望するオブジェクトを選択しようとして、その表示位置を指でタッチした際に、そのオブジェクトに隣接している他のオブジェクトの表示位置にも誤って触れてしまったような場合に、中央制御部11は、指が触れている各オブジェクトをも含めて指示対象オブジェクトとして特定するようにしている。 In other words, the “instruction target object” means an object instructed by a touch operation by the user in a state where a plurality of objects are displayed. For example, a plurality of objects such as menu items are 3 × 3. When the user tries to select the desired object and touches the display position with his / her finger, the display position of another object adjacent to the object is erroneously displayed. When touched, the central control unit 11 identifies each object touched by the finger as an instruction target object.

このようにして特定した指示対象オブジェクトの数と、オブジェクトの表示目的に応じて決められている選択可能なオブジェクトの数とを比較し、その比較結果に基づいて指示対象のオブジェクトを拡大表示させるか、選択状態にするかを制御するようにしている。ここで、“選択可能なオブジェクトの数”とは、どのような目的でオブジェクトが一覧表示されているのかの表示目的に応じて決められているもので、一度に選択することが可能なオブジェクトの数である。 Whether to compare the number of target objects specified in this way with the number of selectable objects determined according to the display purpose of the object, and to enlarge the target object based on the comparison result , To control the selection state. Here, the “number of objects that can be selected” is determined according to the display purpose for which the object is displayed as a list, and is the number of objects that can be selected at one time. Is a number.

例えば、 削除対象のデータを選択する目的でオブジェクトが表示されている場合には、表示されている全データを一括して削除することが可能であれば、表示されているオブジェクトの総数が、選択可能なオブジェクトの数となり、1つずつしか削除できなければ1つが選択可能なオブジェクトの数となる。また、起動対象の機能を選択する目的でオブジェクトが表示されている場合にはその1つが、選択可能なオブジェクトの数となる。なお、複数の機能(タスク)を並列的に実行可能な場合には、そのマルチタスクの実行数が、選択可能なオブジェクトの数となる。また、指示対象オブジェクトを拡大表示させるのは、指示対象オブジェクトの中からユーザが所望するオブジェクトを選択する際に、その選択操作が容易となるようにするためである。 For example, if an object is displayed for the purpose of selecting data to be deleted, the total number of displayed objects can be selected if all displayed data can be deleted at once. The number of possible objects becomes one, and if only one can be deleted, one is the number of selectable objects. Further, when an object is displayed for the purpose of selecting a function to be activated, one of them is the number of selectable objects. If a plurality of functions (tasks) can be executed in parallel, the number of executions of the multitask is the number of selectable objects. The reason why the instruction target object is enlarged is to facilitate the selection operation when the user selects an object desired from the instruction target objects.

キー操作部18は、ダイヤル入力、文字入力、コマンド入力などを入力するもので、中央制御部11は、入力操作信号に応じた処理を実行する。RTC(リアルタイムクロックモジュール)19は、時計部を構成するもので、中央制御部11は、RTC19から現在日時を取得する。報知部20は、サウンドスピーカ21、LED(発光ダイオード)22、振動モータ23を備え、着信時に駆動されて着信報知を行うほか、アラーム報知時などでも駆動される。 The key operation unit 18 inputs dial input, character input, command input, and the like, and the central control unit 11 executes processing according to the input operation signal. The RTC (real time clock module) 19 constitutes a clock unit, and the central control unit 11 acquires the current date and time from the RTC 19. The notification unit 20 includes a sound speaker 21, an LED (light emitting diode) 22, and a vibration motor 23. The notification unit 20 is driven when an incoming call is received to notify an incoming call, and is also driven when an alarm is notified.

図3は、携帯電話機1の外観図である。
携帯電話機1は、その機器本体(装置本体)を構成する複数の筐体の連結状態に応じて複数のスタイルに変更可能な2軸ヒンジタイプで、操作部筐体1Aと表示部筐体1Bとは、折り畳み開閉自在及び回動自在にヒンジ部1Cを介して連結されている。ヒンジ部1Cには操作部筐体1Aと表示部筐体1Bとを折り畳み開閉するための開閉用ヒンジ軸が設けられているほか、この開閉用ヒンジ軸と略直交して、一方の筐体を他方の筐体に対して回動するための回動用ヒンジ軸とが設けられている。
FIG. 3 is an external view of the mobile phone 1.
The mobile phone 1 is a two-axis hinge type that can be changed into a plurality of styles according to the connection state of a plurality of casings constituting the device main body (device main body), and includes an operation unit casing 1A and a display unit casing 1B. Are connected via a hinge 1C so as to be foldable and openable and rotatable. The hinge portion 1C is provided with an opening / closing hinge shaft for folding and closing the operation portion housing 1A and the display portion housing 1B. A rotating hinge shaft for rotating with respect to the other housing is provided.

このような2軸ヒンジタイプの携帯電話機1は、操作部筐体1Aと表示部筐体1Bとが、どのように連結されているかに応じて携帯電話機1の形態を複数のスタイル(クローズスタイル、オープンスタイル、反オープンスタイル、ビュースタイル)に変更可能なもので、図3(a)は、操作部筐体1Aと表示部筐体1Bとの折り畳みを開いた状態のオープンスタイルを示している。なお、操作部筐体1Aの内面には、キー操作部18が配置され、また、表示部筐体1Bの内面には、タッチ画面TDが配置されている。なお、操作部筐体1Aの内面側には、送話スピーカSPが配置され、表示部筐体1Bの内面には、受話マイクMCが配置されている。図3(b)は、オープンスタイルにおいて表示部筐体1Bを180度反転させてから折り畳んだ状態のビュースタイルを示し、オープンスタイルで内側となっていたタッチ画面TDは、ビュースタイルでは外側に向くようになる。 Such a two-axis hinge type mobile phone 1 has a plurality of styles (closed style, closed style) depending on how the operation unit housing 1A and the display unit housing 1B are connected. 3A shows an open style in a state where the fold between the operation unit casing 1A and the display unit casing 1B is opened. A key operation unit 18 is disposed on the inner surface of the operation unit housing 1A, and a touch screen TD is disposed on the inner surface of the display unit housing 1B. Note that a transmission speaker SP is disposed on the inner surface side of the operation unit housing 1A, and a reception microphone MC is disposed on the inner surface of the display unit housing 1B. FIG. 3B shows a view style in which the display unit housing 1B is folded 180 degrees in the open style and then folded, and the touch screen TD that is inside in the open style faces outward in the view style. It becomes like this.

次に、この実施形態における携帯電話機1の動作概念を図4〜図7に示すフローチャートを参照して説明する。ここで、これらのフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。すなわち、記録媒体のほかに、伝送媒体を介して外部供給されたプログラム/データを利用してこの実施形態特有の動作を実行することもできる。 Next, the operation concept of the mobile phone 1 in this embodiment will be described with reference to the flowcharts shown in FIGS. Here, each function described in these flowcharts is stored in the form of a readable program code, and operations according to the program code are sequentially executed. In addition, the operation according to the above-described program code transmitted via the transmission medium can be sequentially executed. That is, in addition to the recording medium, an operation specific to this embodiment can be executed using a program / data supplied externally via a transmission medium.

図4は、携帯電話機1の全体動作の概要を示したフローチャートである。
先ず、中央制御部11は、電源を投入する電源オン操作が行われると(ステップA1でYES)、電源供給を開始させて所定のメモリなどを初期化する電源オン処理を実行したのち、所定の待受画像を読み出して表示させたり、基地局2Aとの間で通信を行って位置登録をしたりする待受処理を行ったのち(ステップA2)、操作部20をアクセスして操作有無をチェックし、複数オブジェクト表示操作の有無を調べる(ステップA3)。ここで、“複数オブジェクト表示操作”とは複数のオブジェクトを表示させるための操作で、例えば、データを削除するための任意のデータアイコン表示操作、アドレス帳のデータアイコン表示操作、機能アイコン(メニュー)表示操作などであり、この複数オブジェクト表示操作が行われると、それに応答して、後で詳述するオブジェクト制御処理の実行に移る(ステップA4)。
FIG. 4 is a flowchart showing an outline of the overall operation of the mobile phone 1.
First, when a power-on operation for turning on the power is performed (YES in step A1), the central control unit 11 starts power supply and executes a power-on process for initializing a predetermined memory and the like. After performing a standby process of reading and displaying a standby image or performing location registration by communicating with the base station 2A (step A2), the operation unit 20 is accessed to check whether there is an operation. Then, the presence / absence of a multi-object display operation is checked (step A3). Here, “multiple object display operation” is an operation for displaying a plurality of objects. For example, an arbitrary data icon display operation for deleting data, an address book data icon display operation, a function icon (menu) When this multi-object display operation is performed, for example, a display operation or the like, in response to this, the process proceeds to execution of an object control process described in detail later (step A4).

また、着信を検出すると(ステップA5でYES)、通話可能状態とすると共に、通話履歴を記憶したり、通話に関する情報を表示したりする通話処理を実行したのち(ステップA6)、上述のステップA3に戻る。また、電源オフ操作が行われたときには(ステップA7でYES)、電源オフ処理を実行して(ステップA8)、このフローの終了となるが、その他の操作が行われたときには(ステップA9でYES)、その操作に応じた処理として、例えば、通話発信処理、メール発信処理などを実行する(ステップA10)。 When an incoming call is detected (YES in step A5), the call is set in a call-ready state and a call process for storing a call history and displaying information related to the call is executed (step A6), and then the above-described step A3 is performed. Return to. When a power-off operation is performed (YES in step A7), a power-off process is executed (step A8), and this flow ends. When other operations are performed (YES in step A9) ) As a process according to the operation, for example, a call transmission process, a mail transmission process, etc. are executed (step A10).

図5は、オブジェクト制御処理(図4のステップA4)を詳述するためのフローチャートである。
先ず、中央制御部11は、複数オブジェクト表示処理を実行し、複数のオブジェクトをタッチ画面TDに表示させる。例えば、複数のオブジェクトとして、図8(a)に示すようにデータを削除するための任意のデータアイコンを表示したり、図8(b)に示すようにアドレス帳のデータアイコンを表示したり、図8(c)に示すように機能アイコン(メニュー)を表示したりする(ステップB1)。
FIG. 5 is a flowchart for explaining the object control process (step A4 in FIG. 4) in detail.
First, the central control unit 11 executes a multi-object display process to display a plurality of objects on the touch screen TD. For example, as a plurality of objects, an arbitrary data icon for deleting data as shown in FIG. 8A is displayed, a data icon of an address book is displayed as shown in FIG. As shown in FIG. 8C, a function icon (menu) is displayed (step B1).

なお、図8(a)の「削除実行」のアイコンは、「a」〜「m」の各アイコンのうち選択状態になっているアイコンのデータを削除することを指示する操作ボタン(タッチキー)である。例えば、「c」のアイコンが選択状態の場合に、「削除実行」へのタッチ操作に応答して、当該「c」のデータは削除される。また、「c」、「h」、「j」のアイコンが選択状態の場合には、「削除実行」へのタッチ操作に応答して、「c」、「h」、「j」のデータは一括して削除され、「a」〜「m」の全てのアイコンが選択状態の場合には、「削除実行」へのタッチ操作に応答して、全てのデータは一括して削除される。 Note that the “delete execution” icon in FIG. 8A is an operation button (touch key) for instructing to delete the data of the selected icon among the icons “a” to “m”. It is. For example, when the icon “c” is in a selected state, the data “c” is deleted in response to a touch operation on “delete execution”. In addition, when the icons “c”, “h”, and “j” are selected, the data “c”, “h”, and “j” are in response to the touch operation to “delete execution”. When all the icons “a” to “m” are selected, all the data is deleted in response to the touch operation to “Delete execution”.

また、図8(b)において、図中、左右の△マークのアイコンは、アドレス帳インデックスのラベルアイコン(例えば、か、さ、た、な)を左移動又は右移動を指示する操作ボタン(タッチキー)である。ラベルアイコンは、そのラベルの行に含まれるアドレス帳データのアイコンの一覧表示を指示する操作ボタン(タッチキー)である。アドレス帳データアイコンは、そのアドレス帳データの詳細表示を指示する操作ボタン(タッチキー)である。また、図8(c)において、各機能アイコンは、その機能の起動を指示する操作ボタン(タッチキー)である。 In FIG. 8B, the left and right triangle mark icons in the figure are operation buttons (touch) for instructing the left or right movement of the address book index label icon (for example, ka, sa, tana, na). Key). The label icon is an operation button (touch key) that instructs to display a list of icons of the address book data included in the label row. The address book data icon is an operation button (touch key) for instructing detailed display of the address book data. In FIG. 8C, each function icon is an operation button (touch key) for instructing activation of the function.

このように複数のオブジェクトがタッチ画面TDに表示されている状態において、タッチ画面TDへのタッチ操作の有無を調べながら操作待ち状態となる(ステップB2)。いま、接触操作部17からの操作信号に基づいてタッチ画面TDへのタッチ操作を検出すると(ステップB2でYES)、そのタッチ領域(指示操作の指示位置)を検出すると共に(ステップB3)、各オブジェクト表示領域(オブジェクトの表示位置)を検出し(ステップB4)、このタッチ領域と各オブジェクト表示領域に基づいて指示対象オブジェクトを特定する(ステップB5)。例えば、タッチ領域と表示領域とが重なるオブジェクトを指示対象オブジェクトとして特定したり、タッチ領域から所定距離内に表示されているオブジェクト(近傍のオブジェクト)を指示対象オブジェクトとして特定したりする。この場合、タッチ領域と各オブジェクト表示領域との重なり度合い(接触面積)を検出したり、接近度合いを検出したりする。 In a state where a plurality of objects are displayed on the touch screen TD in this way, an operation waiting state is entered while checking for the presence of a touch operation on the touch screen TD (step B2). Now, when a touch operation on the touch screen TD is detected based on an operation signal from the contact operation unit 17 (YES in step B2), the touch area (instruction position of the instruction operation) is detected (step B3), An object display area (object display position) is detected (step B4), and an instruction target object is specified based on the touch area and each object display area (step B5). For example, an object in which a touch area and a display area overlap is specified as an instruction target object, or an object (a nearby object) displayed within a predetermined distance from the touch area is specified as an instruction target object. In this case, the degree of overlap (contact area) between the touch area and each object display area is detected, or the degree of approach is detected.

例えば、図9(a)に示すように、複数のオブジェクト「1」、「2」、「3」、「4」、…がタッチ画面TDに表示されている状態において、このタッチ画面TDへのタッチ操作が行われると、中央制御部11は、このタッチ領域と各オブジェクトの表示領域に基づいて指示対象オブジェクトを特定するようにしているが、その際、図9(b)に示すように、指のタッチ領域が「1」、「2」、「3」、「4」のオブジェクトに重なっているときには、この「1」、「2」、「3」、「4」のオブジェクトを指示対象オブジェクトとして特定するようにしている。なお、図9(b)の例では、タッチ領域と各オブジェクト表示領域との重なり度合い(接触面積)は、「1」のオブジェクトが一番大きく、以下、「3」、「2」、「4」のオブジェクトの順となっている。 For example, as shown in FIG. 9A, when a plurality of objects “1”, “2”, “3”, “4”,... Are displayed on the touch screen TD, When a touch operation is performed, the central control unit 11 specifies an instruction target object based on the touch area and the display area of each object. At that time, as shown in FIG. When the finger touch area overlaps the objects “1”, “2”, “3”, and “4”, the objects “1”, “2”, “3”, and “4” are designated as target objects. To be identified as In the example of FIG. 9B, the degree of overlap (contact area) between the touch area and each object display area is greatest for the object “1”, and hereinafter “3”, “2”, “4” In order of objects.

そして、タッチ画面TDに表示されている現在の表示内容に基づいて、選択可能なオブジェクト数を検出する(ステップB6)。つまり、オブジェクトの表示目的に応じて決められている選択可能なオブジェクト数として、例えば、データを削除するための複数の任意のデータアイコン表示であれば、表示されているオブジェクトの総数を選択可能オブジェクト数として検出し、機能アイコン表示であれば、選択可能なオブジェクトの数として“1”を検出する。そして、上述のようにして特定した指示対象オブジェクトの数と選択可能なオブジェクトの数とを比較して、指示対象オブジェクトの数>選択可能なオブジェクトの数であるかを調べる(ステップB7)。 Then, based on the current display content displayed on the touch screen TD, the number of selectable objects is detected (step B6). That is, as the number of selectable objects determined according to the object display purpose, for example, if a plurality of arbitrary data icons for deleting data are displayed, the total number of displayed objects can be selected. If it is detected as a number and a function icon is displayed, “1” is detected as the number of selectable objects. Then, the number of instruction target objects specified as described above is compared with the number of selectable objects to check whether the number of instruction target objects> the number of selectable objects (step B7).

いま、指示対象オブジェクトの数≦選択可能なオブジェクトの数であれば(ステップB7でNO)、例えば、機能アイコン表示のように選択可能なオブジェクトの数が“1”で、指示対象オブジェクトの数が“1”の場合には、指示対象オブジェクトを絞り込むことができた場合であるから、この指示対象オブジェクトを選択状態としたのち(ステップB12)、選択状態となったことを明示するためにそのオブジェクトの表示色を変えたり、点滅したりして当該オブジェクトを識別表示させる(ステップB13)。そして、この識別表示されたオブジェクトに対応する選択フラグ(図示せず)をオンする(ステップB14)。なお、選択フラグは、選択状態となったオブジェクトであることを示すためのフラグで、選択可能なオブジェクトの数が2以上であれば、2以上の指示対象オブジェクトが選択状態となってその選択フラグがオンされる。 If the number of instruction target objects is equal to or less than the number of selectable objects (NO in step B7), for example, the number of selectable objects such as function icon display is “1” and the number of instruction target objects is In the case of “1”, since the instruction target object can be narrowed down, after this instruction target object is selected (step B12), the object is indicated in order to clearly indicate that it has been selected. The object is identified and displayed by changing the display color or blinking (step B13). Then, a selection flag (not shown) corresponding to the identified and displayed object is turned on (step B14). The selection flag is a flag for indicating that the object is in a selected state. If the number of selectable objects is two or more, two or more instruction target objects are in a selected state and the selection flag is selected. Is turned on.

このように1以上のオブジェクトが選択状態となっている場合において、その何れかのオブジェクトへのタッチ操作が行われたかを調べる(ステップB10)。ここで、選択状態になっているオブジェクトへの操作とは、例えば、図8(a)の例では、「削除実行」へのタッチ操作、図8(b)の例では、アドレス帳のデータアイコンを選択してその詳細表示に遷移させるためのタッチ操作、図8(c)の例では、機能アイコン選択してその機能を起動させるためのタッチ操作であり、このような操作に応答して、その操作に応じた処理として、例えば、データ削除処理、詳細表示処理、機能起動処理などを選択フラグがオンになっているオブジェクトに対して実行する(ステップB11)。 In this way, when one or more objects are selected, it is checked whether a touch operation has been performed on any of the objects (step B10). Here, the operation on the selected object is, for example, a touch operation to “delete execution” in the example of FIG. 8A, and an address book data icon in the example of FIG. 8B. Touch operation for selecting and transitioning to the detailed display, in the example of FIG. 8C, is a touch operation for selecting the function icon and activating the function, in response to such operation, As processing corresponding to the operation, for example, data deletion processing, detailed display processing, function activation processing, and the like are executed on the object for which the selection flag is turned on (step B11).

他方、指示対象オブジェクトの数>選択可能なオブジェクトの数であれば(ステップB7でYES)、例えば、機能アイコン表示のように選択可能なオブジェクトの数が“1”の場合に複数の指示対象オブジェクトが特定されたときには、各指示対象オブジェクトを拡大する拡大表示処理を実行する(ステップB8)。そして、各指示対象オブジェクトのうちその1以上のオブジェクトを選択状態とする選択処理を実行したのち(ステップB9)、上述したステップB10に移り、選択状態となっている何れかのオブジェクトへの操作に応答して、その操作に応じた処理を実行する(ステップB11)。なお、ステップB10の選択状態のオブジェクトへのタッチ操作を省略して、ステップB11の処理を行うようにしてもよい。例えば、ステップB12〜ステップB14で、ある機能アイコンを選択状態にして識別表示し、選択フラグをオンした後に、ステップB11でその機能アイコンの機能を起動するようにしてもよい。 On the other hand, if the number of instruction target objects> the number of selectable objects (YES in step B7), for example, when the number of selectable objects is “1” as in the function icon display, a plurality of instruction target objects Is specified, an enlarged display process for enlarging each instruction target object is executed (step B8). And after performing the selection process which makes the one or more objects of each instruction | indication object object into a selection state (step B9), it moves to the above-mentioned step B10, and operation to any object in a selection state is carried out. In response, processing corresponding to the operation is executed (step B11). Note that the touch operation on the selected object in step B10 may be omitted, and the process in step B11 may be performed. For example, in step B12 to step B14, a function icon may be selected and displayed in a selected state, and after the selection flag is turned on, the function of the function icon may be activated in step B11.

図6(a)は、上述した拡大表示処理(図5のステップB8)を詳述するためのフローチャートである。
先ず、中央制御部11は、各指示対象オブジェクトを一定倍率で拡大したのち(ステップC1)、この拡大したオブジェクトを元のオブジェクトの近辺に表示させる(ステップC2)。ここで、図9は、この場合の表示例を示した図で、(a)は、複数オブジェクトの表示例、(b)は、指でタッチされた状態の表示例を示した図である。また、図10は、図9に続く、表示例を示した図で、(a)は、<拡大表示1>を示した図、(b)は、<拡大表示2>を示した図、(c)は、<拡大表示3>を示した図である。
FIG. 6A is a flowchart for explaining the above-described enlarged display process (step B8 in FIG. 5) in detail.
First, the central control unit 11 enlarges each instruction target object at a constant magnification (step C1), and then displays the enlarged object in the vicinity of the original object (step C2). Here, FIG. 9 is a diagram illustrating a display example in this case, where (a) is a display example of a plurality of objects, and (b) is a diagram illustrating a display example in a state where the finger is touched. FIG. 10 is a diagram illustrating a display example subsequent to FIG. 9, in which (a) is a diagram illustrating <enlarged display 1>, (b) is a diagram illustrating <enlarged display 2>; c) is a diagram showing <enlarged display 3>.

いま、図9(a)、(b)に示すように、「1」、「2」、「3」、「4」のオブジェクトが指示対象オブジェクトとして特定されている場合には、図10(a)に示すように、この「1」、「2」、「3」、「4」のオブジェクトは、1.7倍に拡大されて元の位置の近辺に重ね合わせて表示される。このような拡大表示処理(図5のステップB8)が終わると、次の選択処理に移る(ステップB9)。 As shown in FIGS. 9A and 9B, when the objects “1”, “2”, “3”, and “4” are specified as the instruction target objects, FIG. ), The objects “1”, “2”, “3”, and “4” are enlarged by a factor of 1.7 and displayed superimposed on the vicinity of the original position. When such an enlarged display process (step B8 in FIG. 5) is completed, the process proceeds to the next selection process (step B9).

なお、上述した実施形態において図6(a)に示した拡大表示処理では、各指示対象オブジェクトを一定倍率で拡大するようにしたが、タッチ領域とオブジェクト表示領域との重なり度合いに応じてそのオブジェクトの拡大倍率を決定して拡大表示するようにしてもよい。図6(b)は、拡大表示処理(変形例1)を示したフローチャートである。先ず、中央制御部11は、タッチ領域とオブジェクト表示領域に基づいて指示対象オブジェクト毎にその拡大倍率を算出する(ステップC11)。すなわち、タッチ領域とオブジェクト表示領域との重なり度合い(重なる面積)を検出し、その面積が広いほど、大きな「倍率」になるように指示対象オブジェクト毎にその拡大倍率を算出する。 In the above-described embodiment, in the enlargement display process shown in FIG. 6A, each instruction target object is enlarged at a constant magnification. However, depending on the degree of overlap between the touch area and the object display area, the object is displayed. The enlargement magnification may be determined and displayed in an enlarged manner. FIG. 6B is a flowchart showing an enlarged display process (Modification 1). First, the central control unit 11 calculates the enlargement magnification for each instruction target object based on the touch area and the object display area (step C11). That is, the degree of overlap (overlapping area) between the touch area and the object display area is detected, and the enlargement magnification is calculated for each instruction target object so that the larger the area, the larger the “magnification”.

そして、指示対象オブジェクトを算出倍率で拡大したのち(ステップC12)、タッチ領域と算出倍率に基づいて表示位置(表示領域)を算出する(ステップC13)。この場合、タッチ領域と重ならない位置になるように拡大オブジェクトの表示位置を算出し、この表示位置に拡大オブジェクトを配置表示させる(ステップC14)。図10(b)は、拡大表示処理(変形例1)での表示状態を示した図である。この例では、重なり面積の大きい順は、「1」>「3」>「2」>「4」のオブジェクト順となり、この面積の大きさに合わせた拡大倍率で指示対象オブジェクトが拡大表示される。この場合、指のタッチ領域にできるだけ重ならない位置に拡大表示される。なお、拡大表示されたオブジェクトは元のオブジェクトの相似形でもよいし、相似形でなくてもよい。たとえば、図10(b)では、「2」、「3」、「4」は元のオブジェクトとほぼ相似形で拡大表示されているが、「1」は相似形ではなく横長に拡大表示されている。 Then, after enlarging the instruction target object with the calculated magnification (step C12), the display position (display region) is calculated based on the touch area and the calculated magnification (step C13). In this case, the display position of the enlarged object is calculated so that it does not overlap with the touch area, and the enlarged object is arranged and displayed at this display position (step C14). FIG. 10B is a diagram showing a display state in the enlarged display process (Modification 1). In this example, the order in which the overlapping area is large is the order of objects of “1”> “3”> “2”> “4”, and the instruction target object is enlarged and displayed at an enlargement ratio according to the size of the area. . In this case, it is enlarged and displayed at a position that does not overlap the touch area of the finger as much as possible. The enlarged object may be similar to the original object or may not be similar. For example, in FIG. 10B, “2”, “3”, and “4” are enlarged and displayed in a similar shape to the original object, but “1” is displayed in a horizontally long shape instead of a similar shape. Yes.

また、上述した拡大表示処理(変形例1)では、タッチ領域とオブジェクト表示領域との重なり面積に応じて拡大倍率を算出するようにしたが、重なり面積に応じて拡大サイズを算出するようにしてもよい。図6(C)は、拡大表示処理(変形例2)を示したフローチャートである。先ず、中央制御部11は、タッチ領域とオブジェクト表示領域に基づいて指示対象オブジェクト毎にその大きさを算出する(ステップC21)。すなわち、タッチ領域とオブジェクト表示領域との重なり度合いを検出し、その重なり度合いが大きいほど、表示サイズが大きくなるように指示対象オブジェクト毎にその拡大サイズを算出する。 In the above-described enlargement display process (Modification 1), the enlargement magnification is calculated according to the overlap area between the touch area and the object display area. However, the enlargement size is calculated according to the overlap area. Also good. FIG. 6C is a flowchart showing an enlarged display process (Modification 2). First, the central control unit 11 calculates the size of each instruction target object based on the touch area and the object display area (step C21). That is, the degree of overlap between the touch area and the object display area is detected, and the enlarged size is calculated for each instruction target object so that the display size increases as the degree of overlap increases.

そして、指示対象オブジェクトを算出サイズで拡大したのち(ステップC22)、この算出サイズに基づいて表示位置(表示領域)を算出し(ステップC23)、この表示位置に拡大オブジェクトを配置表示させる(ステップC14)。この場合、指示対象オブジェクトを大きい順に縦方向に整列表示させるか、その際、大きいオブジェクトほど上に配置すると共にタッチ領域の近くに配置するように整列表示させる。図10(C)は、拡大表示処理(変形例2)での表示状態を示した図である。この例では、重なり面積の大きい順は、「1」>「3」>「2」>「4」のオブジェクト順となり、この面積の大きさに合わせた拡大サイズで指示対象オブジェクトが拡大表示される。この場合、一番大きな「1」のオブジェクトが最も上に配置され、かつ、タッチ領域の近くに配置される。 Then, after enlarging the instruction target object by the calculated size (step C22), the display position (display area) is calculated based on the calculated size (step C23), and the enlarged object is arranged and displayed at the display position (step C14). ). In this case, the instruction target objects are arranged and displayed in the vertical direction in descending order, or at that time, the larger objects are arranged and displayed so as to be arranged at the top and near the touch area. FIG. 10C is a diagram showing a display state in the enlarged display process (Modification 2). In this example, the order in which the overlapping areas are large is the order of objects “1”> “3”> “2”> “4”, and the instruction target object is enlarged and displayed with an enlarged size corresponding to the size of the area. . In this case, the largest “1” object is arranged at the top and is arranged near the touch area.

図7(a)は、上述した選択処理(図5のステップB9)を詳述するためのフローチャートである。
先ず、中央制御部11は、選択状態となっているオブジェクトへの操作(タッチ操作)の解除を検出するまで待ち状態となる(ステップD1)。ここで、タッチ操作が解除されると、オブジェクトの拡大表示を解除するためにその表示を消去したのち、上述の拡大倍率の大きい順/大きさの順に、最大で選択可能オブジェクト数分のオブジェクトを選択すると共に(ステップD2)、この選択オブジェクトを識別表示させる(ステップD3)。図9(b)の例において、「1」のオブジェクトが選択された場合には、図10(d)に示すように当該オブジェクトが識別表示される。この場合、オブジェクトの表示色を変えたり、点滅したりして当該オブジェクトを識別表示させる。そして、この選択オブジェクトに対応する選択フラグ(図示せず)をオンする(ステップD4)。
FIG. 7A is a flowchart for explaining the above-described selection process (step B9 in FIG. 5) in detail.
First, the central control unit 11 waits until it detects the release of an operation (touch operation) on an object that is in a selected state (step D1). Here, when the touch operation is canceled, the display is erased in order to cancel the enlarged display of the object, and then objects corresponding to the maximum number of objects that can be selected are arranged in the order of increasing / magnifying magnification described above. While selecting (step D2), this selected object is identified and displayed (step D3). In the example of FIG. 9B, when the object “1” is selected, the object is identified and displayed as shown in FIG. In this case, the display color of the object is changed or blinked to identify and display the object. Then, a selection flag (not shown) corresponding to the selected object is turned on (step D4).

なお、上述した実施形態において図7(a)に示した選択処理では、タッチ操作が解除された際に、拡大倍率の大きい順/大きさの順にオブジェクトを選択するようにしたが、タッチ操作が解除された位置に表示領域が重なるオブジェクトを選択するようにしてもよい。図7(b)は、選択処理(変形例1)を示したフローチャートである。先ず、中央制御部11は、タッチ操作の解除を検出すると(ステップD11)、その解除された位置(タッチ解除位置)を検出する(ステップD12)。いま、指のタッチ領域が図10(a)〜(c)に示す位置にある場合において、その指をタッチしたままの状態で「1」のオブジェクトの中心部まで指を移動してからそのタッチ操作を解除したものとすると、「1」のオブジェクトの中心部をタッチ解除位置として検出する。 In the above-described embodiment, in the selection process illustrated in FIG. 7A, when the touch operation is canceled, the objects are selected in order of increasing magnification / size. An object whose display area overlaps the released position may be selected. FIG. 7B is a flowchart showing the selection process (Modification 1). First, when detecting the release of the touch operation (step D11), the central control unit 11 detects the released position (touch release position) (step D12). If the finger touch area is at the position shown in FIGS. 10A to 10C, the finger is moved to the center of the object “1” while the finger is still touched, and then the touch is performed. If the operation is canceled, the center of the object “1” is detected as the touch release position.

そして、拡大表示されているオブジェクトの表示領域を検出すると共に(ステップD13)、オブジェクトの拡大表示を解除するためにその表示を消去したのち、タッチ解除位置とオブジェクト表示領域とに基づいてオブジェクトを選択する(ステップD14)。すなわち、タッチ解除位置に表示領域が重なるオブジェクトとして、タッチ解除位置から近い順に、最大で選択可能オブジェクト数分のオブジェクトを選択する。そして、選択オブジェクトを識別表示させると共に(ステップD15)、選択オブジェクトに対応する選択フラグをオンする(ステップD16)。 Then, the display area of the enlarged object is detected (step D13), the display is erased to cancel the enlarged display of the object, and then the object is selected based on the touch release position and the object display area. (Step D14). That is, as many objects as the number of selectable objects are selected in ascending order from the touch release position as objects whose display area overlaps the touch release position. Then, the selected object is identified and displayed (step D15), and the selection flag corresponding to the selected object is turned on (step D16).

また、上述した選択処理(変形例1)では、タッチ操作の解除に応答してオブジェクトを選択するようにしたが、タッチ操作が解除されたのち、再び、タッチ操作を行われた際にオブジェクトを選択するようにしてもよい。図7(C)は、選択処理(変形例2)を示したフローチャートである。先ず、中央制御部11は、タッチ操作の解除を検出すると(ステップD21)、再び、タッチ操作が行われるまで待ち状態となる(ステップD22)。いま、再度のタッチ操作を検出すると、そのタッチ領域を検出する(ステップD23)。この場合、単なるタッチ操作に限らず、範囲(領域)を指定するための軌跡を描くようなタッチ操作でもよい。例えば、所望するオブジェクトを囲むように円形や四角形を描くようにしてもよい。 In the above-described selection process (Modification 1), the object is selected in response to the release of the touch operation. However, after the touch operation is released, the object is selected when the touch operation is performed again. You may make it select. FIG. 7C is a flowchart showing the selection process (Modification 2). First, when the central control unit 11 detects the release of the touch operation (step D21), the central control unit 11 waits again until the touch operation is performed (step D22). If a touch operation is detected again, the touch area is detected (step D23). In this case, not only a simple touch operation but also a touch operation that draws a locus for designating a range (area) may be used. For example, a circle or a rectangle may be drawn so as to surround a desired object.

そして、拡大表示されているオブジェクトの表示領域を検出すると共に(ステップD24)、オブジェクトの拡大表示を解除するためにその表示を消去したのち、タッチ領域とオブジェクト表示領域とに基づいてオブジェクトを選択する(ステップD25)。すなわち、タッチ領域に表示領域が重なるオブジェクトとして、タッチ領域から近い順に、最大で選択可能オブジェクト数分のオブジェクトを選択したり、円形や四角形などの軌跡を描くようなタッチ操作の場合には、その軌跡に囲まれる領域内のオブジェクトを選択したりする。そして、選択オブジェクトを識別表示させると共に(ステップD26)、選択オブジェクトに対応する選択フラグをオンする(ステップD27)。 Then, the display area of the enlarged object is detected (step D24), the display is erased to cancel the enlarged display of the object, and then the object is selected based on the touch area and the object display area. (Step D25). In other words, in the case of a touch operation in which the maximum number of selectable objects is selected in the order closest to the touch area as the object whose display area overlaps the touch area, or in the case of a touch operation that draws a locus such as a circle or a rectangle, Select an object in the area surrounded by the trajectory. Then, the selected object is identified and displayed (step D26), and the selection flag corresponding to the selected object is turned on (step D27).

以上のように、この実施形態において中央制御部11は、表示されている複数のオブジェクトの中から1以上のオブジェクトを選択状態とするためにそのオブジェクト表示領域へのタッチ操作が行われると、そのタッチ領域とオブジェクト表示領域とに基づいて指示対象オブジェクトを特定すると共に、この特定した指示対象オブジェクトの数と選択可能なオブジェクトの数との比較結果に基づいて指示対象のオブジェクトを拡大表示させるか、選択状態にするかを制御するようにしたので、複数のオブジェクトから1以上のオブジェクトを選択するための選択操作を、ユーザが正確かつ容易に行うことができ、作業の効率化を図ることが可能となる。 As described above, in this embodiment, when the central control unit 11 performs a touch operation on the object display area in order to select one or more objects from the plurality of displayed objects, Specify the indication target object based on the touch area and the object display area, and enlarge the indication target object based on the comparison result between the number of specified indication target objects and the number of selectable objects. Since the selection state is controlled, the selection operation for selecting one or more objects from a plurality of objects can be performed accurately and easily by the user, and work efficiency can be improved. It becomes.

指示対象オブジェクトの数と選択可能なオブジェクトの数を比較した結果、指示対象オブジェクトの数が選択可能なオブジェクトの数よりも多い場合には、当該指示対象オブジェクトを拡大表示させるようにしたので、ユーザは拡大表示されたオブジェクトから選択状態にしたいオブジェクトを正確かつ容易に選択することができる。 As a result of comparing the number of instruction target objects with the number of selectable objects, if the number of instruction target objects is larger than the number of selectable objects, the instruction target object is enlarged and displayed. Can accurately and easily select an object to be selected from the enlarged objects.

指示対象オブジェクトの数と選択可能なオブジェクトの数とを比較した結果、指示対象オブジェクトの数が選択可能なオブジェクトの数と等しい又は少ない場合に、当該指示対象オブジェクトを選択状態にするようにしたので、ユーザは快適な操作感で直ちに所望のオブジェクトを選択状態にすることができる。 As a result of comparing the number of instruction target objects with the number of selectable objects, if the number of instruction target objects is equal to or less than the number of selectable objects, the instruction target object is selected. The user can immediately select a desired object with a comfortable operation feeling.

タッチ領域とオブジェクト表示領域とに基づいて決定された大きさで指示対象オブジェクトを拡大表示させるようにしたので、ユーザはその拡大表示の態様に応じて、選択状態にしたいオブジェクトを正確かつ容易に選択することができる。例えば、タッチ領域に表示領域に近いオブジェクトほど、ユーザが選択状態にさせたいオブジェクトである可能性が高いと考えられるので、そのオブジェクトを高い倍率で拡大表示させるようにすれば、ユーザはそのオブジェクトを正確かつ容易に選択することができる。 Since the instruction target object is enlarged and displayed in a size determined based on the touch area and the object display area, the user can accurately and easily select the object to be selected according to the enlarged display mode. can do. For example, an object closer to the display area in the touch area is more likely to be an object that the user wants to select, so if the object is enlarged and displayed at a high magnification, the user It can be selected accurately and easily.

タッチ領域とオブジェクト表示領域との重なり度合に応じて指示対象オブジェクト毎にその大きさを決定するようにしたので、重なり合っている面積が広いほど、大きなオブジェクトを表示させることができる。 Since the size of each instruction target object is determined according to the degree of overlap between the touch area and the object display area, a larger object can be displayed as the overlapping area is larger.

タッチ領域に基づいて決定された表示領域で指示対象オブジェクトを拡大表示させるようにしたので、ユーザはその拡大表示されたオブジェクトを確認しやすくなる。例えば、タッチ領域と重ならないように表示領域を決定するようにすれば、オブジェクトが操作器具や指に隠れることなく表示されてユーザは容易に確認することができる。 Since the instruction target object is enlarged and displayed in the display area determined based on the touch area, the user can easily confirm the enlarged object. For example, if the display area is determined so as not to overlap with the touch area, the object is displayed without being hidden by the operation tool or the finger, and the user can easily confirm.

指示対象オブジェクトが拡大表示されている状態において、タッチ操作が解除された場合に、拡大表示されているオブジェクトの中からその大きさに基づいて所定のオブジェクトを選択状態にするようにしたので、ユーザは容易に所望のオブジェクトを選択状態にすることができる。例えば、タッチ操作を解除するだけで、高い倍率で拡大表示されているオブジェクトを選択状態にすることができる。 When a touch operation is canceled while the instruction target object is displayed in an enlarged state, a predetermined object is selected from the enlarged objects based on the size of the object, so that the user Can easily select a desired object. For example, an object that is enlarged and displayed at a high magnification can be selected by simply releasing the touch operation.

その際、オブジェクトの拡大表示を解除してから所定のオブジェクトを選択状態にするようにしたので、ユーザは選択状態になったオブジェクトだけでなく、他の表示内容も確認することができる。また、わざわざ拡大表示を解除して通常表示に戻すための操作を省略することができる。 At this time, since the enlarged display of the object is canceled and the predetermined object is selected, the user can check not only the selected object but also other display contents. In addition, the operation for canceling the enlarged display and returning to the normal display can be omitted.

指示対象オブジェクトが拡大表示されている状態において、タッチ操作が解除されのち、再び、タッチ操作が行われた場合に、そのタッチ領域と拡大表示されているオブジェクト表示領域とに基づいて所定のオブジェクトを選択状態にするようにしたので、ユーザは一度、タッチ操作を止めて、拡大表示されたオブジェクトから所望のオブジェクトを選択状態にする操作を改めて行うことができる。 In the state where the instruction target object is displayed in an enlarged manner, when the touch operation is performed again after the touch operation is released, a predetermined object is displayed based on the touch area and the object display area displayed in an enlarged manner. Since the selection state is set, the user can once stop the touch operation and perform another operation for selecting a desired object from the enlarged display object.

なお、上述した実施形態においては、タッチ領域と表示領域とが重なり合うオブジェクトを指示対象オブジェクトとして特定するようにしたが、タッチ領域に重なり合うオブジェクトが1つも無ければ、つまり、指などが触れているオブジェクトが1つも存在していなければ、タッチ領域の近傍に表示されているオブジェクトを指示対象オブジェクトとして特定するようにしてもよい。この場合、タッチ領域と指示対象オブジェクトとの近接度合いを検出し、この近接度合いに応じて指示対象オブジェクトの拡大倍率や表示サイズを算出するようにしてもよい。これによってタッチ領域から近いほど、大きなオブジェクトを表示させることができる。また、指などが触れているオブジェクトを指示対象オブジェクトとして特定するほか、タッチ領域の近傍に表示されているオブジェクトを指示対象オブジェクトとして特定するようにしてもよい。 In the embodiment described above, an object in which the touch area and the display area overlap is specified as the instruction target object. However, if there is no object that overlaps the touch area, that is, an object touched by a finger or the like. If none exists, the object displayed in the vicinity of the touch area may be specified as the instruction target object. In this case, the degree of proximity between the touch area and the instruction target object may be detected, and the enlargement magnification and display size of the instruction target object may be calculated according to the degree of proximity. As a result, the closer to the touch area, the larger the object can be displayed. In addition to specifying an object touched by a finger or the like as an instruction target object, an object displayed in the vicinity of the touch area may be specified as an instruction target object.

また、上述した実施形態においては、複数オブジェクト表示として、データを削除するための任意のデータアイコン表示、アドレス帳データアイコン表示、機能アイコン(メニュー)表示を表示例としたが、任意のアイコン表示であってもよい。また、オブジェクトの表示位置やサイズは、実施形態で示したものに限らず、例えば、不規則な位置に表示されたオブジェクト、又はサイズや形状が異なるオブジェクトなど、任意のオブジェクトであってもよい。 Further, in the above-described embodiment, as a display example, an arbitrary data icon display for deleting data, an address book data icon display, and a function icon (menu) display are used as the multiple object display. There may be. The display position and size of the object are not limited to those shown in the embodiment, and may be any object such as an object displayed at an irregular position or an object having a different size or shape.

上述した実施形態においては、タッチ操作の操作位置やオブジェクトの表示位置として、タッチ領域や表示領域を利用したが、その領域の中心などの操作点、表示点を利用するようにしてもよい。 In the above-described embodiment, the touch area or the display area is used as the operation position of the touch operation or the display position of the object. However, an operation point or a display point such as the center of the area may be used.

上述した実施形態において接触操作部17は、表示部の表面に配設された接触センサ(タッチパネル)によって操作器具や指の接触を検する出するようにしたが、例えば、静電容量などで近距離に存在する物体の動きを検出する非接触センサによって表示部上(接触していない領域でも可)の操作器具や指の動きを検出するなど、表示部16上で行われる任意の操作を検出する操作検出部を設けてもよい。
その他、端末装置としては、携帯電話機に限らず、パーソナルコンピュータ、PDA、デジタルカメラ、音楽プレイヤーなど、複数の操作体系を有する任意の端末装置であってもよい。
In the embodiment described above, the contact operation unit 17 detects the contact of the operation tool or the finger with a contact sensor (touch panel) disposed on the surface of the display unit. Detects any operation performed on the display unit 16, such as detecting the movement of an operating instrument or finger on the display unit (even in a non-contact area) by a non-contact sensor that detects the movement of an object existing at a distance. An operation detection unit may be provided.
In addition, the terminal device is not limited to a mobile phone, and may be any terminal device having a plurality of operation systems such as a personal computer, a PDA, a digital camera, and a music player.

端末装置として適用した携帯電話機が利用可能な通信ネットワークシステムを示したブロック図。The block diagram which showed the communication network system which can use the mobile telephone applied as a terminal device. 携帯電話機1の基本的な構成要素を示したブロック図。FIG. 2 is a block diagram showing basic components of the mobile phone 1. 携帯電話機1の外観図で、(a)は、操作部筐体1Aと表示部筐体1Bとの折り畳みを開いた状態のオープンスタイル、(b)は、オープンスタイルにおいて表示部筐体1Bを180度反転させてから折り畳んだ状態のビュースタイルを示した図。In the external view of the mobile phone 1, (a) is an open style in which the operation unit casing 1A and the display unit casing 1B are folded open, and (b) is 180 degrees of the display unit casing 1B in the open style. The figure which showed the view style of the state folded after inversion. 携帯電話機1の全体動作の概要を示したフローチャート。3 is a flowchart showing an outline of the overall operation of the mobile phone 1. オブジェクト制御処理(図4のステップA4)を詳述するためのフローチャート。The flowchart for explaining an object control process (step A4 of FIG. 4) in detail. (a)は、上述した拡大表示処理(図5のステップB8)を詳述するためのフローチャート、(b)は、拡大表示処理(変形例1)を示したフローチャート、(c)は、拡大表示処理(変形例2)を示したフローチャート。(A) is a flowchart for explaining the above-described enlarged display process (step B8 in FIG. 5) in detail, (b) is a flowchart showing the enlarged display process (modified example 1), and (c) is an enlarged display. The flowchart which showed a process (modification 2). (a)は、上述した選択処理(図5のステップB9)を詳述するためのフローチャート、(b)は、選択処理(変形例1)を示したフローチャート、(c)は、選択処理(変形例1)を示したフローチャート。(A) is a flowchart for explaining the selection process (step B9 in FIG. 5) in detail, (b) is a flowchart showing the selection process (modified example 1), and (c) is a selection process (modified). The flowchart which showed Example 1). 複数オブジェクトの表示例を示した図で、(a)はデータを削除するための任意のデータアイコン表示、(b)は、アドレス帳のデータアイコン表示、(c)は機能アイコン(メニュー)の表示を示した図。It is the figure which showed the example of a display of multiple objects, (a) is the arbitrary data icon display for deleting data, (b) is the data icon display of an address book, (c) is the display of a function icon (menu). FIG. 表示例を示した図で、(a)は、複数オブジェクトの表示例、(b)は、指でタッチされた状態の表示例を示した図。It is the figure which showed the example of a display, (a) is the example of a display of multiple objects, (b) is the figure which showed the example of a display of the state touched with the finger | toe. 図9に続く、表示例を示した図で、(a)は、<拡大表示1>を示した図、(b)は、<拡大表示2>を示した図、(c)は、<拡大表示3>を示した図。FIGS. 9A and 9B are diagrams illustrating display examples, where FIG. 9A illustrates <enlarged display 1>, FIG. 9B illustrates <enlarged display 2>, and FIG. 9C illustrates <enlarged display>. The figure which showed the display 3>.

符号の説明Explanation of symbols

1 携帯電話機
11 中央制御部
13 記憶部
16 表示部
17 接触操作部
18 キー操作部
TD タッチ画面
M1 プログラム記憶部
M2 各種情報一時記憶部
DESCRIPTION OF SYMBOLS 1 Mobile telephone 11 Central control part 13 Memory | storage part 16 Display part 17 Contact operation part 18 Key operation part TD Touch screen M1 Program storage part M2 Various information temporary storage part

Claims (10)

表示手段に表示されている複数のオブジェクトから1以上のオブジェクトを選択状態にする端末装置であって、
前記表示手段上で行われる指示操作を検出する検出手段と、
この検出手段によって検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置とに基づいて指示対象オブジェクトを特定する特定手段と、
この特定手段によって特定された指示対象オブジェクトの数と、前記表示手段に表示されているオブジェクトの表示目的に応じて決められている選択可能なオブジェクトの数とを比較する比較手段と、
この比較手段による比較結果に基づいて前記指示対象オブジェクトを拡大表示させるか、選択状態にするかを制御する制御手段と、
を具備したことを特徴とする端末装置。
A terminal device for selecting one or more objects from a plurality of objects displayed on a display means,
Detecting means for detecting an instruction operation performed on the display means;
Specifying means for specifying an instruction target object based on an instruction operation instruction position detected by the detection means and a display position of the object displayed on the display means;
A comparing means for comparing the number of the instruction target objects specified by the specifying means with the number of selectable objects determined according to the display purpose of the object displayed on the display means;
Control means for controlling whether to display the selected object to be enlarged or selected based on a comparison result by the comparison means;
A terminal device comprising:
前記制御手段は、前記比較手段による比較の結果、指示対象オブジェクトの数が選択可能なオブジェクトの数よりも多い場合に、当該指示対象オブジェクトを拡大表示させる、
ようにしたことを特徴とする請求項1記載の端末装置。
The control unit enlarges and displays the instruction target object when the number of the instruction target objects is larger than the number of selectable objects as a result of the comparison by the comparison unit.
The terminal device according to claim 1, which is configured as described above.
前記制御手段は、前記比較手段による比較の結果、指示対象オブジェクトの数が選択可能なオブジェクトの数と等しい又は少ない場合に、当該指示対象オブジェクトを選択状態にする、
ようにしたことを特徴とする請求項1記載の端末装置。
The control means places the instruction target object in a selected state when the number of instruction target objects is equal to or less than the number of selectable objects as a result of comparison by the comparison means.
The terminal device according to claim 1, which is configured as described above.
前記制御手段は、前記検出手段によって検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置とに基づいて決定された大きさで前記指示対象オブジェクトを拡大表示させる、
ようにしたことを特徴とする請求項1記載の端末装置。
The control means enlarges and displays the instruction target object in a size determined based on the instruction position of the instruction operation detected by the detection means and the display position of the object displayed on the display means;
The terminal device according to claim 1, which is configured as described above.
前記制御手段は、前記検出手段によって検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置との重なり度合い又は近接度合いを検出し、この重なり度合い又は近接度合いに応じて前記指示対象オブジェクト毎にその大きさを決定する、
ようにしたことを特徴とする請求項4記載の端末装置。
The control means detects the degree of overlap or proximity between the indication position of the indication operation detected by the detection means and the display position of the object displayed on the display means, and according to the degree of overlap or proximity Determining the size of each instruction target object;
The terminal device according to claim 4, which is configured as described above.
前記制御手段は、前記検出手段によって検出された指示操作の指示位置に基づいて決定された表示位置で、前記指示対象オブジェクトを拡大表示させる、
ようにしたことを特徴とする請求項1記載の端末装置。
The control means enlarges and displays the instruction target object at a display position determined based on the instruction position of the instruction operation detected by the detection means.
The terminal device according to claim 1, which is configured as described above.
前記制御手段は、前記指示対象オブジェクトが拡大表示されている状態において、前記検出手段によって検出された指示操作が解除された場合に、拡大表示されている指示対象オブジェクトの中からその大きさに基づいて所定の指示対象オブジェクトを選択状態にする、
ようにしたことを特徴とする請求項1記載の端末装置。
When the instruction operation detected by the detection unit is released in a state where the instruction target object is enlarged and displayed, the control unit is based on the size of the instruction target object displayed in an enlarged manner. To select a specified target object,
The terminal device according to claim 1, which is configured as described above.
前記制御手段は、指示対象オブジェクトの拡大表示を解除してから前記所定の指示対象オブジェクトを選択状態にする、
ようにしたことを特徴とする請求項7記載の端末装置。
The control means releases the enlarged display of the instruction target object and then puts the predetermined instruction target object in a selected state.
The terminal device according to claim 7, which is configured as described above.
前記制御手段は、前記指示対象オブジェクトが拡大表示されている状態において、前記検出手段によって検出された指示操作が解除されたのちに、再び、前記検出手段によって指示操作が検出された場合に、その指示操作の指示位置と拡大表示されている指示対象オブジェクトの表示位置とに基づいて所定の指示対象オブジェクトを選択状態にする、
ようにしたことを特徴とする請求項1記載の端末装置。
When the instruction operation is detected again by the detection means after the instruction operation detected by the detection means is canceled in a state in which the instruction target object is enlarged and displayed, the control means A predetermined instruction target object is selected based on the instruction operation instruction position and the display position of the instruction object displayed in an enlarged manner;
The terminal device according to claim 1, which is configured as described above.
コンピュータに対して、
表示手段上で行われる指示操作を検出する機能と、
前記検出された指示操作の指示位置と前記表示手段に表示されているオブジェクトの表示位置とに基づいて指示対象オブジェクトを特定する機能と、
前記特定された指示対象オブジェクトの数と、前記表示手段に表示されているオブジェクトの表示目的に応じて決められている選択可能なオブジェクトの数とを比較する機能と、
前記比較結果に基づいて前記指示対象オブジェクトを拡大表示させるか、選択状態にするかを制御する機能と、
を実現させるためのプログラム。
Against the computer,
A function of detecting an instruction operation performed on the display means;
A function of specifying an instruction target object based on the detected indication position of the indication operation and the display position of the object displayed on the display means;
A function of comparing the number of the specified instruction target objects with the number of selectable objects determined according to the display purpose of the objects displayed on the display means;
A function for controlling whether the instruction target object is enlarged or selected based on the comparison result; and
A program to realize
JP2008215668A 2008-08-25 2008-08-25 Terminal device and program Expired - Fee Related JP5356752B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008215668A JP5356752B2 (en) 2008-08-25 2008-08-25 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008215668A JP5356752B2 (en) 2008-08-25 2008-08-25 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2010049654A true JP2010049654A (en) 2010-03-04
JP5356752B2 JP5356752B2 (en) 2013-12-04

Family

ID=42066653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008215668A Expired - Fee Related JP5356752B2 (en) 2008-08-25 2008-08-25 Terminal device and program

Country Status (1)

Country Link
JP (1) JP5356752B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232988A (en) * 2010-04-28 2011-11-17 Brother Ind Ltd Input device and input control program
JP2012058839A (en) * 2010-09-06 2012-03-22 Fuji Xerox Co Ltd Information processor and program
JP2012073908A (en) * 2010-09-29 2012-04-12 Nec Corp Portable terminal and program
JP2012094054A (en) * 2010-10-28 2012-05-17 Kyocera Mita Corp Operation device and image forming apparatus
JP2012216127A (en) * 2011-04-01 2012-11-08 Ntt Docomo Inc User interface device, operation reception method by display device and program
JP2013016122A (en) * 2011-07-06 2013-01-24 Oki Electric Ind Co Ltd Display control device, display control method, and program
JP2013131181A (en) * 2011-12-22 2013-07-04 Kyocera Document Solutions Inc Input device and processing apparatus
JP2013218739A (en) * 2013-07-31 2013-10-24 Kyocera Document Solutions Inc Information processing apparatus and image forming apparatus
JP2013222290A (en) * 2012-04-16 2013-10-28 Fuji Xerox Co Ltd Touch panel device and program
JP2014002590A (en) * 2012-06-19 2014-01-09 Design Creation Inc Information processing device, information processing method, and program
US9025168B2 (en) 2011-02-28 2015-05-05 Kyocera Document Solutions Inc. Information processing device and image forming apparatus
JP2015135613A (en) * 2014-01-17 2015-07-27 富士通株式会社 Input device, display control method, program, and integrated circuit device
JP2016076228A (en) * 2015-10-29 2016-05-12 日本電気株式会社 Information terminal, method, and program
KR101784257B1 (en) 2016-03-28 2017-10-11 주식회사 한글과컴퓨터 Document editing method based on touch operation of terminal and device thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322169A (en) * 1999-04-30 2000-11-24 Internatl Business Mach Corp <Ibm> Hot spot selection method in graphical user interface
JP2005044026A (en) * 2003-07-24 2005-02-17 Fujitsu Ltd Instruction execution method, instruction execution program and instruction execution device
JP2006285598A (en) * 2005-03-31 2006-10-19 Fujitsu Ten Ltd Touch panel device, operation support method for touch panel device, and operation support program for touch panel device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000322169A (en) * 1999-04-30 2000-11-24 Internatl Business Mach Corp <Ibm> Hot spot selection method in graphical user interface
JP2005044026A (en) * 2003-07-24 2005-02-17 Fujitsu Ltd Instruction execution method, instruction execution program and instruction execution device
JP2006285598A (en) * 2005-03-31 2006-10-19 Fujitsu Ten Ltd Touch panel device, operation support method for touch panel device, and operation support program for touch panel device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011232988A (en) * 2010-04-28 2011-11-17 Brother Ind Ltd Input device and input control program
JP2012058839A (en) * 2010-09-06 2012-03-22 Fuji Xerox Co Ltd Information processor and program
JP2012073908A (en) * 2010-09-29 2012-04-12 Nec Corp Portable terminal and program
JP2012094054A (en) * 2010-10-28 2012-05-17 Kyocera Mita Corp Operation device and image forming apparatus
US9025168B2 (en) 2011-02-28 2015-05-05 Kyocera Document Solutions Inc. Information processing device and image forming apparatus
JP2012216127A (en) * 2011-04-01 2012-11-08 Ntt Docomo Inc User interface device, operation reception method by display device and program
JP2013016122A (en) * 2011-07-06 2013-01-24 Oki Electric Ind Co Ltd Display control device, display control method, and program
JP2013131181A (en) * 2011-12-22 2013-07-04 Kyocera Document Solutions Inc Input device and processing apparatus
JP2013222290A (en) * 2012-04-16 2013-10-28 Fuji Xerox Co Ltd Touch panel device and program
JP2014002590A (en) * 2012-06-19 2014-01-09 Design Creation Inc Information processing device, information processing method, and program
JP2013218739A (en) * 2013-07-31 2013-10-24 Kyocera Document Solutions Inc Information processing apparatus and image forming apparatus
JP2015135613A (en) * 2014-01-17 2015-07-27 富士通株式会社 Input device, display control method, program, and integrated circuit device
JP2016076228A (en) * 2015-10-29 2016-05-12 日本電気株式会社 Information terminal, method, and program
KR101784257B1 (en) 2016-03-28 2017-10-11 주식회사 한글과컴퓨터 Document editing method based on touch operation of terminal and device thereof

Also Published As

Publication number Publication date
JP5356752B2 (en) 2013-12-04

Similar Documents

Publication Publication Date Title
JP5356752B2 (en) Terminal device and program
KR101788051B1 (en) Mobile terminal and method for controlling thereof
US8806364B2 (en) Mobile terminal with touch screen and method of processing data using the same
KR101012300B1 (en) User interface apparatus of mobile station having touch screen and method thereof
KR101830653B1 (en) Mobile device and control method for the same
KR101078929B1 (en) Terminal and internet-using method thereof
US8423087B2 (en) Mobile terminal with touch screen and method of processing message using the same
US9600143B2 (en) Mobile terminal and control method thereof
KR101667577B1 (en) Mobile terminal and method for controlling displaying thereof
KR101695816B1 (en) Mobile terminal and method for controlling thereof
KR101978169B1 (en) Mobile terminal and method of controlling the same
KR20110013606A (en) Method for executing menu in mobile terminal and mobile terminal thereof
JP5297121B2 (en) Terminal device and program
KR101842198B1 (en) Mobile terminal and method for controlling thereof
US9383815B2 (en) Mobile terminal and method of controlling the mobile terminal
KR101615983B1 (en) Mobile terminal and method of controlling thereof
JP2011155529A (en) Portable terminal device
KR101980702B1 (en) Mobile terminal and method for controlling thereof
JP6213467B2 (en) Terminal device, display control method, and program
JP5246773B2 (en) Portable terminal device and program
KR101651133B1 (en) Mobile terminal and mail message transmission method thereof
KR20100117417A (en) Method for executing application in mobile terminal and mobile terminal using the same
KR101701840B1 (en) Mobile terminal and method for controlling thereof
KR101709509B1 (en) Mobile terminal and method for controlling thereof
JP2008289081A (en) Mobile terminal device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20100729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130805

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130829

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees