JP2000339097A - Information processor, its controlling method and recording medium - Google Patents

Information processor, its controlling method and recording medium

Info

Publication number
JP2000339097A
JP2000339097A JP33908399A JP33908399A JP2000339097A JP 2000339097 A JP2000339097 A JP 2000339097A JP 33908399 A JP33908399 A JP 33908399A JP 33908399 A JP33908399 A JP 33908399A JP 2000339097 A JP2000339097 A JP 2000339097A
Authority
JP
Japan
Prior art keywords
input
display
information
processing apparatus
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33908399A
Other languages
Japanese (ja)
Other versions
JP2000339097A5 (en
Inventor
Shigemi Yamada
滋実 山田
Ryoji Amamiya
亮治 雨宮
Tatsuya Isoda
達哉 磯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP33908399A priority Critical patent/JP2000339097A/en
Publication of JP2000339097A publication Critical patent/JP2000339097A/en
Publication of JP2000339097A5 publication Critical patent/JP2000339097A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To input information of many kinds without increasing the size of an information processor. SOLUTION: In a portable personal computer 1, a liquid crystal display(LCD) is formed on the rear face of a touch pad 11, and when a function button 14 is depressed, a menu for selecting functions is displayed on the LCD. When a user selects, e.g., a ten-key pad from the menu by operating the touch pad 11, the ten-key pad is displayed on the LCD. Thus operation can be executed by operating the ten-key through the touch pad 11.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、情報処理装置およ
びその制御方法、並びに記録媒体に関し、特に、装置を
大型化することなく、簡単かつ確実に、多くの入力を行
うことができるようにした情報処理装置およびその制御
方法、並びに記録媒体に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information processing apparatus, a control method therefor, and a recording medium, and more particularly to an information processing apparatus capable of easily and reliably performing many inputs without increasing the size of the apparatus. The present invention relates to an information processing device, a control method thereof, and a recording medium.

【0002】[0002]

【従来の技術】最近、携帯型パーソナルコンピュータが
普及しつつある。この携帯型パーソナルコンピュータが
普及する理由の1つに、例えば、ユーザが、同一の建物
内において、他の部屋に出かけていったり、あるいは、
得意先に出向いて各種の情報をプレゼンテーションした
りするのが比較的簡単にでき、利便性が高いことがあげ
られる。従って、当然のことながら、携帯型パーソナル
コンピュータは、小型で軽量であることが、その本来の
機能から要求される。
2. Description of the Related Art Recently, portable personal computers have become widespread. One of the reasons for the widespread use of this portable personal computer is that, for example, a user goes out to another room in the same building, or
It is relatively easy to go to a customer and present various kinds of information, and the convenience is high. Therefore, as a matter of course, the portable personal computer is required to be small and light from its original function.

【0003】また、多くのユーザが、簡単に操作できる
ようにするために、マウスに代表される、ポインティン
グデバイスが、コンピュータの入力装置として利用され
るようになってきた。ポインティングデバイスを用いれ
ば、キーボードに不慣れなものでも、比較的簡単に入力
を行うことができるので、ポインティングデバイスは、
近年、急速に普及しつつある。特に、携帯型パーソナル
コンピュータの場合、マウスを本体とは別に所持するの
は不便であるところから、タッチパッド、トラックボー
ルといった、ポインティングデバイスが設けられている
ことが多い。
In order to allow many users to operate easily, a pointing device represented by a mouse has been used as an input device of a computer. If you use a pointing device, even if you are unfamiliar with the keyboard, you can input relatively easily.
In recent years, it is rapidly spreading. In particular, a portable personal computer is often provided with a pointing device such as a touch pad or a trackball, because it is inconvenient to carry a mouse separately from the main body.

【0004】ところで、例えば、特開平10−2141
54号公報には、ポインティングデバイスを携帯型パー
ソナルコンピュータに対して着脱自在とし、ポインティ
ングデバイスをリモートコントローラとして利用するこ
とができるようにし、利便性を図ることが提案されてい
る。
By the way, for example, Japanese Patent Application Laid-Open No. 10-2141
No. 54 proposes that the pointing device can be detachably attached to a portable personal computer so that the pointing device can be used as a remote controller to improve convenience.

【0005】また、特開平10−74119号公報に
は、携帯型パーソナルコンピュータに対して、PDA(Per
sonal Digital Assistant)を着脱自在とし、PDAをプレ
ゼンテーションにおいて遠隔操作に用いることができる
ようにするだけでなく、スタンドアローンとしても利用
できるようにすることで、より利便性を高めるようにす
ることが提案されている。
Japanese Patent Laid-Open Publication No. Hei 10-74119 discloses a PDA (Performance) for a portable personal computer.
(Sonal Digital Assistant) is proposed to be more removable and detachable so that it can be used as a stand-alone device as well as being used for remote control in presentations. Have been.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、先に提
案されているようなポインティングデバイスは、いずれ
も、場合に応じて、多くの種類の入力の中から所定のも
のを選択的に入力することができるようにするには、ボ
タンやスイッチなどが多く必要となり、大型化してしま
う課題あった。その結果、それを装着する携帯型パーソ
ナルコンピュータも大型化してしまい、結局、その利用
範囲は限られたものにならざるを得ない課題があった。
However, any of the pointing devices proposed above can selectively input a predetermined one from many types of inputs depending on the case. In order to be able to do so, many buttons and switches are required, and there has been a problem that the size is increased. As a result, the size of the portable personal computer to which the personal computer is mounted becomes large, and as a result, there is a problem that its use range must be limited.

【0007】さらに提案されているPDAは、ポインティ
ングデバイスとしての機能を有していないので、ポイン
ティングデバイスとして、マウスなどをさらに付加しな
ければならず、装置が大型化し、コスト高となる課題が
あった。
Further, since the proposed PDA does not have a function as a pointing device, a mouse or the like must be further added as a pointing device, and there is a problem that the device becomes large and the cost increases. Was.

【0008】本発明はこのような状況に鑑みてなされた
ものであり、装置を大型化することなく、多くの情報を
簡単に、かつ、ポインティングデバイスとして入力する
ことができるようにするものである。
[0008] The present invention has been made in view of such a situation, and enables a large amount of information to be easily input as a pointing device without increasing the size of the apparatus. .

【0009】[0009]

【課題を解決するための手段】請求項1に記載の情報処
理装置は、情報を表示する第2の表示手段と、第2の表
示手段に表示された情報が観察可能なように、第2の表
示手段の表側に配置された、所定の入力を行う第2の入
力手段とを備え、第1の処理手段は、通常動作モードに
おいて、第2の入力手段から入力された座標データに基
づいて第1の表示手段に情報を表示させることを特徴と
する。
According to a first aspect of the present invention, there is provided an information processing apparatus, comprising: a second display for displaying information; and a second display for displaying the information displayed on the second display. And second input means for performing a predetermined input, which is arranged on the front side of the display means, and wherein the first processing means in the normal operation mode, based on the coordinate data input from the second input means. The information is displayed on the first display means.

【0010】請求項14に記載の情報処理装置は、情報
を表示する第2の表示手段と、第2の表示手段に表示さ
れた情報が観察可能なように、第2の表示手段の表側に
配置された、所定の入力を行う第2の入力手段と、第2
の入力手段によって入力された情報を処理する第2の処
埋手段とを備え、第1の処理手段は、通常動作モードに
おいて、第2の入力手段から入力された座標データに基
づいて第1の表示手段に情報を表示させることを特徴と
する。
[0010] The information processing apparatus according to the fourteenth aspect has a second display means for displaying information and a front side of the second display means so that the information displayed on the second display means can be observed. A second input means for performing a predetermined input,
And a second processing unit for processing information input by the input unit of the first type, wherein the first processing unit performs the first processing based on the coordinate data input from the second input unit in the normal operation mode. The information is displayed on the display means.

【0011】請求項20に記載の制御方法は、モードを
検出する検出ステップと、通常動作モードにおいて、第
2の入力手段から入力された座標データに基づいて第1
の表示手段に情報を表示させる表示ステップとを含むこ
とを特徴とする。
According to a twentieth aspect of the present invention, in the control method according to the first aspect of the present invention, in the normal operation mode, the first step is performed based on the coordinate data input from the second input means.
And displaying the information on the display means.

【0012】請求項23に記載の記録媒体は、モードを
検出する検出ステップと、通常動作モードにおいて、第
2の入力手段から入力された座標データに基づいて第1
の表示手段に情報を表示させる表示ステップとを含むこ
とを特徴とする。
In a recording medium according to a twenty-third aspect of the present invention, in the detecting step of detecting a mode, and in a normal operation mode, the first and second recording mediums are controlled based on coordinate data input from a second input means.
And displaying the information on the display means.

【0013】請求項1に記載の情報処理装置、および請
求項14に記載の情報処理装置においては、第1の処理
手段が、通常の動作モードにおいて、第2の入力手段か
ら入力された座標データに基づいて、第1の表示手段に
情報を表示させる。
[0013] In the information processing apparatus according to the first aspect and the information processing apparatus according to the fourteenth aspect, the first processing means may include a coordinate data input from the second input means in a normal operation mode. The information is displayed on the first display means based on.

【0014】請求項20に記載の制御方法、および請求
項23に記載の記録媒体のプログラムにおいては、通常
の動作モードにおいて、第2の入力手段から入力された
座標データに基づいて、第1の表示手段に情報が表示さ
れる。
In the control method according to the twentieth aspect and the recording medium program according to the twenty-third aspect, in the normal operation mode, the first control method is performed based on the coordinate data input from the second input means. Information is displayed on the display means.

【0015】[0015]

【発明の実施の形態】以下、本発明を適用したノート型
の携帯型パーソナルコンピュータについて添付図面に基
づいて詳細に説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS A notebook portable personal computer to which the present invention is applied will be described below in detail with reference to the accompanying drawings.

【0016】図1に示すように、携帯型パーソナルコン
ピュー1の本体2には、文字等を入力するとき操作され
るキーボード4が設けられている。画像を表示する表示
部3は、本体2に対して開閉(折り畳み)自在に取り付
けられている。また、図においては示していないが、本
体2に対しては、外部のポインティングデバイスとして
マウス等を外付けすることもできる。
As shown in FIG. 1, a main body 2 of the portable personal computer 1 is provided with a keyboard 4 operated when inputting characters and the like. The display unit 3 for displaying an image is attached to the main body 2 so as to be freely opened and closed (foldable). Although not shown in the drawings, a mouse or the like can be externally attached to the main body 2 as an external pointing device.

【0017】本体2は電源ランプPL、電池ランプB
L、そしてメッセージランプMLを有し、電源ランプP
Lは電源オン時に点灯し、電池ランプBLはバッテリパ
ック5の電池残量の程度を示す。これらのランプの内の
特にメッセージランプMLは、表示部3を本体2に対し
て閉じた状態でも外部に表出している。これにより表示
部3を閉じていても所定のプログラムの動作は、メッセ
ージランプMLの点灯により利用者に報知することがで
きる。
The main body 2 includes a power lamp PL and a battery lamp B.
L, and a power lamp P having a message lamp ML.
L lights up when the power is turned on, and the battery lamp BL indicates the remaining battery level of the battery pack 5. Among these lamps, especially the message lamp ML is exposed outside even when the display unit 3 is closed with respect to the main body 2. Thus, even when the display unit 3 is closed, the operation of the predetermined program can be notified to the user by turning on the message lamp ML.

【0018】本体2の側面には、電源をオンまたはオフ
するとき操作される電源スイッチ6と、ワンタッチ操作
用の操作キー7が設けられている。この操作キー7は、
所定のアプリケーションを瞬時に立ち上げるとき操作さ
れ、その立上げ状態がメッセージランプMLにより表示
される。さらに本体2の側面には、PCMCIA(PersonalCo
mputer Memory Card International Association)カー
ド(いわゆるPCカード)が装着されるスロット8が設け
られている。
On the side surface of the main body 2, there are provided a power switch 6 which is operated when the power is turned on or off, and an operation key 7 for one-touch operation. This operation key 7
It is operated when a predetermined application is started up instantaneously, and the start-up state is displayed by a message lamp ML. PCMCIA (PersonalCo)
A slot 8 is provided for receiving an mputer Memory Card International Association (PC) card (so-called PC card).

【0019】本体2の上面のキーボード4の手前には、
タッチ操作部9が設けられている。このタッチ操作部9
は、タッチパッド11、左ボタン12、右ボタン13、
および機能ボタン14により構成されている。
In front of the keyboard 4 on the upper surface of the main body 2,
A touch operation unit 9 is provided. This touch operation unit 9
Are the touchpad 11, the left button 12, the right button 13,
And a function button 14.

【0020】タッチパッド11は、ユーザにより、指ま
たはペン(図示はしないが、表示部3の左側面に収容さ
れている)で操作される。タッチパッド1は、例えば、
表示部3のLCD41(図2)に表示されているポインタ
を所定の位置に移動させるとき、こするようにして操作
される。左ボタン12は、「OK]や「キャンセル」な
どを選択したり、メニューを選ぶときなどに操作され
る。タッチパッド11が、指で1回軽く叩かれた場合に
も、同様の機能が実行される。左ボタン12は、ダブル
クリックするとき、2回続けて操作される。ポインタを
ドラッグする場合には、左ボタン12を操作したまま、
タッチパッド11上でも指が移動される。タッチパッド
11上で2回続けて軽く叩いた後、そのままタッチパッ
ド11上で指を動かした場合も、ドラッグの操作とな
る。右ボタン13は、さまざまな内容のバックアップメ
ニューを表示するときなどに操作される。
The touch pad 11 is operated by a user with a finger or a pen (not shown, but housed on the left side of the display unit 3). The touch pad 1 is, for example,
When the pointer displayed on the LCD 41 (FIG. 2) of the display unit 3 is moved to a predetermined position, the pointer is operated by rubbing. The left button 12 is operated to select “OK” or “Cancel”, or to select a menu. A similar function is executed when the touch pad 11 is tapped once with a finger. The left button 12 is operated twice in succession when double-clicking. When dragging the pointer, hold down the left button 12
The finger is also moved on the touch pad 11. A drag operation is also performed when the finger is moved twice on the touch pad 11 after tapping twice on the touch pad 11 continuously. The right button 13 is operated, for example, when displaying a backup menu of various contents.

【0021】バッテリパック5の左側には、マイクロホ
ン15が設けられており、本体2の底面の電源ランプP
Lの近傍にはスピーカ16が設けられている。
A microphone 15 is provided on the left side of the battery pack 5.
A speaker 16 is provided near L.

【0022】図2は、携帯型パーソナルコンピュータ1
の内部の構成例を表している。本体2は、情報の処理を
集中して行うCPU(Central Processing Unit)52と、
揮発性のメモリであるRAM(Random Access Memory)5
3とを有している。これらCPU52、およびRAM53は、
内部バス(PCI(Peripheral Component Interconnect)
BUS)50にそれぞれ接続されている。この内部バス5
0には、スロット8から挿入された、所定の機能を備え
たPCカード82も、インタフェース(I/F)51を介し
て接続される。
FIG. 2 shows a portable personal computer 1.
Of FIG. The main body 2 includes a CPU (Central Processing Unit) 52 that centrally processes information,
RAM (Random Access Memory) 5 which is a volatile memory
And 3. These CPU 52 and RAM 53 are:
Internal bus (Peripheral Component Interconnect (PCI)
BUS) 50. This internal bus 5
A PC card 82 having a predetermined function and inserted from the slot 8 is also connected to the PC card 82 via the interface (I / F) 51.

【0023】CPU52は、各機能を統括するコントロー
ラであり、PCカード82は、内部バス50に対してオプ
ションの機能を付加するためのものである。RAM53の
中には、本体2の起動が完了した時点において、アプリ
ケーション・プログラム、オートパイロットプログラ
ム、そして基本プログラム(operating system: OS)等
が記憶される。
The CPU 52 is a controller that controls each function, and the PC card 82 is for adding optional functions to the internal bus 50. The RAM 53 stores an application program, an autopilot program, a basic program (operating system: OS), and the like when the activation of the main body 2 is completed.

【0024】オートパイロットプログラムは、予め設定
された複数の処理(またはプログラム)等を、予め設定
された順序で順次起動して、処理するプログラムであ
る。OSは、携帯型パーソナルコンピュータ1の基本的
な動作を制御するものであり、例えばWindows 98(商
標)などの、市販のマルチタスクOSを用いることがで
きる。
The autopilot program is a program for sequentially activating and processing a plurality of predetermined processes (or programs) in a predetermined order. The OS controls the basic operation of the portable personal computer 1, and a commercially available multitasking OS such as Windows 98 (trademark) can be used.

【0025】また、本体2は、データの入出力を制御す
る入出力(in-out:I/O)コントローラ63、情報を記録
する記録部であるHDD(Hard Disc Drive)55、実時間
時計(real time clock: RTC)62、およびバックアッ
プ用のバッテリ76を有している。
The main body 2 includes an input / output (in-out: I / O) controller 63 for controlling data input / output, an HDD (Hard Disc Drive) 55 as a recording unit for recording information, and a real-time clock (I / O). A real time clock (RTC) 62 and a backup battery 76 are provided.

【0026】I/Oコントローラ63、HDD55、RTC6
2、メッセージランプML、バッテリランプBL、電源
ランプPL、電源スイッチ6、操作キー7、バックアッ
プ用バッテリ76は、外部バス(ISA BUS)54にそれ
ぞれ接続されている。外部バス54は、内部バス50に
接続されている。
I / O controller 63, HDD 55, RTC6
2. The message lamp ML, the battery lamp BL, the power lamp PL, the power switch 6, the operation key 7, and the backup battery 76 are connected to the external bus (ISA BUS) 54, respectively. The external bus 54 is connected to the internal bus 50.

【0027】I/Oコントローラ63は、マイクロコン
トローラ64を有し、このマイクロコントローラ64は
CPU66、RAM67、ROM65が相互に接続されて構成さ
れている。このRAM67は、キー入力ステイタスレジス
タ72、LED制御レジスタ73、設定時刻レジスタ7
4、操作キー/プログラム対応関係レジスタ75を有し
ている。設定時刻レジスタ74は、起動条件格納部であ
り、ユーザが予め設定した時刻(起動条件)を記憶す
る。これは、予め設定された時刻になると所定のプログ
ラムを起動する一連の処理である起動シーケンスの動作
を開始させる際に利用される。操作キー/プログラム対
応関係レジスタ75は、予め設定された操作キーの組合
せ(起動条件)と、起動すべきアプリケーションプログ
ラムの対応を記憶するもので、予め設定された操作キー
の組合せがユーザにより押されると、起動しようとする
アプリケーション・プログラムが起動される。
The I / O controller 63 has a microcontroller 64, and this microcontroller 64
The CPU 66, the RAM 67, and the ROM 65 are connected to each other. The RAM 67 includes a key input status register 72, an LED control register 73, and a set time register 7.
4. An operation key / program correspondence register 75 is provided. The set time register 74 is a start condition storage unit, and stores a time (start condition) set by the user in advance. This is used when starting a start sequence operation, which is a series of processes for starting a predetermined program at a preset time. The operation key / program correspondence register 75 stores a correspondence between a preset operation key combination (activation condition) and an application program to be activated, and the preset operation key combination is pressed by the user. Then, the application program to be started is started.

【0028】キー入力ステイタスレジスタ72は、ワン
タッチ操作用のスイッチとしての操作キー7が押される
と、操作キーフラグが格納されるようになっている。LE
D制御レジスタ73は、操作キー7が押されて、所定の
アプリケーションの瞬時の立ち上げ状態を表示するメッ
セージランプMLの点灯を制御するものである。設定時
刻レジスタ74は、ある時刻を任意に設定することがで
きるものである。
The key input status register 72 stores an operation key flag when the operation key 7 as a switch for one-touch operation is pressed. LE
The D control register 73 controls the lighting of a message lamp ML that displays the instantaneous startup state of a predetermined application when the operation key 7 is pressed. The set time register 74 can arbitrarily set a certain time.

【0029】なお、このマイクロコントローラ64には
バックアップ用のバッテリ76が設けられており、各レ
ジスタ72,73,74の値は、本体2の電源がオフと
されている状態においても保持されるようになってい
る。
The microcontroller 64 is provided with a backup battery 76, and the values of the registers 72, 73, 74 are retained even when the power of the main unit 2 is turned off. It has become.

【0030】マイクロコントローラ64内のROM65の
中には、ウェイクアッププログラム69、キー入力監視
プログラム70、およびLED制御プログラム71が予め
格納されている。このROM65は、例えばフラッシュメ
モリとも呼ばれる電気消去可能プログラマブル読出し専
用メモリ(electrically erasable programmable read-
only memory:EEPROM)で構成されている。さらにマイク
ロコントローラ64には、常時現在時刻をカウントする
RTC62が接続されている。
A wake-up program 69, a key input monitoring program 70, and an LED control program 71 are stored in the ROM 65 in the microcontroller 64 in advance. The ROM 65 is, for example, an electrically erasable programmable read-only memory (also referred to as a flash memory).
only memory: EEPROM). Further, the microcontroller 64 always counts the current time.
The RTC 62 is connected.

【0031】ROM65の中のウェイクアッププログラム
69は、RTC62から供給される現在時刻データに基づ
いて、設定時刻レジスタ74に予め設定された時刻にな
ったかどうかをチェックして、設定された時刻になる
と、所定の処理(又はプログラム)等を起動するプログ
ラムである。キー入力監視プログラム70は、操作キー
7が利用者により押されたかどうかを常時監視するプロ
グラムである。LED制御プログラム71は、メッセージ
ランプMLの点灯を制御するプログラムである。
The wake-up program 69 in the ROM 65 checks whether or not the time set in advance in the set time register 74 has been reached based on the current time data supplied from the RTC 62. , A program for starting a predetermined process (or program) or the like. The key input monitoring program 70 is a program that constantly monitors whether or not the operation key 7 has been pressed by the user. The LED control program 71 is a program for controlling lighting of the message lamp ML.

【0032】ROM65には、さらに、基本入出力システ
ムとしてのBIOS(basic input/output system )68が
書き込まれている。このBIOSは、OSやアプリケーショ
ンプログラムと、LCD41,57、キーボード4、HDD5
5等の周辺機器の間でのデータの受け渡し(入出力)を
制御するソフトウェアプログラムである。
In the ROM 65, a basic input / output system (BIOS) 68 is further written as a basic input / output system. This BIOS consists of OS and application programs, LCD 41, 57, keyboard 4, HDD 5
5 is a software program for controlling the transfer (input / output) of data between peripheral devices such as 5.

【0033】HDD55には、アプリケーションプログラ
ム、オートパイロットプログラム、OS等が記憶されて
いる。HDD55内のOS、オートパイロットプログラム
およびアプリケーションプログラムは、本体2のブート
アップ(boot up:起動)処理の過程で、RAM53内に順
次格納される。
The HDD 55 stores an application program, an autopilot program, an OS, and the like. The OS, the autopilot program, and the application program in the HDD 55 are sequentially stored in the RAM 53 in the course of the boot-up process of the main body 2.

【0034】さらに、本体2は、表示部3のLCD41を
制御するLCDコントローラ77、外部ネットワーク81
と接続するためにデータを変換するモデム78、キーボ
ード4を制御するキーボードコントローラ61、タッチ
パッド11を制御するタッチパッドコントローラ59、
並びに、マイクロホン15およびスピーカ16に接続し
て信号を変換するインターフェース60を有している。
これらLCDコントローラ77、モデム78、キーボード
コントローラ61、タッチパッドコントローラ59、お
よびインターフェース60は、上記外部バス54にそれ
ぞれ接続されている。
Further, the main body 2 includes an LCD controller 77 for controlling the LCD 41 of the display unit 3 and an external network 81.
A modem 78 for converting data for connection with the keyboard, a keyboard controller 61 for controlling the keyboard 4, a touchpad controller 59 for controlling the touchpad 11,
Further, it has an interface 60 connected to the microphone 15 and the speaker 16 to convert a signal.
The LCD controller 77, the modem 78, the keyboard controller 61, the touch pad controller 59, and the interface 60 are connected to the external bus 54, respectively.

【0035】外部バス54にはまた、LCDコントローラ
56が接続されている。LCDコントローラ56は、LCD5
7とバックライト58を制御する。LCD57は、透明な
(LCD57の光を透過する)素材よりなるタッチパッド
11の後方に配置されている。バックライト58は、LC
D57の後方に配置され、LCD57を照明する。
The external bus 54 is also connected to an LCD controller 56. The LCD controller 56 includes the LCD 5
7 and the backlight 58 are controlled. The LCD 57 is disposed behind the touch pad 11 made of a transparent (transmissive light of the LCD 57) material. The backlight 58 is LC
It is arranged behind D57 and illuminates LCD57.

【0036】外部バス54に接続されているキーボード
コントローラ61は、キーボード4からの入力をコント
ロールする。タッチパッドコントローラ59は、タッチ
パッド11、左ボタン12、右ボタン13、および、機
能ボタン14からの入力を制御する。
A keyboard controller 61 connected to the external bus 54 controls an input from the keyboard 4. The touch pad controller 59 controls inputs from the touch pad 11, the left button 12, the right button 13, and the function buttons 14.

【0037】インターフェース60は、内部マイクロホ
ン15からの入力を取り込み、あるいは内蔵スピーカ1
6に対して音声信号を供給する。
The interface 60 receives an input from the internal microphone 15 or
6 is supplied with an audio signal.

【0038】モデム78は、本体2と外部のネットワー
ク81とを接続して、通信を行うために情報信号のフォ
ーマットを変換する処理を行う。
The modem 78 connects the main body 2 to an external network 81 and performs a process of converting the format of an information signal for communication.

【0039】LCDコントローラ77は、表示部3のLCD4
1と、その後方に配置されているバックライト42とを
制御する。
The LCD controller 77 is connected to the LCD 4 of the display unit 3.
1 and the backlight 42 disposed behind the control unit 1.

【0040】タッチパッド11は、キーボード4の手前
側に配設され、LCD41の画面上の位置を特定するポイ
ンティングデバイスとして用いることにより、ポイント
の軌跡の入力を行うものである。すなわち、ポインティ
ングデバイスは、LCD41の表示画面に表示され、入力
操作に応じて移動される指標(ポインタ)について、そ
の指標の移動軌跡を入力するのに用いられる。また、タ
ッチパッド11には、点の位置のみならず押圧された強
さをも同時に検出することができる感圧式のタッチパッ
ドも利用することができる。なお、本実施の形態におい
ては、ポインティングデバイスとして、タッチパッドに
限定されず、例えばタブレットを用いることもできる。
The touch pad 11 is provided on the front side of the keyboard 4 and is used as a pointing device for specifying a position on the screen of the LCD 41 to input a locus of points. That is, the pointing device is displayed on the display screen of the LCD 41, and is used to input the movement locus of the index (pointer) that is moved according to the input operation. Further, as the touch pad 11, a pressure-sensitive touch pad which can simultaneously detect not only the position of a point but also the pressed strength can be used. In the present embodiment, the pointing device is not limited to the touch pad, but may be, for example, a tablet.

【0041】次に、図3のフローチャートを参照して、
タッチ操作部9を操作した場合の動作について説明す
る。ステップS1において、CPU52は、機能ボタン1
4がユーザにより操作された(オンされた)か否かを判
定する。すなわち、タッチパッドコントローラ59は、
機能ボタン14がユーザにより操作されたとき、その操
作信号を外部バス54と内部バス50を介してCPU52
に出力する。CPU52は、ステップS1において、機能
ボタン14が操作されたと判定された場合、拡張モード
を設定するとともに、ステップS6に進み、機能選択処
理を実行する。この機能選択処理の詳細は、図4のフロ
ーチャートを参照して後述する。
Next, referring to the flowchart of FIG.
An operation when the touch operation unit 9 is operated will be described. In step S1, the CPU 52 sets the function button 1
It is determined whether or not 4 has been operated (turned on) by the user. That is, the touch pad controller 59
When the function button 14 is operated by the user, the operation signal is transmitted to the CPU 52 via the external bus 54 and the internal bus 50.
Output to If it is determined in step S1 that the function button 14 has been operated, the CPU 52 sets the extension mode and proceeds to step S6 to execute a function selection process. Details of this function selection processing will be described later with reference to the flowchart of FIG.

【0042】ステップS1において、機能ボタン14が
操作されていないと判定された場合、CPU52により通
常動作モードが設定されており、CPU52は、ステップ
S2において、タッチパッド11がユーザにより操作さ
れたか否かを判定する。すなわち、タッチパッドコント
ローラ59は、タッチパッド11がユーザにより操作さ
れたとき、その座標データを検出し、これをCPU52に
出力する。CPU52は、ステップS2において、タッチ
パッド11が操作されたと判定された場合(タッチパッ
ドコントローラ59より座標データが供給されてきたと
き)、ステップS7に進み、入力された座標データに対
応する処理を実行する。
When it is determined in step S1 that the function button 14 has not been operated, the normal operation mode has been set by the CPU 52, and the CPU 52 determines in step S2 whether or not the touch pad 11 has been operated by the user. Is determined. That is, when the touch pad 11 is operated by the user, the touch pad controller 59 detects the coordinate data and outputs the coordinate data to the CPU 52. When it is determined in step S2 that the touch pad 11 has been operated (when coordinate data has been supplied from the touch pad controller 59), the CPU 52 proceeds to step S7 to execute a process corresponding to the input coordinate data. I do.

【0043】例えば、いま、LCDコントローラ77によ
り、表示部3のバックライト42とLCD41が駆動さ
れ、バックライト42により照明されているLCD41に
所定の画像が表示されている状態において、ユーザが、
タッチパッド11の右端を上下方向になぞったとき、表
示されている画像を上下方向に移動(スクロール)させ
る。タッチパッド11の下端が左右方向にこすられたと
き、CPU52は、LCD41に表示されている画像を左右方
向に移動(スクロール)させる。ユーザがタッチパッド
11を操作したとき、CPU52がどのような処理を行う
かは、CPU52が、そのとき実行しているアプリケーシ
ョンプログラムによって決定される。
For example, when the backlight 42 and the LCD 41 of the display unit 3 are driven by the LCD controller 77, and a predetermined image is displayed on the LCD 41 illuminated by the backlight 42, the user
When the right end of the touch pad 11 is traced up and down, the displayed image is moved (scrolled) up and down. When the lower end of the touch pad 11 is rubbed in the left-right direction, the CPU 52 moves (scrolls) the image displayed on the LCD 41 in the left-right direction. When the user operates the touch pad 11, what processing the CPU 52 performs is determined by the application program that the CPU 52 is executing at that time.

【0044】ステップS2において、タッチパッド11
から入力がないと判定された場合、ステップS3に進
み、CPU52は、左ボタン12または右ボタン13がユ
ーザにより操作されたか否かを判定する。タッチパッド
コントローラ59は、左ボタン12または右ボタン13
がユーザにより操作されたとき、その操作信号をCPU5
2に出力する。CPU5266は、操作信号の入力を受け
たとき、ステップS8において、そのとき実行している
アプリケーションプログラムに基づいて、その意味を解
釈し、マウスの左ボタンまたは右ボタンが操作された場
合と同様の処理を実行する。
In step S2, the touch pad 11
If it is determined that no input has been made, the process proceeds to step S3, and the CPU 52 determines whether the left button 12 or the right button 13 has been operated by the user. The touch pad controller 59 includes the left button 12 or the right button 13
Is operated by the user, the operation signal is transmitted to the CPU 5
Output to 2. When receiving the input of the operation signal, the CPU 5266 interprets the meaning in step S8 based on the application program being executed at that time, and performs the same processing as when the left or right mouse button is operated. Execute

【0045】ステップS3において、左ボタン12また
は右ボタン13が操作されていないと判定された場合、
ステップS4に進み、LCDコントローラ56は、CPU52
から表示すべき画像データの供給を受けているか否かを
判定する。表示すべき画像データを受信したとき、ステ
ップS5に進み、LCDコントローラ56は、CPU52より
供給された画像データをLCD57に出力し、表示させ
る。もちろん、このとき、LCDコントローラ56は、バ
ックライト58を点灯し、LCD57を後方から照明す
る。LCD57の上面には、タッチパッド11が配置され
ているが、タッチパッド11は、透明の素材で形成され
ているため、ユーザは、タッチパッド11を介して、そ
の下方(背面)に配置されているLCD57に表示されて
いる画像を視認することができる。
If it is determined in step S3 that the left button 12 or the right button 13 has not been operated,
Proceeding to step S4, the LCD controller 56
It is determined whether or not image data to be displayed has been supplied from. When the image data to be displayed is received, the process proceeds to step S5, where the LCD controller 56 outputs the image data supplied from the CPU 52 to the LCD 57 and causes the LCD 57 to display the image data. Of course, at this time, the LCD controller 56 turns on the backlight 58 and illuminates the LCD 57 from behind. The touch pad 11 is disposed on the upper surface of the LCD 57. However, since the touch pad 11 is formed of a transparent material, the user may be disposed below (the back side) via the touch pad 11. The image displayed on the LCD 57 can be visually recognized.

【0046】ステップS4において、CPU52から表示
すべき画像データが供給されてきていないと判定された
場合、また、ステップS5のデータ表示処理が終了した
とき、ステップS1に戻り、それ以降の処理が繰り返し
実行される。
In step S4, when it is determined that the image data to be displayed has not been supplied from the CPU 52, or when the data display processing in step S5 is completed, the process returns to step S1, and the subsequent processing is repeated. Be executed.

【0047】このように、機能ボタン14がオンされて
いない場合には、ユーザは、タッチパッド11を介し
て、従来の場合と同様の入力を行うことができる。例え
ば、CPU52が、所定のアプリケーションを起動してい
る最中に、ユーザが図示せぬペンでタッチパッド11を
操作したとき、その座標データが、ステップS7でCPU
52に供給される。このときCPU52は、入力に対応す
る座標データをLCDコントローラ77に出力し、LCD41
にペンで描かれた軌跡を表示させる。
As described above, when the function button 14 is not turned on, the user can perform the same input through the touch pad 11 as in the conventional case. For example, when the CPU 52 operates the touch pad 11 with a pen (not shown) while a predetermined application is running, the coordinate data is stored in the CPU in step S7.
52. At this time, the CPU 52 outputs the coordinate data corresponding to the input to the LCD controller 77,
To display the locus drawn with the pen.

【0048】CPU52が、そのように制御した場合に
は、LCD41に表示された軌跡が、表示すべきデータと
してLCDコントローラ56に供給される。このとき、LCD
コントローラ56は、入力された画像データをLCD57
に出力し、表示させる。これにより、LCD41に表示さ
れた軌跡と同一の軌跡がLCD57にも表示される。
When the CPU 52 performs such control, the locus displayed on the LCD 41 is supplied to the LCD controller 56 as data to be displayed. At this time, the LCD
The controller 56 displays the input image data on the LCD 57.
And display it. Thereby, the same locus as the locus displayed on the LCD 41 is also displayed on the LCD 57.

【0049】次に、図4のフローチャートを参照して、
図3のステップS6における機能選択処理の詳細につい
て説明する。この処理は、上述したように、ユーザが機
能ボタンを14を操作(オン)したとき開始される。
Next, referring to the flowchart of FIG.
The details of the function selection processing in step S6 of FIG. 3 will be described. This processing is started when the user operates (turns on) the function button 14 as described above.

【0050】CPU25は、ステップS11において、各
種の機能をユーザに選択させるためのメニュー画面をLC
Dコントローラ56を介してLCD57に表示させる。図5
は、このようなメニュー画面の表示例を表している。こ
の表示例においては、テンキーボタン101−1、ゲー
ムボタン101−2、時計ボタン101−3、ペンボタ
ン101−4、メモボタン101−5、電話帳ボタン1
01−6、住所録ボタン101−7、カレンダーボタン
101−8、スケジュールボタン101−9、壁紙ボタ
ン101−10、電卓ボタン101−11、および機能
設定ボタン101−12などの各種の機能を選択するた
めの選択ボタンが表示されているとともに、いずれかの
選択ボタンを選択したとき、その選択を確定(決定)す
るとき操作される決定ボタン112が表示されている。
At step S11, the CPU 25 displays a menu screen for allowing the user to select various functions from the menu screen.
It is displayed on the LCD 57 via the D controller 56. FIG.
Represents a display example of such a menu screen. In this display example, a ten-key button 101-1, a game button 101-2, a clock button 101-3, a pen button 101-4, a memo button 101-5, a telephone directory button 1
Various functions such as 01-6, address book button 101-7, calendar button 101-8, schedule button 101-9, wallpaper button 101-10, calculator button 101-11, and function setting button 101-12 are selected. A selection button is displayed, and when one of the selection buttons is selected, a determination button 112 operated when finalizing (determining) the selection is displayed.

【0051】テンキーボタン101−1乃至電卓ボタン
101−11は、それぞれ対応するテンキー乃至電卓の
各機能を選択するとき操作されるが、機能設定ボタン1
01−12は、各機能の詳細な設定を行うとき操作され
るとともに、メニューの内容を変更するときにも操作さ
れる。
The ten-key buttons 101-1 through 101-11 are operated when selecting the corresponding functions of the ten-key and the calculator, respectively.
01-12 is operated when performing detailed setting of each function and also when changing the contents of the menu.

【0052】ステップS12において、CPU52は、選
択ボタン(テンキーボタン101−1乃至機能設定ボタ
ン101−12)のいずれかが操作されたか否かを判定
し、いずれも操作されていない場合には、ステップS1
3に進み、機能ボタン14が再び操作された(オフされ
た)か否かを判定する。機能ボタン14が操作されてい
ない場合には、ステップS12に戻り、再び、選択ボタ
ンが操作されたか否かが判定される。メニュー画面が表
示されている状態において、ステップS13で、機能ボ
タン14が再び操作されたと判定された場合、ステップ
S21に進み、CPU52は、LCDコントローラ56を制御
し、LCD57に表示されているメニュー画面を消去させ
る。
In step S12, the CPU 52 determines whether or not any of the selection buttons (the ten-key button 101-1 through the function setting button 101-12) has been operated. S1
Proceeding to 3, it is determined whether the function button 14 has been operated (turned off) again. If the function button 14 has not been operated, the process returns to step S12, and it is determined again whether the selection button has been operated. If it is determined in step S13 that the function button 14 has been operated again while the menu screen is being displayed, the process proceeds to step S21, where the CPU 52 controls the LCD controller 56 to display the menu screen displayed on the LCD 57. Is erased.

【0053】ステップS12において、いずれかの選択
ボタンが操作されたと判定された場合、ステップS14
に進み、CPU52は、LCDコントローラ56を制御し、LC
D57に表示されている選択ボタンのうち、選択された
ものをハイライト表示させる。例えば、図5に示す12
個の選択ボタンのうち、テンキーボタン101−1が操
作されたとき、テンキーボタン101−1がハイライト
表示される。すなわち、このとき、ユーザが、テンキー
ボタン101−1の表示されている位置を指で押圧する
と、その座標データが、タッチパッド11で検出され、
タッチパッドコントローラ59を介してCPU52に供給
される。CPU52は、入力された座標データをLCD57に
表示している選択ボタンの座標と比較し、いずれの選択
ボタンが操作されたのかを判定する。
If it is determined in step S12 that any one of the selection buttons has been operated, the process proceeds to step S14.
The CPU 52 controls the LCD controller 56 to
The selected one of the selection buttons displayed in D57 is highlighted. For example, 12 shown in FIG.
When the ten-key button 101-1 of the selection buttons is operated, the ten-key button 101-1 is highlighted. That is, at this time, when the user presses the displayed position of the ten-key button 101-1 with a finger, the coordinate data is detected by the touch pad 11, and
It is supplied to the CPU 52 via the touch pad controller 59. The CPU 52 compares the input coordinate data with the coordinates of the selection buttons displayed on the LCD 57 to determine which selection button has been operated.

【0054】次に、ステップS15において、CPU52
は、決定ボタン112が操作されたか否かを判定し、決
定ボタン112が操作されていない場合には、ステップ
S16に進み、他の選択ボタンが操作されたか否かを判
定する。他の選択ボタンが操作されたと判定された場合
には、ステップS14に戻り、それまでハイライト表示
されていた選択ボタンに代えて、新たに選択された選択
ボタンをハイライト表示させる。
Next, in step S15, the CPU 52
Determines whether the enter button 112 has been operated, and if the enter button 112 has not been operated, the process proceeds to step S16, and determines whether another select button has been operated. If it is determined that another selection button has been operated, the process returns to step S14, and the newly selected selection button is highlighted instead of the selection button previously highlighted.

【0055】ステップS16において、他の選択ボタン
が操作されていないと判定された場合には、ステップS
17に進み、CPU52は、機能ボタン14が再び操作
(オフ)されたか否かを判定する。機能ボタン14が操
作されていない場合には、ステップS15に戻り、再び
決定ボタン112が操作されたか否かを判定する。ステ
ップS17において、機能ボタン14が操作されたと判
定された場合、いま、メニュー画面を表示中であるの
で、この表示処理終了の指令と判定し、ステップS21
に進み、CPU52は、メニュー表示処理を終了させる。
If it is determined in step S16 that no other selection button has been operated, the process proceeds to step S16.
Proceeding to 17, the CPU 52 determines whether or not the function button 14 has been operated (off) again. If the function button 14 has not been operated, the process returns to step S15, and it is determined again whether the determination button 112 has been operated. If it is determined in step S17 that the function button 14 has been operated, the menu screen is currently being displayed.
The CPU 52 terminates the menu display processing.

【0056】ステップS15において、CPU52は、決
定ボタン112が操作されたと判定された場合、ステッ
プS18に進み、LCDコントローラ56を制御し、LCD5
7に、選択された選択ボタンに対応する画像を表示させ
る。例えば、ステップS14において、テンキーボタン
101−1がハイライト表示されている状態において、
決定ボタン112が操作された場合には、LCD57に
は、図6に示すように、テンキーの画像が表示される。
そこで、ステップS19において、ユーザは、ステップ
S18で表示された画像に基づいて、所定の機能を実行
することができる。例えば、図6に示すような画像が表
示されている場合、テンキーを操作して、ユーザは、数
字を入力することができる。すなわち、CPU52は、LCD
57に表示されている画像に基づいて、ユーザがタッチ
パッド11を操作して所定の入力を行ったとき、その入
力に対応する信号をCPU52に出力する。
If it is determined in step S15 that the enter button 112 has been operated, the CPU 52 proceeds to step S18, controls the LCD controller 56, and
7 displays an image corresponding to the selected selection button. For example, in step S14, when the numeric keypad button 101-1 is highlighted,
When the enter button 112 is operated, an image of the ten keys is displayed on the LCD 57 as shown in FIG.
Therefore, in step S19, the user can execute a predetermined function based on the image displayed in step S18. For example, when an image as shown in FIG. 6 is displayed, the user can input a number by operating the ten keys. That is, the CPU 52
When the user performs a predetermined input by operating the touch pad 11 based on the image displayed on the display 57, a signal corresponding to the input is output to the CPU 52.

【0057】ステップS20において、CPU52は、機
能ボタン14が操作(オフ)されたか否かを判定し、操
作されていない場合には、ステップS19に戻り、選択
された機能の実行処理を継続する。選択された機能の実
行処理中に機能ボタン14が操作されたと、ステップS
20において判定された場合、CPU52は、ステップS
11に戻り、LCD57に、再び、図5に示すようなメニ
ュー画面を表示させる。
In step S20, the CPU 52 determines whether or not the function button 14 has been operated (off). If the function button 14 has not been operated, the process returns to step S19 to continue the execution of the selected function. If the function button 14 is operated during the execution of the selected function, step S
If it is determined in step S20, the CPU 52 determines in step S
Returning to 11, the menu screen as shown in FIG. 5 is displayed on the LCD 57 again.

【0058】ペンボタン101−4が選択された場合に
は、ステップS19で、CPU52は、ペンによる入力モ
ードを設定し、ユーザがペンを用いてタッチパッド11
上をなぞったとき、そのなぞった軌跡を、例えば図7に
示すように、LCD57に表示させる。入力された軌跡を
文字認識させることにより、例えばユーザは、文字を手
書き入力することができる。
When the pen button 101-4 is selected, in step S19, the CPU 52 sets an input mode using the pen, and the user operates the touch pad 11 using the pen.
When the user traces the upper side, the traced path is displayed on the LCD 57, for example, as shown in FIG. By causing the input trajectory to perform character recognition, for example, the user can input characters by handwriting.

【0059】時計ボタン101−3が選択された場合に
おいては、ステップS19において、LCD57に、例え
ば、図8に示すような現在時刻を表す画像が表示され
る。この現在時刻は、RTC62により計時されたもので
ある。この場合の処理の詳細について、図9のフローチ
ャートを参照してさらに説明する。
If the clock button 101-3 has been selected, an image representing the current time, for example, as shown in FIG. 8, is displayed on the LCD 57 in step S19. This current time is measured by the RTC 62. The details of the process in this case will be further described with reference to the flowchart in FIG.

【0060】すなわち、時計ボタン101−3が選択さ
れた場合には、図4のステップS19とステップS20
において、図9のフローチャートに示す処理が実行され
る。最初にステップS31において、CPU52は、CPU5
2を介してRTC62が出力する現在時刻を読み取り、こ
れをこの携帯型パーソナルコンピュータ1の仕向地の都
市(この例の場合、東京)の現在時刻とする。CPU52
は、さらに、この現在時刻に対して所定の値を加算また
は減算することにより、他の都市(例えば、イギリスの
ロンドン)の現在時刻を演算する。ステップS32にお
いて、CPU52は、ステップS31で演算された東京の
現在時刻とロンドンの現在時刻を、例えば、図8に示す
ようにLCD57に表示させる。
That is, when the clock button 101-3 is selected, the steps S19 and S20 in FIG.
, The processing shown in the flowchart of FIG. 9 is executed. First, in step S31, the CPU 52
2, the current time output by the RTC 62 is read, and this is set as the current time of the destination city (Tokyo in this example) of the portable personal computer 1. CPU 52
Calculates the current time of another city (for example, London, UK) by adding or subtracting a predetermined value from the current time. In step S32, the CPU 52 causes the LCD 57 to display the current time in Tokyo and the current time in London calculated in step S31, for example, as shown in FIG.

【0061】次に、ステップS33に進み、CPU52
は、ユーザが機能ボタン14を操作することにより、時
計機能の処理の終了を指令したか否かを判定する。時計
の機能の処理の終了が指令された場合には、CPU52は
処理を終了させる。なお、このステップS33の処理
は、図4ではステップS20の処理として示されている
処理である。すなわち、図4のフローチャートにおいて
は、説明の便宜上、ステップS20の処理をステップS
19の処理とは独立に行うように示されているが、実際
には、図9のフローチャートに示すように、図4のステ
ップS20の処理は、ステップS19のサブルーチンの
中で行われる。
Next, the process proceeds to step S33, where the CPU 52
Determines whether the user operates the function button 14 to instruct the end of the clock function processing. When the end of the processing of the clock function is instructed, the CPU 52 ends the processing. Note that the process of step S33 is a process shown as the process of step S20 in FIG. That is, in the flowchart of FIG.
Although it is shown that the processing is performed independently of the processing of step 19, the processing of step S20 of FIG. 4 is actually performed in the subroutine of step S19 as shown in the flowchart of FIG.

【0062】ステップS33において処理の終了が指令
されていないと判定された場合、ステップS34に進
み、CPU52は、タッチパッド11がユーザにより操作
されたか否かを判定し、操作されたと判定された場合、
さらにステップS36に進み、タッチパッドコントロー
ラ59は、座標データを、CPU52に対して供給する。
If it is determined in step S33 that the end of the processing has not been instructed, the process proceeds to step S34, where the CPU 52 determines whether or not the touch pad 11 has been operated by the user. ,
In step S36, the touchpad controller 59 supplies the coordinate data to the CPU 52.

【0063】ステップS34において、タッチパッド1
1が操作されていないと判定された場合、ステップS3
5に進み、タッチパッドコントローラ59は、左ボタン
12または右ボタン13が操作されたか否かを判定し、
操作された場合には、ステップS37において、対応す
る信号をCPU52に出力する。ステップS35におい
て、左ボタン12または右ボタン13が操作されていな
いと判定された場合、ステップS31に戻り、それ以降
の処理が繰り返し実行される。
In step S34, touch pad 1
If it is determined that No. 1 has not been operated, step S3
Proceeding to 5, the touchpad controller 59 determines whether the left button 12 or the right button 13 has been operated,
If the operation has been performed, a corresponding signal is output to the CPU 52 in step S37. If it is determined in step S35 that the left button 12 or the right button 13 has not been operated, the process returns to step S31, and the subsequent processing is repeatedly executed.

【0064】すなわち、ステップS34乃至ステップS
37の処理は、上述した図3のステップS2,S3,S
7,S8の処理と実質的に同様の処理である。これによ
り、時計機能が実行されている場合には、ユーザは、タ
ッチパッド11を操作して座標データを入力したり、左
ボタン12または右ボタン13を操作することが可能と
されている。これは、時計表示機能の場合、この機能に
関連して何かを選択するという操作が行われることはな
いので、ユーザが何らかの操作をした場合には、それは
タッチパッド11、または左ボタン12もしくは右ボタ
ン13を本来の機能の目的のため操作したものと判定
し、その入力を受け付けるようにするためである。これ
により、操作性が改善される。
That is, steps S34 to S
The processing in step S37 is performed in steps S2, S3, S3 in FIG.
The processing is substantially the same as the processing in steps S7 and S8. Thus, when the clock function is being executed, the user can operate the touch pad 11 to input coordinate data and operate the left button 12 or the right button 13. This is because, in the case of the clock display function, since an operation of selecting something is not performed in relation to this function, when the user performs any operation, it is the touch pad 11 or the left button 12 or This is for determining that the right button 13 has been operated for the purpose of the original function and accepting the input. Thereby, operability is improved.

【0065】なお、図5に示したテンキーボタン101
−1乃至機能設定ボタン101−12のうち、時計ボタ
ン101−3以外に、カレンダーボタン101−8また
は壁紙ボタン101−10が選択され、それらに対応す
る機能が実行されている場合にも、同様に、タッチパッ
ド11から座標データを入力したり、左ボタン12また
は右ボタン13を操作することが許容される。
Note that the numeric keypad 101 shown in FIG.
The same applies when the calendar button 101-8 or the wallpaper button 101-10 is selected from the -1 to the function setting buttons 101-12, in addition to the clock button 101-3, and the corresponding function is executed. In addition, input of coordinate data from the touch pad 11 and operation of the left button 12 or the right button 13 are allowed.

【0066】カレンダーボタン101−8が操作された
場合には、LCD57に現在時刻を含む年月のカレンダー
が表示される。また、壁紙ボタン101−10が操作さ
れた場合には、LCD57に、予め設定した所定の画像
(壁紙画像)が表示される。この壁紙ボタン101−1
0を操作して所定の壁紙を選択したとき、機能ボタン1
4が操作されない状態において、LCD57には、その壁
紙が表示されることになるので、ユーザは、その壁紙が
表示されたタッチパッド11(LCD57)上を指で操作
して、タッチパッド11から所定の座標データを入力す
ることになる。
When the calendar button 101-8 is operated, a calendar of the year and month including the current time is displayed on the LCD 57. When the wallpaper button 101-10 is operated, a predetermined image (wallpaper image) set in advance is displayed on the LCD 57. This wallpaper button 101-1
When you operate 0 to select a predetermined wallpaper, the function button 1
In a state in which the wallpaper is not operated, the wallpaper is displayed on the LCD 57. Therefore, the user operates a finger on the touch pad 11 (LCD 57) on which the wallpaper is displayed, and a predetermined value is displayed from the touch pad 11. Will be input.

【0067】以上においては、メニュー画面を表示させ
るとき、機能ボタン14を操作(オン)し、これを消去
させるとき、再び機能ボタン14を操作(オフ)するよ
うにしたが、例えば、機能設定ボタン101−12を操
作して、図10に示すように、メニュー画面上に、非表
示ボタン101−13を表示させるようにした場合に
は、機能ボタン14が操作されたとき、図10に示すよ
うなメニュー画面をLCD57に表示させ、メニュー画面
が表示されている状態において、非表示ボタン101−
13が操作されたとき、メニュー画面の表示を消去させ
るようにすることができる。
In the above description, the function button 14 is operated (turned on) when the menu screen is displayed, and the function button 14 is operated (turned off) again when the menu screen is deleted. When the non-display button 101-13 is displayed on the menu screen by operating 101-12 as shown in FIG. 10, when the function button 14 is operated, as shown in FIG. The menu screen is displayed on the LCD 57. When the menu screen is displayed, the non-display button 101-
When the user operates the button 13, the display of the menu screen can be erased.

【0068】さらに、以上においては、機能ボタン14
を操作したとき、メニュー画面を表示させるようにした
が、例えば、図11に示すように、予め各種の機能に対
応するボタン121を設けるようにしてもよい。図11
の例においては、テンキーの機能ボタン121−1、ゲ
ームの機能ボタン121−2、時計の機能ボタン121
−3、およびペンの機能ボタン121−4が設けられて
いる。これらのボタン121(機能ボタン121−1乃
至121−4)は、図1に示す機能ボタン14に代え
て、本体2上に形成されるボタンである。これらのボタ
ン121のうち、例えば、テンキーの機能ボタン121
−1が操作された場合には、LCD57には、図11に示
すように、テンキーの画像が表示される。時計の機能ボ
タン121−3が操作された場合には、LCD57に、図
7に示すような時計の画像が表示されることになる。
Further, in the above, the function button 14
Is operated, the menu screen is displayed. For example, as shown in FIG. 11, buttons 121 corresponding to various functions may be provided in advance. FIG.
In the example, the function button 121-1 of the numeric keypad, the function button 121-2 of the game, the function button 121 of the clock
-3, and a pen function button 121-4. These buttons 121 (function buttons 121-1 to 121-4) are buttons formed on the main body 2 instead of the function buttons 14 shown in FIG. Of these buttons 121, for example, a function button 121 of a ten-key
When -1 is operated, an image of a ten-key is displayed on the LCD 57 as shown in FIG. When the function button 121-3 of the clock is operated, an image of the clock as shown in FIG.

【0069】この場合、図12に示すように、タッチパ
ッドコントローラ59に、テンキーの機能ボタン121
−1乃至ペンの機能ボタン121−4の出力が供給され
るように構成される。その他の構成は、図2における場
合と同様である。
In this case, as shown in FIG.
The output of the function buttons 121-4 of the pen from -1 to pen is configured to be supplied. Other configurations are the same as those in FIG.

【0070】図11の表示例の場合、一旦表示された機
能の画像を消去するには、対応する機能ボタン121が
再度操作される。
In the case of the display example shown in FIG. 11, to delete the image of the function once displayed, the corresponding function button 121 is operated again.

【0071】これに対して、例えば、図13に示すよう
に、LCD57に表示した各機能の画像を消去するとき操
作される非表示の機能ボタン121−5を設けるように
してもよい。このようにした場合には、ユーザは、LCD
57に、所定の機能の画像が表示されているとき、これ
を消去するには、非表示の機能ボタン121−5を操作
することになる。
On the other hand, for example, as shown in FIG. 13, a non-display function button 121-5 operated when deleting the image of each function displayed on the LCD 57 may be provided. In this case, the user must
When an image of a predetermined function is displayed on 57, the user can operate the non-display function button 121-5 to delete it.

【0072】さらに、メニューの画像をLCD57に表示
させたり、表示されているメニューまたは機能の画像を
消去させるとき操作されるボタンをキーボード4の所定
のキー(ショートカットキー)に割り当てるようにして
もよい。この場合、メニュー画像の表示が割り当てられ
たキーが操作されたとき、LCD57には、図14に示す
ようなメニュー画像が表示され、これを消去するキーが
操作されたとき、メニュー画像が消去される。
Further, a button operated when displaying a menu image on the LCD 57 or deleting a displayed menu or function image may be assigned to a predetermined key (shortcut key) of the keyboard 4. . In this case, when a key assigned to display a menu image is operated, a menu image as shown in FIG. 14 is displayed on the LCD 57, and when a key for deleting the menu image is operated, the menu image is erased. You.

【0073】図2の例においては、LCDコントローラ5
6、LCDパネル57、バックライト58、タッチパッド
コントローラ59、タッチパッド11、左ボタン12、
右ボタン13、および機能ボタン14などを、個別に配
置するようにしたが、これらを1つのブロックにまとめ
て収容するようにすることもできる。図15は、この場
合の内部の構成例を表している。すなわち、この構成例
においては、外部バス54に対して、タッチパッドブロ
ック141が接続されている。本体2のその他の構成
は、LCDコントローラ56、LCDパネル57、バックライ
ト58、タッチパッドコントローラ59、タッチパッド
11、左ボタン12、右ボタン13、および機能ボタン
14などが省略されている点を除き、図2における場合
と同様である。
In the example of FIG. 2, the LCD controller 5
6, LCD panel 57, backlight 58, touch pad controller 59, touch pad 11, left button 12,
Although the right button 13, the function button 14, and the like are arranged individually, they may be collectively accommodated in one block. FIG. 15 shows an example of the internal configuration in this case. That is, in this configuration example, the touch pad block 141 is connected to the external bus 54. Other configurations of the main body 2 are the same except that the LCD controller 56, the LCD panel 57, the backlight 58, the touch pad controller 59, the touch pad 11, the left button 12, the right button 13, the function button 14, and the like are omitted. , And FIG.

【0074】図16は、タッチパッドブロック141の
内部の構成例を表している。CPU161は、ROM162に
記憶されているプログラムに従って各種の処理を実行す
る。RAM163には、CPU161が実行するプログラムや
データなどが適宜記憶される。これらのCPU161、ROM
162、およびRAM163は、内部バス164を介して
相互に接続されている。この内部バス164にはまた、
タッチパッドコントローラ59、LCDコントローラ5
6、およびRTC166が接続されている。タッチパッド
コントローラ59は、タッチパッド11からの入力に対
応する座標データを出力するようになされているととも
に、左ボタン12、右ボタン13、または機能ボタン1
4の操作に対応する信号を出力する。
FIG. 16 shows an example of the internal configuration of the touch pad block 141. The CPU 161 performs various processes according to a program stored in the ROM 162. The RAM 163 stores programs and data executed by the CPU 161 as appropriate. These CPU 161 and ROM
The 162 and the RAM 163 are mutually connected via an internal bus 164. This internal bus 164 also has
Touch pad controller 59, LCD controller 5
6, and the RTC 166 are connected. The touch pad controller 59 outputs coordinate data corresponding to an input from the touch pad 11, and outputs the left button 12, the right button 13, or the function button 1
A signal corresponding to the operation 4 is output.

【0075】LCDコントローラ56は、バックライト5
8とLCD57を制御する。LCD57は、上述した場合と同
様に、タッチパッド11の後方に配置されている。RTC
166は計時動作を行い、時刻情報を出力する。バッテ
リ165は、タッチパッドブロック141の各部に必要
な電力を供給している。従って、このタッチパッドブロ
ック141は、本体2の電源がオフされていたり、CPU
52やCPU64のOSが起動されていない状態において
も使用可能となっている。内部バス164は、外部バス
54と接続されている。
The LCD controller 56 includes the backlight 5
8 and the LCD 57 are controlled. The LCD 57 is arranged behind the touch pad 11 as in the case described above. RTC
Reference numeral 166 performs a clocking operation and outputs time information. The battery 165 supplies necessary power to each part of the touch pad block 141. Therefore, the touch pad block 141 is provided when the power of the main body 2 is turned off or when the CPU
It can be used even when the OS of the CPU 52 or the CPU 64 is not running. The internal bus 164 is connected to the external bus 54.

【0076】なお、バッテリ165に代えて、本体2側
のバッテリ76からタッチパッドブロック141に電力
を供給するようにしてもよい。ただし、この場合におい
ても、本体2側が実質的に非動作状態とされていたとし
ても、タッチパッドブロック141は単独で使用可能と
される。
Note that power may be supplied to the touch pad block 141 from the battery 76 of the main body 2 instead of the battery 165. However, even in this case, the touch pad block 141 can be used alone even if the main body 2 is substantially inactive.

【0077】このようにタッチ操作部9がブロック化さ
れた場合においても、その動作は、基本的に、上述した
場合と同様に、図3と図4のフローチャートに示すよう
に実行される。ただし、その処理は、本体2のCPU52
により実行されるのではなく、タッチパッドブロック1
41内のCPU161により実行される。
Even when the touch operation unit 9 is blocked as described above, the operation is basically performed as shown in the flowcharts of FIGS. 3 and 4 as in the case described above. However, the processing is performed by the CPU 52 of the main unit 2.
Not performed by the touchpad block 1
41 is executed by the CPU 161 in the CPU 41.

【0078】例えば、図3のステップS1において、タ
ッチパッドブロック141内のCPU161は、機能ボタ
ン14が操作されたか否かを判定し、操作されている場
合には、ステップS6に進み、機能選択処理を実行す
る。すなわち、CPU161は、図4のフローチャートに
示したステップS11乃至ステップS21の処理を実行
する。その詳細は、上述した場合と同様であるので、そ
の説明はここでは省略する。
For example, in step S1 of FIG. 3, the CPU 161 in the touch pad block 141 determines whether or not the function button 14 has been operated. Execute That is, the CPU 161 executes the processing of steps S11 to S21 shown in the flowchart of FIG. The details are the same as those described above, and a description thereof will not be repeated.

【0079】ステップS1において、機能ボタン14が
操作されていないと判定された場合、CPU161は、ス
テップS2において、タッチパッド11が操作されたか
否かを判定し、操作されている場合には、ステップS7
において、座標データ出力処理を実行する。すなわち、
タッチパッド11が操作されると、タッチパッドコント
ローラ59は、その操作に対応する座標データを出力す
る。CPU161は、この座標データを、内部バス164
と外部バス54を介してマイクロコントローラ54のCP
U52に出力する。
If it is determined in step S1 that the function button 14 has not been operated, the CPU 161 determines whether or not the touch pad 11 has been operated in step S2. S7
, A coordinate data output process is executed. That is,
When the touch pad 11 is operated, the touch pad controller 59 outputs coordinate data corresponding to the operation. The CPU 161 transfers the coordinate data to the internal bus 164
And the CP of the microcontroller 54 via the external bus 54
Output to U52.

【0080】ステップS2において、タッチパッド11
が操作されていないと判定された場合、CPU161は、
ステップS3において、左ボタン12または右ボタン1
3が操作されたか否かを判定し、操作された場合には、
ステップS8において、信号出力処理を実行する。すな
わち、左ボタン12または右ボタン13が操作されたと
き、タッチパッドコントローラ59が操作に対応する信
号を出力する。CPU161は、この操作信号を内部バス
164と外部バス54を介してCPU52に出力する。
In step S2, the touch pad 11
If it is determined that is not operated, the CPU 161
In step S3, the left button 12 or the right button 1
It is determined whether or not 3 has been operated, and if it has been operated,
In step S8, a signal output process is performed. That is, when the left button 12 or the right button 13 is operated, the touch pad controller 59 outputs a signal corresponding to the operation. The CPU 161 outputs this operation signal to the CPU 52 via the internal bus 164 and the external bus 54.

【0081】ステップS3において、左ボタン12また
は右ボタン13が操作されていないと判定された場合、
ステップS4に進み、CPU161は、メインのCPU52よ
り表示すべきデータが供給されているか否かを判定す
る。表示すべきデータが供給されている場合には、ステ
ップS5に進み、CPU161は、CPU52より供給された
データをRAM163に一旦記憶させるとともに、それを
適宜読み出して、LCDコントローラ56を介してLCD57
に出力し、表示させる。
If it is determined in step S3 that the left button 12 or the right button 13 has not been operated,
Proceeding to step S4, the CPU 161 determines whether or not data to be displayed is supplied from the main CPU 52. If the data to be displayed has been supplied, the process proceeds to step S5, where the CPU 161 temporarily stores the data supplied from the CPU 52 in the RAM 163, reads out the data appropriately, and reads out the data appropriately via the LCD controller 56.
And display it.

【0082】ステップS4において、CPU52より表示
すべきデータが供給されていないと判定された場合、ス
テップS5の処理はスキップされ、ステップS1の処理
に戻り、それ以降の処理が繰り返し実行される。
If it is determined in step S4 that the data to be displayed is not supplied from the CPU 52, the process in step S5 is skipped, the process returns to step S1, and the subsequent processes are repeatedly executed.

【0083】図10、図11、図13、または図14に
示すように構成した場合にも、タッチ操作部9をブロッ
ク化することができる。
The touch operation unit 9 can be made into a block even when the touch operation unit 9 is configured as shown in FIG. 10, FIG. 11, FIG. 13, or FIG.

【0084】以上においては、タッチパッド11を本体
2に一体的に(不可分に)形成するようにしたが、PCカ
ードとして、別体として構成するようにすることもでき
る。図17は、この場合の構成例を表している。すなわ
ち、この構成例においては、本体2の左ボタン12と右
ボタン13が配置されている平面の近傍の前方端面に
は、スロット231が形成されており、ユーザは、この
スロット231にPCカード240を挿入することができ
るようになされている。PCカード240は、左ボタン2
41と右ボタン242を有し、PCカード240をスロッ
ト231から本体2に装着したとき、左ボタン241
は、本体2の左ボタン12の下方に位置し、右ボタン2
42は、右ボタン13の下方に位置し、ユーザが左ボタ
ン12を操作したとき、左ボタン241が操作され、ユ
ーザが右ボタン13を操作したとき、右ボタン242が
操作されるようになされている。そして、図1の実施の
形態において、タッチパッド11が形成されていた部分
には、孔232が形成されおり、PCカード240をスロ
ット231から本体2に装着したとき、PCカード240
のタッチパッド243が孔232から外部に露出し、ユ
ーザは、孔232を介してタッチパッド243を操作で
きるようになされている。
In the above description, the touch pad 11 is formed integrally (inseparably) on the main body 2, but it may be formed as a separate body as a PC card. FIG. 17 shows a configuration example in this case. That is, in this configuration example, a slot 231 is formed on the front end face near the plane on which the left button 12 and the right button 13 of the main body 2 are arranged. Has been made so that it can be inserted. PC card 240, left button 2
41 and a right button 242, and when the PC card 240 is inserted into the main body 2 from the slot 231, the left button 241
Is located below the left button 12 of the main body 2 and the right button 2
Reference numeral 42 is located below the right button 13. When the user operates the left button 12, the left button 241 is operated, and when the user operates the right button 13, the right button 242 is operated. I have. In the embodiment of FIG. 1, a hole 232 is formed in a portion where the touch pad 11 is formed, and when the PC card 240 is inserted into the main body 2 from the slot 231, the PC card 240
The touch pad 243 is exposed to the outside through the hole 232 so that a user can operate the touch pad 243 through the hole 232.

【0085】図18は、図17に示した携帯型パーソナ
ルコンピュータ1の内部の構成例を表している。この構
成例においては、図2と図12に示したLCDコントロー
ラ56、LCD57、バックライト58、タッチパッドコ
ントローラ59、タッチパッド11、左ボタン12、右
ボタン13、および機能ボタン14が省略された構成と
なっている。
FIG. 18 shows an example of the internal configuration of the portable personal computer 1 shown in FIG. In this configuration example, a configuration in which the LCD controller 56, LCD 57, backlight 58, touch pad controller 59, touch pad 11, left button 12, right button 13, and function button 14 shown in FIGS. 2 and 12 are omitted. It has become.

【0086】その代わりに、図18の例においては、PC
カード240が本体2に装着されたとき、インタフェー
ス251を介して内部バス50に接続されるようになさ
れている。その他の構成は、図2または図12に示した
場合と同様である。
Instead, in the example of FIG.
When the card 240 is mounted on the main body 2, the card 240 is connected to the internal bus 50 via the interface 251. Other configurations are the same as those shown in FIG. 2 or FIG.

【0087】図19は、PCカード240の内部の構成例
を表している。CPU261は、ROM262に記憶されてい
るプログラムに従って各種の処理を実行する。RAM26
3には、CPU261が各種の処理を実行する上において
必要なプログラムやデータが適宜記憶される。タッチパ
ッドコントローラ265には、左ボタン241と右ボタ
ン242の出力が供給されている。タッチパッドコント
ローラ265は、タッチパッド243が操作されたと
き、その座標データを検出する。LCDコントローラ26
6は、LCD268を制御して所定の画像を表示させると
ともに、LCD268の後方に配置されたバックライト2
67を駆動し、LCD268を照明させる。LCD268は、
タッチパッド243の後方に配置されているが、タッチ
パッド243は、タッチパッド11と同様に、透明な材
料により形成されているので、ユーザは、タッチパッド
243を介してLCD268の画像を視認することが可能
となされている。
FIG. 19 shows an example of the internal configuration of the PC card 240. The CPU 261 executes various processes according to a program stored in the ROM 262. RAM26
3 stores programs and data necessary for the CPU 261 to execute various processes. The outputs of the left button 241 and the right button 242 are supplied to the touchpad controller 265. When the touch pad 243 is operated, the touch pad controller 265 detects the coordinate data. LCD controller 26
Reference numeral 6 denotes a backlight 2 arranged behind the LCD 268 while controlling the LCD 268 to display a predetermined image.
By driving 67, the LCD 268 is illuminated. LCD 268
Although arranged behind the touch pad 243, the touch pad 243 is formed of a transparent material like the touch pad 11, so that the user can visually recognize an image on the LCD 268 through the touch pad 243. Has been made possible.

【0088】RTC272は時刻情報を出力する。コネク
タ270は、インタフェース251と接続され、入出力
インタフェース269は、コネクタ270とCPU261
の間のインタフェース処理を実行する。CPU261、ROM
262、RAM263、タッチパッドコントローラ26
5、LCDコントローラ266、RTC272、および入出力
インタフェース269は、それぞれ内部バス264を介
して相互に接続されている。バッテリ271は、PCカー
ド240の各部に必要な電力を供給している。
The RTC 272 outputs time information. The connector 270 is connected to the interface 251, and the input / output interface 269 is connected to the connector 270 and the CPU 261.
Execute the interface processing between. CPU 261, ROM
262, RAM 263, touch pad controller 26
5, the LCD controller 266, the RTC 272, and the input / output interface 269 are connected to each other via the internal bus 264. The battery 271 supplies necessary power to each part of the PC card 240.

【0089】次に、図20と図21のフローチャートを
参照して、その動作について説明する。最初に、ステッ
プS41において、PCカード240のCPU261は、PC
カード240が本体2に装着されたか否かを判定する。
PCカード240が、本体2に装着されたか否かは、コネ
クタ270を介して本体2のCPU52と通信できるか否
かから判定することができる。ステップS41におい
て、PCカード240が本体2に対して装着されていない
と判定された場合、ステップS42に進み、CPU261
は、PDA(Personal Digital Assistant)としての処理
を実行する。
Next, the operation will be described with reference to the flowcharts of FIGS. 20 and 21. First, in step S41, the CPU 261 of the PC card 240
It is determined whether the card 240 is mounted on the main body 2.
Whether or not the PC card 240 is attached to the main body 2 can be determined from whether or not the PC card 240 can communicate with the CPU 52 of the main body 2 via the connector 270. If it is determined in step S41 that the PC card 240 is not attached to the main body 2, the process proceeds to step S42, where the CPU 261
Executes a process as a PDA (Personal Digital Assistant).

【0090】例えば、ユーザが、ペンを用いてタッチパ
ッド243を操作すると、その座標データが、タッチパ
ッドコントローラ265を介してCPU261に供給され
る。CPU261は、この座標データに対応する軌跡をLCD
コントローラ266を介してLCD268に出力し、表示
させる。これにより、ユーザは、ペンで入力した軌跡を
目で確認することができる。ユーザが、ペンで所定の文
字を入力したとき、CPU261は、入力された座標デー
タに基づいて文字認識処理を行い、認識した結果得られ
た文字をLCDコントローラ266を介してLCD268に表
示させる。ユーザは、認識された結果表示された文字を
見て、誤っていれば、再度入力を行うなどして、所定の
文字情報を入力することができる。そして、所定の指令
が入力されたとき、CPU261は、入力された文字デー
タをRAM263に供給し、記憶させる。
For example, when the user operates the touch pad 243 using a pen, the coordinate data is supplied to the CPU 261 via the touch pad controller 265. The CPU 261 displays a locus corresponding to the coordinate data on an LCD.
The data is output to the LCD 268 via the controller 266 and displayed. This allows the user to visually check the trajectory input with the pen. When the user inputs a predetermined character with the pen, the CPU 261 performs a character recognition process based on the input coordinate data, and displays the character obtained as a result of the recognition on the LCD 268 via the LCD controller 266. The user looks at the characters displayed as a result of the recognition, and if wrong, can input predetermined character information by performing input again. Then, when a predetermined command is input, the CPU 261 supplies the input character data to the RAM 263 and stores it.

【0091】RAM263に記憶されたデータは、バッテ
リ271によりバックアップされているため、PCカード
240を本体1から分離した状態で使用していたとして
も、そのデータが消去されるようなことはない。また、
バッテリ271が、各部に必要な電力を供給しているの
で、PCカード240が、本体2から分離独立された状態
であったとしても、ユーザは、PCカード240をPDAと
して機能させることができる。さらに、仮に、PCカード
240が、本体2に対して装着された状態であり、本体
2側の電源がオフされた状態であったり、OSが起動さ
れていない状態であったとしても、PCカード240は、
単独で使用することができる。
Since the data stored in the RAM 263 is backed up by the battery 271, even if the PC card 240 is used while being separated from the main body 1, the data is not erased. Also,
Since the battery 271 supplies necessary power to each unit, the user can make the PC card 240 function as a PDA even if the PC card 240 is separated and independent from the main body 2. Further, even if the PC card 240 is attached to the main body 2 and the power of the main body 2 is turned off or the OS is not started, the PC card 240 240 is
Can be used alone.

【0092】ステップS41において、PCカード240
が本体2に装着されていると判定された場合、ステップ
S43に進み、CPU261は、キーボード4のうち、予
め割り当てられている所定のキーが操作されたか否かを
判定する。すなわち、キーボード4の所定のキーが操作
されたとき、本体2のキーボードコントローラ61は、
操作されたキーに対応する信号ををCPU52に出力す
る。CPU52は、入力されたキーを示す信号を、インタ
フェース251を介してPCカード240に出力する。
In step S41, the PC card 240
When it is determined that is mounted on the main body 2, the process proceeds to step S43, and the CPU 261 determines whether or not a predetermined key assigned in the keyboard 4 has been operated. That is, when a predetermined key of the keyboard 4 is operated, the keyboard controller 61 of the main body 2
A signal corresponding to the operated key is output to the CPU 52. CPU 52 outputs a signal indicating the input key to PC card 240 via interface 251.

【0093】PCカード240においては、本体2のCPU
52から供給されてきた信号をコネクタ270、入出力
インタフェース269を介してCPU261が受け取る。C
PU261は、この受け取った信号から操作されたキーが
何であるかを判定する。
In the PC card 240, the CPU of the main unit 2
The CPU 261 receives the signal supplied from the CPU 52 through the connector 270 and the input / output interface 269. C
The PU 261 determines the operated key from the received signal.

【0094】ステップS43において、予め定められて
いる所定の割当キーが操作されていないと判定された場
合、ステップS44に進み、CPU261は、タッチパッ
ド243が操作されたか否かを判定する。タッチパッド
243が操作された場合には、ステップS47に進み、
CPU261は、操作に対応する座標データを出力する処
理を実行する。すなわち、タッチパッド243が操作さ
れると、タッチパッドコントローラ265は、操作位置
に対応する座標データを出力する。CPU261は、この
座標データを入出力インタフェース159、コネクタ2
70を介して本体2に出力する。
If it is determined in step S43 that the predetermined assigned key has not been operated, the process proceeds to step S44, and the CPU 261 determines whether or not the touch pad 243 has been operated. If the touch pad 243 has been operated, the process proceeds to step S47,
The CPU 261 executes a process of outputting coordinate data corresponding to the operation. That is, when the touch pad 243 is operated, the touch pad controller 265 outputs coordinate data corresponding to the operation position. The CPU 261 transmits the coordinate data to the input / output interface 159, the connector 2
The data is output to the main unit 2 via the main unit 70.

【0095】本体2において、CPU52は、インタフェ
ース251を介して、この座標データを受け取ると、そ
の座標データに対応する処理を実行する。すなわち、こ
のとき、CPU52は、図1のタッチパッド11が操作さ
れた場合と同様の処理を実行することができる。
In the main body 2, when receiving the coordinate data via the interface 251, the CPU 52 executes a process corresponding to the coordinate data. That is, at this time, the CPU 52 can execute the same processing as when the touch pad 11 of FIG. 1 is operated.

【0096】ステップS44において、タッチパッド2
43が操作されていないと判定された場合、ステップS
45に進み、CPU261は、左ボタン241または右ボ
タン242が操作されたか否かを判定する。左ボタン2
41または右ボタン242が操作された場合には、ステ
ップS48に進み、CPU261は、対応する信号を出力
する処理を実行する。
In step S44, touch pad 2
If it is determined that the button 43 has not been operated, step S
Proceeding to 45, the CPU 261 determines whether the left button 241 or the right button 242 has been operated. Left button 2
If the button 41 or the right button 242 has been operated, the process proceeds to step S48, and the CPU 261 executes a process of outputting a corresponding signal.

【0097】すなわち、ユーザが、図17に示す左ボタ
ン12または右ボタン13を操作すると、その下方に配
置されている左ボタン241または右ボタン242が操
作される。従って、このとき、PCカード240のタッチ
パッドコントローラ265は、左ボタン241または右
ボタン242が操作された信号を出力する。CPU261
は、この操作信号を入出力インタフェース269、コネ
クタ270を介して、本体2側に出力する。
That is, when the user operates the left button 12 or the right button 13 shown in FIG. 17, the left button 241 or the right button 242 arranged thereunder is operated. Therefore, at this time, the touchpad controller 265 of the PC card 240 outputs a signal indicating that the left button 241 or the right button 242 has been operated. CPU 261
Outputs the operation signal to the main body 2 via the input / output interface 269 and the connector 270.

【0098】本体2側において、CPU52は、PCカード
240からの操作信号をインタフェース251を介して
受け取ると、その操作に対応する処理を実行する。すな
わち、この場合においても、図1の左ボタン12または
右ボタン13が操作された場合と同様の処理が行われ
る。
On the main unit 2 side, when receiving an operation signal from the PC card 240 via the interface 251, the CPU 52 executes a process corresponding to the operation. That is, also in this case, the same processing as when the left button 12 or the right button 13 in FIG. 1 is operated is performed.

【0099】ステップS45において、左ボタン241
または右ボタン242が操作されていないと判定された
場合、ステップS46に進み、CPU261は、本体2のC
PU52より表示すべきデータが送られてきたか否かを判
定する。表示すべきデータが送られてきた場合には、ス
テップS49に進み、CPU261は、このデータをコネ
クタ270、入出力インタフェース269を介して受信
すると、これをLCDコントローラ266を介してLCD26
8に表示させる。本体2からのデータの表示が、ステッ
プS50において、ユーザが終了を指令するまで継続さ
れる。ステップS46において、本体2より表示すべき
データが送られてきていないと判定された場合、または
ステップS50において、本体2より供給されてきたデ
ータの表示の終了が指令されたと判定された場合、ステ
ップS43に戻り、それ以降の処理が繰り返し実行され
る。
In step S45, the left button 241
Alternatively, if it is determined that the right button 242 has not been operated, the process proceeds to step S46, where the CPU 261
It is determined whether data to be displayed has been sent from the PU 52. If the data to be displayed has been sent, the process proceeds to step S49, where the CPU 261 receives this data via the connector 270 and the input / output interface 269, and receives this data via the LCD controller 266.
8 is displayed. The display of data from the main body 2 is continued in step S50 until the user commands termination. If it is determined in step S46 that the data to be displayed has not been sent from the main body 2, or if it is determined in step S50 that the display of the data supplied from the main body 2 has been instructed, the process proceeds to step S50. Returning to S43, the subsequent processing is repeatedly executed.

【0100】ステップS43において、キーボード4の
キーのうち、機能選択メニューを表示させる機能が割り
当てられた所定のキーが操作されたと判定された場合、
ステップS51に進み、CPU261は、LCDコントローラ
266を制御し、LCD268に、例えば、図22に示す
ようなメニュー画面を表示させる。この表示例において
は、図10に示したテンキーボタン101−1乃至機能
設定ボタン101−12のうちの、機能設定ボタン10
1−12に代えて、転送ボタン101−14が表示され
ている。
If it is determined in step S43 that a predetermined key among the keys of the keyboard 4 to which the function for displaying the function selection menu is assigned has been operated,
In step S51, the CPU 261 controls the LCD controller 266 to cause the LCD 268 to display, for example, a menu screen as shown in FIG. In this display example, of the ten-key button 101-1 to the function setting button 101-12 shown in FIG.
A transfer button 101-14 is displayed instead of 1-12.

【0101】次に、ステップS52において、CPU26
1は、テンキーボタン101−1乃至転送ボタン101
−14の選択ボタンのうち、いずれかが操作されたか否
かを判定する。選択ボタンが操作されたか否かの判定処
理は、ユーザがタッチパッド243を操作すると、タッ
チパッドコントローラ265から、その座標データが出
力されるので、CPU261は、この座標データをLCD26
8に表示しているボタンの座標データと比較することで
行うことができる。いずれの選択ボタンも操作されてい
ない場合には、ステップS60に進み、メニュー画面の
表示処理を終了させるために割り当てられている所定の
キーが操作されたか否かが判定され、そのキーが操作さ
れていない場合には、ステップS52に戻り、それ以降
の処理が繰り返し実行される。ステップS60におい
て、メニュー画面の表示処理を終了させる機能が割り当
てられているキーが操作されたと判定された場合、ステ
ップS61に進み、CPU261は、メニュー表示処理を
終了させる。すなわち、このとき、CPU261は、LCDコ
ントローラ266を制御し、LCD268のメニュー画面
を消去させる。その後、ステップS43に戻り、それ以
降の処理が繰り返し実行される。
Next, in step S52, the CPU 26
1 is a numeric keypad button 101-1 to a transfer button 101
It is determined whether any of the -14 selection buttons has been operated. When the user operates the touch pad 243, the coordinate data is output from the touch pad controller 265 in the determination process as to whether or not the selection button has been operated.
The comparison can be made with the coordinate data of the button displayed in FIG. If none of the selection buttons has been operated, the process proceeds to step S60, where it is determined whether or not a predetermined key assigned to end the menu screen display processing has been operated, and that key has been operated. If not, the process returns to step S52, and the subsequent processes are repeatedly executed. When it is determined in step S60 that the key to which the function of ending the display processing of the menu screen is assigned has been operated, the process proceeds to step S61, and the CPU 261 ends the menu display processing. That is, at this time, the CPU 261 controls the LCD controller 266 to erase the menu screen of the LCD 268. Thereafter, the process returns to step S43, and the subsequent processing is repeatedly executed.

【0102】ステップS52において、選択ボタンのう
ち、いずれかが操作されたと判定された場合、ステップ
S53に進み、CPU261は、LCDコントローラ266を
制御し、LCD268に表示されている選択ボタンのう
ち、操作された選択ボタンをハイライト表示させる。例
えば、図22に示すようなメニュー画面が表示されてい
る状態において、転送ボタン101−14が操作された
とき、転送ボタン101−14がハイライト表示され
る。
If it is determined in step S52 that one of the selection buttons has been operated, the process proceeds to step S53, in which the CPU 261 controls the LCD controller 266 to operate the selection button displayed on the LCD 268. Highlights the selected button. For example, when the transfer button 101-14 is operated while the menu screen as shown in FIG. 22 is displayed, the transfer button 101-14 is highlighted.

【0103】次に、ステップS54において、CPU26
1は、決定ボタン112が操作されたか否かを判定す
る。決定ボタン112が操作されていない場合には、ス
テップS55に進み、他の選択ボタンが操作されたか否
かが判定される。他の選択ボタンが操作された場合に
は、ステップS53に戻り、それまでハイライト表示さ
れていたボタンに代えて、新たに操作された選択ボタン
がハイライト表示される。ステップS55において、他
の選択ボタンが操作されていないと判定された場合に
は、ステップS54に戻り、再び、決定ボタン112が
操作されたか否かが判定される。
Next, in step S54, the CPU 26
1 determines whether or not the enter button 112 has been operated. If the determination button 112 has not been operated, the process proceeds to step S55, and it is determined whether another selection button has been operated. If another selection button has been operated, the flow returns to step S53, and the newly operated selection button is highlighted instead of the previously highlighted button. If it is determined in step S55 that another selection button has not been operated, the process returns to step S54, and it is determined again whether or not the determination button 112 has been operated.

【0104】ステップS54において、決定ボタン11
2が操作されたと判定された場合、ステップS56に進
み、いま選択されているのは(ハイライト表示されてい
るのは)、非表示ボタン101−13であるか否かが判
定される。いま、選択されているのが非表示ボタン10
1−13である場合には、ステップS61に進み、CPU
261は、メニュー表示処理を実行する。そして、ステ
ップS43に戻り、それ以降の処理を繰り返し実行す
る。
At the step S54, the enter button 11
If it is determined that No. 2 has been operated, the process proceeds to step S56, and it is determined whether or not the currently selected button (highlighted) is the non-display button 101-13. Now, the non-display button 10 is selected.
If it is 1-13, the process proceeds to step S61 where the CPU
Reference numeral 261 executes a menu display process. Then, the process returns to step S43, and the subsequent processes are repeatedly executed.

【0105】ステップS56において、いま選択されて
いるのは非表示ボタン101−13ではないと判定され
た場合は、ステップS57に進み、CPU261は、LCDコ
ントローラ266を制御し、そのとき選択されている選
択ボタンに対応する画像をLCD268に出力し、表示さ
せる。そして、CPU261は、ステップS58におい
て、LCD268に表示させた画像に基づいて、所定の機
能を実行する処理を行う。
If it is determined in step S56 that the currently selected button is not the non-display button 101-13, the process proceeds to step S57, in which the CPU 261 controls the LCD controller 266 to select the button. An image corresponding to the selection button is output to LCD 268 and displayed. Then, in step S58, the CPU 261 performs a process of executing a predetermined function based on the image displayed on the LCD 268.

【0106】例えば、ユーザが、転送ボタン101−1
4を操作すると、その操作信号が、タッチパッドコント
ローラ265からCPU261に通知される。このとき、C
PU261は、RAM263に記憶されているデータ(図2
0のステップS42の処理で記憶させたデータ)を読み
出し、入出力インタフェース269、コネクタ270を
介して本体2側に転送させる。本体2側のCPU52は、
このデータを受信したとき、それをRAM53に記憶させ
る。すなわち、これにより、PCカード240が、本体2
から離脱された状態で入力されたデータ、あるいは本体
2にPCカード240が装着されてはいるが、本体2の電
源がオフされていたり、本体2側のOSが起動されてい
ない状態において、PCカード240で記録したデータ
が、PCカード240から本体2側に転送され、本体2側
のRAM53に記憶される。
For example, when the user presses the transfer button 101-1
When the user operates No. 4, the operation signal is notified from the touch pad controller 265 to the CPU 261. At this time, C
The PU 261 stores the data (FIG. 2) stored in the RAM 263.
0) (data stored in step S42) and transferred to the main unit 2 via the input / output interface 269 and the connector 270. The CPU 52 of the main body 2
When this data is received, it is stored in the RAM 53. That is, this allows the PC card 240 to be
When the PC card 240 is inserted in the main unit 2 but the power of the main unit 2 is turned off or the OS of the main unit 2 is not started, the PC Data recorded on the card 240 is transferred from the PC card 240 to the main unit 2 and stored in the RAM 53 of the main unit 2.

【0107】ステップS59において、選択された機能
の実行処理の終了が、ユーザより指令されたと判定され
るまで、ステップS58の処理は繰り返し実行される。
ステップS59において、選択された機能の処理の終了
が、ユーザより指令されたと判定された場合、CPU26
1は選択された機能の実行処理を終了させる。その後、
ステップS51に戻り、CPU261は、メニュー画面表
示処理を実行する。そして、上述した場合と同様の処理
が繰り返される。
In step S59, the processing of step S58 is repeatedly executed until it is determined that the execution of the selected function has been instructed by the user.
If it is determined in step S59 that the end of the processing of the selected function has been instructed by the user, the CPU 26
1 terminates the execution process of the selected function. afterwards,
Returning to step S51, the CPU 261 executes a menu screen display process. Then, the same processing as in the case described above is repeated.

【0108】以上のようにして、この実施の形態の場
合、PCカード240が、本体2側と独立に動作させるこ
とが可能であるので、本体2側の電源をオフしたり、そ
のOSを起動していない状態においても、常時、動作状
態とさせておくことが可能となり、本体2側の動作状態
に依存せずに、自律的に、各種機能(例えば、スケジュ
ーラ、電子ペットの飼育ゲームなど)を実行させておく
ことが可能となる。
As described above, in the case of this embodiment, the PC card 240 can be operated independently of the main unit 2, so that the power of the main unit 2 is turned off or its OS is started. Even when not in operation, it is possible to keep the operation state at all times, and autonomously various functions (for example, a scheduler, an electronic pet breeding game, etc.) without depending on the operation state of the main body 2 side. Can be executed.

【0109】以上においては、キーボード4は、本体2
側の入力にのみ用いるようにしたが、PCカード240側
の入力にも用いるようにしてもよい。
In the above description, the keyboard 4 is
It is used only for input on the PC card 240 side, but may be used for input on the PC card 240 side.

【0110】また、タッチパッド11または243側の
LCD11または268には、機能の選択ボタンを表示さ
せるようにしたが、プログラムの選択ボタン(例えば、
アイコン)などを表示させるようにしてもよい。
Further, the touch pad 11 or 243 side
A function selection button is displayed on the LCD 11 or 268, but a program selection button (for example,
Icon) or the like may be displayed.

【0111】[0111]

【発明の効果】以上の如く、請求項1に記載の情報処理
装置、および請求項14に記載の情報処理装置によれ
ば、第1の処理手段に、通常の動作モードにおいて、第
2の入力手段から入力された座標データに基づいて、第
1の表示手段に情報を表示させるようにしたので、装置
を大型化することなく、多くの情報を簡単に、かつ、ポ
インティングデバイスとして入力することができる。
As described above, according to the information processing apparatus according to the first aspect and the information processing apparatus according to the fourteenth aspect, the second processing is performed by the first processing means in the normal operation mode. Since the information is displayed on the first display means based on the coordinate data input from the means, much information can be input easily and as a pointing device without increasing the size of the apparatus. it can.

【0112】請求項20に記載の制御方法、および請求
項23に記載の記録媒体のプログラムによれば、通常の
動作モードにおいて、第2の入力手段から入力された座
標データに基づいて、第1の表示手段に情報を表示させ
るようにしたので、装置を大型化することなく、多くの
情報を簡単に、かつ、ポインティングデバイスとして入
力することができる。
According to the control method of the twentieth aspect and the program of the recording medium of the twenty-third aspect, in the normal operation mode, the first operation mode is set based on the coordinate data input from the second input means. Since the information is displayed on the display means, a large amount of information can be easily input as a pointing device without increasing the size of the apparatus.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明を適用した携帯型パーソナルコンピュー
タ1の外観の構成を示す斜視図である。
FIG. 1 is a perspective view showing an external configuration of a portable personal computer 1 to which the present invention is applied.

【図2】図1の携帯型パーソナルコンピュータ1の内部
の構成例を示すブロック図である。
FIG. 2 is a block diagram showing an example of the internal configuration of the portable personal computer 1 of FIG.

【図3】図1の携帯型パーソナルコンピュータ1の動作
を説明するフローチャートである。
FIG. 3 is a flowchart illustrating an operation of the portable personal computer 1 of FIG.

【図4】図3のステップS6の機能選択処理の詳細を説
明するフローチャートである。
FIG. 4 is a flowchart illustrating details of a function selection process in step S6 of FIG. 3;

【図5】図2のLCD57の表示例を示す図である。FIG. 5 is a diagram showing a display example of an LCD 57 in FIG. 2;

【図6】図2のLCD57の表示例を示す図である。6 is a diagram showing a display example of an LCD 57 in FIG.

【図7】図2のLCD57の表示例を示す図である。FIG. 7 is a diagram showing a display example of an LCD 57 in FIG. 2;

【図8】図2のLCD57の表示例を示す図である。8 is a diagram showing a display example of the LCD 57 in FIG.

【図9】時計機能の処理を説明するフローチャートであ
る。
FIG. 9 is a flowchart illustrating processing of a clock function.

【図10】図2のLCD57の表示例を示す図である。FIG. 10 is a diagram showing a display example of an LCD 57 in FIG. 2;

【図11】他の機能ボタンの例を示す図である。FIG. 11 is a diagram showing an example of another function button.

【図12】図11の機能ボタンを設けた場合の携帯型パ
ーソナルコンピュータ1の内部の構成例を示すブロック
図である。
12 is a block diagram showing an example of the internal configuration of the portable personal computer 1 when the function button shown in FIG. 11 is provided.

【図13】機能ボタンのさらに他の例を示す図である。FIG. 13 is a diagram showing still another example of a function button.

【図14】図2のLCD57の表示例を示す図である。FIG. 14 is a diagram showing a display example of the LCD 57 of FIG. 2;

【図15】本発明を適用した携帯型パーソナルコンピュ
ータ1の内部の他の構成例を示すブロック図である。
FIG. 15 is a block diagram showing another example of the internal configuration of the portable personal computer 1 to which the present invention is applied.

【図16】図15のタッチパッドブロック141の内部
の構成例を示すブロック図である。
16 is a block diagram showing an example of an internal configuration of a touch pad block 141 in FIG.

【図17】本発明を適用した携帯型パーソナルコンピュ
ータ1の他の外観構成を示す斜視図である。
FIG. 17 is a perspective view showing another external configuration of the portable personal computer 1 to which the present invention is applied.

【図18】図17の携帯型パーソナルコンピュータ1の
内部の構成例を示すブロック図である。
18 is a block diagram showing an example of the internal configuration of the portable personal computer 1 of FIG.

【図19】図17のPCカード240の内部の構成例を示
すブロック図である。
19 is a block diagram showing an example of the internal configuration of the PC card 240 in FIG.

【図20】図17のPCカード240の動作を説明するフ
ローチャートである。
20 is a flowchart illustrating an operation of the PC card 240 in FIG.

【図21】図17のPCカード240の動作を説明するフ
ローチャートである。
21 is a flowchart illustrating the operation of the PC card 240 in FIG.

【図22】図19のLCD268の表示例を示す図であ
る。
FIG. 22 is a diagram showing a display example of the LCD 268 of FIG.

【符号の説明】[Explanation of symbols]

1 携帯型パーソナルコンピュータ, 2 本体, 3
表示部, 4 キーボード, 5 バッテリパック,
8 スロット, 9 タッチ操作部, 11タッチパ
ッド, 12 左ボタン, 13 右ボタン, 14
機能ボタン,15 マイクロホン, 16 スピーカ,
41 LCD, 52 CPU, 53RAM, 55 HDD,
56 LCDコントローラ, 57 LCD, 58 バッ
クライト, 59 タッチパッドコントローラ, 61
キーボードコントローラ, 66 CPU, 77 LCD
コントローラ
1 portable personal computer, 2 body, 3
Display, 4 keyboard, 5 battery pack,
8 slots, 9 touch operation parts, 11 touch pads, 12 left buttons, 13 right buttons, 14
Function buttons, 15 microphones, 16 speakers,
41 LCD, 52 CPU, 53RAM, 55 HDD,
56 LCD controller, 57 LCD, 58 backlight, 59 touch pad controller, 61
Keyboard controller, 66 CPU, 77 LCD
controller

Claims (25)

【特許請求の範囲】[Claims] 【請求項1】 所定の入力を行う第1の入力手段と、 前記第1の入力手段によって入力された情報を処理する
第1の処理手段と、 前記第1の処理手段によって処理された情報を表示する
第1の表示手段とを含む情報処理装置において、 情報を表示する第2の表示手段と、 前記第2の表示手段に表示された情報が観察可能なよう
に、前記第2の表示手段の表側に配置された、所定の入
力を行う第2の入力手段とを備え、 前記第1の処理手段は、通常動作モードにおいて、前記
第2の入力手段から入力された座標データに基づいて前
記第1の表示手段に情報を表示させることを特徴とする
情報処理装置。
A first input unit configured to perform a predetermined input; a first processing unit configured to process information input by the first input unit; and an information processed by the first processing unit. An information processing apparatus including first display means for displaying, a second display means for displaying information, and a second display means for observing information displayed on the second display means. And second input means for performing a predetermined input, disposed on the front side of the first processing means, wherein the first processing means performs a normal operation mode based on the coordinate data input from the second input means. An information processing apparatus characterized by displaying information on a first display means.
【請求項2】 前記第1の処理手段は、拡張モードにお
いて、前記第2の入力手段から入力される機能を選択さ
せるためのメニューを前記第2の表示手段に表示させる
ことを特徴とする請求項1に記載の情報処理装置。
2. The image processing apparatus according to claim 1, wherein the first processing means displays a menu for selecting a function input from the second input means on the second display means in an extended mode. Item 2. The information processing device according to item 1.
【請求項3】 前記第1の処理手段は、前記メニューか
ら選択された機能に応じた画像を前記第2の表示手段に
表示させることを特徴とする請求項2に記載の情報処理
装置。
3. The information processing apparatus according to claim 2, wherein the first processing unit displays an image corresponding to a function selected from the menu on the second display unit.
【請求項4】 前記画像は、テンキーの画像であること
を特徴とする請求項3に記載の情報処理装置。
4. The information processing apparatus according to claim 3, wherein the image is a ten-key image.
【請求項5】 前記画像は、時刻に関する画像であるこ
とを特徴とする請求項3に記載の情報処理装置。
5. The information processing apparatus according to claim 3, wherein the image is an image relating to time.
【請求項6】 前記画像は、カレンダーの画像であるこ
とを特徴とする請求項3に記載の情報処理装置。
6. The information processing apparatus according to claim 3, wherein the image is a calendar image.
【請求項7】 前記画像は、スケジュール帳の画像であ
ることを特徴とする請求項3に記載の情報処理装置。
7. The information processing apparatus according to claim 3, wherein the image is a schedule book image.
【請求項8】 前記画像は、電卓の画像であることを特
徴とする請求項3に記載の情報処置装置。
8. The information processing apparatus according to claim 3, wherein the image is an image of a calculator.
【請求項9】 前記第1の処理手段は、前記第2の入力
手段から入力された機能に応じた処理を行うことを特徴
とする請求項3に記載の情報処理装置。
9. The information processing apparatus according to claim 3, wherein the first processing unit performs a process according to a function input from the second input unit.
【請求項10】 前記第2の表示手段に表示させる機能
に対応した操作手段をさらに含み、 前記第1の処理手段は、前記操作手段が操作されたとき
対応する機能の画像を前記第2の表示手段に表示させる
ことを特徴とする請求項1に記載の情報処理装置。
10. An operation unit corresponding to a function to be displayed on the second display unit, wherein the first processing unit displays an image of a function corresponding to the second operation unit when the operation unit is operated. The information processing apparatus according to claim 1, wherein the information is displayed on a display unit.
【請求項11】 前記操作手段は、少なくとも1つの釦
からなることを特徴とする請求項10に記載の情報処理
装置。
11. The information processing apparatus according to claim 10, wherein said operation means comprises at least one button.
【請求項12】 前記第2の入力手段は、前記第2の表
示手段が実質的に非動作状態とされているときでも、操
作に対応する座標データを出力することを特徴とする請
求項1に記載の情報処理装置。
12. The apparatus according to claim 1, wherein said second input means outputs coordinate data corresponding to an operation even when said second display means is substantially inactive. An information processing apparatus according to claim 1.
【請求項13】 前記第2の表示手段、前記第2の入力
手段、および前記第2の処理手段は、前記情報処理装置
に対して着脱自在とされていることを特徴とする請求項
1に記載の情報処理装置。
13. The information processing apparatus according to claim 1, wherein said second display means, said second input means, and said second processing means are detachable from said information processing apparatus. An information processing apparatus according to claim 1.
【請求項14】 所定の入力を行う第1の入力手段と、 前記第1の入力手段によって入力された情報を処理する
第1の処理手段と、 前記第1の処理手段によって処理された情報を表示する
第1の表示手段とを含む情報処埋装置において、 情報を表示する第2の表示手段と、 前記第2の表示手段に表示された情報が観察可能なよう
に、前記第2の表示手段の表側に配置された、所定の入
力を行う第2の入力手段と、 前記第2の入力手段によって入力された情報を処理する
第2の処埋手段とを備え、 前記第1の処理手段は、通常動作モードにおいて、前記
第2の入力手段から入力された座標データに基づいて前
記第1の表示手段に情報を表示させることを特徴とする
情報処理装置。
14. A first input means for performing a predetermined input, a first processing means for processing information input by the first input means, and an information processing means for processing the information processed by the first processing means. An information processing apparatus comprising: a first display means for displaying; a second display means for displaying information; and the second display so that the information displayed on the second display means can be observed. A second input unit arranged on the front side of the unit for performing a predetermined input; and a second embedding unit for processing information input by the second input unit, the first processing unit. The information processing apparatus according to claim 1, wherein in the normal operation mode, the information is displayed on the first display means based on the coordinate data input from the second input means.
【請求項15】 前記第2の処理手段は、前記第2の入
力手段よって入力された情報を前記第1の処理手段に供
給し、 前記第1の処理手段は、前記第2の入力手段によって入
力された情報を処理し、前記第1の表示手段に表示させ
ることを特徴とする請求項14に記載の情報処理装置。
15. The second processing means supplies information input by the second input means to the first processing means, wherein the first processing means is provided by the second input means. The information processing apparatus according to claim 14, wherein the input information is processed and displayed on the first display unit.
【請求項16】 前記第2の処理手段は、拡張モードに
おいて、前記第2の入力手段から入力される機能を選択
させるためのメニューを前記第2の表示手段に表示させ
ることを特徴とする請求項14に記載の情報処埋装置。
16. The apparatus according to claim 16, wherein said second processing means displays a menu for selecting a function input from said second input means on said second display means in an extended mode. Item 15. The information processing device according to Item 14.
【請求項17】 前記第2の処理手段は、前記メニュー
から選択された機能に応じた画像を前記第2の表示手段
に表示させることを特徴とする請求項16に記載の情報
処理装置。
17. The information processing apparatus according to claim 16, wherein said second processing means causes an image corresponding to a function selected from said menu to be displayed on said second display means.
【請求項18】 前記第1の入力手段、前記第1の表示
手段、および前記第1の処理手段に電力を供給する第1
の電力供給手段と、 前記第2の入力手段、前記第2の表示手段、および前記
第2の処理手段に電力を供給する第2の電力供給手段と
を備えることを特徴とする請求項14に記載の情報処理
装置。
18. A first power supply for supplying power to the first input means, the first display means, and the first processing means.
15. A power supply unit, comprising: a second power supply unit that supplies power to the second input unit, the second display unit, and the second processing unit. An information processing apparatus according to claim 1.
【請求項19】 前記第2の入力手段は、前記第2の表
示手段が実質的に非動作状態とされているときでも、操
作に対応する座標データを出力することを特徴とする請
求項14に記載の情報処理装置。
19. The apparatus according to claim 14, wherein said second input means outputs coordinate data corresponding to an operation even when said second display means is substantially inactive. An information processing apparatus according to claim 1.
【請求項20】 所定の入力を行う第1の入力手段と、 前記第1の入力手段によって入力された情報を表示する
第1の表示手段と、情報を表示する第2の表示手段と、 前記第2の表示手段に表示された情報が観察可能なよう
に前記第2の表示手段の表側に配置された所定の入力を
行う第2の入力手段とを有する情報処理装置を制御する
制御方法において、 モードを検出する検出ステップと、 通常動作モードにおいて、前記第2の入力手段から入力
された座標データに基づいて、前記第1の表示手段に情
報を表示させる表示ステップとを含むことを特徴とする
制御方法。
20. A first input device for performing a predetermined input, a first display device for displaying information input by the first input device, a second display device for displaying information, A control method for controlling an information processing apparatus having a second input means for performing a predetermined input, which is arranged on a front side of the second display means so that the information displayed on the second display means can be observed. A detection step of detecting a mode; and a display step of displaying information on the first display means based on coordinate data input from the second input means in a normal operation mode. How to control.
【請求項21】 拡張モードにおいて、前記第2の入力
手段から入力される機能を選択させるためのメニューを
前記第2の表示手段に表示させるように制御するメニュ
ー表示ステップをさらに含むことを特徴とする請求項2
0に記載の制御方法。
21. The display apparatus according to claim 21, further comprising a menu display step of controlling the second display means to display a menu for selecting a function input from the second input means in the extended mode. Claim 2
0. The control method according to item 0.
【請求項22】 前記メニューから機能が選択されたこ
とを検出する第2の検出ステップと、 選択された前記機能に応じた画像を前記第2の表示手段
に表示させるように制御する画像表示ステップとをさら
に含むことを特徴とする請求項21に記載の制御方法。
22. A second detecting step of detecting that a function has been selected from the menu, and an image displaying step of controlling to display an image corresponding to the selected function on the second display means. The control method according to claim 21, further comprising:
【請求項23】 所定の入力を行う第1の入力手段と、 前記第1の入力手段によって入力された情報を表示する
第1の表示手段と、 情報を表示する第2の表示手段と、 前記第2の表示手段に表示された情報が観察可能なよう
に前記第2の表示手段の表側に配置された所定の入力を
行う第2の入力手段とを有する情報処理装置を制御する
プログラムにおいて、 モードを検出する検出ステップと、 通常動作モードにおいて、前記第2の入力手段から入力
された座標データに基づいて前記第1の表示手段に情報
を表示させる表示ステップとを含むことを特徴とするプ
ログラムが記録されている記録媒体。
23. A first input device for performing a predetermined input, a first display device for displaying information input by the first input device, a second display device for displaying information, A program for controlling an information processing apparatus having a second input means for performing a predetermined input, which is arranged on a front side of the second display means so that the information displayed on the second display means can be observed, A program, comprising: a detection step of detecting a mode; and a display step of displaying information on the first display means based on coordinate data input from the second input means in a normal operation mode. Recording medium on which is recorded.
【請求項24】 拡張モードにおいて、前記第2の入力
手段から入力される機能を選択させるためのメニューを
前記第2の表示手段に表示させるように制御するメニュ
ー表示ステップをさらに含むことを特徴とする請求項2
3に記載の記録媒体。
24. The method according to claim 24, further comprising a menu display step of controlling the second display means to display a menu for selecting a function input from the second input means in the extended mode. Claim 2
4. The recording medium according to 3.
【請求項25】 前記メニューから機能が選択されたこ
とを検出する第2の検出ステップと、 選択された前記機能に応じた画像を前記第2の表示手段
に表示させるように制御する画像表示ステップとをさら
に含むことを特徴とする請求項24に記載の記録媒体。
25. A second detecting step of detecting that a function is selected from the menu, and an image displaying step of controlling to display an image corresponding to the selected function on the second display means. The recording medium according to claim 24, further comprising:
JP33908399A 1998-12-16 1999-11-30 Information processor, its controlling method and recording medium Pending JP2000339097A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33908399A JP2000339097A (en) 1998-12-16 1999-11-30 Information processor, its controlling method and recording medium

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP35726398 1998-12-16
JP11-79000 1999-03-24
JP10-357263 1999-03-24
JP7900099 1999-03-24
JP33908399A JP2000339097A (en) 1998-12-16 1999-11-30 Information processor, its controlling method and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006088489A Division JP2006221665A (en) 1998-12-16 2006-03-28 Information processor

Publications (2)

Publication Number Publication Date
JP2000339097A true JP2000339097A (en) 2000-12-08
JP2000339097A5 JP2000339097A5 (en) 2006-05-18

Family

ID=27302879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33908399A Pending JP2000339097A (en) 1998-12-16 1999-11-30 Information processor, its controlling method and recording medium

Country Status (1)

Country Link
JP (1) JP2000339097A (en)

Cited By (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529161A (en) * 2000-03-31 2003-09-30 ボルグワード、グレン ロールス Universal digital mobile device
EP1367478A2 (en) * 2002-05-31 2003-12-03 Kabushiki Kaisha Toshiba Information processing apparatus with pointer indicator function
EP1367477A2 (en) * 2002-05-31 2003-12-03 Kabushiki Kaisha Toshiba Information processing apparatus
JP2005292979A (en) * 2004-03-31 2005-10-20 Yuyama Manufacturing Co Ltd Electronic medical chart system
US7057606B2 (en) 2002-02-22 2006-06-06 Kabushiki Kaisha Toshiba Information processing apparatus
US7292206B2 (en) 2003-01-31 2007-11-06 Kabushiki Kaisha Toshiba Information processing apparatus and method of operating pointing device
JP2008522284A (en) * 2004-11-30 2008-06-26 インテル・コーポレーション Integrated input display device for a mobile computer
JP2008152361A (en) * 2006-12-14 2008-07-03 Tokai Rika Co Ltd Remote control input device
JP2010066918A (en) * 2008-09-09 2010-03-25 Nec Personal Products Co Ltd Information processing apparatus and display control method
JP2010079721A (en) * 2008-09-26 2010-04-08 Nec Personal Products Co Ltd Information processing apparatus, program, and portable terminal apparatus
WO2010050477A1 (en) * 2008-10-28 2010-05-06 シャープ株式会社 Electronic apparatus having two display devices, control method therefor, and recording medium
JP2010108088A (en) * 2008-10-28 2010-05-13 Sharp Corp Content display device, content display method and content display program
JP2010108448A (en) * 2008-10-31 2010-05-13 Sharp Corp Data transmission support device, electronic equipment, and method of controlling the data transmission support device
JP2010108373A (en) * 2008-10-31 2010-05-13 Sharp Corp Electronic apparatus, application program, information processing terminal, and its control program
JP2010108449A (en) * 2008-10-31 2010-05-13 Sharp Corp Communication equipment and control method thereof
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
JP2010157205A (en) * 2008-12-30 2010-07-15 Ortek Technology Inc Mode conversion method
JP2010204918A (en) * 2009-03-03 2010-09-16 Sharp Corp Electronic apparatus, information processing system, method, and program for controlling electronic apparatus
JP2010211393A (en) * 2009-03-09 2010-09-24 Sharp Corp Electronic equipment, method and program for controlling the same
US7944437B2 (en) 2005-12-07 2011-05-17 Kabushiki Kaisha Toshiba Information processing apparatus and touch pad control method
EP2330799A1 (en) 2009-12-04 2011-06-08 Sharp Kabushiki Kaisha Network system, content providing method, server, communication terminal, and content obtaining method
JP2012521600A (en) * 2009-03-27 2012-09-13 クアルコム,インコーポレイテッド Portable docking station for portable computing devices
US8564555B2 (en) 2009-04-30 2013-10-22 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
US8653785B2 (en) 2009-03-27 2014-02-18 Qualcomm Incorporated System and method of managing power at a portable computing device and a portable computing device docking station
US8707061B2 (en) 2009-03-27 2014-04-22 Qualcomm Incorporated System and method of providing scalable computing between a portable computing device and a portable computing device docking station
US9015625B2 (en) 2008-10-30 2015-04-21 Sharp Kabushiki Kaisha Electronic device, method of selecting menu, and program for selecting menu
JP2015084236A (en) * 2003-05-30 2015-04-30 アップル インコーポレイテッド Man machine interface for controlling access to electronic equipment
US9128669B2 (en) 2009-03-27 2015-09-08 Qualcomm Incorporated System and method of managing security between a portable computing device and a portable computing device docking station
US9201593B2 (en) 2009-03-27 2015-12-01 Qualcomm Incorporated System and method of managing displays at a portable computing device and a portable computing device docking station
US9250795B2 (en) 2007-09-24 2016-02-02 Apple Inc. Embedded authentication systems in an electronic device
JP2016513318A (en) * 2013-02-06 2016-05-12 アップル インコーポレイテッド Input / output device with dynamically adjustable appearance and function
US9704670B2 (en) 2013-09-30 2017-07-11 Apple Inc. Keycaps having reduced thickness
US9704665B2 (en) 2014-05-19 2017-07-11 Apple Inc. Backlit keyboard including reflective component
US9710069B2 (en) 2012-10-30 2017-07-18 Apple Inc. Flexible printed circuit having flex tails upon which keyboard keycaps are coupled
US9715978B2 (en) 2014-05-27 2017-07-25 Apple Inc. Low travel switch assembly
US9761389B2 (en) 2012-10-30 2017-09-12 Apple Inc. Low-travel key mechanisms with butterfly hinges
US9779889B2 (en) 2014-03-24 2017-10-03 Apple Inc. Scissor mechanism features for a keyboard
US9793066B1 (en) 2014-01-31 2017-10-17 Apple Inc. Keyboard hinge mechanism
US9847999B2 (en) 2016-05-19 2017-12-19 Apple Inc. User interface for a device requesting remote authorization
US9870880B2 (en) 2014-09-30 2018-01-16 Apple Inc. Dome switch and switch housing for keyboard assembly
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US9908310B2 (en) 2013-07-10 2018-03-06 Apple Inc. Electronic device with a reduced friction surface
US9916945B2 (en) 2012-10-30 2018-03-13 Apple Inc. Low-travel key mechanisms using butterfly hinges
US9934915B2 (en) 2015-06-10 2018-04-03 Apple Inc. Reduced layer keyboard stack-up
US9971084B2 (en) 2015-09-28 2018-05-15 Apple Inc. Illumination structure for uniform illumination of keys
US9997304B2 (en) 2015-05-13 2018-06-12 Apple Inc. Uniform illumination of keys
US9997308B2 (en) 2015-05-13 2018-06-12 Apple Inc. Low-travel key mechanism for an input device
US10002727B2 (en) 2013-09-30 2018-06-19 Apple Inc. Keycaps with reduced thickness
US10082880B1 (en) 2014-08-28 2018-09-25 Apple Inc. System level features of a keyboard
US10083805B2 (en) 2015-05-13 2018-09-25 Apple Inc. Keyboard for electronic device
US10115544B2 (en) 2016-08-08 2018-10-30 Apple Inc. Singulated keyboard assemblies and methods for assembling a keyboard
US10128064B2 (en) 2015-05-13 2018-11-13 Apple Inc. Keyboard assemblies having reduced thicknesses and method of forming keyboard assemblies
US10142835B2 (en) 2011-09-29 2018-11-27 Apple Inc. Authentication with secondary approver
US10262814B2 (en) 2013-05-27 2019-04-16 Apple Inc. Low travel switch assembly
US10353485B1 (en) 2016-07-27 2019-07-16 Apple Inc. Multifunction input device with an embedded capacitive sensing layer
US10395128B2 (en) 2017-09-09 2019-08-27 Apple Inc. Implementation of biometric authentication
US10484384B2 (en) 2011-09-29 2019-11-19 Apple Inc. Indirect authentication
US10755877B1 (en) 2016-08-29 2020-08-25 Apple Inc. Keyboard for an electronic device
US10775850B2 (en) 2017-07-26 2020-09-15 Apple Inc. Computer with keyboard
US10796863B2 (en) 2014-08-15 2020-10-06 Apple Inc. Fabric keyboard
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11500538B2 (en) 2016-09-13 2022-11-15 Apple Inc. Keyless keyboard with force sensing and haptic feedback

Cited By (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003529161A (en) * 2000-03-31 2003-09-30 ボルグワード、グレン ロールス Universal digital mobile device
US7730401B2 (en) 2001-05-16 2010-06-01 Synaptics Incorporated Touch screen with user interface enhancement
US7057606B2 (en) 2002-02-22 2006-06-06 Kabushiki Kaisha Toshiba Information processing apparatus
EP1367478A2 (en) * 2002-05-31 2003-12-03 Kabushiki Kaisha Toshiba Information processing apparatus with pointer indicator function
EP1367477A2 (en) * 2002-05-31 2003-12-03 Kabushiki Kaisha Toshiba Information processing apparatus
EP1367477A3 (en) * 2002-05-31 2006-06-07 Kabushiki Kaisha Toshiba Information processing apparatus
US7154453B2 (en) 2002-05-31 2006-12-26 Kabushiki Kaisha Toshiba Information processing apparatus with pointer indicator function
EP1367478A3 (en) * 2002-05-31 2008-11-05 Kabushiki Kaisha Toshiba Information processing apparatus with pointer indicator function
US7292206B2 (en) 2003-01-31 2007-11-06 Kabushiki Kaisha Toshiba Information processing apparatus and method of operating pointing device
US9342674B2 (en) 2003-05-30 2016-05-17 Apple Inc. Man-machine interface for controlling access to electronic devices
JP2015084236A (en) * 2003-05-30 2015-04-30 アップル インコーポレイテッド Man machine interface for controlling access to electronic equipment
JP2005292979A (en) * 2004-03-31 2005-10-20 Yuyama Manufacturing Co Ltd Electronic medical chart system
JP4610219B2 (en) * 2004-03-31 2011-01-12 株式会社湯山製作所 Electronic medical record system
JP2008522284A (en) * 2004-11-30 2008-06-26 インテル・コーポレーション Integrated input display device for a mobile computer
US7944437B2 (en) 2005-12-07 2011-05-17 Kabushiki Kaisha Toshiba Information processing apparatus and touch pad control method
JP2008152361A (en) * 2006-12-14 2008-07-03 Tokai Rika Co Ltd Remote control input device
JP4690299B2 (en) * 2006-12-14 2011-06-01 株式会社東海理化電機製作所 Remote control input device
US10275585B2 (en) 2007-09-24 2019-04-30 Apple Inc. Embedded authentication systems in an electronic device
US9304624B2 (en) 2007-09-24 2016-04-05 Apple Inc. Embedded authentication systems in an electronic device
US9250795B2 (en) 2007-09-24 2016-02-02 Apple Inc. Embedded authentication systems in an electronic device
US9495531B2 (en) 2007-09-24 2016-11-15 Apple Inc. Embedded authentication systems in an electronic device
US9274647B2 (en) 2007-09-24 2016-03-01 Apple Inc. Embedded authentication systems in an electronic device
US9519771B2 (en) 2007-09-24 2016-12-13 Apple Inc. Embedded authentication systems in an electronic device
US9953152B2 (en) 2007-09-24 2018-04-24 Apple Inc. Embedded authentication systems in an electronic device
US10956550B2 (en) 2007-09-24 2021-03-23 Apple Inc. Embedded authentication systems in an electronic device
US11468155B2 (en) 2007-09-24 2022-10-11 Apple Inc. Embedded authentication systems in an electronic device
JP2010066918A (en) * 2008-09-09 2010-03-25 Nec Personal Products Co Ltd Information processing apparatus and display control method
JP2010079721A (en) * 2008-09-26 2010-04-08 Nec Personal Products Co Ltd Information processing apparatus, program, and portable terminal apparatus
JP2010108088A (en) * 2008-10-28 2010-05-13 Sharp Corp Content display device, content display method and content display program
WO2010050477A1 (en) * 2008-10-28 2010-05-06 シャープ株式会社 Electronic apparatus having two display devices, control method therefor, and recording medium
US9015625B2 (en) 2008-10-30 2015-04-21 Sharp Kabushiki Kaisha Electronic device, method of selecting menu, and program for selecting menu
JP2010108373A (en) * 2008-10-31 2010-05-13 Sharp Corp Electronic apparatus, application program, information processing terminal, and its control program
JP2010108448A (en) * 2008-10-31 2010-05-13 Sharp Corp Data transmission support device, electronic equipment, and method of controlling the data transmission support device
JP2010108449A (en) * 2008-10-31 2010-05-13 Sharp Corp Communication equipment and control method thereof
JP2010157205A (en) * 2008-12-30 2010-07-15 Ortek Technology Inc Mode conversion method
JP2010204918A (en) * 2009-03-03 2010-09-16 Sharp Corp Electronic apparatus, information processing system, method, and program for controlling electronic apparatus
JP2010211393A (en) * 2009-03-09 2010-09-24 Sharp Corp Electronic equipment, method and program for controlling the same
US9152196B2 (en) 2009-03-27 2015-10-06 Qualcomm Incorporated System and method of managing power at a portable computing device and a portable computing device docking station
US8630088B2 (en) 2009-03-27 2014-01-14 Qualcomm Incorporated Portable docking station for a portable computing device
US9128669B2 (en) 2009-03-27 2015-09-08 Qualcomm Incorporated System and method of managing security between a portable computing device and a portable computing device docking station
US8707061B2 (en) 2009-03-27 2014-04-22 Qualcomm Incorporated System and method of providing scalable computing between a portable computing device and a portable computing device docking station
JP2012521600A (en) * 2009-03-27 2012-09-13 クアルコム,インコーポレイテッド Portable docking station for portable computing devices
US9201593B2 (en) 2009-03-27 2015-12-01 Qualcomm Incorporated System and method of managing displays at a portable computing device and a portable computing device docking station
US8653785B2 (en) 2009-03-27 2014-02-18 Qualcomm Incorporated System and method of managing power at a portable computing device and a portable computing device docking station
US9304619B2 (en) 2009-04-30 2016-04-05 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
US10254878B2 (en) 2009-04-30 2019-04-09 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
US9052764B2 (en) 2009-04-30 2015-06-09 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
US9703411B2 (en) 2009-04-30 2017-07-11 Synaptics Incorporated Reduction in latency between user input and visual feedback
US8564555B2 (en) 2009-04-30 2013-10-22 Synaptics Incorporated Operating a touch screen control system according to a plurality of rule sets
EP2330799A1 (en) 2009-12-04 2011-06-08 Sharp Kabushiki Kaisha Network system, content providing method, server, communication terminal, and content obtaining method
US10484384B2 (en) 2011-09-29 2019-11-19 Apple Inc. Indirect authentication
US10516997B2 (en) 2011-09-29 2019-12-24 Apple Inc. Authentication with secondary approver
US11200309B2 (en) 2011-09-29 2021-12-14 Apple Inc. Authentication with secondary approver
US10142835B2 (en) 2011-09-29 2018-11-27 Apple Inc. Authentication with secondary approver
US10419933B2 (en) 2011-09-29 2019-09-17 Apple Inc. Authentication with secondary approver
US11755712B2 (en) 2011-09-29 2023-09-12 Apple Inc. Authentication with secondary approver
US11209961B2 (en) 2012-05-18 2021-12-28 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11989394B2 (en) 2012-05-18 2024-05-21 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10699856B2 (en) 2012-10-30 2020-06-30 Apple Inc. Low-travel key mechanisms using butterfly hinges
US10211008B2 (en) 2012-10-30 2019-02-19 Apple Inc. Low-travel key mechanisms using butterfly hinges
US9710069B2 (en) 2012-10-30 2017-07-18 Apple Inc. Flexible printed circuit having flex tails upon which keyboard keycaps are coupled
US9916945B2 (en) 2012-10-30 2018-03-13 Apple Inc. Low-travel key mechanisms using butterfly hinges
US10254851B2 (en) 2012-10-30 2019-04-09 Apple Inc. Keyboard key employing a capacitive sensor and dome
US9761389B2 (en) 2012-10-30 2017-09-12 Apple Inc. Low-travel key mechanisms with butterfly hinges
US11023081B2 (en) 2012-10-30 2021-06-01 Apple Inc. Multi-functional keyboard assemblies
US9927895B2 (en) 2013-02-06 2018-03-27 Apple Inc. Input/output device with a dynamically adjustable appearance and function
US10114489B2 (en) 2013-02-06 2018-10-30 Apple Inc. Input/output device with a dynamically adjustable appearance and function
JP2016513318A (en) * 2013-02-06 2016-05-12 アップル インコーポレイテッド Input / output device with dynamically adjustable appearance and function
US10262814B2 (en) 2013-05-27 2019-04-16 Apple Inc. Low travel switch assembly
US10556408B2 (en) 2013-07-10 2020-02-11 Apple Inc. Electronic device with a reduced friction surface
US9908310B2 (en) 2013-07-10 2018-03-06 Apple Inc. Electronic device with a reduced friction surface
US10410035B2 (en) 2013-09-09 2019-09-10 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11494046B2 (en) 2013-09-09 2022-11-08 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11287942B2 (en) 2013-09-09 2022-03-29 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces
US10372963B2 (en) 2013-09-09 2019-08-06 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US11768575B2 (en) 2013-09-09 2023-09-26 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US10055634B2 (en) 2013-09-09 2018-08-21 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
US10262182B2 (en) 2013-09-09 2019-04-16 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on unlock inputs
US11699558B2 (en) 2013-09-30 2023-07-11 Apple Inc. Keycaps having reduced thickness
US10002727B2 (en) 2013-09-30 2018-06-19 Apple Inc. Keycaps with reduced thickness
US10804051B2 (en) 2013-09-30 2020-10-13 Apple Inc. Keycaps having reduced thickness
US10224157B2 (en) 2013-09-30 2019-03-05 Apple Inc. Keycaps having reduced thickness
US9704670B2 (en) 2013-09-30 2017-07-11 Apple Inc. Keycaps having reduced thickness
US9793066B1 (en) 2014-01-31 2017-10-17 Apple Inc. Keyboard hinge mechanism
US9779889B2 (en) 2014-03-24 2017-10-03 Apple Inc. Scissor mechanism features for a keyboard
US9704665B2 (en) 2014-05-19 2017-07-11 Apple Inc. Backlit keyboard including reflective component
US9715978B2 (en) 2014-05-27 2017-07-25 Apple Inc. Low travel switch assembly
US10796863B2 (en) 2014-08-15 2020-10-06 Apple Inc. Fabric keyboard
US10082880B1 (en) 2014-08-28 2018-09-25 Apple Inc. System level features of a keyboard
US9870880B2 (en) 2014-09-30 2018-01-16 Apple Inc. Dome switch and switch housing for keyboard assembly
US10192696B2 (en) 2014-09-30 2019-01-29 Apple Inc. Light-emitting assembly for keyboard
US10134539B2 (en) 2014-09-30 2018-11-20 Apple Inc. Venting system and shield for keyboard
US10128061B2 (en) 2014-09-30 2018-11-13 Apple Inc. Key and switch housing for keyboard assembly
US10083805B2 (en) 2015-05-13 2018-09-25 Apple Inc. Keyboard for electronic device
US9997304B2 (en) 2015-05-13 2018-06-12 Apple Inc. Uniform illumination of keys
US10468211B2 (en) 2015-05-13 2019-11-05 Apple Inc. Illuminated low-travel key mechanism for a keyboard
US10424446B2 (en) 2015-05-13 2019-09-24 Apple Inc. Keyboard assemblies having reduced thickness and method of forming keyboard assemblies
US9997308B2 (en) 2015-05-13 2018-06-12 Apple Inc. Low-travel key mechanism for an input device
US10083806B2 (en) 2015-05-13 2018-09-25 Apple Inc. Keyboard for electronic device
US10128064B2 (en) 2015-05-13 2018-11-13 Apple Inc. Keyboard assemblies having reduced thicknesses and method of forming keyboard assemblies
US9934915B2 (en) 2015-06-10 2018-04-03 Apple Inc. Reduced layer keyboard stack-up
US9971084B2 (en) 2015-09-28 2018-05-15 Apple Inc. Illumination structure for uniform illumination of keys
US10310167B2 (en) 2015-09-28 2019-06-04 Apple Inc. Illumination structure for uniform illumination of keys
US10334054B2 (en) 2016-05-19 2019-06-25 Apple Inc. User interface for a device requesting remote authorization
US11206309B2 (en) 2016-05-19 2021-12-21 Apple Inc. User interface for remote authorization
US10749967B2 (en) 2016-05-19 2020-08-18 Apple Inc. User interface for remote authorization
US9847999B2 (en) 2016-05-19 2017-12-19 Apple Inc. User interface for a device requesting remote authorization
US10353485B1 (en) 2016-07-27 2019-07-16 Apple Inc. Multifunction input device with an embedded capacitive sensing layer
US11282659B2 (en) 2016-08-08 2022-03-22 Apple Inc. Singulated keyboard assemblies and methods for assembling a keyboard
US10115544B2 (en) 2016-08-08 2018-10-30 Apple Inc. Singulated keyboard assemblies and methods for assembling a keyboard
US10755877B1 (en) 2016-08-29 2020-08-25 Apple Inc. Keyboard for an electronic device
US11500538B2 (en) 2016-09-13 2022-11-15 Apple Inc. Keyless keyboard with force sensing and haptic feedback
US10775850B2 (en) 2017-07-26 2020-09-15 Apple Inc. Computer with keyboard
US12079043B2 (en) 2017-07-26 2024-09-03 Apple Inc. Computer with keyboard
US11409332B2 (en) 2017-07-26 2022-08-09 Apple Inc. Computer with keyboard
US11619976B2 (en) 2017-07-26 2023-04-04 Apple Inc. Computer with keyboard
US10395128B2 (en) 2017-09-09 2019-08-27 Apple Inc. Implementation of biometric authentication
US11765163B2 (en) 2017-09-09 2023-09-19 Apple Inc. Implementation of biometric authentication
US10872256B2 (en) 2017-09-09 2020-12-22 Apple Inc. Implementation of biometric authentication
US10410076B2 (en) 2017-09-09 2019-09-10 Apple Inc. Implementation of biometric authentication
US11393258B2 (en) 2017-09-09 2022-07-19 Apple Inc. Implementation of biometric authentication

Similar Documents

Publication Publication Date Title
JP5522138B2 (en) Information processing device
JP2000339097A (en) Information processor, its controlling method and recording medium
US11023055B2 (en) Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
US7143355B2 (en) Information processing device for processing information based on a status monitoring program and method therefor
JP2602001B2 (en) Personal communicator with shrinkable keyboard
EP1947555A2 (en) Mobile terminal with touch screen
JP4545884B2 (en) Information processing apparatus, control method therefor, and computer-readable memory
JP2004152217A (en) Display device with touch panel
WO2022143620A1 (en) Virtual keyboard processing method and related device
WO2022143579A1 (en) Feedback method and related device
WO2022143198A1 (en) Processing method for application interface, and related device
CN107526567B (en) Information processing apparatus, input method, and storage medium
JP2015158828A (en) Electronic blackboard device
JPH11305933A (en) Input device and input method
JP2013077312A (en) Electronic device, and display method
JP2004030536A (en) Information processor and character input support method used in the processor
JP2006221665A (en) Information processor
JP2007323346A (en) Information processor and display method
JP2019145058A (en) Information processing device
US5673406A (en) Portable information processing apparatus having simplified page selection
JPH11191027A (en) Computer presentation system
JP2011129164A (en) Information processing device and display method
KR20050037839A (en) Dual-display notebook device enabling muti-language input and the user interface method using the same
JP3449364B2 (en) Program starting device, program starting method, medium, and electronic device in electronic device
JP3241362B2 (en) Information input control device and method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060317

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060317

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090130

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090217

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090319