JP2023114658A - 情報処理装置、及び制御方法 - Google Patents

情報処理装置、及び制御方法 Download PDF

Info

Publication number
JP2023114658A
JP2023114658A JP2022017096A JP2022017096A JP2023114658A JP 2023114658 A JP2023114658 A JP 2023114658A JP 2022017096 A JP2022017096 A JP 2022017096A JP 2022017096 A JP2022017096 A JP 2022017096A JP 2023114658 A JP2023114658 A JP 2023114658A
Authority
JP
Japan
Prior art keywords
input
processing unit
key
touch pad
gesture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022017096A
Other languages
English (en)
Other versions
JP7265048B1 (ja
Inventor
良太 野村
Ryota Nomura
義従 鈴木
Yoshitsugu Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2022017096A priority Critical patent/JP7265048B1/ja
Priority to US18/152,156 priority patent/US20230251895A1/en
Priority to CN202310051858.XA priority patent/CN116560556A/zh
Application granted granted Critical
Publication of JP7265048B1 publication Critical patent/JP7265048B1/ja
Publication of JP2023114658A publication Critical patent/JP2023114658A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0236Character input methods using selection techniques to select from displayed items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • G06F3/0237Character input methods using prediction or retrieval techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0489Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using dedicated keyboard keys or combinations thereof
    • G06F3/04892Arrangements for controlling cursor position based on codes indicative of cursor displacements from one discrete location to another, e.g. using cursor control keys associated to different directions or using the tab key

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

【課題】予測入力の機能を用いてキー入力の生産性を向上する。【解決手段】情報処理装置は、キーボード及びタッチパッドと、前記キーボード及び前記タッチパッドにより入力された入力情報を表示する表示部と、前記キーボードによるキー入力に対して、入力予測の候補を前記表示部に表示する入力変換処理部と、前記入力変換処理部が、前記入力予測の候補を前記表示部に表示している期間に、前記タッチパッドを、通常のポインティングデバイスとして入力処理を行う通常入力モードから、前記タッチパッドに対する特定のタッチ操作である特定のジェスチャに応じて、前記特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力するジェスチャ入力モードに、切り替える切替処理部とを備える。【選択図】図3

Description

本発明は、情報処理装置、及び制御方法に関する。
ノートブック型パーソナルコンピュータ(以下、ノートPC:Personal Computer)などの情報処理装置では、キーボードと、ポインティングデバイスであるタッチパッドとを備えるものが知られている(例えば、特許文献1を参照)。
特開2018-10512号公報
ところで、上述した従来の情報処理装置では、キーボード及びタッチパッドによる文字入力の生産性を向上する試みが行われており、例えば、予測入力の機能を有するIME(Input Method Editor)などを備えるものが知られている。しかしながら、従来の情報処理装置では、予測入力の機能を使用した場合、Tabキーや矢印キーで予測候補をハイライトしてEnter(エンター)キー、又はマウスやタッチパッド等のポインティングデバイスのカーソルで選択する必要があり、手がキーボードのホームポジションから離れてしまう可能性があった。特に、キーボードにOSK(On Screen Keyboard)などの表面が平滑なソフトウェアキーボードを用いる場合には、Tabキーや矢印キーのブラインドタッチが難しく、また、予測候補選択後にタイピングを再開する場合、キーボードの位置を目視で確認して再度ホームポジションを決定する必要があった。そのため、従来の情報処理装置では、予測入力の機能を用いてキー入力の生産性を向上させることが困難であった。
本発明は、上記問題を解決すべくなされたもので、その目的は、予測入力の機能を用いて文字入力の生産性を向上させることができる情報処理装置、及び制御方法を提供することにある。
上記問題を解決するために、本発明の一態様は、キーボード及びタッチパッドと、前記キーボード及び前記タッチパッドにより入力された入力情報を表示する表示部と、前記キーボードによるキー入力に対して、入力予測の候補を前記表示部に表示する入力変換処理部と、前記入力変換処理部が、前記入力予測の候補を前記表示部に表示している期間に、前記タッチパッドを、通常のポインティングデバイスとして入力処理を行う通常入力モードから、前記タッチパッドに対する特定のタッチ操作である特定のジェスチャに応じて、前記特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力するジェスチャ入力モードに、切り替える切替処理部とを備える情報処理装置である。
また、本発明の一態様は、上記の情報処理装置において、前記通常入力モードによる入力処理と、前記ジェスチャ入力モードによる入力処理とを切り替えて、前記タッチパッドの入力を処理する入力処理部を備え、前記切替処理部は、前記入力予測の候補が前記表示部に表示された場合に、前記入力処理部を、前記通常入力モードによる入力処理から、前記ジェスチャ入力モードによる入力処理に変更させ、前記入力予測の候補が非表示になった場合に、前記ジェスチャ入力モードによる入力処理から、前記通常入力モードによる入力処理に戻すようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、OS(オペレーティングシステム)に基づく処理を実行するメインシステムと、前記メインシステムとは異なる独立した組込みシステムとを備え、前記キーボードは、ソフトウェアキーボードであり、メインシステムは、前記入力変換処理部及び前記切替処理部を備え、前記組込みシステムは、前記入力処理部を備え、前記ソフトウェアキーボードにおいて検出したキーコードを、前記メインシステムにより保護された汎用インターフェースを用いて、前記メインシステムに出力するようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記特定のタッチ操作には、前記タッチパッド上を利用者の指で上下左右のいずれかの方向に動かす操作が含まれ、
前記入力処理部は、前記ジェスチャ入力モードにおいて、前記タッチパッド上を前記指で上下左右のいずれかの方向に動かす操作に応じて、前記動かす方向に対応した矢印キーのキーコードを出力するようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記入力処理部は、前記上下左右のいずれかの方向を、前記タッチパッド上の前記指の移動軌跡のアスペクト比に基づいて判定するようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記特定のタッチ操作には、前記タッチパッド上のタップ操作が含まれ、前記入力処理部は、前記ジェスチャ入力モードにおいて、前記タップ操作に応じて、前記エンターキーのキーコードを出力するようにしてもよい。
また、本発明の一態様は、上記の情報処理装置において、前記切替処理部は、前記入力変換処理部が、前記入力予測の候補の表示中に発行するウインドウメッセージに基づいて、入力予測の候補を前記表示部に表示していることを判定するようにしてもよい。
また、本発明の一態様は、キーボード及びタッチパッドと、前記キーボード及び前記タッチパッドにより入力された入力情報を表示する表示部とを備える情報処理の制御方法であって、入力変換処理部が、前記キーボードによるキー入力に対して、入力予測の候補を前記表示部に表示する入力変換ステップと、切替処理部が、前記入力変換処理部が、前記入力予測の候補を前記表示部に表示している期間に、前記タッチパッドを、通常のポインティングデバイスとして入力処理を行う通常入力モードから、前記タッチパッドに対する特定のタッチ操作である特定のジェスチャに応じて、前記特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力するジェスチャ入力モードに、切り替える切替ステップとを含む制御方法である。
本発明の上記態様によれば、予測入力の機能を用いてキー入力の生産性を向上させることができる。
第1の実施形態によるノートPCの一例を示す外観図である。 第1の実施形態によるノートPCの主要なハードウェア構成の一例を示す図である。 第1の実施形態によるノートPCの機能構成の一例を示すブロック図である。 第1の実施形態によるノートPCのタッチパッドのジェスチャ操作とキーコードとの一例を示す図である。 第1の実施形態によるノートPCのタッチパッドのモード切替処理の一例を示すフローチャートである。 第1の実施形態によるノートPCのジェスチャ入力モードの処理の一例を示すフローチャートである。 第1の実施形態によるノートPCのジェスチャ入力モードの処理の一例を示す図である。 第2の実施形態によるノートPCの一例を示す外観図である。 第2の実施形態によるノートPCの主要なハードウェア構成の一例を示す図である。 第2の実施形態によるノートPCの機能構成の一例を示すブロック図である。
以下、本発明の一実施形態による情報処理装置、及び制御方法について、図面を参照して説明する。
[第1の実施形態]
図1は、第1の実施形態によるノートPC1の一例を示す外観図である。なお、本実施形態において、情報処理装置の一例として、ノートPC1について説明する。
図1に示すように、ノートPC1は、第1筐体101と、第2筐体102とを備え、ヒンジ機構により一方の筐体(第1筐体101)の側面が他方の筐体(第2筐体102)の側面に係合され、ヒンジ機構の回転軸周りに第1筐体101が第2筐体102に対して回動可能に構成されている。
また、ノートPC1は、タッチスクリーン14と表示部15とを備える。表示部15は、第1筐体101に配置されており、メインの表示部として機能する。タッチスクリーン14は、第2筐体102に配置されており、表示部141と、タッチセンサ部142とを備える。
また、本実施形態では、第2筐体102に配置されたタッチスクリーン14によって、仮想入力デバイスのキーボード14A及びタッチパッド14Bを実現している。本実施形態では、キーボード14Aが、OSKなどのソフトウェアキーボードである場合の一例について説明する。
図2は、本実施形態によるノートPC1の主要なハードウェア構成の一例を示す図である。
図2に示すように、ノートPC1は、CPU11と、メインメモリ12と、ビデオサブシステム13と、タッチスクリーン14と、表示部15と、切替部16と、チップセット21と、BIOSメモリ22と、HDD23と、オーディオシステム24と、WLANカード25と、USBコネクタ26と、撮像部27と、エンベデッドコントローラ31と、入力部32と、電源回路33と、MCU(Micro Control Unit)40とを備える。
なお、本実施形態において、CPU11と、メインメモリ12と、ビデオサブシステム13と、チップセット21と、BIOSメモリ22と、HDD23と、オーディオシステム24と、WLANカード25と、USBコネクタ26と、撮像部27と、エンベデッドコントローラ31と、入力部32と、電源回路33とは、OS(オペレーティングシステム)に基づく処理を実行するメインシステム10に対応する。
メインシステム10は、例えば、Windows(登録商標)に基づいて、各種処理を実行する。
CPU(Central Processing Unit)11は、プログラム制御により種々の演算処理を実行し、ノートPC1全体を制御している。
メインメモリ12は、CPU11の実行プログラムの読み込み領域として、又は、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。メインメモリ12は、例えば、複数個のDRAM(Dynamic Random Access Memory)チップで構成される。この実行プログラムには、OS、周辺機器類をハードウェア操作するための各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム等が含まれる。
ビデオサブシステム13は、画像表示に関連する機能を実現するためのサブシステムであり、ビデオコントローラを含んでいる。このビデオコントローラは、CPU11からの描画命令を処理し、処理した描画情報をビデオメモリに書き込むとともに、ビデオメモリからこの描画情報を読み出して、表示部15及び表示部141に描画データ(画像データ)として出力する。ビデオサブシステム13は、例えば、HDMI(High-Definition Multimedia Interface(登録商標))やDP(Display Port)により出力する。
タッチスクリーン14は、図1に示すように、第2筐体102に配置され、表示部141と、タッチセンサ部142とを備える。
表示部141は、例えば、液晶ディスプレイや電子ペーパーなどであり、画像データを表示画面に表示する。表示部141は、主に、キーボード14A及びタッチパッド14Bの仮想入力デバイスの表示に使用する。
タッチセンサ部142は、表示部141の表示画面に重ねて配置され、表示部141の表示画面上における物体(人体の一部(例えば、指)などの操作媒体)との接触を検出する。タッチセンサ部142は、例えば、物体の接触を検出可能な静電容量式のタッチセンサである。
表示部15は、第1筐体101に配置され、ノートPC1のメイン表示部として機能する。表示部15は、例えば、液晶ディスプレイや有機ELディスプレイなどであり、画像データを表示画面に表示する。
切替部16は、例えば、切り替えスイッチであり、MCU40が出力する画像データと、メインシステム10が出力する画像データとを切り替えて、表示部141に出力する。切替部16は、タッチスクリーン14の表示部141をメインシステム10が使用する場合に使用される。
チップセット21は、USB(Universal Serial Bus)、シリアルATA(AT Attachment)、SPI(Serial Peripheral Interface)バス、PCI(Peripheral Component Interconnect)バス、PCI-Expressバス、及びLPC(Low Pin Count)バスなどのコントローラを備えており複数のデバイスが接続される。図2では、デバイスの例示として、BIOSメモリ22と、HDD23と、オーディオシステム24と、WLANカード25と、USBコネクタ26と、撮像部27とが、チップセット21に接続されている。
なお、本実施形態において、CPU11と、チップセット21とは、メイン制御部20を構成する。
BIOS(Basic Input Output System)メモリ22は、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)やフラッシュROMなどの電気的に書き換え可能な不揮発性メモリで構成される。BIOSメモリ22は、BIOS、及びエンベデッドコントローラ31などを制御するためのシステムファームウェアなどを記憶する。
HDD(Hard Disk Drive)23(不揮発性記憶装置の一例)は、OS、各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム、及び各種データを記憶する。
オーディオシステム24は、音データの記録、再生、出力を行う。
WLAN(Wireless Local Area Network)カード25は、ワイヤレス(無線)LANにより、ネットワークに接続して、データ通信を行う。WLANカード25は、例えば、ネットワークからのデータを受信した際に、データを受信したことを示すイベントトリガを発生する。
USBコネクタ26は、USBを利用した周辺機器類を接続するためのコネクタである。
撮像部27は、例えば、Webカメラであり、画像を撮像する。撮像部27は、例えば、USBインターフェースによりチップセット21と接続されている。
エンベデッドコントローラ31は、ノートPC1のシステム状態に関わらず、各種デバイス(周辺装置やセンサ等)を監視し制御するワンチップマイコン(One-Chip Microcomputer)である。また、エンベデッドコントローラ31は、電源回路33を制御する電源管理機能を有している。なお、エンベデッドコントローラ31は、不図示のCPU、ROM、RAMなどで構成されるとともに、複数チャネルのA/D入力端子、D/A出力端子、タイマ、及びデジタル入出力端子を備えている。エンベデッドコントローラ31には、それらの入出力端子を介して、例えば、入力部32、及び電源回路33などが接続されており、エンベデッドコントローラ31は、これらの動作を制御する。なお、エンベデッドコントローラ31は、サブ制御部の一例である。
入力部32は、例えば、電源スイッチなどの制御スイッチである。
電源回路33は、例えば、DC/DCコンバータ、充放電ユニット、電池ユニット、AC/DCアダプタなどを含んでおり、AC/DCアダプタ、又は電池ユニットから供給される直流電圧を、ノートPC1を動作させるために必要な複数の電圧に変換する。また、電源回路33は、エンベデッドコントローラ31からの制御に基づいて、ノートPC1の各部に電力を供給する。
MCU40は、例えば、CPUなどを含むプロセッサであり、内蔵するファームウェアを実行することで、メインシステム10とは異なる独立した組込みシステム(サブシステム)として機能する。MCU40は、例えば、USBインターフェースによって、チップセット21と接続されている。
MCU40は、タッチセンサ部142がキーボード14A及びタッチパッド14Bとして検出した検出情報に基づく入力情報(例えば、キーコードやタッチパッド情報)を、メインシステム10により保護された汎用インターフェース(例えば、USBのHID(Human Interface Device)クラス)を用いて、メインシステム10(チップセット21)に出力する。
また、MCU40は、キーボード14A及びタッチパッド14Bのための画像データを生成し、当該画像データを、例えば、図1に示すように、表示部141に表示させる。
なお、MCU40の詳細については、図3を参照して後述する。
次に、図3を参照して、本実施形態によるノートPC1の機能構成について説明する。
図3は、本実施形態によるノートPC1の機能構成の一例を示すブロック図である。
図3に示すように、ノートPC1は、メインシステム10と、タッチスクリーン14と、表示部15と、MCU40とを備える。なお、図3において、ノートPC1の構成として、本実施形態の発明に関する主要な機能構成のみを記載している。
メインシステム10は、OSに基づく処理を実行し、当該処理に関する情報を表示部15に表示させる。
また、メインシステム10は、メインシステム10のUSBドライバ51と、入力変換処理部52と、切替処理部53と、アプリケーション54とを備える。
USBドライバ51は、CPU11とチップセット21とにより実現される機能部であり、USBインターフェースを制御する。本実施形態では、タッチセンサ部142からのキーコードなどの入力のためのUSBインターフェースとして、HIDクラスを使用する。
入力変換処理部52は、CPU11とチップセット21とにより実現される機能部である。入力変換処理部52は、例えば、FEP(Front End Processor)やIME(Input Method Editor)などであり、キーボード14A及びタッチパッド14Bからの入力においてかな漢字変換などの処理を実行する。また、入力変換処理部52は、例えば、キーボード14Aによるキー入力に対して、入力予測の候補を表示部15に表示する。
なお、入力変換処理部52は、入力予測の候補の表示中に、ウインドウメッセージ(例えば、WM_IME_NOTIFY)を発行する。
切替処理部53は、CPU11とチップセット21とにより実現される機能部である。切替処理部53は、入力変換処理部52が入力予測の候補を表示部15に表示している期間に、タッチパッド14Bの制御を、通常入力モードから、ジェスチャ入力モードに切り替える。ここで、通常入力モードは、タッチパッド14Bを、通常のポインティングデバイスとして入力処理を行う入力モードである。
また、ジェスチャ入力モードは、タッチパッド14Bに対する特定のタッチ操作である特定のジェスチャに応じて、特定のジェスチャに対応した特定のキー対応するキーコードを出力する。特定のキーには、少なくとも矢印キー(上矢印キー、下矢印キー、右矢印キー、左矢印キー、など)、及びエンターキーが含まれる。
また、切替処理部53は、入力変換処理部52が、入力予測の候補の表示中に発行するウインドウメッセージ(例えば、WM_IME_NOTIFY)に基づいて、入力予測の候補を表示部15に表示していることを判定する。
切替処理部53は、入力予測の候補が表示部15に表示された場合に、後述するMCU40の入力処理部41を、通常入力モードによる入力処理から、ジェスチャ入力モードによる入力処理に変更させる。また、切替処理部53は、入力予測の候補が非表示になった場合に、後述するMCU40の入力処理部41を、ジェスチャ入力モードによる入力処理から、通常入力モードによる入力処理に戻す。切替処理部53は、USBのカスタムHIDクラスを用いて、後述するMCU40の入力処理部41の入力モードを切り替える。
アプリケーション54は、CPU11とチップセット21とにより実現される機能部であり、入力変換処理部52を用いて、情報入力を受け付け、各種処理を実行する。なお、アプリケーション54は、上述した入力変換処理部52が発行するウインドウメッセージ(WM_IME_NOTIFY)により、WM_IME_NOTIFYのフラグを立てて、入力予測の候補の表示中を検知する。
MCU40(組込みシステムの一例)は、タッチスクリーン14によって実現される仮想入力デバイスであるキーボード14A及びタッチパッド14Bの制御を行う。MCU40は、例えば、キーボード14A及びタッチパッド14Bの領域の画像データを生成して、当該領域の画像データを表示部141に表示させるとともに、それぞれの領域におけるタッチセンサ部142からの検出情報を受け付ける。MCU40は、キーボード14A及びタッチパッド14Bにおける検出情報に基づく入力情報(例えば、キーコードなど)をメインシステム10に出力する。
MCU40は、入力処理部41と、表示処理部42とを備える。
入力処理部41は、MCU40により実現される機能部である。入力処理部41は、キーボード14A及びタッチパッド14Bの入力処理を実行する。入力処理部41は、キーボード14Aに対する入力に応じて、入力に対応するキーコードを生成し、USBインターフェースのHIDクラスを用いて、キーコードをメインシステム10に送信する。また、入力処理部41は、タッチパッド14Bに対する入力に応じて、入力に対応するポインティングデバイスの入力情報を、USBインターフェースのHIDクラスを用いて、キーコードをメインシステム10に送信する。
なお、入力処理部41は、通常入力モードによる入力処理と、ジェスチャ入力モードによる入力処理とを切り替えて、タッチパッド14Bの入力を処理する。入力処理部41は、通常入力モードにおいて、タッチパッド14Bを、通常のポインティングデバイスとして入力処理を行う。
また、入力処理部41は、ジェスチャ入力モードにおいて、タッチパッド14Bに対する特定のタッチ操作である特定のジェスチャに応じて、特定のジェスチャに対応した特定のキー対応するキーコードを、USBインターフェースのHIDクラスを用いて、メインシステム10に送信する。ここで、図4を参照して、ジェスチャ入力モードにおけるタッチパッド14Bのジェスチャ操作とキーコードとの一例について説明する。
図4は、本実施形態によるノートPC1のタッチパッド14Bのジェスチャ操作とキーコードとの一例を示す図である。
図4に示すように、入力処理部41は、ジェスチャ入力モードにおいて、ジェスチャ操作が、左方向のスワイプである場合に、キーの種類を、左矢印キー(“←”キー)と判定し、キーコード“0x25”を、メインシステム10に送信する。
また、入力処理部41は、ジェスチャ入力モードにおいて、ジェスチャ操作が、上方向のスワイプである場合に、キーの種類を、上矢印キー(“↑”キー)と判定し、キーコード“0x26”を、メインシステム10に送信する。
また、入力処理部41は、ジェスチャ入力モードにおいて、ジェスチャ操作が、右方向のスワイプである場合に、キーの種類を、右矢印キー(“→”キー)と判定し、キーコード“0x27”を、メインシステム10に送信する。
また、入力処理部41は、ジェスチャ入力モードにおいて、ジェスチャ操作が、下方向のスワイプである場合に、キーの種類を、下矢印キー(“↓”キー)と判定し、キーコード“0x28”を、メインシステム10に送信する。
また、入力処理部41は、ジェスチャ入力モードにおいて、ジェスチャ操作が、タップである場合に、キーの種類を、エンターキー(“ENTER”キー)と判定し、キーコード“0x0D”を、メインシステム10に送信する。
ここで、スワイプとは、タッチパッド14Bに対して、指を触れたまま特定の方向になでる操作である。入力処理部41は、ジェスチャ入力モードにおいて、タッチパッド14B上を指で上下左右のいずれかの方向に動かす操作に応じて、動かす方向に対応した矢印キーのキーコードを出力する。入力処理部41は、スワイプのアスペクト比により、上下左右のいずれかの方向のスワイプかを判定する。すなわち、入力処理部41は、上下左右のいずれかの方向を、タッチパッド14B上の指の移動軌跡のアスペクト比に基づいて判定する。
なお、アスペクト比とは、縦と横との比であり、ここでは、スワイプの移動軌跡の縦横比を示している。
また、タップとは、タッチパッド14B上を指先で軽くタッチする操作である。入力処理部41は、ジェスチャ入力モードにおいて、タップ操作に応じて、エンターキーのキーコードを出力する。
図3の説明に戻り、また、入力処理部41は、仮想入力デバイスのキーボード14Aのキーが押下された場合に、タッチセンサ部142が検出した検出情報を、対応するキーコードに変換して、USBインターフェースのHIDクラスを用いて、当該キーコードをメインシステム10に送信する。
また、入力処理部41は、キーボード14Aのキーが押下による検出情報を表示処理部42に出力して、検出情報に応じたフィードバックの画像データを生成させる。
表示処理部42は、MCU40により実現される機能部である。表示処理部42は、キーボード14A及びタッチパッド14Bの画像データを生成し、生成した画像データを、表示部141に表示させる。
また、表示処理部42は、上述した入力処理部41が出力した、キーボード14Aのキーが押下による検出情報を受信した場合に、例えば、キーボード14Aの押下されたキーの位置に対応する画像の位置を、反転するなどの入力フィードバックの画像データを生成する。表示処理部42は、生成した入力フィードバックの画像データを表示部141に表示させる。
次に、図面を参照して、本実施形態によるノートPC1の動作について説明する。
図5は、本実施形態によるノートPC1のタッチパッド14Bのモード切替処理の一例を示すフローチャートである。
図5に示すように、ノートPC1の切替処理部53は、まず、通常入力モードに設定する(ステップS101)。切替処理部53は、MCU40の入力処理部41を、通常入力モードに設定する。
次に、切替処理部53は、予測入力の候補を表示中であるか否かを判定する(ステップS102)。切替処理部53は、例えば、アプリケーション54のフラグであって、入力変換処理部52が入力予測の候補の表示中に発行するウインドウメッセージ(例えば、WM_IME_NOTIFY)のフラグを確認して、入力変換処理部52が予測入力の候補を表示部15に表示中であるか否かを判定する。切替処理部53は、予測入力の候補を表示中である場合(ステップS102:YES)に、処理をステップS103に進める。また、切替処理部53は、予測入力の候補を表示中でない場合(ステップS102:NO)に、処理をステップS104に進める。
ステップS103において、切替処理部53は、ジェスチャ入力モードに変更する。すなわち、切替処理部53は、MCU40の入力処理部41を、ジェスチャ入力モードに変更する。ステップS103の処理後に、切替処理部53は、処理をステップS102に戻す。
また、ステップS104において、切替処理部53は、通常入力モードに変更する。すなわち、切替処理部53は、MCU40の入力処理部41を、通常入力モードに変更する。ステップS104の処理後に、切替処理部53は、処理をステップS102に戻す。
次に、図6を参照して、本実施形態によるノートPC1のジェスチャ入力モードの処理について説明する。
図6は、本実施形態によるノートPC1のジェスチャ入力モードの処理の一例を示すフローチャートである。ここでは、MCU40の入力処理部41が、ジェスチャ入力モードである場合の処理について説明する。
ノートPC1のMCU40は、タッチパッド14Bのジェスチャを検出したか否かを判定する(ステップS201)。MCU40の入力処理部41は、ジェスチャ入力モードにおいて、タッチセンサ部142のタッチパッド14Bの領域に、ジェスチャ操作を検出したか否かを判定する。入力処理部41は、タッチパッド14Bのジェスチャを検出した場合(ステップS201:YES)に、処理をステップS202に進める。また、入力処理部41は、タッチパッド14Bのジェスチャを検出していない場合(ステップS201:NO)に、処理をステップS201に戻す。
ステップS202において、入力処理部41は、ジェスチャ操作により分岐処理を実行する。入力処理部41は、ジェスチャ操作が左方向へのスワイプである場合に、処理をステップS203に進める。
また、入力処理部41は、ジェスチャ操作が上方向へのスワイプである場合に、処理をステップS204に進める。
また、入力処理部41は、ジェスチャ操作が右方向へのスワイプである場合に、処理をステップS205に進める。
また、入力処理部41は、ジェスチャ操作が下方向へのスワイプである場合に、処理をステップS206に進める。
また、入力処理部41は、ジェスチャ操作がタップである場合に、処理をステップS207に進める。
また、入力処理部41は、ジェスチャ操作がその他の操作である場合に、処理をステップS201に戻す。
ジェスチャ操作が左方向へのスワイプである、ステップS203において、入力処理部41は、左矢印キーのキーコード(0x25)を出力する。すなわち、入力処理部41は、左矢印キーのキーコード(0x25)を、USBのHIDクラスを用いて、メインシステム10に送信する。ステップS203の処理後に、入力処理部41は、処理をステップS201に戻す。
ジェスチャ操作が上方向へのスワイプである、ステップS204において、入力処理部41は、上矢印キーのキーコード(0x26)を出力する。すなわち、入力処理部41は、上矢印キーのキーコード(0x26)を、USBのHIDクラスを用いて、メインシステム10に送信する。ステップS204の処理後に、入力処理部41は、処理をステップS201に戻す。
ジェスチャ操作が右方向へのスワイプである、ステップS205において、入力処理部41は、右矢印キーのキーコード(0x27)を出力する。すなわち、入力処理部41は、右矢印キーのキーコード(0x27)を、USBのHIDクラスを用いて、メインシステム10に送信する。ステップS205の処理後に、入力処理部41は、処理をステップS201に戻す。
ジェスチャ操作が下方向へのスワイプである、ステップS206において、入力処理部41は、下矢印キーのキーコード(0x28)を出力する。すなわち、入力処理部41は、下矢印キーのキーコード(0x28)を、USBのHIDクラスを用いて、メインシステム10に送信する。ステップS206の処理後に、入力処理部41は、処理をステップS201に戻す。
ジェスチャ操作がタップである、ステップS207において、入力処理部41は、エンターキーのキーコード(0x0D)を出力する。すなわち、入力処理部41は、エンターキーのキーコード(0x0D)を、USBのHIDクラスを用いて、メインシステム10に送信する。ステップS207の処理後に、入力処理部41は、処理をステップS201に戻す。
ここで、図7を参照して、本実施形態によるノートPC1のジェスチャ入力モードの処理の具体例について説明する。
図7は、本実施形態によるノートPC1のジェスチャ入力モードの処理の一例を示す図である。
図7に示す例では、ジェスチャ入力モードにおいて、タッチパッド14B上で、利用者の指FGを、下から上にスワイプすると、入力処理部41は、右矢印キーのキーコードを、メインシステム10に出力する。
以上説明したように、本実施形態によるノートPC1(情報処理装置)は、キーボード14A及びタッチパッド14Bと、表示部15と、入力変換処理部52と、切替処理部53とを備える。表示部15は、キーボード14A及びタッチパッド14Bにより入力された入力情報を表示する。入力変換処理部52は、キーボード14Aによるキー入力に対して、入力予測の候補を表示部15に表示する。切替処理部53は、入力変換処理部52が、入力予測の候補を表示部15に表示している期間に、タッチパッド14Bを、通常入力モードから、ジェスチャ入力モードに、切り替える。ここで、通常入力モードは、通常のポインティングデバイスとして入力処理を行う入力モードである。ジェスチャ入力モードは、タッチパッド14Bに対する特定のタッチ操作である特定のジェスチャに応じて、特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力する入力モードである。
これにより、本実施形態によるノートPC1は、ジェスチャ入力モードにより、タッチパッド14Bのジェスチャ操作によって、例えば、手がキーボードのホームポジションから離れてしまう可能性を低減して、入力予測の候補を選択できる。このため、本実施形態によるノートPC1は、キーボード14Aの位置を目視で確認して再度ホームポジションを決定する必要がなく、ブラインドタッチを維持することができ、予測入力の機能を用いてキー入力の生産性を向上させることができる。
また、本実施形態によるノートPC1では、タッチパッド14Bのジェスチャ操作の緻密な操作は必要なく、簡易なジェスチャ操作で、入力予測の候補を選択できる。例えば、利用者の親指で、タッチパッド14Bをジェスチャ操作できるため、本実施形態によるノートPC1では、利用者は、表示部15の画面を見ながら(手元を見ずに)容易に、入力予測の候補を選択する操作を行うことができる。
また、本実施形態によるノートPC1は、特に、キーボード14AをOSKなどのソフトウェアキーボードを用いる場合に、ブラインドタッチを維持することができ、予測入力の機能を用いてキー入力の生産性を向上させることができる。
また、本実施形態によるノートPC1は、通常入力モードによる入力処理と、ジェスチャ入力モードによる入力処理とを切り替えて、タッチパッド14Bの入力を処理する入力処理部41を備える。切替処理部53は、入力予測の候補が表示部15に表示された場合に、入力処理部41を、通常入力モードによる入力処理から、ジェスチャ入力モードによる入力処理に変更させる。また、切替処理部53は、入力予測の候補が非表示になった場合に、ジェスチャ入力モードによる入力処理から、通常入力モードによる入力処理に戻す。
これにより、本実施形態によるノートPC1は、入力予測の候補が表示部15に表示された場合に、入力処理部41の入力モードを適切に切り替えることができ、予測入力の機能を用いてキー入力の生産性を向上させることができる。
また、本実施形態によるノートPC1は、OSに基づく処理を実行するメインシステム10と、メインシステム10とは異なる独立したMCU40(組込みシステム)とを備える。また、キーボード14Aは、ソフトウェアキーボードである。メインシステム10は、入力変換処理部52及び切替処理部53を備える。MCU40は、入力処理部41を備え、ソフトウェアキーボードにおいて検出したキーコードを、メインシステム10により保護された汎用インターフェース(例えば、USBのHIDクラス)を用いて、メインシステム10に出力する。
これにより、本実施形態によるノートPC1は、独立したMCU40内の処理により、例えば、ソフトウェアキーボードを実現するため、メインシステム10のOS(例えば、Windows(登録商標))による制約を受けずに自由度の高い仮想入力デバイスを実現することができる。
また、本実施形態によるノートPC1は、メインシステム10により保護された汎用インターフェースを用いて、ソフトウェアキーボードにおいて検出したキーコードをメインシステム10に出力するため、他のソフトウェアから干渉を受ける懸念を低減することができる。すなわち、本実施形態によるノートPC1では、例えば、メインシステム10のOSが、コンピュータウイルスやマルウェアなどに感染した場合であっても、仮想入力デバイスへの入力が読み取られる心配がない。よって、本実施形態によるノートPC1は、プライバシーを保護しつつ、自由度の高い仮想入力デバイスを実現することができる。
また、本実施形態では、特定のタッチ操作には、タッチパッド14B上を利用者の指で上下左右のいずれかの方向に動かす操作が含まれる。入力処理部41は、ジェスチャ入力モードにおいて、タッチパッド14B上を指で上下左右のいずれかの方向に動かす操作(例えば、スワイプ)に応じて、動かす方向に対応した矢印キーのキーコードを出力する。
これにより、本実施形態によるノートPC1は、タッチパッド14B上を指で上下左右のいずれかの方向に動かす操作(例えば、スワイプ)することで、例えば、キーボード14Aのホームポジションから手を放さずに、簡単に入力予測の候補を上下左右にカーソルを移動して選択することができる。
また、本実施形態では、入力処理部41は、上下左右のいずれかの方向を、タッチパッド14B上の指の移動軌跡のアスペクト比に基づいて判定する。
これにより、本実施形態によるノートPC1は、タッチパッド14B上を指で上下左右のいずれかの方向に動かす操作(例えば、スワイプの方向)を容易に判定することができる。
また、本実施形態では、特定のタッチ操作には、タッチパッド14B上のタップ操作が含まれる。入力処理部41は、ジェスチャ入力モードにおいて、タップ操作に応じて、エンターキーのキーコードを出力する。
これにより、本実施形態によるノートPC1は、タッチパッド14B上を指でタップ操作することで、例えば、キーボード14Aのホームポジションから手を放さずに、簡単に入力予測の候補を選択することができる。
また、本実施形態によるノートPC1は、MCU40が出力する画像データと、メインシステム10が出力する画像データとを切り替えて、表示部141に出力する切替部16を備える。
これにより、本実施形態によるノートPC1では、キーボード14A及びタッチパッド14Bの画像データと、メインシステム10からの画像データとを切り替えて表示部141に表示させることができ、表示部141の表示の自由度を高めることができる。
また、本実施形態による制御方法は、キーボード14A及びタッチパッド14Bと、キーボード14A及びタッチパッド14Bにより入力された入力情報を表示する表示部15とを備えるノートPC1(情報処理)の制御方法であって、入力変換ステップと、切替ステップとを含む。入力変換ステップにおいて、入力変換処理部52が、キーボード14Aによるキー入力に対して、入力予測の候補を表示部15に表示する。切替ステップにおいて、切替処理部53が、入力変換処理部52が、入力予測の候補を表示部15に表示している期間に、タッチパッド14Bを、通常入力モードから、ジェスチャ入力モードに、切り替える。
これにより、本実施形態によるノートPC1は、上述したノートPC1と同様の効果を奏し、予測入力の機能を用いてキー入力の生産性を向上させることができる。
[第2の実施形態]
次に、図面を参照して、第2の実施形態のよるノートPC1aについて、説明する。
第2の実施形態では、ノートPC1aが、仮想入力デバイスでない物理的なキーボード34及びタッチパッド35を備える場合の変形例について説明する。
図8は、第2の実施形態によるノートPC1aの一例を示す外観図である。なお、本実施形態において、情報処理装置の一例として、ノートPC1aについて説明する。
図8に示すように、ノートPC1aは、第1筐体101と、第2筐体102とを備え、ヒンジ機構により一方の筐体(第1筐体101)の側面が他方の筐体(第2筐体102)の側面に係合され、ヒンジ機構の回転軸周りに第1筐体101が第2筐体102に対して回動可能に構成されている。
また、ノートPC1aは、タッチスクリーン14と表示部15とキーボード34及びタッチパッド35とを備える。表示部15は、第1筐体101に配置されており、メインの表示部として機能する。
キーボード34は、物理キーボードであり、第2筐体102に配置されている。また、タッチパッド35は、第2筐体102に配置されており、ポインティングデバイスとして機能する。
図9は、本実施形態によるノートPC1aの主要なハードウェア構成の一例を示す図である。
図9に示すように、ノートPC1aは、CPU11と、メインメモリ12と、ビデオサブシステム13と、表示部15と、チップセット21と、BIOSメモリ22と、HDD23と、オーディオシステム24と、WLANカード25と、USBコネクタ26と、撮像部27と、エンベデッドコントローラ31と、入力部32と、電源回路33と、キーボード34と、タッチパッド35とを備える。
なお、本実施形態において、CPU11と、メインメモリ12とがメイン制御部20に対応する。メイン制御部20は、例えば、Windows(登録商標)に基づいて、各種処理を実行する。
また、本実施形態において、ノートPC1aは、切替部16、MCU40、及びタッチスクリーン14(表示部141、タッチセンサ部142)を備えず、代わりに、キーボード34と、タッチパッド35とを備える点が、第1の実施形態と異なる。
なお、図9において、上述した図2と同一の構成には、同一の符号を付与して、ここではその説明を省略する。
キーボード34は、図8に示すような、第2筐体102に配置されている物理キーボードである。キーボード34は、ノートPC1aの内蔵のキーボードであり、利用者からのキー入力を受け付ける。キーボード34は、例えば、PS/2ポートを介して、エンベデッドコントローラ31と接続されている。
タッチパッド35は、図8に示すような、第2筐体102に配置されている物理タッチパッドである。タッチパッド35は、ノートPC1aの内蔵のポインティングデバイスであり、例えば、PS/2ポートを介して、エンベデッドコントローラ31と接続されている。
次に、図10を参照して、本実施形態によるノートPC1aの機能構成について説明する。
図10は、本実施形態によるノートPC1aの機能構成の一例を示すブロック図である。
図10に示すように、ノートPC1aは、メイン制御部20と、ビデオサブシステム13と、表示部15と、エンベデッドコントローラ31と、キーボード34と、タッチパッド35とを備える。なお、図10において、ノートPC1aの構成として、本実施形態の発明に関する主要な機能構成のみを記載している。
メイン制御部20は、CPU11及びチップセット21とにより実現される機能部である。メイン制御部20は、OSに基づく処理を実行し、当該処理に関する情報を表示部15に表示させる。
また、メイン制御部20は、USBドライバ51と、入力変換処理部52と、切替処理部53と、アプリケーション54とを備える。
なお、USBドライバ51と、入力変換処理部52と、切替処理部53と、アプリケーション54とは、第1の実施形態と同様の機能部であるため、ここではその説明を省略する。
入力変換処理部52は、エンベデッドコントローラ31を介して、キーボード34及びタッチパッド35からのキーコードを受信する。
切替処理部53は、後述するエンベデッドコントローラ31の入力処理部41aに対して、通常入力モードと、ジェスチャ入力モードとを切り替える。
エンベデッドコントローラ31(サブ制御部)は、キーボード34及びタッチパッド35とが出力する入力情報(例えば、キーコード等)をPS/2ポートにより受信し、受信した入力情報をメイン制御部20に送信する。
また、エンベデッドコントローラ31は、入力処理部41aを備える。
入力処理部41aは、エンベデッドコントローラ31により実現される機能部である。入力処理部41は、キーボード34及びタッチパッド35の入力処理を実行する。入力処理部41は、キーボード34に対する入力に応じて、キーコードをメイン制御部20の入力変換処理部52に送信する。また、入力処理部41aは、ジェスチャ入力モードにおいて、タッチパッド35上を指で上下左右のいずれかの方向に動かす操作に応じて、動かす方向に対応した矢印キーのキーコードを、メイン制御部20に出力する。
また、入力処理部41aは、ジェスチャ入力モードにおいて、タッチパッド35上のタップ操作に応じて、エンターキーのキーコードを、メイン制御部20に出力する。
このように、入力処理部41aは、ジェスチャ入力モードにおいて、上述した第1の実施形態と同様の処理を実行する。
次に、本実施形態によるノートPC1aの動作について説明する。
本実施形態によるノートPC1aのタッチパッド35のモード切替処理は、上述した図5に示す処理と同様であるため、ここではその説明を省略する。なお、本実施形態におけるモード切替処理では、切替処理部53は、MCU40の入力処理部41の代わりに、エンベデッドコントローラ31の入力処理部41aに対して、入力モードの切り替えを実行する。
また、本実施形態によるノートPC1aのジェスチャ入力モードの処理は、上述した図6に示す処理と同様であるため、ここではその説明を省略する。なお、本実施形態では、タッチパッド14Bの代わりに、タッチパッド35を用いる。
以上説明したように、本実施形態によるノートPC1a(情報処理装置)は、キーボード34及びタッチパッド35と、表示部15と、入力変換処理部52と、切替処理部53とを備える。表示部15は、キーボード34及びタッチパッド35により入力された入力情報を表示する。入力変換処理部52は、キーボード34によるキー入力に対して、入力予測の候補を表示部15に表示する。切替処理部53は、入力変換処理部52が、入力予測の候補を表示部15に表示している期間に、タッチパッド35を、通常入力モードから、ジェスチャ入力モードに、切り替える。ここで、通常入力モードは、通常のポインティングデバイスとして入力処理を行う入力モードである。ジェスチャ入力モードは、タッチパッド35に対する特定のタッチ操作である特定のジェスチャに応じて、特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力する入力モードである。
これにより、本実施形態によるノートPC1aは、上述した第1の実施形態のノートPC1と同様の効果を奏し、予測入力の機能を用いてキー入力の生産性を向上させることができる。
また、本実施形態によるノートPC1aは、OSに基づく処理を実行するメイン制御部20と、メイン制御部20とは異なるエンベデッドコントローラ31(サブ制御部)とを備える。また、キーボード34は、物理キーボードである。メイン制御部20は、入力変換処理部52及び切替処理部53を備える。エンベデッドコントローラ31は、入力処理部41aを備える。
これにより、本実施形態によるノートPC1aは、物理キーボードにおいても、同様の効果を奏し、予測入力の機能を用いてキー入力の生産性を向上させることができる。
また、上述したノートPC1(1a)は、以下の形態であってもよい。上述したノートPC1(1a)は、キーボード14A(34)及びタッチパッド14B(35)と、表示部15と、プログラムを一時的に記憶するメインメモリ12(メモリ)と、メモリ(メインメモリ12)に記憶されたプログラムを実行するプロセッサ(メイン制御部20)とを備える。プロセッサ(メイン制御部20)は、メモリ(メインメモリ12)に記憶されたプログラムを実行することにより、キーボード14A(34)によるキー入力に対して、入力予測の候補を表示部15に表示する入力変換処理と、入力変換処理により入力予測の候補を表示部15に表示している期間に、タッチパッド14B(35)を、通常入力モードから、ジェスチャ入力モードに、切り替える切替処理とを実行する。
これにより、上述したノートPC1(1a)は、ノートPC1(1a)及び制御方法と同様の効果を奏し、予測入力の機能を用いてキー入力の生産性を向上させることができる。
なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、情報処理装置がノートPC1(1a)である例を説明したが、これに限定されるものではなく、例えば、タブレット端末やスマートフォンなどの他の情報処理装置であってもよい。
また、上記の各実施形態において、入力処理部41(41a)は、タッチ操作の一例として、スワイプと、タップを検出する例を説明したが、これに限定されるものではなく、他のタップ操作を採用してもよい。例えば、入力処理部41(41a)は、ダブルタップにより、エンターキーのキーコードを出力するようにしてもよい。
また、上記の各実施形態において、入力処理部41(41a)は、特定のジェスチャ操作(タッチ操作)に応じて、矢印キー及びエンターキーのキーコードを出力する例を説明したが、これに限定されるものではなく、例えば、TABキーなどの他のキーのキーコードを出力するようにしてもよい。
また、上記の各実施形態において、表示部15が、通常の表示部である例を説明したが、これに限定されるものではなく、表示部15をタッチセンサ部を備えたタッチスクリーンにより構成してもよい。
また、上記の各実施形態において、タッチパッド14B(35)により、矢印キー及びエンターキーに対応するジェスチャ操作を受け付ける例を説明したが、これに限定されるものではなく、タッチパッド14B(35)の代わりに、マウスやポインティングスティックなど、一般的なポインティングデバイスを用いてもよい。この場合でも、ノートPC1(1a)と同様の効果が得られる。また、キーボードは、ソフトウェアキーボードでもいわゆる物理キーボードであっても有効である。
なお、上述したノートPC1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述したノートPC1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述したノートPC1(1a)が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後にノートPC1(1a)が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
1、1a ノートPC
10 メインシステム
11 CPU
12 メインメモリ
13 ビデオサブシステム
14 タッチスクリーン
14A、34 キーボード
14B、35 タッチパッド
15、141 表示部
16 切替部
20メイン制御部
21 チップセット
22 BIOSメモリ
23 HDD
24 オーディオシステム
25 WLANカード
26 USBコネクタ
27 撮像部
31 エンベデッドコントローラ(EC)
32 入力部
33 電源回路
40 MCU
41、41a 入力処理部
42 表示処理部
51 USBドライバ
52 入力変換処理部
53 切替処理部
54 アプリケーション
101 第1筐体
102 第2筐体
142 タッチセンサ部
FG 指

Claims (8)

  1. キーボード及びタッチパッドと、
    前記キーボード及び前記タッチパッドにより入力された入力情報を表示する表示部と、
    前記キーボードによるキー入力に対して、入力予測の候補を前記表示部に表示する入力変換処理部と、
    前記入力変換処理部が、前記入力予測の候補を前記表示部に表示している期間に、前記タッチパッドを、通常のポインティングデバイスとして入力処理を行う通常入力モードから、前記タッチパッドに対する特定のタッチ操作である特定のジェスチャに応じて、前記特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力するジェスチャ入力モードに、切り替える切替処理部と
    を備える情報処理装置。
  2. 前記通常入力モードによる入力処理と、前記ジェスチャ入力モードによる入力処理とを切り替えて、前記タッチパッドの入力を処理する入力処理部を備え、
    前記切替処理部は、
    前記入力予測の候補が前記表示部に表示された場合に、前記入力処理部を、前記通常入力モードによる入力処理から、前記ジェスチャ入力モードによる入力処理に変更させ、
    前記入力予測の候補が非表示になった場合に、前記ジェスチャ入力モードによる入力処理から、前記通常入力モードによる入力処理に戻す
    請求項1に記載の情報処理装置。
  3. OS(オペレーティングシステム)に基づく処理を実行するメインシステムと、
    前記メインシステムとは異なる独立した組込みシステムと
    を備え、
    前記キーボードは、ソフトウェアキーボードであり、
    メインシステムは、前記入力変換処理部及び前記切替処理部を備え、
    前記組込みシステムは、前記入力処理部を備え、前記ソフトウェアキーボードにおいて検出したキーコードを、前記メインシステムにより保護された汎用インターフェースを用いて、前記メインシステムに出力する
    請求項2に記載の情報処理装置。
  4. 前記特定のタッチ操作には、前記タッチパッド上を利用者の指で上下左右のいずれかの方向に動かす操作が含まれ、
    前記入力処理部は、前記ジェスチャ入力モードにおいて、前記タッチパッド上を前記指で上下左右のいずれかの方向に動かす操作に応じて、前記動かす方向に対応した矢印キーのキーコードを出力する
    請求項2又は請求項3に記載の情報処理装置。
  5. 前記入力処理部は、前記上下左右のいずれかの方向を、前記タッチパッド上の前記指の移動軌跡のアスペクト比に基づいて判定する
    請求項4に記載の情報処理装置。
  6. 前記特定のタッチ操作には、前記タッチパッド上のタップ操作が含まれ、
    前記入力処理部は、前記ジェスチャ入力モードにおいて、前記タップ操作に応じて、前記エンターキーのキーコードを出力する
    請求項2から請求項5のいずれか一項に記載の情報処理装置。
  7. 前記切替処理部は、前記入力変換処理部が、前記入力予測の候補の表示中に発行するウインドウメッセージに基づいて、入力予測の候補を前記表示部に表示していることを判定する
    請求項1から請求項6のいずれか一項に記載の情報処理装置。
  8. キーボード及びタッチパッドと、前記キーボード及び前記タッチパッドにより入力された入力情報を表示する表示部とを備える情報処理の制御方法であって、
    入力変換処理部が、前記キーボードによるキー入力に対して、入力予測の候補を前記表示部に表示する入力変換ステップと、
    切替処理部が、前記入力変換処理部が、前記入力予測の候補を前記表示部に表示している期間に、前記タッチパッドを、通常のポインティングデバイスとして入力処理を行う通常入力モードから、前記タッチパッドに対する特定のタッチ操作である特定のジェスチャに応じて、前記特定のジェスチャに対応した特定のキーであって、少なくとも矢印キー及びエンターキーを含む特定のキーに対応するキーコードを出力するジェスチャ入力モードに、切り替える切替ステップと
    を含む制御方法。
JP2022017096A 2022-02-07 2022-02-07 情報処理装置、及び制御方法 Active JP7265048B1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022017096A JP7265048B1 (ja) 2022-02-07 2022-02-07 情報処理装置、及び制御方法
US18/152,156 US20230251895A1 (en) 2022-02-07 2023-01-10 Information processing apparatus and control method
CN202310051858.XA CN116560556A (zh) 2022-02-07 2023-02-02 信息处理装置以及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022017096A JP7265048B1 (ja) 2022-02-07 2022-02-07 情報処理装置、及び制御方法

Publications (2)

Publication Number Publication Date
JP7265048B1 JP7265048B1 (ja) 2023-04-25
JP2023114658A true JP2023114658A (ja) 2023-08-18

Family

ID=86096135

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022017096A Active JP7265048B1 (ja) 2022-02-07 2022-02-07 情報処理装置、及び制御方法

Country Status (3)

Country Link
US (1) US20230251895A1 (ja)
JP (1) JP7265048B1 (ja)
CN (1) CN116560556A (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080310723A1 (en) * 2007-06-18 2008-12-18 Microsoft Corporation Text prediction with partial selection in a variety of domains
JP2012088754A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
US20130222249A1 (en) * 2012-02-24 2013-08-29 Research In Motion Limited Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
US20200379638A1 (en) * 2019-06-01 2020-12-03 Apple Inc. Keyboard management user interfaces

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080310723A1 (en) * 2007-06-18 2008-12-18 Microsoft Corporation Text prediction with partial selection in a variety of domains
JP2012088754A (ja) * 2010-10-15 2012-05-10 Sony Corp 情報処理装置、情報処理装置の入力制御方法及びプログラム
US20130222249A1 (en) * 2012-02-24 2013-08-29 Research In Motion Limited Touchscreen keyboard providing word predictions in partitions of the touchscreen keyboard in proximate association with candidate letters
US20200379638A1 (en) * 2019-06-01 2020-12-03 Apple Inc. Keyboard management user interfaces

Also Published As

Publication number Publication date
JP7265048B1 (ja) 2023-04-25
CN116560556A (zh) 2023-08-08
US20230251895A1 (en) 2023-08-10

Similar Documents

Publication Publication Date Title
US8519977B2 (en) Electronic apparatus, input control program, and input control method
US20110285653A1 (en) Information Processing Apparatus and Input Method
CN110633044B (zh) 一种控制方法、装置、电子设备及存储介质
US20110285625A1 (en) Information processing apparatus and input method
JP2004086735A (ja) 電子機器及び動作モード切替方法
JP2005108036A (ja) 情報処理装置およびタッチパッド
US20130318381A1 (en) Electronic apparatus and start method for electronic apparatus
JP2011134127A (ja) 情報処理装置およびキー入力方法
US20100271300A1 (en) Multi-Touch Pad Control Method
JP7265048B1 (ja) 情報処理装置、及び制御方法
US11762501B2 (en) Information processing apparatus and control method
US9026691B2 (en) Semi-autonomous touch I/O device controller operation under control of host
JP6998436B1 (ja) 情報処理装置、情報処理システム、及び制御方法
CN112783267A (zh) 信息处理装置和信息处理方法
TWI673634B (zh) 電子系統、觸控處理裝置與其處理方法、主機與其處理方法
JP6139647B1 (ja) 情報処理装置、入力判定方法、及びプログラム
JP7348360B1 (ja) 情報処理装置、タッチデバイス、及び制御方法
JP7304446B1 (ja) 情報処理装置、及び制御方法
JP7432777B1 (ja) 情報処理システム、及び制御方法
JP6696021B1 (ja) 情報処理装置
JP7444939B1 (ja) 情報処理装置、及び制御方法
JP6830973B2 (ja) 情報処理装置、及び制御方法
JP7176067B1 (ja) 情報処理装置、及び制御方法
JP2008257749A (ja) 電子機器およびシステム制御方法
JP2023162919A (ja) 情報処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220207

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R150 Certificate of patent or registration of utility model

Ref document number: 7265048

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350