JP2023162919A - Information processing device - Google Patents

Information processing device Download PDF

Info

Publication number
JP2023162919A
JP2023162919A JP2022073634A JP2022073634A JP2023162919A JP 2023162919 A JP2023162919 A JP 2023162919A JP 2022073634 A JP2022073634 A JP 2022073634A JP 2022073634 A JP2022073634 A JP 2022073634A JP 2023162919 A JP2023162919 A JP 2023162919A
Authority
JP
Japan
Prior art keywords
pen
input
area
mode
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022073634A
Other languages
Japanese (ja)
Inventor
圭一 吉冨
Keiichi Yoshitomi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Singapore Pte Ltd
Original Assignee
Lenovo Singapore Pte Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Singapore Pte Ltd filed Critical Lenovo Singapore Pte Ltd
Priority to JP2022073634A priority Critical patent/JP2023162919A/en
Publication of JP2023162919A publication Critical patent/JP2023162919A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve a user experience pen.SOLUTION: An information processing device includes: a display unit; a touch sensor unit that is arranged on a screen of the display unit and can detect touch input by contact of an object and pen input by contact of a pen on the screen; and a virtual input processing unit that switches a first mode in which at least a part of an area on the screen is caused to function as a software keyboard on the basis of the touch input to a second mode in which the area is caused to function as a handwriting input device on the basis of the pen input when the pen approaches to the region of the software keyboard within a distance equal to or shorter than a threshold.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置に関する。 The present invention relates to an information processing device.

近年、ノートブック型パーソナルコンピュータ(以下、ノートPCという)、タブレット端末などの情報処理装置では、表示画面をソフトウェアキーボードなどの仮想入力デバイスとして使用するものが知られている(例えば、特許文献1を参照)。 In recent years, information processing devices such as notebook personal computers (hereinafter referred to as notebook PCs) and tablet terminals that use the display screen as a virtual input device such as a software keyboard are known (for example, Patent Document 1 reference).

特開2018-10512号公報JP 2018-10512 Publication

しかしながら、上述のような従来技術の情報処理装置では、仮想入力デバイスとして、例えば、OSK(On Screen Keyboard)などのソフトウェアキーボードを使用する場合に、フィジカルキーボードと比べて入力しづらく、使用勝手が悪いため、ユーザーエクスペリエンスペンが得られない可能性があった。 However, in the above-mentioned conventional information processing devices, when using a software keyboard such as an OSK (On Screen Keyboard) as a virtual input device, it is difficult to input and is not user-friendly compared to a physical keyboard. Therefore, there was a possibility that the user experience pen could not be obtained.

本発明は、上記問題を解決すべくなされたもので、その目的は、ユーザーエクスペリエンスペンを向上させることができる情報処理装置を提供することにある。 The present invention was made to solve the above problems, and its purpose is to provide an information processing device that can improve the user experience of a pen.

上記問題を解決するために、本発明の一態様は、表示部と、前記表示部の画面上に配置され、前記画面上における物体の接触によるタッチ入力と、ペンの接触によるペン入力とを検出可能なタッチセンサ部と、前記タッチ入力に基づいて、前記画面の少なくとも一部の領域をソフトウェアキーボードとして機能させる第1モードにおいて、前記ソフトウェアキーボードの前記領域に対して前記ペンが閾値以内の距離に接近した場合に、当該領域を、前記ペン入力に基づいて、手書き入力デバイスとして機能させる第2モードに切り替える仮想入力処理部とを備える情報処理装置である。 In order to solve the above problem, one embodiment of the present invention includes a display unit, which is arranged on the screen of the display unit, and detects touch input caused by contact of an object on the screen and pen input caused by touch of a pen. and a first mode in which at least a part of the screen functions as a software keyboard based on the touch input, the pen is at a distance within a threshold with respect to the area of the software keyboard. The information processing apparatus includes a virtual input processing unit that switches the area to a second mode to function as a handwriting input device based on the pen input when the area approaches.

また、本発明の一態様は、表示部と、前記表示部の画面上に配置され、前記画面上における物体の接触によるタッチ入力と、ペンの接触によるペン入力とを検出可能なタッチセンサ部と、前記タッチ入力に基づいて、前記画面の少なくとも一部の領域をソフトウェアキーボードとして機能させる第1モードにおいて、前記ソフトウェアキーボードの前記領域に対して、前記ペンが閾値以内の距離に接近した場合に、当該領域を、前記ペン入力に基づいて、手書き入力デバイスとして機能させる第2モードに切り替え、前記第2モードにおいて、前記タッチセンサ部が、前記領域に対して、前記ペン以外の前記物体の接触による前記タッチ入力を検出した場合に、前記第1モードに切り替える切替処理部と、前記第2モードにおいて、手書き入力された前記ペンの軌跡を、テキスト情報に変換し、当該テキスト情報を、入力情報として出力するペン入力処理部とを備える情報処理装置である。 Further, one aspect of the present invention includes a display unit, and a touch sensor unit that is arranged on the screen of the display unit and is capable of detecting touch input caused by contact with an object on the screen and pen input caused by contact with a pen. , in a first mode in which at least a partial area of the screen functions as a software keyboard based on the touch input, when the pen approaches the area of the software keyboard to a distance within a threshold value; The area is switched to a second mode in which the area functions as a handwriting input device based on the pen input, and in the second mode, the touch sensor section is configured to switch the area to a second mode in which the area functions as a handwriting input device. a switching processing unit that switches to the first mode when the touch input is detected; and in the second mode, converts the trajectory of the pen input by handwriting into text information, and uses the text information as input information. The information processing apparatus includes a pen input processing section that outputs data.

また、本発明の一態様は、表示部と、前記表示部の画面上に配置され、前記画面上における物体の接触によるタッチ入力と、ペンの接触によるペン入力とを検出可能なタッチセンサ部と、前記タッチ入力に基づいて、前記画面の少なくとも一部の第1領域をソフトウェアキーボードとして機能させる第1モードにおいて、前記ソフトウェアキーボードの前記第1領域に対して、前記ペンが閾値以内の距離に接近した場合に、当該第1領域を、前記ペン入力に基づいて、手書き入力デバイスとして機能させる第2モードに切り替え、前記第2モードにおいて、前記タッチセンサ部が、前記第1領域のうちの特定の領域に対して、前記タッチ入力を検出した場合に、前記第1モードに切り替える切替処理部と、前記第2モードにおいて、前記第1領域とは異なる第2領域に指定された文字入力カーソルの周辺領域を拡大して前記第1領域に表示するとともに、前記ペン入力に基づいて、手書き入力された前記ペンの軌跡を前記第1領域に表示し、さらに、前記ペンの軌跡を前記第2領域の対応する位置に大きさを変換して表示させるとともに、変換された前記ペンの軌跡を、入力情報として出力するペン入力処理部とを備える情報処理装置ある。 Further, one aspect of the present invention includes a display unit, and a touch sensor unit that is arranged on the screen of the display unit and is capable of detecting touch input caused by contact with an object on the screen and pen input caused by contact with a pen. , in a first mode in which a first area of at least a portion of the screen functions as a software keyboard based on the touch input, the pen approaches the first area of the software keyboard at a distance within a threshold value; the first area is switched to a second mode in which the first area functions as a handwriting input device based on the pen input, and in the second mode, the touch sensor section a switching processing unit that switches the area to the first mode when the touch input is detected; and a periphery of a character input cursor specified in a second area different from the first area in the second mode; The area is enlarged and displayed in the first area, and based on the pen input, the trajectory of the pen input by hand is displayed in the first area, and the trajectory of the pen is further displayed in the second area. There is an information processing apparatus that includes a pen input processing section that converts the size and displays the pen at a corresponding position, and outputs the converted trajectory of the pen as input information.

本発明の上記態様によれば、ユーザーエクスペリエンスペンを向上させることができる。 According to the above aspects of the invention, the user experience of the pen can be improved.

第1の実施形態によるタブレット端末の一例を示す外観図である。FIG. 1 is an external view showing an example of a tablet terminal according to a first embodiment. 第1の実施形態によるタブレット端末の主要なハードウェア構成の一例を示す図である。FIG. 2 is a diagram showing an example of the main hardware configuration of the tablet terminal according to the first embodiment. 第1の実施形態によるタブレット端末の機能構成の一例を示すブロック図である。1 is a block diagram showing an example of a functional configuration of a tablet terminal according to a first embodiment. FIG. 第1の実施形態によるタブレット端末のモード切り替えの一例を示すイメージ図である。FIG. 3 is an image diagram showing an example of mode switching of the tablet terminal according to the first embodiment. 第1の実施形態によるタブレット端末のモード切替処理の一例を示すフローチャートである。2 is a flowchart illustrating an example of mode switching processing of the tablet terminal according to the first embodiment. 第1の実施形態によるタブレット端末のOSK処理の一例を示すフローチャートである。7 is a flowchart illustrating an example of OSK processing of the tablet terminal according to the first embodiment. 第1の実施形態によるタブレット端末の手書き入力処理の一例を示すフローチャートである。It is a flowchart which shows an example of handwriting input processing of a tablet terminal by a 1st embodiment. 第2の実施形態によるタブレット端末の機能構成の一例を示すブロック図である。FIG. 2 is a block diagram illustrating an example of a functional configuration of a tablet terminal according to a second embodiment. 第2の実施形態によるタブレット端末のモード切り替えの一例を示すイメージ図である。FIG. 7 is an image diagram showing an example of mode switching of the tablet terminal according to the second embodiment. 第2の実施形態によるタブレット端末のモード切替処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of mode switching processing of the tablet terminal according to the second embodiment. 第2の実施形態によるタブレット端末の手書き入力処理の一例を示すフローチャートである。12 is a flowchart illustrating an example of handwriting input processing on a tablet terminal according to a second embodiment.

以下、本発明の一実施形態による情報処理装置について、図面を参照して説明する。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An information processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings.

[第1の実施形態]
図1は、本実施形態によるタブレット端末1の一例を示す外観図である。なお、本実施形態において、情報処理装置の一例として、タブレット端末1について説明する。
図1に示すように、タブレット端末1は、筐体CSの片方の主面に、タッチスクリーン20が設置されており、ペン30を用いて、例えば、メモ帳などのアプリケーションプログラムを実行させる。
[First embodiment]
FIG. 1 is an external view showing an example of a tablet terminal 1 according to the present embodiment. Note that in this embodiment, a tablet terminal 1 will be described as an example of an information processing device.
As shown in FIG. 1, the tablet terminal 1 has a touch screen 20 installed on one main surface of a housing CS, and uses a pen 30 to execute an application program such as a memo pad.

タッチスクリーン20は、表示部14と、タッチセンサ部33とを備え、表示部14は、画面DFに各種情報を表示する。
タッチセンサ部33は、表示部14に重ねて配置されており、画面DF上における物体(例えば、利用者の指、等)の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能である。
なお、タッチスクリーン20、表示部14、及びタッチセンサ部33の詳細については、後述する。
The touch screen 20 includes a display section 14 and a touch sensor section 33, and the display section 14 displays various information on the screen DF.
The touch sensor unit 33 is arranged to overlap the display unit 14 and is capable of detecting touch input caused by contact with an object (for example, a user's finger, etc.) on the screen DF and pen input caused by contact with the pen 30. It is.
Note that details of the touch screen 20, the display section 14, and the touch sensor section 33 will be described later.

次に、図2を参照して、タブレット端末1の主要なハードウェア構成について説明する。
図2は、本実施形態によるタブレット端末1の主要なハードウェア構成の一例を示す図である。タブレット端末1は、例えば、OS(Operating System:オペレーティングシステム)がWindows(登録商標)であるノートPCをベースにした端末装置である。
Next, with reference to FIG. 2, the main hardware configuration of the tablet terminal 1 will be described.
FIG. 2 is a diagram showing an example of the main hardware configuration of the tablet terminal 1 according to this embodiment. The tablet terminal 1 is, for example, a terminal device based on a notebook PC whose OS (Operating System) is Windows (registered trademark).

図2に示すように、タブレット端末1は、CPU11と、メインメモリ12と、ビデオサブシステム13と、表示部14と、チップセット21と、BIOSメモリ22と、SSD23と、USBコネクタ24と、オーディオシステム25と、WLANカード26と、ペン30と、エンベデッドコントローラ31と、キー入力部32と、タッチセンサ部33と、電源回路34と、センサ部35とを備える。 As shown in FIG. 2, the tablet terminal 1 includes a CPU 11, a main memory 12, a video subsystem 13, a display unit 14, a chipset 21, a BIOS memory 22, an SSD 23, a USB connector 24, an audio It includes a system 25, a WLAN card 26, a pen 30, an embedded controller 31, a key input section 32, a touch sensor section 33, a power supply circuit 34, and a sensor section 35.

CPU(Central Processing Unit)11は、プログラム制御により種々の演算処理を実行し、タブレット端末1全体を制御する。
メインメモリ12は、CPU11の実行プログラムの読み込み領域として、又は、実行プログラムの処理データを書き込む作業領域として利用される書き込み可能メモリである。メインメモリ12は、例えば、複数個のDRAM(Dynamic Random Access Memory)チップで構成される。この実行プログラムには、OS、周辺機器類をハードウェア操作するための各種デバイスドライバ、各種サービス/ユーティリティ、アプリケーションプログラム(アプリケーションソフトウェア)、等が含まれる。
A CPU (Central Processing Unit) 11 executes various calculation processes under program control and controls the entire tablet terminal 1 .
The main memory 12 is a writable memory used as a reading area for the execution program of the CPU 11 or as a work area for writing processing data of the execution program. The main memory 12 is composed of, for example, a plurality of DRAM (Dynamic Random Access Memory) chips. This execution program includes an OS, various device drivers for operating the hardware of peripheral devices, various services/utilities, application programs (application software), and the like.

ビデオサブシステム13は、画像表示に関連する機能を実現するためのサブシステムであり、ビデオコントローラを含んでいる。このビデオコントローラは、CPU11からの描画命令を処理し、処理した描画情報をビデオメモリに書き込むとともに、ビデオメモリからこの描画情報を読み出して、表示部14に描画データ(表示データ)として出力する。 The video subsystem 13 is a subsystem for realizing functions related to image display, and includes a video controller. This video controller processes drawing commands from the CPU 11, writes processed drawing information into the video memory, reads out this drawing information from the video memory, and outputs it to the display unit 14 as drawing data (display data).

表示部14は、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイであり、ビデオサブシステム13から出力された描画データ(表示データ)に基づく表示画面を表示する。表示部14は、上述した図1に示すように、タッチスクリーン20の一部として構成されている。 The display unit 14 is, for example, a liquid crystal display or an organic EL (Electro-Luminescence) display, and displays a display screen based on drawing data (display data) output from the video subsystem 13. The display unit 14 is configured as a part of the touch screen 20, as shown in FIG. 1 described above.

チップセット21は、USB(Universal Serial Bus)、シリアルATA(AT Attachment)、SPI(Serial Peripheral Interface)バス、PCI(Peripheral Component Interconnect)バス、PCI-Expressバス、及びLPC(Low Pin Count)バスなどのコントローラを備えており複数のデバイスが接続される。図2では、デバイスの例示として、BIOSメモリ22と、SSD23と、USBコネクタ24と、オーディオシステム25と、WLANカード26と、エンベデッドコントローラ31とが、チップセット21に接続されている。 The chipset 21 supports USB (Universal Serial Bus), Serial ATA (AT Attachment), SPI (Serial Peripheral Interface) bus, PCI (Peripheral Component Interconnect) bus, PCI-Express bus, LPC (Low Pin Count) bus, etc. It has a controller and can connect multiple devices. In FIG. 2, as examples of devices, a BIOS memory 22, an SSD 23, a USB connector 24, an audio system 25, a WLAN card 26, and an embedded controller 31 are connected to the chipset 21.

BIOS(Basic Input Output System)メモリ22は、例えば、EEPROM(Electrically Erasable Programmable Read Only Memory)やフラッシュROMなどの電気的に書き換え可能な不揮発性メモリで構成される。BIOSメモリ22は、BIOS、及びエンベデッドコントローラ31などを制御するためのシステムファームウェアなどを記憶する。 The BIOS (Basic Input Output System) memory 22 is configured of an electrically rewritable nonvolatile memory such as an EEPROM (Electrically Erasable Programmable Read Only Memory) or a flash ROM. The BIOS memory 22 stores the BIOS, system firmware for controlling the embedded controller 31, and the like.

SSD(Solid State Drive)23(不揮発性記憶装置の一例)は、OS、各種ドライバ、各種サービス/ユーティリティ、アプリケーションプログラム(以下、アプリケーションということがある)、及び各種データを記憶する。USBコネクタ24は、USBを利用した周辺機器類を接続するためのコネクタである。 The SSD (Solid State Drive) 23 (an example of a nonvolatile storage device) stores an OS, various drivers, various services/utilities, application programs (hereinafter sometimes referred to as applications), and various data. The USB connector 24 is a connector for connecting peripheral devices using USB.

オーディオシステム25は、音データの記録、再生、出力を行う。
WLAN(Wireless Local Area Network)カード26は、ワイヤレスLAN(無線LAN)により、ネットワークに接続して、データ通信を行う。WLANカード26は、例えば、ネットワークからのデータを受信した際に、データを受信したことを示すイベントトリガを発生する。
The audio system 25 records, reproduces, and outputs sound data.
The WLAN (Wireless Local Area Network) card 26 connects to a network via a wireless LAN and performs data communication. For example, when the WLAN card 26 receives data from the network, it generates an event trigger indicating that the data has been received.

エンベデッドコントローラ31は、タブレット端末1のシステム状態に関わらず、各種デバイス(周辺装置やセンサ等)を監視し制御するワンチップマイコン(One-Chip Microcomputer)である。また、エンベデッドコントローラ31は、電源回路34を制御する電源管理機能を有している。なお、エンベデッドコントローラ31は、不図示のCPU、ROM、RAMなどで構成されるとともに、複数チャネルのA/D入力端子、D/A出力端子、タイマ、及びデジタル入出力端子を備えている。エンベデッドコントローラ31には、それらの入出力端子を介して、例えば、キー入力部32、タッチセンサ部33、電源回路34、及びセンサ部35などが接続されており、エンベデッドコントローラ31は、これらの動作を制御する。 The embedded controller 31 is a one-chip microcomputer that monitors and controls various devices (peripheral devices, sensors, etc.) regardless of the system status of the tablet terminal 1. Further, the embedded controller 31 has a power management function for controlling the power supply circuit 34. The embedded controller 31 is composed of a CPU, ROM, RAM, etc. (not shown), and is equipped with a plurality of channels of A/D input terminals, D/A output terminals, timers, and digital input/output terminals. For example, a key input unit 32, a touch sensor unit 33, a power supply circuit 34, a sensor unit 35, etc. are connected to the embedded controller 31 via their input/output terminals, and the embedded controller 31 controls the operation of these units. control.

キー入力部32は、例えば、電源スイッチなどの入力デバイスであるの位置と、操作媒体の画面DF上への接触とを検出する。タッチセンサ部33は、例えば、ペン30(ペン形状の媒体)が表示部14の画面DFに対して所定の距離以内(閾値以内の距離)に接近したことを検出し、ペン30が画面DFに対して所定の距離以内に接近した場合に、非接触で、画面DF上におけるペン30の位置を検出可能である。なお、タッチセンサ部33と、表示部14とは、タッチスクリーン20を構成する。 The key input unit 32 detects, for example, the position of an input device such as a power switch and the contact of an operation medium on the screen DF. For example, the touch sensor unit 33 detects that the pen 30 (pen-shaped medium) approaches the screen DF of the display unit 14 within a predetermined distance (distance within a threshold value), and detects that the pen 30 approaches the screen DF. On the other hand, when the pen 30 approaches within a predetermined distance, the position of the pen 30 on the screen DF can be detected without contact. Note that the touch sensor section 33 and the display section 14 constitute the touch screen 20.

また、タッチセンサ部33は、接触検出部331と、ペン検出部332とを備える。
接触検出部331は、例えば、静電容量式のタッチセンサであり、表示部14の画面DFに接触した操作媒体(ペン30や指などの物体)を検出するとともに、操作媒体が接触している位置を検出する。
Further, the touch sensor section 33 includes a contact detection section 331 and a pen detection section 332.
The contact detection unit 331 is, for example, a capacitive touch sensor, and detects an operating medium (an object such as the pen 30 or a finger) that has contacted the screen DF of the display unit 14, and detects whether the operating medium is in contact with the screen DF. Detect location.

ペン検出部332は、例えば、電磁誘導方式のタッチセンサであり、ペン30の共振回路LC1を利用して、非接触により、ペン30の表示部14の画面DF上の位置を検出する。ペン検出部332は、例えば、ペン30が表示部14の画面DFに対して閾値以内の距離に近づいたことを検出可能である。
このように、タッチセンサ部33は、画面DF上における物体(例えば、指など)の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能である。
The pen detection unit 332 is, for example, an electromagnetic induction type touch sensor, and detects the position of the pen 30 on the screen DF of the display unit 14 in a non-contact manner using the resonance circuit LC1 of the pen 30. The pen detection unit 332 can detect, for example, that the pen 30 has approached the screen DF of the display unit 14 at a distance within a threshold value.
In this way, the touch sensor unit 33 can detect touch input caused by contact with an object (for example, a finger) on the screen DF, and pen input caused by contact with the pen 30.

なお、タッチセンサ部33は、ペン検出部332が、ペン30が表示部14の画面DFに対して閾値以内の距離に近づいたことを検出した際に、接触検出部331が、ペン30の未接触を検出することで、ペン30のホバリングを検出可能である。ここで、ペン30のホバリングとは、ペン30を画面DFに対して所定の距離以内で停止した状態である。 Note that when the pen detection unit 332 detects that the pen 30 approaches the screen DF of the display unit 14 within a distance of a threshold value, the touch sensor unit 33 causes the contact detection unit 331 to By detecting contact, hovering of the pen 30 can be detected. Here, hovering of the pen 30 is a state in which the pen 30 is stopped within a predetermined distance from the screen DF.

ペン30は、ペン形状の操作媒体であり、例えば、タッチペン、スタイラスペンなどである。ペン30は、共振回路LC1を備えている。ペン30は、共振回路LC1のコイルへの電磁誘導により、電源が供給され、共振回路を利用して、表示部14の画面DF上におけるペン30の位置を検出可能に構成されている。 The pen 30 is a pen-shaped operating medium, such as a touch pen or a stylus pen. The pen 30 includes a resonant circuit LC1. The pen 30 is configured such that power is supplied by electromagnetic induction to the coil of the resonant circuit LC1, and the position of the pen 30 on the screen DF of the display unit 14 can be detected using the resonant circuit.

電源回路34は、例えば、DC/DCコンバータ、充放電ユニット、電池ユニット、AC/DCアダプタなどを含んでおり、AC/DCアダプタ、又は電池ユニットから供給される直流電圧を、タブレット端末1を動作させるために必要な複数の電圧に変換する。また、電源回路34は、エンベデッドコントローラ31からの制御に基づいて、タブレット端末1の各部に電力を供給する。 The power supply circuit 34 includes, for example, a DC/DC converter, a charging/discharging unit, a battery unit, an AC/DC adapter, etc., and operates the tablet terminal 1 using DC voltage supplied from the AC/DC adapter or the battery unit. Convert to multiple voltages as required. Further, the power supply circuit 34 supplies power to each part of the tablet terminal 1 based on control from the embedded controller 31.

センサ部35は、例えば、加速度センサやジャイロセンサなどであり、タブレット端末1の使用状態を示す画面表示向きを検出する。センサ部35は、例えば、重力加速度の向きを検出して、タブレット端末1(表示部14)の画面表示向きを検出する。 The sensor unit 35 is, for example, an acceleration sensor, a gyro sensor, or the like, and detects the screen display orientation that indicates the usage state of the tablet terminal 1. The sensor unit 35 detects, for example, the direction of gravitational acceleration and the screen display direction of the tablet terminal 1 (display unit 14).

なお、本実施形態において、上述したCPU11及びチップセット21は、メイン制御部10に対応する。メイン制御部10は、OS(例えば、Windows(登録商標))に基づく処理を実行する。 Note that in this embodiment, the CPU 11 and chipset 21 described above correspond to the main control section 10. The main control unit 10 executes processing based on the OS (eg, Windows (registered trademark)).

次に、図3を参照して、本実施形態によるタブレット端末1の機能構成について説明する。
図3は、本実施形態によるタブレット端末1の機能構成の一例を示すブロック図である。
Next, with reference to FIG. 3, the functional configuration of the tablet terminal 1 according to this embodiment will be described.
FIG. 3 is a block diagram showing an example of the functional configuration of the tablet terminal 1 according to this embodiment.

図3に示すように、タブレット端末1は、メイン制御部10と、タッチスクリーン20と、ペン30と、エンベデッドコントローラ31と、記憶部40とを備える。
なお、図3において、タブレット端末1の構成として、本実施形態の発明に関する主要な機能構成のみを記載している。また、タッチスクリーン20、ペン30、及びエンベデッドコントローラ31については、上述した図2と同一であるため、ここではその説明を省略する。タッチスクリーン20は、表示部14と、タッチセンサ部33とを備え、タッチセンサ部33は、接触検出部331と、ペン検出部332とを備える。
As shown in FIG. 3, the tablet terminal 1 includes a main control section 10, a touch screen 20, a pen 30, an embedded controller 31, and a storage section 40.
Note that in FIG. 3, only the main functional configurations related to the invention of this embodiment are shown as the configuration of the tablet terminal 1. Furthermore, since the touch screen 20, pen 30, and embedded controller 31 are the same as those shown in FIG. 2 described above, their description will be omitted here. The touch screen 20 includes a display section 14 and a touch sensor section 33, and the touch sensor section 33 includes a contact detection section 331 and a pen detection section 332.

記憶部40は、例えば、メインメモリ12又はSSD23により実現される記憶部であり、例えば、OSKの入力情報、ペン30を用いたペン入力情報などの各種情報を記憶する。 The storage unit 40 is, for example, a storage unit implemented by the main memory 12 or the SSD 23, and stores various information such as OSK input information and pen input information using the pen 30, for example.

メイン制御部10は、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部であり、OSに基づく各種処理を実行する。メイン制御部10は、例えば、ディスプレイドライバ101と、ECドライバ102と、アプリケーション103と、仮想入力処理部110とを備える。 The main control unit 10 is a functional unit realized by the CPU 11 and the chipset 21 executing programs stored in the main memory 12, and executes various processes based on the OS. The main control unit 10 includes, for example, a display driver 101, an EC driver 102, an application 103, and a virtual input processing unit 110.

ディスプレイドライバ101は、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部であり、表示部14への表示を制御するデバイスドライバである。ディスプレイドライバ101は、表示部14の画面DFに、各種情報(OSKの画像、手書き入力の軌跡、等)を表示させる。 The display driver 101 is a functional unit realized by the CPU 11 and the chipset 21 executing a program stored in the main memory 12, and is a device driver that controls display on the display unit 14. The display driver 101 causes the screen DF of the display unit 14 to display various information (OSK image, handwritten input trajectory, etc.).

ECドライバ102は、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部であり、エンベデッドコントローラ31の制御を行うデバイスドライバである。ECドライバ102は、エンベデッドコントローラ31を制御して、タッチセンサ部33が検出したタッチ入力及びペン入力を取得して、後述する仮想入力処理部110に供給する。 The EC driver 102 is a functional unit realized by the CPU 11 and the chipset 21 executing a program stored in the main memory 12, and is a device driver that controls the embedded controller 31. The EC driver 102 controls the embedded controller 31, acquires the touch input and pen input detected by the touch sensor section 33, and supplies them to the virtual input processing section 110, which will be described later.

アプリケーション103は、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部である。アプリケーション103は、例えば、後述する仮想入力処理部110を用いて、OSK及びペン30による手書き入力を利用して、各種情報の入力を実行する。 The application 103 is a functional unit realized by the CPU 11 and the chipset 21 executing a program stored in the main memory 12. The application 103 uses, for example, a virtual input processing unit 110 (described later) to input various information using the OSK and handwritten input using the pen 30.

仮想入力処理部110は、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部であり、仮想入力デバイス(OSK及びペン30による手書き入力)による仮想入力処理を実行する。仮想入力処理部110は、OSKの入力処理を実行するOSKモード(第1モード)と、ペン30による手書き入力の処理を実行する手書き認識モード(第2モード)とを切り替えて実行可能である。 The virtual input processing unit 110 is a functional unit realized by the CPU 11 and the chipset 21 executing a program stored in the main memory 12, and performs virtual input processing using a virtual input device (handwritten input using an OSK and a pen 30). Execute. The virtual input processing unit 110 can switch between an OSK mode (first mode) in which OSK input processing is executed and a handwriting recognition mode (second mode) in which handwriting input processing using the pen 30 is executed.

ここで、OSKモードは、タッチセンサ部33によるタッチ入力に基づいて、表示部14の画面DFの少なくとも一部のOSK領域AR1(第1領域、後述する図4参照)をソフトウェアキーボードとして機能させるモードである。また、手書き認識モードは、OSK領域AR1を、タッチセンサ部33によるペン入力に基づいて、手書き入力デバイス(手書き認識デバイス)として機能させるモードである。 Here, the OSK mode is a mode in which at least part of the OSK area AR1 (first area, see FIG. 4 described later) of the screen DF of the display unit 14 functions as a software keyboard based on touch input by the touch sensor unit 33. It is. Furthermore, the handwriting recognition mode is a mode in which the OSK area AR1 functions as a handwriting input device (handwriting recognition device) based on pen input by the touch sensor section 33.

また、仮想入力処理部110は、OSKモードにおいて、ソフトウェアキーボードのOSK領域AR1に対してペン30が閾値以内の距離に接近した場合に、手書き認識モードに切り替える。なお、仮想入力処理部110は、タッチセンサ部33のペン検出部332を用いて、OSK領域AR1に対してペン30が閾値以内の距離に接近したか否かを判定する。 Further, in the OSK mode, when the pen 30 approaches the OSK area AR1 of the software keyboard within a threshold value, the virtual input processing unit 110 switches to the handwriting recognition mode. Note that the virtual input processing unit 110 uses the pen detection unit 332 of the touch sensor unit 33 to determine whether the pen 30 has approached the OSK area AR1 to a distance within a threshold value.

また、仮想入力処理部110は、手書き認識モードにおいて、タッチセンサ部33が、OSK領域AR1に対して、ペン以外の物体(例えば、指など)の接触によるタッチ入力を検出した場合に、OSKモードに切り替える。
また、仮想入力処理部110は、OSK処理部111と、ペン入力処理部112と、切替処理部113とを備える。
Further, in the handwriting recognition mode, when the touch sensor unit 33 detects a touch input by contacting an object other than a pen (for example, a finger) with respect to the OSK area AR1, the virtual input processing unit 110 operates in the OSK mode Switch to
Further, the virtual input processing section 110 includes an OSK processing section 111, a pen input processing section 112, and a switching processing section 113.

OSK処理部111は、OSKモードの仮想入力処理を実行する。OSK処理部111は、例えば、図4の状態ST1のように、表示部14の一部の領域をOSK領域AR1として、ソフトキーボードの画像(OSKの画像)を表示させる。OSK処理部111は、ディスプレイドライバ101を介して、ソフトキーボードの画像を、表示部14のOSK領域AR1に表示させる。 The OSK processing unit 111 executes virtual input processing in OSK mode. The OSK processing unit 111 displays a soft keyboard image (OSK image) in a partial area of the display unit 14 as an OSK area AR1, for example, as in state ST1 in FIG. 4. The OSK processing unit 111 displays the image of the soft keyboard in the OSK area AR1 of the display unit 14 via the display driver 101.

また、OSK処理部111は、エンベデッドコントローラ31及びECドライバ102を介して、タッチセンサ部33が検出したタッチ入力(例えば、タッチ入力の検出座標)を取得し、タッチ入力の検出座標に対応したOSKのキーのキーコードを、入力情報として、アプリケーション103に出力する。 Further, the OSK processing unit 111 acquires the touch input detected by the touch sensor unit 33 (for example, the detected coordinates of the touch input) via the embedded controller 31 and the EC driver 102, and outputs an OSK corresponding to the detected coordinates of the touch input. The key code of the key is output to the application 103 as input information.

ペン入力処理部112は、手書き認識モードの仮想入力処理を実行する。ペン入力処理部112は、例えば、図4の状態ST2のように、上述したOSK領域AR1を、手書き入力の領域に変更して表示し、ペン30の軌跡を表示させる。ペン入力処理部112は、ディスプレイドライバ101を介して、ペン30の軌跡をOSK領域AR1に表示させる。 The pen input processing unit 112 executes virtual input processing in handwriting recognition mode. The pen input processing unit 112 changes the OSK area AR1 described above into a handwriting input area and displays the trajectory of the pen 30, for example, as shown in state ST2 in FIG. 4. The pen input processing unit 112 displays the trajectory of the pen 30 in the OSK area AR1 via the display driver 101.

また、ペン入力処理部112は、手書き認識モードにおいて、エンベデッドコントローラ31及びECドライバ102を介して、タッチセンサ部33が検出したペン入力(例えば、ペン入力の検出座標)を取得する。ペン入力処理部112は、取得したペン入力(例えば、ペン入力の検出座標)に基づいて、手書き入力されたペン30の軌跡を生成し、手書き入力されたペン30の軌跡を、テキスト情報に変換して、当該テキスト情報を、入力情報として、アプリケーション103に出力する。 Furthermore, in the handwriting recognition mode, the pen input processing unit 112 acquires the pen input detected by the touch sensor unit 33 (for example, the detected coordinates of the pen input) via the embedded controller 31 and the EC driver 102. The pen input processing unit 112 generates a trajectory of the pen 30 input by handwriting based on the acquired pen input (for example, detected coordinates of the pen input), and converts the trajectory of the pen 30 input by handwriting into text information. Then, the text information is output to the application 103 as input information.

切替処理部113は、OSKモードと、手書き認識モードとの切り替え処理を実行する。切替処理部113は、OSKモードにおいて、タッチセンサ部33がOSK領域AR1にペン入力を検出した場合に、手書き認識モードに切り替え、ペン入力処理部112に、手書き認識モードの仮想入力処理を実行させる。切替処理部113は、例えば、OSK領域AR1に対して、ペン30が閾値以内の距離に接近した場合(ペン30のホバリングを検出した場合)に、OSK領域AR1にペン入力を検出したと判定する。 The switching processing unit 113 executes switching processing between the OSK mode and the handwriting recognition mode. When the touch sensor unit 33 detects a pen input in the OSK area AR1 in the OSK mode, the switching processing unit 113 switches to the handwriting recognition mode and causes the pen input processing unit 112 to execute virtual input processing in the handwriting recognition mode. . For example, when the pen 30 approaches the OSK area AR1 within a distance of a threshold value (when hovering of the pen 30 is detected), the switching processing unit 113 determines that a pen input is detected in the OSK area AR1. .

また、切替処理部113は、手書き認識モードにおいて、タッチセンサ部33がOSK領域AR1にペン30以外のタッチ入力を検出した場合に、OSKモードに切り替え、OSK処理部111に、OSKモードの仮想入力処理を実行させる。なお、切替処理部113は、タッチセンサ部33が、OSK領域AR1のうちの特定の領域(例えば、OSKモードの切替ボタン)に対して、タッチ入力(切替ボタンの押下)を検出した場合に、OSKモードに切り替えるようにしてもよい。 In addition, in the handwriting recognition mode, when the touch sensor unit 33 detects a touch input other than the pen 30 in the OSK area AR1, the switching processing unit 113 switches to the OSK mode and inputs a virtual input in the OSK mode to the OSK processing unit 111. Execute the process. Note that when the touch sensor unit 33 detects a touch input (pressing a switching button) to a specific area (for example, an OSK mode switching button) of the OSK area AR1, the switching processing unit 113 It is also possible to switch to OSK mode.

次に、図4を参照して、OSKモードと、手書き認識モードとの切り替え処理について説明する。
図4は、本実施形態によるタブレット端末1のモード切り替えの一例を示すイメージ図である。
Next, with reference to FIG. 4, switching processing between the OSK mode and the handwriting recognition mode will be described.
FIG. 4 is an image diagram showing an example of mode switching of the tablet terminal 1 according to the present embodiment.

図4において、状態ST1は、タブレット端末1のOSKモードの状態の一例を示している。OSKモードの状態ST1において、タブレット端末1のOSK処理部111は、表示部14の画面DFの一部であるOSK領域AR1に、ソフトキーボードの画像を表示する。また、表示領域AR2(第2領域の一例)は、仮想入力処理部110がリンクされたアプリケーション103の画像領域である。アプリケーション103は、例えば、表示領域AR2に示すようなテキスト情報を、表示部14に表示する。 In FIG. 4, a state ST1 indicates an example of the OSK mode state of the tablet terminal 1. In the OSK mode state ST1, the OSK processing unit 111 of the tablet terminal 1 displays an image of a soft keyboard in the OSK area AR1, which is a part of the screen DF of the display unit 14. Furthermore, the display area AR2 (an example of a second area) is an image area of the application 103 to which the virtual input processing unit 110 is linked. The application 103 displays, for example, text information as shown in the display area AR2 on the display unit 14.

OSKモードの状態ST1において、OSK領域AR1のキーボードがタッチされると、OSK処理部111は、タッチされたキーに対応するキーコードを、例えば、FEP(Front End Processor)やIME(Input Method Editor)を介して、入力情報として、アプリケーション103に出力する。アプリケーション103は、例えば、表示領域AR2に、入力情報に対応する文字を表示する。 In state ST1 of the OSK mode, when the keyboard in the OSK area AR1 is touched, the OSK processing unit 111 converts the key code corresponding to the touched key into, for example, FEP (Front End Processor) or IME (Input Method Editor). The information is output to the application 103 as input information via. The application 103 displays, for example, characters corresponding to the input information in the display area AR2.

また、状態ST2は、タブレット端末1の手書き認識モードの状態の一例を示している。手書き認識モードの状態ST2において、タブレット端末1のペン入力処理部112は、表示部14の画面DFのOSK領域AR1に、手書き入力の領域を設定する。 Further, state ST2 indicates an example of the state of the handwriting recognition mode of the tablet terminal 1. In the handwriting recognition mode state ST2, the pen input processing unit 112 of the tablet terminal 1 sets a handwriting input area in the OSK area AR1 of the screen DF of the display unit 14.

また、手書き認識モードの状態ST2において、ペン入力処理部112は、ペン30による手書き入力の軌跡をOSK領域AR1に表示するとともに、手書き入力の軌跡をテキスト情報に変換する。ペン入力処理部112は、テキスト情報を、例えば、FEP(Front End Processor)やIME(Input Method Editor)を介して、入力情報として、アプリケーション103に出力する。アプリケーション103は、例えば、表示領域AR2に、入力情報に対応する文字を表示する。 Furthermore, in state ST2 of the handwriting recognition mode, the pen input processing unit 112 displays the trajectory of handwritten input using the pen 30 in the OSK area AR1, and converts the trajectory of the handwritten input into text information. The pen input processing unit 112 outputs text information to the application 103 as input information via, for example, an FEP (Front End Processor) or an IME (Input Method Editor). The application 103 displays, for example, characters corresponding to the input information in the display area AR2.

なお、OSKモードの状態ST1において、切替処理部113は、タッチセンサ部33によるペン30の検出により、手書き認識モードに切り替え、手書き認識モードの状態ST2に遷移させる。 Note that in the OSK mode state ST1, the switching processing unit 113 switches to the handwriting recognition mode by detecting the pen 30 by the touch sensor unit 33, and causes a transition to the handwriting recognition mode state ST2.

また、手書き認識モードの状態ST2において、切替処理部113は、タッチセンサ部33によるペン30以外のタッチ入力の検出により、OSKモードに切り替え、OSKモードの状態ST1に遷移させる。 Furthermore, in the state ST2 of the handwriting recognition mode, the switching processing unit 113 switches to the OSK mode by detecting a touch input from a device other than the pen 30 by the touch sensor unit 33, and causes a transition to the OSK mode state ST1.

次に、図面を参照して、本実施形態によるタブレット端末1の動作について説明する。
図5は、本実施形態によるタブレット端末1のモード切替処理の一例を示すフローチャートである。
Next, the operation of the tablet terminal 1 according to this embodiment will be explained with reference to the drawings.
FIG. 5 is a flowchart illustrating an example of mode switching processing of the tablet terminal 1 according to the present embodiment.

図5に示すように、タブレット端末1の切替処理部113は、まず、タブレット端末1が手書き認識モードであるか否かを判定する(ステップS101)。切替処理部113は、手書き認識モードである場合(ステップS101:YES)に、処理をステップS105に進める。また、切替処理部113は、手書き認識モードでない(OSKモードである)場合(ステップS101:NO)に、処理をステップS102に進める。 As shown in FIG. 5, the switching processing unit 113 of the tablet terminal 1 first determines whether the tablet terminal 1 is in the handwriting recognition mode (step S101). When the switching processing unit 113 is in the handwriting recognition mode (step S101: YES), the switching processing unit 113 advances the process to step S105. Further, when the handwriting recognition mode is not (OSK mode) (step S101: NO), the switching processing unit 113 advances the process to step S102.

ステップS102において、切替処理部113は、ペン入力を検出したか否かを判定する。切替処理部113は、例えば、タッチセンサ部33のペン検出部332によって、画面DFに、ペン30が閾値以内の距離に接近したか否かによって、ペン入力を検出したか否かを判定する。切替処理部113は、ペン入力を検出した場合(ステップS102:YES)に、処理をステップS103に進める。また、切替処理部113は、ペン入力を検出していない場合(ステップS102:NO)に、処理をステップS101に戻す。 In step S102, the switching processing unit 113 determines whether pen input is detected. The switching processing unit 113 determines whether a pen input has been detected, for example, based on whether the pen 30 has approached the screen DF to a distance within a threshold value by the pen detection unit 332 of the touch sensor unit 33. When the switching processing unit 113 detects pen input (step S102: YES), the switching processing unit 113 advances the process to step S103. Further, if the switching processing unit 113 does not detect pen input (step S102: NO), the switching processing unit 113 returns the process to step S101.

ステップS103において、切替処理部113は、ペン検出の検出座標がOSK領域AR1であるか否かを判定する。切替処理部113は、タッチセンサ部33が検出したペン30の画面DF上の座標が、OSK領域AR1内であるか否かを判定する。切替処理部113は、ペン検出の検出座標がOSK領域AR1である場合(ステップS103:YES)に、処理をステップS104に進める。また、切替処理部113は、ペン検出の検出座標がOSK領域AR1でない場合(ステップS103:NO)に、処理をステップS101に戻す。 In step S103, the switching processing unit 113 determines whether the detection coordinates of pen detection are in the OSK area AR1. The switching processing unit 113 determines whether the coordinates of the pen 30 on the screen DF detected by the touch sensor unit 33 are within the OSK area AR1. When the detection coordinates of pen detection are in the OSK area AR1 (step S103: YES), the switching processing unit 113 advances the process to step S104. Furthermore, when the detected coordinates of pen detection are not in the OSK area AR1 (step S103: NO), the switching processing unit 113 returns the process to step S101.

ステップS104において、切替処理部113は、手書き認識モードに切り替える。切替処理部113は、ペン入力処理部112に、手書き認識モードの仮想入力処理を実行させる。ステップS104の処理後に、切替処理部113は、処理をステップS101に戻す。 In step S104, the switching processing unit 113 switches to handwriting recognition mode. The switching processing unit 113 causes the pen input processing unit 112 to execute virtual input processing in handwriting recognition mode. After the processing in step S104, the switching processing unit 113 returns the processing to step S101.

ステップS105において、切替処理部113は、タッチ入力を検出したか否かを判定する。切替処理部113は、例えば、タッチセンサ部33の接触検出部331によって、画面DFに、ペン30以外の物体(例えば、指など)接触したか否かによって、タッチ入力を検出したか否かを判定する。切替処理部113は、タッチ入力を検出した場合(ステップS105:YES)に、処理をステップS106に進める。また、切替処理部113は、タッチ入力を検出していない場合(ステップS105:NO)に、処理をステップS101に戻す。 In step S105, the switching processing unit 113 determines whether a touch input is detected. For example, the switching processing unit 113 determines whether a touch input is detected by the contact detection unit 331 of the touch sensor unit 33, based on whether an object other than the pen 30 (for example, a finger) has touched the screen DF. judge. When the switching processing unit 113 detects a touch input (step S105: YES), the switching processing unit 113 advances the process to step S106. Furthermore, when the switching processing unit 113 does not detect a touch input (step S105: NO), the switching processing unit 113 returns the process to step S101.

ステップS106において、切替処理部113は、OSKモードに切り替える。切替処理部113は、OSK処理部111に、OSKモードの仮想入力処理を実行させる。ステップS106の処理後に、切替処理部113は、処理をステップS101に戻す。 In step S106, the switching processing unit 113 switches to OSK mode. The switching processing unit 113 causes the OSK processing unit 111 to execute virtual input processing in OSK mode. After the processing in step S106, the switching processing unit 113 returns the processing to step S101.

次に、図6を参照して、本実施形態によるタブレット端末1のOSK処理の詳細について説明する。
図6は、本実施形態によるタブレット端末1のOSK処理の一例を示すフローチャートである。
Next, details of the OSK processing of the tablet terminal 1 according to the present embodiment will be described with reference to FIG. 6.
FIG. 6 is a flowchart showing an example of the OSK process of the tablet terminal 1 according to the present embodiment.

図6に示すように、タブレット端末1のOSK処理部111は、まず、OSK領域AR1に、ソフトキーボードの画像を表示する(ステップS110)。OSK処理部111は、ソフトキーボードの画像をディスプレイドライバ101を介して、表示部14に出力して表示させる。 As shown in FIG. 6, the OSK processing unit 111 of the tablet terminal 1 first displays an image of a soft keyboard in the OSK area AR1 (step S110). The OSK processing unit 111 outputs the soft keyboard image to the display unit 14 via the display driver 101 for display.

次に、OSK処理部111は、タッチ入力を検出したか否かを判定する(ステップS111)。切替処理部113は、例えば、タッチセンサ部33の接触検出部331によって、画面DFに、物体(例えば、指など)接触したか否かによって、タッチ入力を検出したか否かを判定する。OSK処理部111は、タッチ入力を検出した場合(ステップS111:YES)に、処理をステップS112に進める。また、OSK処理部111は、タッチ入力を検出していない場合(ステップS111:NO)に、処理をステップS111に戻す。 Next, the OSK processing unit 111 determines whether a touch input is detected (step S111). The switching processing unit 113 determines whether a touch input has been detected, for example, based on whether the contact detection unit 331 of the touch sensor unit 33 has contacted the screen DF with an object (for example, a finger). When the OSK processing unit 111 detects a touch input (step S111: YES), the OSK processing unit 111 advances the process to step S112. Further, if the OSK processing unit 111 does not detect a touch input (step S111: NO), the process returns to step S111.

ステップS112において、OSK処理部111は、タッチ入力の検出座標がOSK領域AR1であるか否かを判定する。OSK処理部111は、タッチセンサ部33が検出したタッチ入力の検出座標が、OSK領域AR1内であるか否かを判定する。OSK処理部111は、タッチ入力の検出座標がOSK領域AR1である場合(ステップS112:YES)に、処理をステップS113に進める。また、OSK処理部111は、タッチ入力の検出座標がOSK領域AR1でない場合(ステップS112:NO)に、処理をステップS111に戻す。 In step S112, the OSK processing unit 111 determines whether the detected coordinates of the touch input are in the OSK area AR1. The OSK processing unit 111 determines whether the detection coordinates of the touch input detected by the touch sensor unit 33 are within the OSK area AR1. If the detected coordinates of the touch input are in the OSK area AR1 (step S112: YES), the OSK processing unit 111 advances the process to step S113. Further, if the detected coordinates of the touch input are not in the OSK area AR1 (step S112: NO), the OSK processing unit 111 returns the process to step S111.

ステップS113において、OSK処理部111は、タッチ入力の検出座標に対応したキーコードをアプリケーション103に出力する。ステップS113の処理後に、OSK処理部111は、処理をステップS110に戻す。 In step S113, the OSK processing unit 111 outputs a key code corresponding to the detected coordinates of the touch input to the application 103. After the process in step S113, the OSK processing unit 111 returns the process to step S110.

次に、図7を参照して、本実施形態によるタブレット端末1の手書き入力処理(手書き認識モードの処理)の詳細について説明する。
図7は、本実施形態によるタブレット端末1の手書き入力処理の一例を示すフローチャートである。
Next, with reference to FIG. 7, details of the handwriting input process (processing in handwriting recognition mode) of the tablet terminal 1 according to the present embodiment will be described.
FIG. 7 is a flowchart illustrating an example of handwriting input processing of the tablet terminal 1 according to the present embodiment.

図7に示すように、タブレット端末1のペン入力処理部112は、まず、ペン入力を検出したか否かを判定する(ステップS120)。ペン入力処理部112は、例えば、タッチセンサ部33のペン検出部332によって、画面DFに、ペン入力を検出したか否かを判定する。ペン入力処理部112は、ペン入力を検出した場合(ステップS120:YES)に、処理をステップS121に進める。また、ペン入力処理部112は、ペン入力を検出していない場合(ステップS120:NO)に、処理をステップS120に戻す。 As shown in FIG. 7, the pen input processing unit 112 of the tablet terminal 1 first determines whether a pen input is detected (step S120). The pen input processing unit 112 determines whether or not a pen input is detected on the screen DF by the pen detection unit 332 of the touch sensor unit 33, for example. When pen input processing section 112 detects pen input (step S120: YES), it advances the process to step S121. Furthermore, if pen input processing section 112 has not detected pen input (step S120: NO), the process returns to step S120.

ステップS121において、ペン入力処理部112は、ペン入力の検出座標がOSK領域AR1であるか否かを判定する。ペン入力処理部112は、タッチセンサ部33が検出したペン30の画面DF上の座標が、OSK領域AR1内であるか否かを判定する。ペン入力処理部112は、ペン入力の検出座標がOSK領域AR1である場合(ステップS121:YES)に、処理をステップS122に進める。また、ペン入力処理部112は、ペン入力の検出座標がOSK領域AR1でない場合(ステップS121:NO)に、処理をステップS120に戻す。 In step S121, the pen input processing unit 112 determines whether the detected coordinates of the pen input are in the OSK area AR1. The pen input processing unit 112 determines whether the coordinates of the pen 30 on the screen DF detected by the touch sensor unit 33 are within the OSK area AR1. If the detected coordinates of the pen input are in the OSK area AR1 (step S121: YES), the pen input processing unit 112 advances the process to step S122. Further, if the detected coordinates of the pen input are not in the OSK area AR1 (step S121: NO), the pen input processing unit 112 returns the process to step S120.

ステップS122において、ペン入力処理部112は、ペン入力の軌跡をOSK領域AR1に表示させる。ペン入力処理部112は、タッチセンサ部33が検出したペン入力の検出座標の軌跡(ペン入力の軌跡)を、ディスプレイドライバ101を介して、表示部14に表示させる。 In step S122, the pen input processing unit 112 displays the trajectory of the pen input in the OSK area AR1. The pen input processing unit 112 causes the display unit 14 to display the trajectory of the detection coordinates of the pen input detected by the touch sensor unit 33 (the trajectory of the pen input).

次に、ペン入力処理部112は、ペン入力の軌跡をテキスト情報に変換する(ステップS123)。ペン入力処理部112は、例えば、既存のOCR(Optical Character Reader)技術を用いて、ペン入力の軌跡をテキスト情報に変換する。 Next, the pen input processing unit 112 converts the trajectory of the pen input into text information (step S123). The pen input processing unit 112 converts the trajectory of the pen input into text information using, for example, existing OCR (Optical Character Reader) technology.

次に、ペン入力処理部112は、テキスト情報をアプリケーション103に出力する(ステップS124)。ステップS124の処理後に、ペン入力処理部112は、処理をステップS120に戻す。 Next, the pen input processing unit 112 outputs the text information to the application 103 (step S124). After the process in step S124, the pen input processing unit 112 returns the process to step S120.

以上説明したように、本実施形態によるタブレット端末1(情報処理装置)は、表示部14と、タッチセンサ部33と、仮想入力処理部110とを備える。タッチセンサ部33は、表示部14の画面DF上に配置され、画面DF上における物体の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能である。仮想入力処理部110は、OSKモード(第1モード)において、ソフトウェアキーボードのOSK領域AR1に対してペン30が閾値以内の距離に接近した場合に、手書き認識モード(第2モード)に切り替える。ここで、OSKモード(第1モード)は、タッチ入力に基づいて、画面DFの少なくとも一部のOSK領域AR1(領域)をソフトウェアキーボードとして機能させるモードである。また、手書き認識モード(第2モード)は、当該OSK領域AR1を、ペン入力に基づいて、手書き入力デバイスとして機能させるモードである。 As described above, the tablet terminal 1 (information processing device) according to the present embodiment includes the display section 14, the touch sensor section 33, and the virtual input processing section 110. The touch sensor unit 33 is disposed on the screen DF of the display unit 14 and can detect touch input caused by contact with an object on the screen DF and pen input caused by contact with the pen 30. The virtual input processing unit 110 switches to the handwriting recognition mode (second mode) when the pen 30 approaches the OSK area AR1 of the software keyboard within a threshold value in the OSK mode (first mode). Here, the OSK mode (first mode) is a mode in which at least part of the OSK area AR1 (area) of the screen DF functions as a software keyboard based on a touch input. Furthermore, the handwriting recognition mode (second mode) is a mode in which the OSK area AR1 functions as a handwriting input device based on pen input.

これにより、本実施形態によるタブレット端末1は、ソフトウェアキーボードから手書き入力(手書き認識)にシームレスに切り替えることができ、使用勝手を向上させることができる。よって、本実施形態によるタブレット端末1は、仮想入力処理において、ユーザーエクスペリエンスペンを向上させることができる。 Thereby, the tablet terminal 1 according to the present embodiment can seamlessly switch from a software keyboard to handwriting input (handwriting recognition), and can improve usability. Therefore, the tablet terminal 1 according to the present embodiment can improve the user experience pen in virtual input processing.

また、本実施形態によるタブレット端末1(情報処理装置)は、表示部14と、タッチセンサ部33と、切替処理部113と、ペン入力処理部112とを備える。タッチセンサ部33は、表示部14の画面DF上に配置され、画面DF上における物体の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能である。切替処理部113は、OSKモード(第1モード)において、ソフトウェアキーボードのOSK領域AR1に対して、ペン30が閾値以内の距離に接近した場合に、当該OSK領域AR1を、手書き認識モード(第2モード)に切り替る。また、切替処理部113は、手書き認識モードにおいて、タッチセンサ部33が、OSK領域AR1に対して、ペン以外の物体の接触によるタッチ入力を検出した場合に、OSKモードに切り替える。ペン入力処理部112は、手書き認識モードにおいて、手書き入力されたペン30の軌跡を、テキスト情報に変換し、当該テキスト情報を、入力情報として出力する。 Further, the tablet terminal 1 (information processing device) according to the present embodiment includes a display section 14, a touch sensor section 33, a switching processing section 113, and a pen input processing section 112. The touch sensor unit 33 is disposed on the screen DF of the display unit 14 and can detect touch input caused by contact with an object on the screen DF and pen input caused by contact with the pen 30. When the pen 30 approaches the OSK area AR1 of the software keyboard within a threshold value in the OSK mode (first mode), the switching processing unit 113 changes the OSK area AR1 to the handwriting recognition mode (second mode). mode). Furthermore, in the handwriting recognition mode, when the touch sensor unit 33 detects a touch input by contacting an object other than a pen with respect to the OSK area AR1, the switching processing unit 113 switches to the OSK mode. In the handwriting recognition mode, the pen input processing unit 112 converts the trajectory of the pen 30 input by handwriting into text information, and outputs the text information as input information.

これにより、本実施形態によるタブレット端末1は、ソフトウェアキーボードと手書き入力(手書き認識)とをシームレスに相互に切り替えることができ、使用勝手をさらに向上させることができる。本実施形態によるタブレット端末1では、例えば、OSKモードにおいて、ソフトウェアキーボードにない文字又は記号を入力する際に、シームレスで手書き入力(手書き認識)である手書き認識モードに切り替えることで、素早く、且つ簡単に、ソフトウェアキーボードにない文字又は記号を入力することができる。よって、本実施形態によるタブレット端末1は、仮想入力処理において、ユーザーエクスペリエンスペンを向上させることができる。 Thereby, the tablet terminal 1 according to the present embodiment can seamlessly switch between the software keyboard and handwriting input (handwriting recognition), and can further improve usability. In the tablet terminal 1 according to the present embodiment, for example, when inputting characters or symbols that are not on the software keyboard in the OSK mode, it is possible to quickly and easily switch to the handwriting recognition mode, which is seamless handwriting input (handwriting recognition). You can enter characters or symbols that are not on the software keyboard. Therefore, the tablet terminal 1 according to the present embodiment can improve the user experience pen in virtual input processing.

また、本実施形態による制御方法は、表示部14と、表示部14の画面DF上に配置され、画面DF上における物体の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能なタッチセンサ部33とを備えるタブレット端末1(情報処理装置)の制御方法であって、切替処理ステップを含む。切替処理ステップにおいて、仮想入力処理部110(切替処理部113)が、OSKモード(第1モード)において、ソフトウェアキーボードのOSK領域AR1に対してペン30が閾値以内の距離に接近した場合に、手書き認識モード(第2モード)に切り替える。 In addition, the control method according to the present embodiment includes a display unit 14, which is arranged on the screen DF of the display unit 14, and is capable of detecting a touch input caused by contact with an object on the screen DF and a pen input caused by contact with the pen 30. This is a method for controlling a tablet terminal 1 (information processing device) including a touch sensor section 33, and includes a switching process step. In the switching processing step, the virtual input processing unit 110 (switching processing unit 113) detects handwriting when the pen 30 approaches the OSK area AR1 of the software keyboard within a threshold value in the OSK mode (first mode). Switch to recognition mode (second mode).

これにより、本実施形態による制御方法は、上述したタブレット端末1と同様の効果を奏し、ソフトウェアキーボードから手書き入力(手書き認識)にシームレスに切り替えることができ、ユーザーエクスペリエンスペンを向上させることができる。 Thereby, the control method according to the present embodiment has the same effect as the tablet terminal 1 described above, can seamlessly switch from the software keyboard to handwriting input (handwriting recognition), and can improve the user experience of the pen.

また、本実施形態による制御方法は、表示部14と、表示部14の画面DF上に配置され、画面DF上における物体の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能なタッチセンサ部33とを備えるタブレット端末1(情報処理装置)の制御方法であって、切替処理ステップと、ペン入力処理ステップとを含む。切替処理ステップにおいて、切替処理部113が、上述した手書き認識モードへの切替処理の他に、手書き認識モードにおいて、タッチセンサ部33が、OSK領域AR1に対して、ペン以外の物体の接触によるタッチ入力を検出した場合に、OSKモードに切り替える。また、ペン入力処理において、ペン入力処理部112が、手書き認識モードにおいて、手書き入力されたペン30の軌跡を、テキスト情報に変換し、当該テキスト情報を、入力情報として出力する。 In addition, the control method according to the present embodiment includes a display unit 14, which is arranged on the screen DF of the display unit 14, and is capable of detecting a touch input caused by contact with an object on the screen DF and a pen input caused by contact with the pen 30. This is a method for controlling a tablet terminal 1 (information processing device) including a touch sensor section 33, and includes a switching processing step and a pen input processing step. In the switching processing step, in addition to the switching processing to the handwriting recognition mode described above, the switching processing unit 113 performs a touch sensor unit 33 in the handwriting recognition mode to detect a touch caused by contact with an object other than a pen on the OSK area AR1. When input is detected, switch to OSK mode. In the pen input process, the pen input processing unit 112 converts the trajectory of the pen 30 input by handwriting into text information in the handwriting recognition mode, and outputs the text information as input information.

これにより、本実施形態による制御方法は、上述したタブレット端末1と同様の効果を奏し、ソフトウェアキーボードと手書き入力(手書き認識)とをシームレスに相互に切り替えることができ、ユーザーエクスペリエンスペンを向上させることができる。 As a result, the control method according to the present embodiment has the same effect as the tablet terminal 1 described above, can seamlessly switch between the software keyboard and handwriting input (handwriting recognition), and improves the user experience of the pen. I can do it.

なお、本実施形態によるタブレット端末1(情報処理装置)は、以下の形態であってもよい。タブレット端末1(情報処理装置)は、表示部14と、表示部14の画面DF上に配置され、画面DF上における物体の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能なタッチセンサ部33と、プログラムを一時的に記憶するメインメモリ12(メモリ)と、メインメモリ12に記憶されたプログラムを実行するCPU11(プロセッサ)とを備える。CPU11(プロセッサ)は、メインメモリ12に記憶されたプログラムを実行することにより、モード切替処理を実行する。CPU11(プロセッサ)は、モード切替処理において、タッチ入力に基づいて、画面DFの少なくとも一部のOSK領域AR1(領域)をソフトウェアキーボードとして機能させるOSKモード(第1モード)において、ソフトウェアキーボードのOSK領域AR1に対してペン30が閾値以内の距離に接近した場合に、当該OSK領域AR1を、ペン入力に基づいて、手書き入力デバイスとして機能させる手書き認識モード(第2モード)に切り替える。 Note that the tablet terminal 1 (information processing device) according to this embodiment may have the following form. The tablet terminal 1 (information processing device) is arranged on the display unit 14 and the screen DF of the display unit 14, and is capable of detecting touch input caused by contact with an object on the screen DF and pen input caused by contact with the pen 30. It includes a touch sensor section 33, a main memory 12 (memory) that temporarily stores programs, and a CPU 11 (processor) that executes the programs stored in the main memory 12. The CPU 11 (processor) executes a mode switching process by executing a program stored in the main memory 12. In the mode switching process, the CPU 11 (processor) selects the OSK area of the software keyboard in an OSK mode (first mode) in which at least part of the OSK area AR1 (area) of the screen DF functions as a software keyboard based on the touch input. When the pen 30 approaches AR1 within a distance of a threshold value, the OSK area AR1 is switched to a handwriting recognition mode (second mode) in which it functions as a handwriting input device based on the pen input.

これにより、本実施形態によるタブレット端末1は、上述した制御方法と同様の効果を奏し、ソフトウェアキーボードから手書き入力(手書き認識)にシームレスに切り替えることができ、ユーザーエクスペリエンスペンを向上させることができる。 As a result, the tablet terminal 1 according to the present embodiment has the same effect as the control method described above, can seamlessly switch from the software keyboard to handwriting input (handwriting recognition), and can improve the user experience of the pen.

[第2の実施形態]
次に、図面を参照して、第2の実施形態によるタブレット端末1aについて説明する。
図8は、第2の実施形態によるタブレット端末1aの機能構成の一例を示すブロック図である。
[Second embodiment]
Next, a tablet terminal 1a according to a second embodiment will be described with reference to the drawings.
FIG. 8 is a block diagram showing an example of the functional configuration of the tablet terminal 1a according to the second embodiment.

本実施形態では、手書き認識モードの処理を変更した変形例について説明する。
なお、第2の実施形態によるタブレット端末1aの外観及びハードウェア構成は、上述した図1及び図2に示す第1の実施形態と同様であるため、ここではその説明を省略する。
In this embodiment, a modification example in which the processing of the handwriting recognition mode is changed will be described.
Note that the appearance and hardware configuration of the tablet terminal 1a according to the second embodiment are the same as those of the first embodiment shown in FIGS. 1 and 2 described above, and therefore the description thereof will be omitted here.

図8に示すように、本実施形態によるタブレット端末1aは、メイン制御部10aと、タッチスクリーン20と、ペン30と、エンベデッドコントローラ31と、記憶部40とを備える。 As shown in FIG. 8, the tablet terminal 1a according to the present embodiment includes a main control section 10a, a touch screen 20, a pen 30, an embedded controller 31, and a storage section 40.

なお、図8において、上述した図3と同一の構成については、同一の符号を付与してその説明を省略する。また、本実施形態におけるエンベデッドコントローラ31は、座標変換処理部311を備える。 Note that in FIG. 8, the same components as those in FIG. 3 described above are given the same reference numerals, and the description thereof will be omitted. Further, the embedded controller 31 in this embodiment includes a coordinate transformation processing section 311.

メイン制御部10aは、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部であり、OSに基づく各種処理を実行する。メイン制御部10aは、例えば、ディスプレイドライバ101と、ECドライバ102と、アプリケーション103と、仮想入力処理部110aとを備える。 The main control unit 10a is a functional unit realized by the CPU 11 and the chipset 21 executing programs stored in the main memory 12, and executes various processes based on the OS. The main control unit 10a includes, for example, a display driver 101, an EC driver 102, an application 103, and a virtual input processing unit 110a.

仮想入力処理部110aは、CPU11及びチップセット21が、メインメモリ12が記憶するプログラムを実行することで実現される機能部であり、仮想入力デバイス(OSK及びペン30による手書き入力)による仮想入力処理を実行する。仮想入力処理部110aは、第1の実施形態の仮想入力処理部110と同様に、OSKの入力処理を実行するOSKモード(第1モード)と、ペン30による手書き入力の処理を実行する手書き認識モード(第2モード)とを切り替えて実行可能である。 The virtual input processing unit 110a is a functional unit realized by the CPU 11 and the chipset 21 executing a program stored in the main memory 12, and performs virtual input processing using a virtual input device (handwritten input using an OSK and a pen 30). Execute. Similar to the virtual input processing unit 110 of the first embodiment, the virtual input processing unit 110a has an OSK mode (first mode) in which OSK input processing is executed, and a handwriting recognition mode in which handwriting input processing using the pen 30 is executed. It can be executed by switching the mode (second mode).

なお、仮想入力処理部110aは、OSKモードにおいて、ソフトウェアキーボードのOSK領域AR1に対してペン30が閾値以内の距離に接近した場合に、手書き認識モードに切り替える。 Note that in the OSK mode, the virtual input processing unit 110a switches to the handwriting recognition mode when the pen 30 approaches the OSK area AR1 of the software keyboard to a distance within a threshold value.

また、仮想入力処理部110aは、手書き認識モードにおいて、タッチセンサ部33が、OSK領域AR1のうちの特定の領域(例えば、図9に示すOSKモードの切替ボタンBT1)に対して、ペン30を含む物体の接触によるタッチ入力を検出した場合に、OSKモードに切り替える。
また、仮想入力処理部110aは、OSK処理部111と、ペン入力処理部112aと、切替処理部113aとを備える。
Furthermore, in the handwriting recognition mode, the virtual input processing unit 110a has the touch sensor unit 33 move the pen 30 to a specific area (for example, the OSK mode switching button BT1 shown in FIG. 9) of the OSK area AR1. When a touch input due to contact with an included object is detected, the mode is switched to OSK mode.
Further, the virtual input processing section 110a includes an OSK processing section 111, a pen input processing section 112a, and a switching processing section 113a.

ペン入力処理部112aは、手書き認識モードの仮想入力処理を実行する。ペン入力処理部112aは、例えば、図9の状態ST2aのように、OSK領域AR1とは異なる表示領域AR2(第2領域)に指定された文字入力カーソルCS1の周辺領域を拡大してOSK領域AR1に表示するとともに、ペン入力に基づいて、手書き入力されたペン30の軌跡PS1をOSK領域AR1に表示する。ペン入力処理部112aは、ディスプレイドライバ101を介して、ペン30の軌跡をOSK領域AR1に表示させる。 The pen input processing unit 112a executes virtual input processing in handwriting recognition mode. For example, as shown in state ST2a in FIG. 9, the pen input processing unit 112a enlarges the area around the character input cursor CS1 specified in a display area AR2 (second area) different from the OSK area AR1, and displays the area in the OSK area AR1. At the same time, the trajectory PS1 of the pen 30 input by handwriting is displayed in the OSK area AR1 based on the pen input. The pen input processing unit 112a displays the trajectory of the pen 30 in the OSK area AR1 via the display driver 101.

また、ペン入力処理部112aは、さらに、ペン30の軌跡PS1を表示領域AR2の対応する位置に大きさを変換して表示させるとともに、変換されたペン30の軌跡PS1を、入力情報として、アプリケーション103に出力する。なお、ペン入力処理部112aは、エンベデッドコントローラ31から、アプリケーション103の表示領域AR2用に変換したペン入力の検出座標を取得し、変換されたペン入力の検出座標に基づいて、ペン30の軌跡PS1の大きさを、表示領域AR2に表示できるように変換する。 Further, the pen input processing unit 112a further converts the size of the trajectory PS1 of the pen 30 and displays it at a corresponding position in the display area AR2, and uses the converted trajectory PS1 of the pen 30 as input information in the application. 103. Note that the pen input processing unit 112a acquires the detected coordinates of the pen input converted for the display area AR2 of the application 103 from the embedded controller 31, and determines the trajectory PS1 of the pen 30 based on the converted detected coordinates of the pen input. The size of is converted so that it can be displayed in the display area AR2.

切替処理部113aは、OSKモードと、手書き認識モードとの切り替え処理を実行する。切替処理部113aは、OSKモードから手書き認識モードへの切替処理は、上述した第1の実施形態の切替処理部113と同様である。 The switching processing unit 113a executes switching processing between the OSK mode and the handwriting recognition mode. The switching processing unit 113a performs the switching processing from the OSK mode to the handwriting recognition mode in the same manner as the switching processing unit 113 of the first embodiment described above.

また、切替処理部113aは、手書き認識モードにおいて、タッチセンサ部33が、OSK領域AR1のうちの特定の領域(図9に示す切替ボタンBT1)に対して、タッチ入力を検出した場合に、OSKモードに切り替え、OSK処理部111に、OSKモードの仮想入力処理を実行させる。 Further, in the handwriting recognition mode, when the touch sensor unit 33 detects a touch input to a specific area (switching button BT1 shown in FIG. 9) of the OSK area AR1, the switching processing unit 113a controls the OSK mode, and causes the OSK processing unit 111 to execute virtual input processing in the OSK mode.

座標変換処理部311は、予め仮想入力処理部110aから取得した表示領域AR2の文字入力カーソルCS1の位置及びサイズと、OSK領域AR1における文字入力カーソルCS1の位置及び拡大サイズとに基づいて、タッチセンサ部33が検出したペン入力の検出座標を、表示領域AR2用のペン入力の検出座標に変換する。座標変換処理部311は、変換した表示領域AR2用のペン入力の検出座標を、ペン入力処理部112aに出力する。 The coordinate conversion processing unit 311 converts the touch sensor based on the position and size of the character input cursor CS1 in the display area AR2 acquired in advance from the virtual input processing unit 110a and the position and enlarged size of the character input cursor CS1 in the OSK area AR1. The detected coordinates of the pen input detected by the unit 33 are converted into the detected coordinates of the pen input for the display area AR2. The coordinate conversion processing unit 311 outputs the converted pen input detection coordinates for the display area AR2 to the pen input processing unit 112a.

次に、図9を参照して、本実施形態におけるOSKモードと、手書き認識モードとの切り替え処理について説明する。
図9は、本実施形態によるタブレット端末1aのモード切り替えの一例を示すイメージ図である。
Next, with reference to FIG. 9, switching processing between the OSK mode and the handwriting recognition mode in this embodiment will be described.
FIG. 9 is an image diagram showing an example of mode switching of the tablet terminal 1a according to the present embodiment.

図9において、状態ST1は、タブレット端末1aのOSKモードの状態の一例を示している。OSKモードの状態ST1において、タブレット端末1aのOSK処理部111は、表示部14の画面DFの一部であるOSK領域AR1に、ソフトキーボードの画像を表示する。また、表示領域AR2(第2領域の一例)は、仮想入力処理部110aがリンクされたアプリケーション103の画像領域である。アプリケーション103は、例えば、表示領域AR2に示すようなテキスト情報及び文字入力カーソルCS1を、表示部14に表示する。 In FIG. 9, a state ST1 indicates an example of the OSK mode state of the tablet terminal 1a. In the OSK mode state ST1, the OSK processing unit 111 of the tablet terminal 1a displays an image of a soft keyboard in the OSK area AR1, which is a part of the screen DF of the display unit 14. Furthermore, the display area AR2 (an example of a second area) is an image area of the application 103 to which the virtual input processing unit 110a is linked. The application 103 displays, for example, text information and a character input cursor CS1 as shown in the display area AR2 on the display unit 14.

なお、本実施形態におけるOSK処理部111の処理は、第1の実施形態と同様であるので、ここではその説明を省略する。 Note that the processing of the OSK processing unit 111 in this embodiment is the same as that in the first embodiment, so the description thereof will be omitted here.

また、状態ST2aは、タブレット端末1aの手書き認識モードの状態の一例を示している。手書き認識モードの状態ST2aにおいて、タブレット端末1aのペン入力処理部112aは、表示部14の画面DFのOSK領域AR1に、表示領域AR2の文字入力カーソルCS1の周辺を拡大した画像を表示する。また、ペン入力処理部112aは、表示領域AR2の文字入力カーソルCS1の位置及びサイズと、OSK領域AR1における文字入力カーソルCS1の位置及び拡大サイズとを、エンベデッドコントローラ31に供給する。 Moreover, state ST2a shows an example of the state of the handwriting recognition mode of the tablet terminal 1a. In the handwriting recognition mode state ST2a, the pen input processing unit 112a of the tablet terminal 1a displays an enlarged image of the periphery of the character input cursor CS1 in the display area AR2 in the OSK area AR1 of the screen DF of the display unit 14. The pen input processing unit 112a also supplies the position and size of the character input cursor CS1 in the display area AR2 and the position and enlarged size of the character input cursor CS1 in the OSK area AR1 to the embedded controller 31.

また、手書き認識モードの状態ST2aにおいて、ペン入力処理部112aは、タッチセンサ部33が検出したペン入力の検出座標と、エンベデッドコントローラ31の座標変換処理部311が変換したペン入力の検出座標を取得し、ペン30による手書き入力の軌跡PS1をOSK領域AR1に表示する。また、ペン入力処理部112aは、手書き入力の軌跡PS1に対応する手書き入力の軌跡PS2を、表示領域AR2に表示させる。 Furthermore, in state ST2a of the handwriting recognition mode, the pen input processing unit 112a acquires the detection coordinates of the pen input detected by the touch sensor unit 33 and the detection coordinates of the pen input converted by the coordinate conversion processing unit 311 of the embedded controller 31. Then, the trajectory PS1 of the handwritten input using the pen 30 is displayed in the OSK area AR1. Furthermore, the pen input processing unit 112a displays a handwritten input trajectory PS2 corresponding to the handwritten input trajectory PS1 in the display area AR2.

なお、ペン入力処理部112aは、手書き入力の軌跡PS2を、入力情報として、アプリケーション103に出力する。アプリケーション103は、例えば、表示領域AR2に、入力情報に対応する文字を表示する。 Note that the pen input processing unit 112a outputs the handwritten input trajectory PS2 to the application 103 as input information. The application 103 displays, for example, characters corresponding to the input information in the display area AR2.

また、手書き認識モードの状態ST2aにおいて、切替処理部113aは、タッチセンサ部33が、OSK領域AR1のうちの特定の領域(切替ボタンBT1)に対して、タッチ入力を検出した場合に、OSKモードに切り替え、OSKモードの状態ST1に遷移させる。 In the handwriting recognition mode state ST2a, the switching processing unit 113a switches the OSK mode to to make the transition to the OSK mode state ST1.

次に、図面を参照して、本実施形態によるタブレット端末1aの動作について説明する。
図10は、本実施形態によるタブレット端末1aのモード切替処理の一例を示すフローチャートである。
Next, the operation of the tablet terminal 1a according to this embodiment will be described with reference to the drawings.
FIG. 10 is a flowchart showing an example of the mode switching process of the tablet terminal 1a according to this embodiment.

図10に示すように、タブレット端末1aの切替処理部113aは、まず、タブレット端末1aが手書き認識モードであるか否かを判定する(ステップS201)。
なお、図10において、ステップS201からステップS204までの処理は、上述した図5に示すステップS101からステップS104までの処理と同様であるため、ここではその説明を省略する。切替処理部113aは、手書き認識モードである場合(ステップS201:YES)に、処理をステップS205に進める。
As shown in FIG. 10, the switching processing unit 113a of the tablet terminal 1a first determines whether the tablet terminal 1a is in the handwriting recognition mode (step S201).
Note that in FIG. 10, the processing from step S201 to step S204 is the same as the processing from step S101 to step S104 shown in FIG. 5 described above, so the description thereof will be omitted here. When the switching processing unit 113a is in the handwriting recognition mode (step S201: YES), the switching processing unit 113a advances the process to step S205.

ステップS205において、切替処理部113aは、OSKの切替ボタンBT1の押下を検出したか否かを判定する。切替処理部113aは、切替ボタンBT1の押下を検出した場合(ステップS205:YES)に、処理をステップS206に進める。また、切替処理部113aは、切替ボタンBT1の押下を検出していない場合(ステップS205:NO)に、処理をステップS201に戻す。 In step S205, the switching processing unit 113a determines whether pressing of the OSK switching button BT1 is detected. When the switching processing unit 113a detects that the switching button BT1 is pressed (step S205: YES), the switching processing unit 113a advances the process to step S206. Further, if the switching processing unit 113a does not detect that the switching button BT1 has been pressed (step S205: NO), the switching processing unit 113a returns the process to step S201.

ステップS206において、切替処理部113aは、OSKモードに切り替える。切替処理部113aは、OSK処理部111に、OSKモードの仮想入力処理を実行させる。ステップS206の処理後に、切替処理部113aは、処理をステップS201に戻す。 In step S206, the switching processing unit 113a switches to OSK mode. The switching processing unit 113a causes the OSK processing unit 111 to execute virtual input processing in OSK mode. After the processing in step S206, the switching processing unit 113a returns the processing to step S201.

次に、本実施形態によるタブレット端末1aのOSK処理の詳細は、上述した図6に示す処理と同様であるため、ここではその説明を省略する。 Next, the details of the OSK process of the tablet terminal 1a according to the present embodiment are the same as the process shown in FIG. 6 described above, so the description thereof will be omitted here.

次に、図11を参照して、本実施形態によるタブレット端末1aの手書き入力処理(手書き認識モードの処理)の詳細について説明する。
図11は、本実施形態によるタブレット端末1aの手書き入力処理の一例を示すフローチャートである。
Next, details of handwriting input processing (processing in handwriting recognition mode) of the tablet terminal 1a according to the present embodiment will be described with reference to FIG. 11.
FIG. 11 is a flowchart showing an example of handwriting input processing of the tablet terminal 1a according to the present embodiment.

図11に示すように、タブレット端末1aのペン入力処理部112aは、まず、カーソルの位置及びサイズを取得する(ステップS210)。ペン入力処理部112aは、アプリケーション103から、表示領域AR2上の現在の文字入力カーソルCS1の位置及び大きさを取得する。 As shown in FIG. 11, the pen input processing unit 112a of the tablet terminal 1a first obtains the position and size of the cursor (step S210). The pen input processing unit 112a acquires the current position and size of the character input cursor CS1 on the display area AR2 from the application 103.

次に、ペン入力処理部112aは、OSK領域AR1に、カーソル周辺の拡大画像を表示する(ステップS211)。ペン入力処理部112aは、文字入力カーソルCS1周辺の画像データを、アプリケーション103から取得し、上述したカーソルの位置及びサイズに基づいて、OSK領域AR1のサイズに拡大した画像を生成して、カーソル周辺の拡大画像を、ディスプレイドライバ101を介して、表示部14に表示させる。 Next, the pen input processing unit 112a displays an enlarged image around the cursor in the OSK area AR1 (step S211). The pen input processing unit 112a acquires image data around the character input cursor CS1 from the application 103, generates an image enlarged to the size of the OSK area AR1 based on the position and size of the cursor described above, and generates an image around the cursor. The enlarged image is displayed on the display unit 14 via the display driver 101.

次に、ペン入力処理部112aは、ペン入力を検出したか否かを判定する(ステップS212)。ペン入力処理部112aは、ペン入力を検出した場合(ステップS212:YES)に、処理をステップS213に進める。また、ペン入力処理部112aは、ペン入力を検出していない場合(ステップS212:NO)に、処理をステップS210に戻す。 Next, the pen input processing unit 112a determines whether or not pen input is detected (step S212). When the pen input processing unit 112a detects a pen input (step S212: YES), the pen input processing unit 112a advances the process to step S213. Further, if pen input processing section 112a does not detect pen input (step S212: NO), the process returns to step S210.

ステップS213において、ペン入力処理部112aは、ペン入力の検出座標がOSK領域AR1であるか否かを判定する。ペン入力処理部112aは、ペン入力の検出座標がOSK領域AR1である場合(ステップS213:YES)に、処理をステップS214に進める。また、ペン入力処理部112aは、ペン入力の検出座標がOSK領域AR1でない場合(ステップS213:NO)に、処理をステップS214に戻す。 In step S213, the pen input processing unit 112a determines whether the detected coordinates of the pen input are in the OSK area AR1. If the detected coordinates of the pen input are in the OSK area AR1 (step S213: YES), the pen input processing unit 112a advances the process to step S214. Further, if the detected coordinates of the pen input are not in the OSK area AR1 (step S213: NO), the pen input processing unit 112a returns the process to step S214.

ステップS214において、ペン入力処理部112aは、ペン入力の軌跡を含むカーソル周辺の拡大画像をOSK領域AR1に表示させる。ペン入力処理部112aは、タッチセンサ部33が検出したペン入力の検出座標の軌跡(ペン入力の軌跡)を含む拡大画像(を図3の状態ST2aのOSK領域AR1を参照)を、ディスプレイドライバ101を介して、表示部14に表示させる。 In step S214, the pen input processing unit 112a displays an enlarged image around the cursor including the trajectory of the pen input in the OSK area AR1. The pen input processing unit 112a displays an enlarged image (see OSK area AR1 in state ST2a in FIG. It is displayed on the display section 14 via.

次に、ペン入力処理部112aは、ペン入力の検出座標をカーソルの位置及びサイズに基づいて変換する(ステップS215)。ペン入力処理部112aは、例えば、表示領域AR2の文字入力カーソルCS1の位置及びサイズと、OSK領域AR1における文字入力カーソルCS1の位置及び拡大サイズとを、エンベデッドコントローラ31の座標変換処理部311に送信し、座標変換処理部311から、表示領域AR2用に変換されたペン入力の検出座標を取得する。このように、ペン入力処理部112aは、座標変換処理部311を用いて、ペン入力の検出座標を表示領域AR2用に変換する。 Next, the pen input processing unit 112a converts the detected coordinates of the pen input based on the position and size of the cursor (step S215). The pen input processing unit 112a transmits, for example, the position and size of the character input cursor CS1 in the display area AR2 and the position and enlarged size of the character input cursor CS1 in the OSK area AR1 to the coordinate conversion processing unit 311 of the embedded controller 31. Then, the detected coordinates of the pen input converted for the display area AR2 are acquired from the coordinate conversion processing unit 311. In this way, the pen input processing section 112a uses the coordinate conversion processing section 311 to convert the detected coordinates of the pen input for the display area AR2.

次に、ペン入力処理部112aは、変換したペン入力の検出座標をアプリケーション103に出力する(ステップS215)。ステップS215の処理後に、ペン入力処理部112aは、処理をステップS210に戻す。 Next, the pen input processing unit 112a outputs the detected coordinates of the converted pen input to the application 103 (step S215). After the process in step S215, the pen input processing unit 112a returns the process to step S210.

以上説明したように、本実施形態によるタブレット端末1a(情報処理装置)は、表示部14と、タッチセンサ部33と、仮想入力処理部110aとを備える。仮想入力処理部110aは、切替処理部113aと、ペン入力処理部112aとを備える。タッチセンサ部33は、表示部14の画面DF上に配置され、画面DF上における物体の接触によるタッチ入力と、ペン30の接触によるペン入力とを検出可能である。切替処理部113aは、OSKモード(第1モード)において、ソフトウェアキーボードのOSK領域AR1に対して、ペン30が閾値以内の距離に接近した場合に、手書き認識モード(第2モード)に切り替える。ここで、OSKモード(第1モード)は、タッチ入力に基づいて、画面DFの少なくとも一部のOSK領域AR1(第1領域)をソフトウェアキーボードとして機能させる。手書き認識モード(第2モード)は、当該OSK領域AR1を、ペン入力に基づいて、手書き入力デバイスとして機能させる。また、切替処理部113aは、手書き認識モードにおいて、タッチセンサ部33が、OSK領域AR1のうちの特定の領域(例えば、切替ボタンBT1)に対して、タッチ入力を検出した場合に、OSKモードに切り替える。ペン入力処理部112aは、手書き認識モードにおいて、OSK領域AR1とは異なる表示領域AR2(第2領域)に指定された文字入力カーソルの周辺領域を拡大してOSK領域AR1に表示するとともに、ペン入力に基づいて、手書き入力されたペン30の軌跡をOSK領域AR1に表示する。ペン入力処理部112aは、さらに、ペン30の軌跡を表示領域AR2の対応する位置に大きさを変換して表示させるとともに、変換されたペン30の軌跡を、入力情報として、例えば、アプリケーション103に出力する。 As described above, the tablet terminal 1a (information processing device) according to the present embodiment includes the display section 14, the touch sensor section 33, and the virtual input processing section 110a. The virtual input processing section 110a includes a switching processing section 113a and a pen input processing section 112a. The touch sensor unit 33 is disposed on the screen DF of the display unit 14 and can detect touch input caused by contact with an object on the screen DF and pen input caused by contact with the pen 30. The switching processing unit 113a switches to the handwriting recognition mode (second mode) when the pen 30 approaches the OSK area AR1 of the software keyboard within a threshold value in the OSK mode (first mode). Here, the OSK mode (first mode) causes at least part of the OSK area AR1 (first area) of the screen DF to function as a software keyboard based on a touch input. The handwriting recognition mode (second mode) causes the OSK area AR1 to function as a handwriting input device based on pen input. Furthermore, when the touch sensor unit 33 detects a touch input to a specific area (for example, the switching button BT1) of the OSK area AR1 in the handwriting recognition mode, the switching processing unit 113a switches the mode to the OSK mode. Switch. In the handwriting recognition mode, the pen input processing unit 112a enlarges the area around the character input cursor specified in the display area AR2 (second area) different from the OSK area AR1 and displays it in the OSK area AR1, and also performs pen input. Based on this, the handwritten trajectory of the pen 30 is displayed in the OSK area AR1. The pen input processing unit 112a further converts the size of the trajectory of the pen 30 and displays it at a corresponding position in the display area AR2, and sends the converted trajectory of the pen 30 to, for example, the application 103 as input information. Output.

これにより、本実施形態によるタブレット端末1aは、ソフトウェアキーボードと手書き入力(手書き認識)とをシームレスに相互に切り替えることができ、使用勝手をさらに向上させることができる。本実施形態によるタブレット端末1aでは、例えば、OSKモードにおいて、ソフトウェアキーボードにない文字又は記号を入力する際に、シームレスで手書き入力(手書き認識)である手書き認識モードに切り替えることで、素早く、且つ簡単に、ソフトウェアキーボードにない文字又は記号を入力することができる。よって、本実施形態によるタブレット端末1aは、仮想入力処理において、ユーザーエクスペリエンスペンを向上させることができる。 Thereby, the tablet terminal 1a according to the present embodiment can seamlessly switch between the software keyboard and handwriting input (handwriting recognition), and can further improve usability. In the tablet terminal 1a according to the present embodiment, for example, in OSK mode, when inputting characters or symbols that are not on the software keyboard, switching to handwriting recognition mode, which is seamless handwriting input (handwriting recognition), allows quick and easy operation. You can enter characters or symbols that are not on the software keyboard. Therefore, the tablet terminal 1a according to the present embodiment can improve the user experience pen in virtual input processing.

なお、本発明は、上記の各実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で変更可能である。
例えば、上記の各実施形態において、情報処理装置がタブレット端末1(1a)である例を説明したが、これに限定されるものではなく、例えば、ノートPC、デスクトップPC、スマートフォンなどの他の情報処理装置であってもよい。
Note that the present invention is not limited to the above-described embodiments, and can be modified without departing from the spirit of the present invention.
For example, in each of the above embodiments, an example has been described in which the information processing device is the tablet terminal 1 (1a), but the information processing device is not limited to this. It may also be a processing device.

なお、例えば、ノートPCでは、Bカバーの部分であるメイン画面は、立ち上がった状態で使用され、Bカバーの画面に対してペン入力しようとすると、画面が水平面でないため、入力し難い問題がある。これに対して、本発明をノートPCに適用した場合には、Cカバー部分の画面を用いて、OSKからペン入力への切り替えを容易に行うことができるため、ユーザーエクスペリエンスペンを向上させることができる。 For example, in a notebook PC, the main screen, which is part of the B cover, is used while standing up, and if you try to input with a pen on the B cover screen, there is a problem that it is difficult to input because the screen is not horizontal. . On the other hand, when the present invention is applied to a notebook PC, it is possible to easily switch from OSK to pen input using the screen of the C cover part, so it is possible to improve the user experience of the pen. can.

また、上記の各実施形態において、タブレット端末1(1a)が、エンベデッドコントローラ31を備えるノートPCベースの情報処理装置である例を説明したが、これに限定されるものではなく、エンベデッドコントローラ31を備えない情報処理装置であってもよい。また、情報処理装置のOSは、Windows(登録商標)に限定されるものはなく、Android(登録商標)などの他のOSであってもよい。 Further, in each of the above embodiments, an example has been described in which the tablet terminal 1 (1a) is a notebook PC-based information processing device equipped with the embedded controller 31. However, the invention is not limited to this, and the tablet terminal 1 (1a) The information processing device may not be equipped with the above information. Further, the OS of the information processing device is not limited to Windows (registered trademark), and may be another OS such as Android (registered trademark).

また、上記の各実施形態において、メイン制御部10(仮想入力処理部110)又はメイン制御部10a(仮想入力処理部110a)が実行する処理の一部を、エンベデッドコントローラ31が実行するようにしてもよい。例えば、第1の実施形態において、ペン30の軌跡をテキスト情報に変換する処理を、エンベデッドコントローラ31が実行するようにしてもよい。 Further, in each of the above embodiments, the embedded controller 31 executes a part of the processing executed by the main control unit 10 (virtual input processing unit 110) or the main control unit 10a (virtual input processing unit 110a). Good too. For example, in the first embodiment, the embedded controller 31 may execute the process of converting the trajectory of the pen 30 into text information.

また、上記の各実施形態において、エンベデッドコントローラ31が実行する処理の一部を、メイン制御部10(仮想入力処理部110)又はメイン制御部10a(仮想入力処理部110a)が実行するようにしてもよい。例えば、第2の実施形態において、座標変換処理部311が実行する処理を、メイン制御部10a(仮想入力処理部110a)が実行するようにしてもよい。 Further, in each of the above embodiments, a part of the processing executed by the embedded controller 31 is executed by the main control unit 10 (virtual input processing unit 110) or the main control unit 10a (virtual input processing unit 110a). Good too. For example, in the second embodiment, the processing executed by the coordinate transformation processing section 311 may be executed by the main control section 10a (virtual input processing section 110a).

なお、上述したタブレット端末1(1a)が備える各構成は、内部に、コンピュータシステムを有している。そして、上述したタブレット端末1(1a)が備える各構成の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより上述したタブレット端末1(1a)が備える各構成における処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD-ROM等の非一過性の記録媒体であってもよい。
Note that each component included in the tablet terminal 1 (1a) described above includes a computer system therein. Then, a program for realizing the functions of each component of the tablet terminal 1 (1a) described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. By doing so, processing in each configuration included in the tablet terminal 1 (1a) described above may be performed. Here, "reading a program recorded on a recording medium into a computer system and executing it" includes installing the program on the computer system. The "computer system" here includes hardware such as an OS and peripheral devices.
Further, a "computer system" may include a plurality of computer devices connected via a network including the Internet, a WAN, a LAN, a communication line such as a dedicated line, etc. Furthermore, the term "computer-readable recording medium" refers to portable media such as flexible disks, magneto-optical disks, ROMs, and CD-ROMs, and storage devices such as hard disks built into computer systems. In this way, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM.

また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部又は外部に設けられた記録媒体も含まれる。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後にタブレット端末1(1a)が備える各構成で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 The recording medium also includes a recording medium provided internally or externally that can be accessed from the distribution server for distributing the program. Note that the program may be divided into a plurality of parts, each downloaded at different timings, and then combined with each component provided in the tablet terminal 1 (1a), or the distribution servers that distribute each of the divided programs may be different. . Furthermore, a ``computer-readable recording medium'' refers to a storage medium that retains a program for a certain period of time, such as volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network. This shall also include things. Moreover, the above-mentioned program may be for realizing a part of the above-mentioned functions. Furthermore, it may be a so-called difference file (difference program) that can realize the above-mentioned functions in combination with a program already recorded in the computer system.

また、上述した機能の一部又は全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、又は全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、又は汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, some or all of the functions described above may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the above-mentioned functions may be implemented as an individual processor, or some or all of them may be integrated into a processor. Moreover, the method of circuit integration is not limited to LSI, but may be implemented using a dedicated circuit or a general-purpose processor. Further, if an integrated circuit technology that replaces LSI emerges due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

1、1a タブレット端末
10、10a メイン制御部
11 CPU
12 メインメモリ
13 ビデオサブシステム
14 表示部
20 タッチスクリーン
21 チップセット
22 BIOSメモリ
23 SSD
24 USBコネクタ
25 オーディオシステム
26 WLANカード
30 ペン
31 エンベデッドコントローラ
32 キー入力部
33 タッチセンサ部
34 電源回路
35 センサ部
40 記憶部
101 ディスプレイドライバ
102 ECドライバ
103 アプリケーション
110 仮想入力処理部
111 OSK処理部
112、112a ペン入力処理部
113、113a 切替処理部
311 座標変換処理部
331 接触検出部
332 ペン検出部
AR1 OSK領域
AR2 表示領域
CS 筐体
DF 画面
LC1 共振回路
1, 1a Tablet terminal 10, 10a Main control unit 11 CPU
12 Main memory 13 Video subsystem 14 Display unit 20 Touch screen 21 Chipset 22 BIOS memory 23 SSD
24 USB connector 25 audio system 26 WLAN card 30 pen 31 embedded controller 32 key input section 33 touch sensor section 34 power supply circuit 35 sensor section 40 storage section 101 display driver 102 EC driver 103 application 110 virtual input processing section 111 OSK processing section 112, 112a Pen input processing unit 113, 113a Switching processing unit 311 Coordinate conversion processing unit 331 Contact detection unit 332 Pen detection unit AR1 OSK area AR2 Display area CS Housing DF Screen LC1 Resonance circuit

Claims (3)

表示部と、
前記表示部の画面上に配置され、前記画面上における物体の接触によるタッチ入力と、ペンの接触によるペン入力とを検出可能なタッチセンサ部と、
前記タッチ入力に基づいて、前記画面の少なくとも一部の領域をソフトウェアキーボードとして機能させる第1モードにおいて、前記ソフトウェアキーボードの前記領域に対して前記ペンが閾値以内の距離に接近した場合に、当該領域を、前記ペン入力に基づいて、手書き入力デバイスとして機能させる第2モードに切り替える仮想入力処理部と
を備える情報処理装置。
A display section;
a touch sensor unit disposed on the screen of the display unit and capable of detecting touch input caused by contact with an object on the screen and pen input caused by contact with a pen;
In a first mode in which at least a partial area of the screen functions as a software keyboard based on the touch input, when the pen approaches the area of the software keyboard to a distance within a threshold value, the area and a virtual input processing unit that switches the input device to a second mode in which the input device functions as a handwriting input device based on the pen input.
表示部と、
前記表示部の画面上に配置され、前記画面上における物体の接触によるタッチ入力と、ペンの接触によるペン入力とを検出可能なタッチセンサ部と、
前記タッチ入力に基づいて、前記画面の少なくとも一部の領域をソフトウェアキーボードとして機能させる第1モードにおいて、前記ソフトウェアキーボードの前記領域に対して、前記ペンが閾値以内の距離に接近した場合に、当該領域を、前記ペン入力に基づいて、手書き入力デバイスとして機能させる第2モードに切り替え、前記第2モードにおいて、前記タッチセンサ部が、前記領域に対して、前記ペン以外の前記物体の接触による前記タッチ入力を検出した場合に、前記第1モードに切り替える切替処理部と、
前記第2モードにおいて、手書き入力された前記ペンの軌跡を、テキスト情報に変換し、当該テキスト情報を、入力情報として出力するペン入力処理部と
を備える情報処理装置。
A display section;
a touch sensor unit disposed on the screen of the display unit and capable of detecting touch input caused by contact with an object on the screen and pen input caused by contact with a pen;
In a first mode in which at least a part of the screen functions as a software keyboard based on the touch input, when the pen approaches the area of the software keyboard to a distance within a threshold value, The area is switched to a second mode in which the area functions as a handwriting input device based on the pen input; a switching processing unit that switches to the first mode when a touch input is detected;
An information processing device comprising: a pen input processing unit that converts a handwritten trajectory of the pen into text information and outputs the text information as input information in the second mode.
表示部と、
前記表示部の画面上に配置され、前記画面上における物体の接触によるタッチ入力と、ペンの接触によるペン入力とを検出可能なタッチセンサ部と、
前記タッチ入力に基づいて、前記画面の少なくとも一部の第1領域をソフトウェアキーボードとして機能させる第1モードにおいて、前記ソフトウェアキーボードの前記第1領域に対して、前記ペンが閾値以内の距離に接近した場合に、当該第1領域を、前記ペン入力に基づいて、手書き入力デバイスとして機能させる第2モードに切り替え、前記第2モードにおいて、前記タッチセンサ部が、前記第1領域のうちの特定の領域に対して、前記タッチ入力を検出した場合に、前記第1モードに切り替える切替処理部と、
前記第2モードにおいて、前記第1領域とは異なる第2領域に指定された文字入力カーソルの周辺領域を拡大して前記第1領域に表示するとともに、前記ペン入力に基づいて、手書き入力された前記ペンの軌跡を前記第1領域に表示し、さらに、前記ペンの軌跡を前記第2領域の対応する位置に大きさを変換して表示させるとともに、変換された前記ペンの軌跡を、入力情報として出力するペン入力処理部と
を備える情報処理装置。
A display section;
a touch sensor unit disposed on the screen of the display unit and capable of detecting touch input caused by contact with an object on the screen and pen input caused by contact with a pen;
In a first mode in which a first area of at least a portion of the screen functions as a software keyboard based on the touch input, the pen approaches the first area of the software keyboard at a distance within a threshold value. In this case, the first area is switched to a second mode in which the first area functions as a handwriting input device based on the pen input, and in the second mode, the touch sensor section is configured to switch to a second mode in which the first area functions as a handwriting input device based on the pen input; a switching processing unit that switches to the first mode when the touch input is detected;
In the second mode, an area around a character input cursor specified in a second area different from the first area is enlarged and displayed in the first area, and a handwritten input is performed based on the pen input. Displaying the trajectory of the pen in the first area, converting the size of the trajectory of the pen and displaying it in a corresponding position in the second area, and inputting the converted trajectory of the pen into input information. An information processing device comprising: a pen input processing unit that outputs as .
JP2022073634A 2022-04-27 2022-04-27 Information processing device Pending JP2023162919A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022073634A JP2023162919A (en) 2022-04-27 2022-04-27 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022073634A JP2023162919A (en) 2022-04-27 2022-04-27 Information processing device

Publications (1)

Publication Number Publication Date
JP2023162919A true JP2023162919A (en) 2023-11-09

Family

ID=88651026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022073634A Pending JP2023162919A (en) 2022-04-27 2022-04-27 Information processing device

Country Status (1)

Country Link
JP (1) JP2023162919A (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210305A (en) * 1994-01-17 1995-08-11 Hitachi Ltd Handwriting input device
JPH11305896A (en) * 1998-04-23 1999-11-05 Canon Inc Character inputting device, method therefor, and storage medium
WO2014147724A1 (en) * 2013-03-18 2014-09-25 株式会社 東芝 Electronic device and input method
CN105630389A (en) * 2015-12-28 2016-06-01 联想(北京)有限公司 Information processing method and electronic device
JP2019512765A (en) * 2016-02-23 2019-05-16 マイスクリプト System and method for multiple input management
CN111124245A (en) * 2019-12-24 2020-05-08 维沃移动通信有限公司 Control method and electronic equipment

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07210305A (en) * 1994-01-17 1995-08-11 Hitachi Ltd Handwriting input device
JPH11305896A (en) * 1998-04-23 1999-11-05 Canon Inc Character inputting device, method therefor, and storage medium
WO2014147724A1 (en) * 2013-03-18 2014-09-25 株式会社 東芝 Electronic device and input method
CN105630389A (en) * 2015-12-28 2016-06-01 联想(北京)有限公司 Information processing method and electronic device
JP2019512765A (en) * 2016-02-23 2019-05-16 マイスクリプト System and method for multiple input management
CN111124245A (en) * 2019-12-24 2020-05-08 维沃移动通信有限公司 Control method and electronic equipment

Similar Documents

Publication Publication Date Title
US11599247B2 (en) Information processing apparatus and control method
JP2023162919A (en) Information processing device
US11449176B2 (en) Information processing system and method for avoiding execution of unintentional drawing operations
US11392240B2 (en) Information processing apparatus, information processing system, and control method
JP6982649B2 (en) Information processing device and control method
US11003259B2 (en) Modifier key input on a soft keyboard using pen input
JP7348360B1 (en) Information processing device, touch device, and control method
CN112783267A (en) Information processing apparatus, information processing method, and computer program
JP7444939B1 (en) Information processing device and control method
US20230251895A1 (en) Information processing apparatus and control method
JP2023179072A (en) Information processing apparatus and control method
JP7432777B1 (en) Information processing system and control method
JP6139647B1 (en) Information processing apparatus, input determination method, and program
US11954272B2 (en) Information processing device, information processing system and controlling method
US11762501B2 (en) Information processing apparatus and control method
US11526220B2 (en) Method and apparatus of using a computer touchpad or digitizer stylus pad as a mousepad
JP6830973B2 (en) Information processing device and control method
JP6513607B2 (en) Information processing device
JP2022090171A (en) Information processing apparatus and information processing method
CN115599281A (en) Information processing apparatus, information processing system, and control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220427

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230509

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231205