JP6622033B2 - Character input program and character input method - Google Patents

Character input program and character input method Download PDF

Info

Publication number
JP6622033B2
JP6622033B2 JP2015169732A JP2015169732A JP6622033B2 JP 6622033 B2 JP6622033 B2 JP 6622033B2 JP 2015169732 A JP2015169732 A JP 2015169732A JP 2015169732 A JP2015169732 A JP 2015169732A JP 6622033 B2 JP6622033 B2 JP 6622033B2
Authority
JP
Japan
Prior art keywords
input
content
character
display
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015169732A
Other languages
Japanese (ja)
Other versions
JP2017045424A (en
Inventor
宏史 小池
宏史 小池
長嶋 良和
良和 長嶋
一仁 越智
一仁 越智
悠輔 巣籠
悠輔 巣籠
飯島 章夫
章夫 飯島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dentsu Group Inc
Original Assignee
Dentsu Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dentsu Inc filed Critical Dentsu Inc
Priority to JP2015169732A priority Critical patent/JP6622033B2/en
Publication of JP2017045424A publication Critical patent/JP2017045424A/en
Application granted granted Critical
Publication of JP6622033B2 publication Critical patent/JP6622033B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、文字入力用プログラム及び文字入力方法に関する。   The present invention relates to a character input program and a character input method.

近年、スマートフォン、タブレット等、タッチパネルで操作することが可能な端末が増えている。これらの機器では、表示画面上に表示されたソフトウエアキーボード上のキーに対してタッチ入力を行うことで文字入力を行うことができる。   In recent years, terminals that can be operated with a touch panel, such as smartphones and tablets, are increasing. In these devices, characters can be input by performing touch input on keys on the software keyboard displayed on the display screen.

一方、従来から、操作されたキーの背景色、文字色を変更する技術が知られている(特許文献1、2参照)。   On the other hand, conventionally, techniques for changing the background color and character color of an operated key are known (see Patent Documents 1 and 2).

特開平7−168669号公報JP-A-7-168669 特開2007−172199号公報JP 2007-172199 A

しかし、特許文献1、2に記載されたように、背景色、文字色を変更するだけでは、キー入力の作業が単調であるという課題がある。   However, as described in Patent Documents 1 and 2, there is a problem that the key input operation is monotonous only by changing the background color and the character color.

本発明は、単調であったキー入力の作業が楽しくなる文字入力用プログラム及び文字入力方法を提供することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to provide a character input program and a character input method that make a monotonous key input operation enjoyable.

本発明の文字入力用プログラムは、コンピュータに、所定の文字に対応する複数のキー、並びに、画像、映像又はアニメーションを含む第1コンテンツを、表示部に重ねて表示させる第1の表示ステップと、前記キーに対する入力を受け付ける検出ステップと、前記表示部に、前記第1コンテンツと少なくとも一部が異なる、画像、映像又はアニメーションを含む第2コンテンツを表示する第2の表示ステップと、を実行させて、文字入力の機能を実現させることを特徴とする。 The character input program of the present invention includes a first display step for causing a computer to display a plurality of keys corresponding to a predetermined character and a first content including an image, a video, or an animation on a display unit, A detection step of accepting an input to the key; and a second display step of causing the display unit to display a second content including an image, video, or animation that is at least partially different from the first content. The character input function is realized.

この構成により、検出ステップで、入力検出部がキーに対する入力を受け付けると、表示部に第1コンテンツと少なくとも一部が異なる第2コンテンツが表示されるので、キー入力に応じて表示部による表示が多様に変化するので、単調であったキー入力の作業が楽しくなる。   With this configuration, when the input detection unit receives an input to the key in the detection step, the second content that is at least partially different from the first content is displayed on the display unit, so that the display by the display unit is displayed according to the key input. Because it changes in various ways, the key input work that was monotonous becomes fun.

本発明の文字入力用プログラムにおいて、前記検出ステップの後に、音を再生する音再生ステップを、さらに備えることが好ましい。
本発明の文字入力用プログラムにおいて、前記第1の表示ステップにおいて所定の文字に対応する複数の前記キーが前記第1コンテンツと重ねて表示され、前記検出ステップにおいて前記複数のキーの1つに対する入力を受け付け、前記第2の表示ステップにおいて前記複数のキーに対応して互いに異なる前記第2コンテンツが表示されることが好ましい。
The character input program according to the present invention preferably further includes a sound reproduction step of reproducing a sound after the detection step.
In the character input program according to the present invention, a plurality of the keys corresponding to a predetermined character are displayed on the first content in the first display step, and an input to one of the plurality of keys is performed in the detection step. It is preferable that the second content different from each other is displayed corresponding to the plurality of keys in the second display step.

本発明の文字入力用プログラムにおいて、前記第2の表示ステップの後に、前記キー及び前記第1コンテンツを、前記表示部に重ねて表示させる第3の表示ステップを、さらに備えることが好ましい。   The character input program according to the present invention preferably further includes a third display step for displaying the key and the first content on the display unit after the second display step.

本発明の文字入力用プログラムにおいて、前記第1コンテンツと前記第2コンテンツとは、前記入力を受け付けた前記キーに対応する部分において少なくとも異なることが好ましい。   In the character input program according to the present invention, it is preferable that the first content and the second content differ at least in a portion corresponding to the key that has received the input.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、タップ入力及びフリック入力を前記入力として受け付け、前記第2の表示ステップにおいて前記タップ入力を受け付けたときに表示される前記第2コンテンツと、前記フリック入力を受け付けたときに表示される前記第2コンテンツとが互いに異なることが好ましい。   In the character input program of the present invention, in the detection step, tap input and flick input are accepted as the input, and the second content displayed when the tap input is accepted in the second display step; The second content displayed when a flick input is accepted is preferably different from each other.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、タップ入力又はフリック入力及びリリース入力を前記入力として受け付け、前記第2の表示ステップにおいて前記タップ入力又は前記フリック入力を受け付けたときに表示される前記第2コンテンツと、前記リリース入力を受け付けたときに表示される前記第2コンテンツとが互いに異なることが好ましい。   In the character input program according to the present invention, a tap input or a flick input and a release input are accepted as the input in the detection step, and are displayed when the tap input or the flick input is accepted in the second display step. It is preferable that the second content and the second content displayed when the release input is received are different from each other.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、タップ入力及びフリック入力を前記入力として受け付け、前記第2の表示ステップにおいて、前記タップ入力を受け付けたときに、所定の文字に対応する複数のキーが前記第2コンテンツと重ねて表示され、さらにフリック入力を受け付けたときに、前記第2コンテンツと少なくとも一部が異なる第3コンテンツを表示する第4の表示ステップを、さらに備えることが好ましい。   In the character input program of the present invention, a tap input and a flick input are accepted as the input in the detection step, and when the tap input is accepted in the second display step, a plurality of characters corresponding to a predetermined character are received. It is preferable to further include a fourth display step of displaying a third content at least partially different from the second content when a key is displayed overlapping the second content and a flick input is received.

本発明の文字入力用プログラムにおいて、前記タップ入力又は前記フリック入力を受け付けた前記キーを記憶し、前記タップ入力又は前記フリック入力を複数回受け付けたときに記憶されている複数の前記キーが所定の組み合わせである場合に、前記第1コンテンツと少なくとも一部が異なる第4コンテンツを表示する第5の表示ステップを、さらに備えることが好ましい。   In the character input program of the present invention, the key that has received the tap input or the flick input is stored, and the plurality of keys that are stored when the tap input or the flick input is received a plurality of times are predetermined. In the case of a combination, it is preferable to further include a fifth display step of displaying a fourth content that is at least partially different from the first content.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、前記入力が行われた速度を測定し、前記第2の表示ステップにおいて、前記速度に応じて前記第2コンテンツを変えることが好ましい。   In the character input program according to the present invention, it is preferable that the speed at which the input is performed is measured in the detection step, and the second content is changed according to the speed in the second display step.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、前記入力が行われた回数を測定し、前記第2の表示ステップにおいて、前記回数に応じて前記第2コンテンツを変えることが好ましい。   In the character input program of the present invention, it is preferable that the number of times the input is performed is measured in the detection step, and the second content is changed according to the number of times in the second display step.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、前記入力が行われた時間情報を取得し、前記第2の表示ステップにおいて、前記時間情報に応じて前記第2コンテンツを変えることが好ましい。   In the character input program of the present invention, it is preferable that in the detection step, time information at which the input is performed is acquired, and in the second display step, the second content is changed according to the time information.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、前記入力が行われたときに前記コンピュータが取得したセンサの検出結果を取得し、前記第2の表示ステップにおいて、前記検出結果に応じて前記第2コンテンツを変えることが好ましい。   In the character input program of the present invention, in the detection step, a detection result of the sensor acquired by the computer when the input is performed is acquired, and in the second display step, the detection result is determined according to the detection result. It is preferable to change the second content.

本発明の文字入力用プログラムにおいて、前記検出ステップにおいて、前記入力が行われたときに前記コンピュータが実行するアプリケーションプログラムに関するアプリ情報を取得し、前記第2の表示ステップにおいて、前記アプリ情報に応じて前記第2コンテンツを変えることが好ましい。   In the character input program according to the present invention, in the detection step, application information related to an application program executed by the computer when the input is performed is acquired, and in the second display step, the application information is obtained. It is preferable to change the second content.

本発明の文字入力用プログラムにおいて、前記キーに対する前記入力に応じて前記コンピュータに文字を入力させる文字入力ステップと、前記文字に応じて前記第1コンテンツと異なる第5コンテンツを表示する第6の表示ステップとを、さらに備えることが好ましい。   In the character input program of the present invention, a character input step for causing the computer to input a character in response to the input to the key, and a sixth display for displaying a fifth content different from the first content in accordance with the character It is preferable to further comprise a step.

本発明の文字入力用プログラムにおいて、前記キーに対する前記入力に応じて前記コンピュータに文字を入力させる文字入力ステップと、前記文字に応じて前記コンピュータに、外部機器を操作させる操作ステップとを、さらに備えることを特徴とすることが好ましい。   The character input program according to the present invention further comprises: a character input step for causing the computer to input a character in response to the input to the key; and an operation step for causing the computer to operate an external device in response to the character. It is preferable to be characterized by this.

本発明の文字入力方法は、コンピュータ上で文字入力を行う文字入力方法であって、所定の文字に対応する複数のキー、並びに、画像、映像又はアニメーションを含む第1コンテンツを、表示部に重ねて表示させる第1の表示ステップと、前記キーに対する入力を受け付ける検出ステップと、前記表示部に、前記第1コンテンツと少なくとも一部が異なる、画像、映像又はアニメーションを含む第2コンテンツを表示する第2の表示ステップと、を具備することを特徴とする。 A character input method of the present invention is a character input method for inputting characters on a computer, and a plurality of keys corresponding to a predetermined character and a first content including an image, a video, or an animation are superimposed on a display unit. A first display step that displays the image, a detection step that receives an input to the key, and a second content that includes an image, video, or animation that is at least partially different from the first content on the display unit. And 2 display steps.

本発明によれば、単調であったキー入力の作業が楽しくなる文字入力用プログラム及び文字入力方法を提供することができる。   According to the present invention, it is possible to provide a character input program and a character input method that make a monotonous key input operation enjoyable.

本実施の形態に係る文字入力用プログラムを実行する端末のハードウエア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the terminal which performs the program for character input which concerns on this Embodiment. 本実施の形態に係る文字入力用プログラムを実行する端末のソフトウエア構成を示すブロック図である。It is a block diagram which shows the software configuration of the terminal which performs the program for character input which concerns on this Embodiment. 本実施の形態に係る文字入力用プログラムが用いるコンテンツパッケージの例を示す説明図である。It is explanatory drawing which shows the example of the content package which the program for character input which concerns on this Embodiment uses. 本実施の形態に係る文字入力用プログラムが生成するソフトウエアキーボードの配置例を示す模式図である。It is a schematic diagram which shows the example of arrangement | positioning of the software keyboard which the program for character input which concerns on this Embodiment produces | generates. 本実施の形態に係る文字入力プログラムを用いた文字入力処理を説明するフローチャートである。It is a flowchart explaining the character input process using the character input program which concerns on this Embodiment. 本実施の形態に係る文字入力プログラムを用いた文字入力処理を説明するフローチャートである。It is a flowchart explaining the character input process using the character input program which concerns on this Embodiment. 本実施の形態に係る文字入力用プログラムを用いたフリック入力を用いた文字入力処理を説明するための模式図である。It is a schematic diagram for demonstrating the character input process using the flick input using the program for character input which concerns on this Embodiment. 本実施の形態に係る文字入力用プログラムを用いたフリック入力を用いた文字入力処理を説明するための模式図である。It is a schematic diagram for demonstrating the character input process using the flick input using the program for character input which concerns on this Embodiment. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied. 本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。It is a schematic diagram which shows the example of a screen to which the character input method using the program for character input which concerns on this Embodiment is applied.

以下、本発明の実施の形態について、添付図面を参照して詳細に説明する。
<概要>
図1は、本実施の形態に係る文字入力用プログラムを実行する端末のハードウエア構成を示すブロック図である。
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
<Overview>
FIG. 1 is a block diagram showing a hardware configuration of a terminal that executes a character input program according to the present embodiment.

図1に示すように、コンピュータデバイス10は、中央制御部11、メモリ12、ストレージデバイス13、電源供給部14、表示制御部15、タッチパネルディスプレイ16、入力検出部17、音生成部18、スピーカ19、移動体通信制御部20、近距離通信制御部21、カメラ22、マイク23、センサ24、GPS受信部25及び時計部26を備えている。   As shown in FIG. 1, the computer device 10 includes a central control unit 11, a memory 12, a storage device 13, a power supply unit 14, a display control unit 15, a touch panel display 16, an input detection unit 17, a sound generation unit 18, and a speaker 19. , Mobile communication control unit 20, short-range communication control unit 21, camera 22, microphone 23, sensor 24, GPS receiving unit 25, and clock unit 26.

中央制御部11は、コンピュータデバイス10の各部を制御するものである。具体的には、中央制御部11は、CPU(Central Processing Unit)等を備え、メモリ12を用いてオペレーティングシステム(OS)や各種処理プログラムに従って各種の制御動作を行う。   The central control unit 11 controls each unit of the computer device 10. Specifically, the central control unit 11 includes a CPU (Central Processing Unit) and the like, and uses the memory 12 to perform various control operations according to an operating system (OS) and various processing programs.

メモリ12は、例えば、DRAM(Dynamic Random Access Memory)等により構成され、中央制御部11等によって処理されるデータ等を一時的に記憶するバッファメモリや、中央制御部11等のワーキングメモリとして機能する。   The memory 12 is configured by, for example, a DRAM (Dynamic Random Access Memory) or the like, and functions as a buffer memory for temporarily storing data processed by the central control unit 11 or the like, or a working memory for the central control unit 11 or the like. .

ストレージデバイス13は、例えば、不揮発性メモリ(フラッシュメモリ)等により構成され、中央制御部11の動作に必要な各種プログラムやデータを記憶している。   The storage device 13 is composed of, for example, a nonvolatile memory (flash memory) or the like, and stores various programs and data necessary for the operation of the central control unit 11.

電源供給部14は、コンピュータデバイス10に必要な電力を供給するために、バッテリ又は外部電源ソースと連結される。   The power supply unit 14 is connected to a battery or an external power source in order to supply necessary power to the computer device 10.

表示制御部15は、中央制御部11による各種プログラムの実行に基づいて画面を生成し、生成された画面に従った画像信号をタッチパネルディスプレイ16に出力する。   The display control unit 15 generates a screen based on the execution of various programs by the central control unit 11 and outputs an image signal according to the generated screen to the touch panel display 16.

タッチパネルディスプレイ16は、画像を表示する表示手段としてのディスプレイ16aと、ディスプレイ16aの表示画面の全面又は一部に配された、指やペン等の指示体で触れることにより直接入力を行うための入力手段としての位置入力デバイス16bと、を一体化して構成されている。   The touch panel display 16 is an input for direct input by touching with a display such as a finger or a pen disposed on the entire or part of the display screen of the display 16a as a display means for displaying an image and the display 16a. The position input device 16b as means is integrated.

ディスプレイ16aは、例えば、液晶表示パネルで構成され、表示制御部15から入力された画像信号に基づいて画面を表示する。   The display 16a is composed of, for example, a liquid crystal display panel, and displays a screen based on an image signal input from the display control unit 15.

位置入力デバイス16bは、指示体によるディスプレイ16aの表示画面上における接触を検知し、検出信号を入力検出部17に出力する。入力検出部17は、検出信号に基づいて位置(座標)情報を中央制御部11に出力する。   The position input device 16 b detects contact on the display screen of the display 16 a by the indicator, and outputs a detection signal to the input detection unit 17. The input detection unit 17 outputs position (coordinate) information to the central control unit 11 based on the detection signal.

本実施の形態では、ユーザの入力を受け付けるタッチパネルディスプレイ16の位置入力デバイス16bとして、接触式タッチパネルを例に挙げて説明しているが、非接触式の位置入力デバイスがユーザの入力を受け付けてもよい。非接触式の位置入力デバイスの例には、特開平10−187332号公報に記載されたホログラム入力キーボードや、マイクロソフト社のKinect(登録商標)のようなモーションセンサーデバイスを利用したジェスチャーインターフェイスを用いたものが、含まれる。   In the present embodiment, a contact type touch panel is described as an example of the position input device 16b of the touch panel display 16 that receives user input. However, even if a non-contact type position input device receives user input. Good. As an example of the non-contact type position input device, a holographic input keyboard described in JP-A-10-187332 or a gesture interface using a motion sensor device such as Kinect (registered trademark) of Microsoft Corporation was used. Things are included.

音生成部18は、中央制御部11による各種プログラムの実行に基づいて音信号を生成し、スピーカ19に出力する。スピーカ19は、音信号に従って音を再生する。   The sound generator 18 generates a sound signal based on the execution of various programs by the central controller 11 and outputs the sound signal to the speaker 19. The speaker 19 reproduces sound according to the sound signal.

移動体通信制御部20は、中央制御部11による各種プログラムの実行に基づいて、携帯電話通信網、Wi−Fi(登録商標)網等のような移動体通信網を介して他の端末と通信を行ったり、インターネットを経由して外部サーバと通信を行ったり、する。   The mobile communication control unit 20 communicates with other terminals via a mobile communication network such as a mobile phone communication network or a Wi-Fi (registered trademark) network based on the execution of various programs by the central control unit 11. Or communicate with an external server via the Internet.

近距離通信制御部21は、中央制御部11による各種プログラムの実行に基づいて近距離通信を利用して外部装置と通信を行う。近距離通信手段の例としては、例えば、Bluetooth(登録商標)、赤外線通信、近距離無線通信(WPAN)、NFC(Near Field Communication)などを挙げることができる。   The near field communication control unit 21 communicates with an external device using near field communication based on the execution of various programs by the central control unit 11. Examples of near field communication means include Bluetooth (registered trademark), infrared communication, near field communication (WPAN), NFC (Near Field Communication), and the like.

カメラ22は、静止画や動画像を撮影するためのレンズ及び光学素子を含む。   The camera 22 includes a lens and an optical element for taking a still image or a moving image.

マイク23は、音を電気信号に変換して中央制御部11に出力する。   The microphone 23 converts the sound into an electric signal and outputs it to the central control unit 11.

センサ24は、例えば、自然現象、又は、対象の機械的、電磁気的、熱的、音響的、化学的性質或いはそれらで示される空間情報、時間情報を検出し、電気信号に変換して、中央制御部11に出力する。   The sensor 24 detects, for example, a natural phenomenon or a mechanical, electromagnetic, thermal, acoustic, chemical property of the object, or spatial information or temporal information indicated by them, and converts it into an electric signal to be converted into a central signal. Output to the control unit 11.

センサ24には、例えば、ジャイロ(傾き)センサ、加速度(慣性)センサ、照度(明るさ)センサ、近接(距離)センサ、温度(気温)センサ、高度センサ、生体センサ(体温、脈拍、血圧、呼吸、血糖値など)を用いることができる。   The sensor 24 includes, for example, a gyro (tilt) sensor, an acceleration (inertia) sensor, an illuminance (brightness) sensor, a proximity (distance) sensor, a temperature (temperature) sensor, an altitude sensor, a biological sensor (body temperature, pulse, blood pressure, Breathing, blood sugar level, etc.).

センサ24は、中央制御部11にバス(図示せず)やシリアルケーブル(図示せず)を介して接続されている。ただし、センサ24が中央制御部11に、移動体通信制御部20や近距離通信制御部21を介して接続されていてもよい。   The sensor 24 is connected to the central control unit 11 via a bus (not shown) or a serial cable (not shown). However, the sensor 24 may be connected to the central control unit 11 via the mobile communication control unit 20 or the short-range communication control unit 21.

GPS受信部25は、人工衛星からGPS信号を受信して地理的位置(例えば、座標)を中央制御部11に出力する。   The GPS receiving unit 25 receives a GPS signal from an artificial satellite and outputs a geographical position (for example, coordinates) to the central control unit 11.

なお、本実施の形態では、カメラ22、マイク23及びGPS受信部25は、上述のセンサ24の一種として利用している。   In the present embodiment, the camera 22, the microphone 23, and the GPS receiving unit 25 are used as a kind of the sensor 24 described above.

以上説明したコンピュータデバイス10において、目的に応じてアプリケーションプログラムやデータを適宜用意することで、以降で説明するような各種機能を実現することができる。   In the computer device 10 described above, various functions described below can be realized by appropriately preparing application programs and data according to the purpose.

本実施の形態においては、コンピュータデバイス10は、スマートフォンやタブレットを想定しているが、特に限定されるものではなく、タッチパネルディスプレイを備えたパーソナルコンピュータも含まれる。   In the present embodiment, the computer device 10 is assumed to be a smartphone or a tablet, but is not particularly limited, and includes a personal computer having a touch panel display.

図2は、本実施の形態に係る文字入力用プログラムを実行する端末のソフトウエア構成を示すブロック図である。   FIG. 2 is a block diagram showing a software configuration of a terminal that executes the character input program according to the present embodiment.

<オペレーティングシステム(OS)>
本実施の形態において、OS100は、いわゆるカーネルの他に、画像コーデック、音声CODEC、デスクトップ環境、ウィンドウシステム、データベース管理システム(DBMS)などのミドルウエア、ファイル管理ソフトウエア、エディタ、各種設定ツールなどのユーティリティ、及び、基本的なアプリケーションプログラム(時計、カレンダなどのアクセサリ)を含む広義のOSである。
<Operating system (OS)>
In this embodiment, the OS 100 includes a so-called kernel, middleware such as an image codec, audio CODEC, desktop environment, window system, database management system (DBMS), file management software, editor, various setting tools, and the like. It is an OS in a broad sense including utilities and basic application programs (accessories such as clocks and calendars).

本実施の形態では、OS100は、文字入力用プログラム200におけるキーに対する入力に応じて、中央制御部11に文字をアプリケーションプログラム(以下、アプリともいう)300に入力させるように構成されている。   In the present embodiment, the OS 100 is configured to cause the central control unit 11 to input characters to an application program (hereinafter also referred to as an application) 300 in response to an input to a key in the character input program 200.

また、OS100は、キー生成、辞書、文字変換、予測入力の各機能を、文字入力用プログラム200に提供する。   The OS 100 also provides the character input program 200 with key generation, dictionary, character conversion, and predictive input functions.

また、OS100は、コンテンツ(後述)をデコードし、再生する機能を備えていてもよい。   Further, the OS 100 may have a function of decoding and reproducing content (described later).

また、OS100は、センサ24から入力された検出信号を測定値に変換し、文字入力用プログラム200に渡す。   In addition, the OS 100 converts the detection signal input from the sensor 24 into a measured value and passes it to the character input program 200.

また、OS100は、移動体通信制御部20を制御し、移動体通信網を経由してインターネットに接続可能に構成されている。   The OS 100 is configured to control the mobile communication control unit 20 and connect to the Internet via the mobile communication network.

OS100は、インターネットブラウザエンジン機能及び検索機能を備え、インターネットを経由して、検索サイトを用いて、検索を実行し、検索結果を含むWebコンテンツを受信し、デコードして、検索結果画面を生成する。また、検索機能を用いて、コンピュータデバイス10のストレージデバイス13が格納する情報を検索することができる。   The OS 100 has an Internet browser engine function and a search function, performs a search using a search site via the Internet, receives Web content including the search result, decodes, and generates a search result screen. . In addition, information stored in the storage device 13 of the computer device 10 can be searched using the search function.

また、OS100は、移動体通信制御部20又は近距離通信制御部21を介して、例えば、インターネットやBluetooth(登録商標)を用いて、外部機器に接続し、外部機器を遠隔制御する機能を提供する。   In addition, the OS 100 provides a function of connecting to an external device and remotely controlling the external device using, for example, the Internet or Bluetooth (registered trademark) via the mobile communication control unit 20 or the short-range communication control unit 21. To do.

<文字入力用プログラム>
本実施の形態において、文字入力用プログラム200は、キー及び第1コンテンツを、ディスプレイ16aに重ねて表示させる第1の表示ステップと、キーに対する入力を受け付ける検出ステップと、ディスプレイ16aに、第1コンテンツと少なくとも一部が異なる第2コンテンツを表示する第2の表示ステップと、を実行させて、コンピュータデバイス10に文字入力の機能を実現させるように構成されている。
<Character input program>
In the present embodiment, the character input program 200 includes a first display step for displaying the key and the first content on the display 16a, a detection step for receiving an input to the key, and a first content on the display 16a. And a second display step for displaying at least a part of the second content different from each other, and the computer device 10 is configured to realize a character input function.

また、文字入力用プログラム200は、第1の表示ステップにおいて所定の文字に対応する複数のキーが第1コンテンツと重ねて表示され、検出ステップにおいて複数のキーの1つに対する入力を受け付け、第2の表示ステップにおいて複数のキーに対応して互いに異なる第2コンテンツが表示されるように構成されていることが好ましい。   Further, the character input program 200 displays a plurality of keys corresponding to a predetermined character on the first content in the first display step, and receives an input to one of the plurality of keys in the detection step. In the display step, it is preferable that different second contents are displayed corresponding to a plurality of keys.

本実施の形態において、キーとは、ディスプレイ16aの表示画面の少なくとも一部を複数の選択可能な領域(選択領域)に分割し、各選択領域に対して、特定の文字、数字、記号等を割り当てた一単位をいう。一つのキーに対して複数の文字等を割り当てることもできる。例えば、シフトキー+「キー」で、一つのキーに2つの文字等を割り当てることができる。以下の説明では、複数のキーをディスプレイ16aの表示画面の少なくとも一部に配列したものを、ソフトウエアキーボードと呼ぶ。   In the present embodiment, the key divides at least a part of the display screen of the display 16a into a plurality of selectable areas (selection areas), and specific characters, numbers, symbols, etc. are assigned to each selection area. One unit assigned. A plurality of characters can be assigned to one key. For example, two characters or the like can be assigned to one key by a shift key + “key”. In the following description, a plurality of keys arranged on at least a part of the display screen of the display 16a is referred to as a software keyboard.

また、本実施の形態においてコンテンツとは、静止画像、動画像(映像)、文字、文章又はそれらの組み合わせをいう。静止画像には、写真又は絵が含まれる。動画像には、アニメーション、実写動画、それらの組み合せが含まれる。コンテンツには、音、声や音楽が付随していてもよい。なお、本願明細書において、画像は、静止画像及び動画像(映像)を含む。コンテンツには、ゲーム、くじなども含まれる。   Further, in the present embodiment, content refers to a still image, a moving image (video), characters, sentences, or a combination thereof. The still image includes a photograph or a picture. The moving image includes an animation, a live-action moving image, and a combination thereof. The content may be accompanied by sound, voice or music. In the present specification, an image includes a still image and a moving image (video). The content includes games and lotteries.

本実施の形態において、キー及び第1コンテンツをディスプレイ16aに重ねて表示させるとは、例えば、第1コンテンツよりも上のレイヤーにキーを重ねて表示し、キーを透明にすることにより、キーの背景に第1コンテンツを表示することが好ましい。また、ディスプレイ16aに、第1コンテンツと少なくとも一部が異なる第2コンテンツを表示する際にも、第2コンテンツよりも上のレイヤーにキーを重ねて表示し、キーを透明にすることにより、キーの背景に第2コンテンツを表示することが好ましい。   In the present embodiment, the key and the first content are displayed on the display 16a in an overlapping manner, for example, by displaying the key in a layer above the first content and making the key transparent, It is preferable to display the first content on the background. Also, when displaying the second content that is at least partially different from the first content on the display 16a, the key is superimposed on the layer above the second content and the key is made transparent so that the key is transparent. It is preferable to display the second content in the background.

本実施の形態において、コンテンツは、例えば、各種のタイトル毎に一組になっており、適宜切り替えて利用することができる。   In the present embodiment, for example, the content is a set for each of various titles, and can be used by switching appropriately.

図3は、本実施の形態に係る文字入力用プログラムが用いるコンテンツパッケージの例を示す説明図である。図3に示すように、あるタイトルについて、一つのコンテンツパッケージ400が用意されている。コンテンツパッケージ400は、一つの設定情報401と、初期画面のためのコンテンツが収められた初期画面用コンテンツ402と、特定のキーに割り当てられたリアクション(後述)1〜nのためのコンテンツがまとめられたリアクション用コンテンツ404、406、408と、が含まれている。初期画面用コンテンツ402及びリアクション用コンテンツ404、406、408には、画像データ403、407、409、410や、音データ405が含まれている。   FIG. 3 is an explanatory diagram showing an example of a content package used by the character input program according to the present embodiment. As shown in FIG. 3, one content package 400 is prepared for a certain title. In the content package 400, one piece of setting information 401, initial screen content 402 containing content for an initial screen, and contents for reactions (described later) 1 to n assigned to a specific key are collected. Reaction contents 404, 406, and 408. The initial screen content 402 and the reaction content 404, 406, 408 include image data 403, 407, 409, 410 and sound data 405.

なお、ここで説明した初期画面用コンテンツ402は、後述の説明におけるコンテンツAに対応し、リアクション用コンテンツ404、406、408は、コンテンツB以降に相当する。   Note that the initial screen content 402 described here corresponds to the content A described later, and the reaction content 404, 406, and 408 corresponds to the content B and later.

設定情報401では、特定のキーと、リアクション1〜nのいずれかと、が対応付けられている。例えば、テキストで、「key_あ;リアクション1」のように設定情報401に記述されている。このような記述をリアクション定義と呼ぶ。   In the setting information 401, a specific key is associated with one of the reactions 1 to n. For example, text is described in the setting information 401 as “key_a; reaction 1”. Such a description is called a reaction definition.

コンテンツパッケージ400は、図1に示すストレージデバイス13に格納される。コンテンツパッケージ400は、文字入力用プログラム200によってストレージデバイス13から読み出され、メモリ12に展開され、用いられる。   The content package 400 is stored in the storage device 13 shown in FIG. The content package 400 is read from the storage device 13 by the character input program 200, expanded in the memory 12, and used.

コンテンツパッケージ400は、移動体通信制御部20を介して、インターネット経由で、サーバからダウンロードし、ストレージデバイス13に追加することができる。   The content package 400 can be downloaded from the server via the mobile communication control unit 20 via the Internet and added to the storage device 13.

使用するコンテンツパッケージ400の切り替えは、文字入力用プログラム200によって行われる。   The content package 400 to be used is switched by the character input program 200.

<アプリケーションプログラム>
アプリ300は、OS100から入力された文字を受け取り、ディスプレイ16aに表示するなどの各種処理を行うように構成されている。アプリ300は、特に限定されてないが、例えば、メールアプリ、インターネットブラウザ及びSNSクライアントアプリが挙げられることができる。
<Application program>
The application 300 is configured to perform various processes such as receiving characters input from the OS 100 and displaying them on the display 16a. Although the application 300 is not specifically limited, For example, a mail application, an internet browser, and a SNS client application can be mentioned.

<キーボードを含む画面例>
図4は、本実施の形態に係る文字入力用プログラムが生成するソフトウエアキーボードの配置例を示す模式図である。図4に示すように、ディスプレイ16aの表示画面501は、ソフトウエアキーボードが表示されるキーボード表示エリア502と、アプリ300が表示されるアプリ表示エリア503と、時刻504a、電池残量504b、電波強度504cが表示されるタスクバーエリア504と、に分割されている。
<Screen example including keyboard>
FIG. 4 is a schematic diagram showing an arrangement example of the software keyboard generated by the character input program according to the present embodiment. As shown in FIG. 4, the display screen 501 of the display 16a includes a keyboard display area 502 where a software keyboard is displayed, an application display area 503 where an application 300 is displayed, a time 504a, a remaining battery level 504b, and radio wave intensity. It is divided into a task bar area 504 in which 504c is displayed.

図4に示すように、キーボード表示エリア502は、複数の領域に分割され、「あ」行〜「わ」行までが割り当てられた、かなキー511〜520と、句読点などの記号が割り当てられた記号キー521と、顔文字を入力するための顔文字キー522と、カーソルを進めるためのカーソル移動キー523と、入力モードを、かな文字と数字とで切り替えるためのモード変更キー524と、絵文字を入力するための絵文字キー525と、キーボードの種類を変更するためのキーボード変更キー526と、入力された文字等を削除するバックキー527と、空白(スペース)を入力するための空白キー528と、改行を入力するための改行キー529と、が配列されている。さらに、これらのキー511〜529が配列された領域の上側には、設定のための項目が表示されたり、複数の入力候補が表示されたり、する選択項目表示エリア530が設けられている。   As shown in FIG. 4, the keyboard display area 502 is divided into a plurality of areas, and Kana keys 511 to 520 assigned with “A” line to “Wa” line and symbols such as punctuation marks are assigned. Symbol key 521, emoticon key 522 for inputting an emoticon, cursor movement key 523 for advancing the cursor, mode change key 524 for switching the input mode between kana characters and numbers, and pictograms A pictogram key 525 for inputting, a keyboard change key 526 for changing the type of keyboard, a back key 527 for deleting an inputted character, etc., a blank key 528 for inputting a space, A line feed key 529 for inputting a line feed is arranged. Furthermore, a selection item display area 530 for displaying items for setting or displaying a plurality of input candidates is provided above the area where these keys 511 to 529 are arranged.

図4に示すソフトウエアキーボードは、いわゆるフリック入力(後述)を用いるタイプのものであるが、本発明ではこれに限定されず、QWERTY配列のようなフルキーボード、数字を入力するためテンキーなどであってもよい。   The software keyboard shown in FIG. 4 is of a type that uses so-called flick input (described later), but is not limited to this in the present invention, and is a full keyboard such as a QWERTY layout or a numeric keypad for inputting numbers. May be.

<処理の流れ>
以下、本実施の形態に係る文字入力プログラムによる処理の流れについて説明する。図5及び図6は、本実施の形態に係る文字入力プログラムを用いた文字入力処理を説明するフローチャートである。
<Process flow>
Hereinafter, the flow of processing by the character input program according to the present embodiment will be described. 5 and 6 are flowcharts for explaining character input processing using the character input program according to the present embodiment.

文字入力用プログラム200は、まず、表示制御部15により、初期画面をタッチパネルディスプレイ16のディスプレイ16aに表示させる(S101)。初期画面は、ソフトウエアキーボードとコンテンツAとを重ね合わせた画面である。このとき、表示制御部15は、コンテンツAよりも上のレイヤーにおいてソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることができる。これにより、ソフトウエアキーボードの背景に、コンテンツAが表示できる。   First, the character input program 200 causes the display controller 15 to display an initial screen on the display 16a of the touch panel display 16 (S101). The initial screen is a screen obtained by superimposing the software keyboard and the content A. At this time, the display control unit 15 can display the software keyboard in a layer above the content A so that the background of the software keyboard is transparent. Thereby, the content A can be displayed on the background of the software keyboard.

次に、文字入力用プログラム200は、入力検出部17がタップ入力を検出したかどうか判定する(S102)。タップ入力とは、任意のキーに対応付けられた選択領域に対して指示体を接触させて当該キーを選択状態にすることをいう。S102でNoであるならば、タップ入力が検出されるまでS102を繰り返す。   Next, the character input program 200 determines whether the input detection unit 17 has detected a tap input (S102). Tap input refers to bringing a pointer into contact with a selection area associated with an arbitrary key to place the key in a selected state. If No in S102, S102 is repeated until a tap input is detected.

S102でYesであったならば、文字入力用プログラム200は、タップ入力が行われたキー(以下、注目キーという)を判定する(S103)。判定された注目キーに対応するリアクション定義を、図3を用いて説明したコンテンツパッケージ400の設定情報401から取得する(S104)。   If “Yes” in S102, the character input program 200 determines the key on which the tap input has been performed (hereinafter referred to as the “attention key”) (S103). A reaction definition corresponding to the determined attention key is acquired from the setting information 401 of the content package 400 described with reference to FIG. 3 (S104).

次に、文字入力用プログラム200は、取得したリアクション定義に基づいて、注目キーについてタップ入力に対応するリアクションがあるか否か判定する(S105)。   Next, the character input program 200 determines whether or not there is a reaction corresponding to the tap input for the key of interest based on the acquired reaction definition (S105).

S105でYesであったならば、文字入力用プログラム200は、リアクション定義で注目キーに対応付けられたリアクションを実行し、表示制御部15に、初期画面のためのコンテンツAと少なくとも一部が異なるリアクション用のコンテンツBに変更して、ディスプレイ16aに表示させる(S106)。これにより、ソフトウエアキーボードとコンテンツBとを重ね合わせた画面が表示される。このとき、表示制御部15は、コンテンツBよりも上のレイヤーにおいてソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることにより、ソフトウエアキーボードの背景に、コンテンツBを表示できる。コンテンツAとコンテンツBとがタップ入力された注目キーの部分で異なると、タップ入力に応じて背景が変化する演出が行われる。   If Yes in S105, the character input program 200 executes a reaction associated with the key of interest in the reaction definition, and the display control unit 15 is at least partially different from the content A for the initial screen. The content B is changed to the reaction content B and displayed on the display 16a (S106). As a result, a screen in which the software keyboard and the content B are superimposed is displayed. At this time, the display control unit 15 can display the content B on the background of the software keyboard by displaying the software keyboard in a layer above the content B and making the background of the software keyboard transparent. . When the content A and the content B are different at the part of the key of interest that has been tapped, an effect in which the background changes according to the tap input is performed.

次に、文字入力用プログラム200は、OS100に、注目キーに対して候補文字があるか否か判定させる(S107)。S107がNoであったならば、後述のS113に進む。   Next, the character input program 200 causes the OS 100 to determine whether there is a candidate character for the key of interest (S107). If S107 is No, the process proceeds to S113 described below.

S107がYesであったならば、文字入力用プログラム200は、OS100に、候補文字のためのキー(以下、候補キーという)を、例えば、注目キーに隣接するように表示させる(S108)。   If S107 is Yes, the character input program 200 causes the OS 100 to display a key for a candidate character (hereinafter referred to as a candidate key), for example, adjacent to the key of interest (S108).

次に、文字入力用プログラム200は、入力検出部17がフリック入力を検出したかどうか判定する(S109)。フリック入力とは、任意のキーに対応付けられた選択領域上でタップ入力した状態からその状態を維持したまま、指示体を他のキーに対応付けられた選択領域上まで移動させ、当該他のキーを選択状態にすることをいう。S109でNoであるならば、S113に進む。   Next, the character input program 200 determines whether or not the input detection unit 17 has detected a flick input (S109). Flick input refers to moving the indicator to a selection area associated with another key while maintaining the state from the state of tapping on the selection area associated with an arbitrary key. This means that the key is selected. If No in S109, the process proceeds to S113.

S109でYesであったならば、文字入力用プログラム200は、フリック入力が行われ、指示体が移動した先の候補キーを判定する(S110)。   If Yes in S109, the character input program 200 determines the candidate key to which the pointer has been moved after the flick input has been performed (S110).

次に、文字入力用プログラム200は、S104で取得したリアクション定義に基づいて、候補キーについてフリック入力に対応するリアクションがあるか否か判定する(S111)。S111でNoであったならば、S113に進む。   Next, the character input program 200 determines whether there is a reaction corresponding to the flick input for the candidate key based on the reaction definition acquired in S104 (S111). If No in S111, the process proceeds to S113.

S111でYesであったならば、文字入力用プログラム200は、リアクション定義で候補キーに対応付けられたリアクションを実行し、表示制御部15に、第2コンテンツと少なくとも一部が異なるコンテンツCに変更して、ディスプレイ16aに表示させる(S112)。これにより、ソフトウエアキーボードとコンテンツCとを重ね合わせた画面が表示される。このとき、表示制御部15は、コンテンツCよりも上のレイヤーにソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることにより、ソフトウエアキーボードの背景に、コンテンツCを表示できる。コンテンツCとコンテンツA若しくはBとが、フリック入力で指示体が移動する元のキー、移動した先の候補キー、若しくは、その両方の部分で異なると、フリック入力に応じて背景が変化する演出が行われる。   If Yes in S111, the character input program 200 executes the reaction associated with the candidate key in the reaction definition and changes the display control unit 15 to the content C that is at least partially different from the second content. Then, it is displayed on the display 16a (S112). As a result, a screen in which the software keyboard and the content C are superimposed is displayed. At this time, the display control unit 15 can display the content C on the background of the software keyboard by displaying the software keyboard in a layer above the content C and making the background of the software keyboard transparent. . If the content C and the content A or B are different in the original key to which the indicator is moved by flick input, the candidate key to which the indicator is moved, or both of them, the effect that the background changes according to the flick input is produced. Done.

次に、文字入力用プログラム200は、入力検出部17がリリース入力を検出したかどうか判定する(S113)。リリース入力とは、タップ入力又はフリック入力の状態から指をキーから離して、キーの選択状態を解除することをいう。S113でNoであったならば、リリース入力が検出されるまでS113を繰り返す。   Next, the character input program 200 determines whether or not the input detection unit 17 has detected a release input (S113). Release input refers to releasing a selected state of a key by releasing a finger from the key in a tap input or flick input state. If No in S113, S113 is repeated until a release input is detected.

S113でYesであったならば、S104で取得したリアクション定義に基づいてリリース入力に対応するリアクションがあるか否か判定する(S114)。S114でNoであったならば、S116に進む。   If Yes in S113, it is determined whether there is a reaction corresponding to the release input based on the reaction definition acquired in S104 (S114). If No in S114, the process proceeds to S116.

S114でYesであったならば、文字入力用プログラム200は、リアクション定義で注目キー又は候補キーに対応付けられたリアクションを実行し、表示制御部15に、コンテンツCと少なくとも一部が異なるコンテンツDに変更して、ディスプレイ16aに表示させる(S115)。これにより、ソフトウエアキーボードとコンテンツDとを重ね合わせた画面が表示される。このとき、表示制御部15は、コンテンツDよりも上のレイヤーにソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることにより、ソフトウエアキーボードの背景に、コンテンツDを表示できる。コンテンツDとコンテンツA、B若しくはCとが、リリース入力に対応するキーの部分で異なると、リリース入力に応じて背景が変化する演出が行われる。   If Yes in S114, the character input program 200 executes the reaction associated with the attention key or candidate key in the reaction definition, and the display controller 15 causes the content D to be at least partially different from the content C. To display on the display 16a (S115). As a result, a screen in which the software keyboard and the content D are superimposed is displayed. At this time, the display control unit 15 can display the content D on the background of the software keyboard by displaying the software keyboard in a layer above the content D and making the background of the software keyboard transparent. . When the content D and the content A, B, or C are different in the key portion corresponding to the release input, an effect that the background changes in accordance with the release input is performed.

S116において、文字入力用プログラム200は、OS100に、注目キー又は候補キーに対応する文字を、アプリ300に出力させる。   In S <b> 116, the character input program 200 causes the OS 100 to output a character corresponding to the attention key or the candidate key to the application 300.

その後、文字入力用プログラム200は、S101に戻って、表示制御部15に初期画面であるコンテンツAをディスプレイ16aに表示させる。このとき、文字入力用プログラム200は、所定の時間が経過してから、表示制御部15により、コンテンツAをディスプレイ16aに表示させてもよい。このとき、初期画面と同様に、表示制御部15はディスプレイ16aに、ソフトウエアキーボードとコンテンツAとを重ね合わせた画面を表示できる。表示制御部15は、コンテンツAよりも上のレイヤーにソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることで、ソフトウエアキーボードの背景に、コンテンツAを表示できる。   Thereafter, the character input program 200 returns to S101 and causes the display control unit 15 to display the content A, which is the initial screen, on the display 16a. At this time, the character input program 200 may cause the display controller 15 to display the content A on the display 16a after a predetermined time has elapsed. At this time, like the initial screen, the display control unit 15 can display a screen in which the software keyboard and the content A are superimposed on the display 16a. The display control unit 15 can display the content A on the background of the software keyboard by displaying the software keyboard in a layer above the content A and making the background of the software keyboard transparent.

次に、フリック入力を用いた文字入力について、図7を参照して説明する。図7は、本実施の形態に係る文字入力用プログラムを用いたフリック入力を用いた文字入力処理を説明するための模式図である。図7に示すように、フリック入力のためのソフトウエアキーボードが表示されたキーボード表示エリア502において、かなキー701を指702でタップする。すると、かなキー701キーの四方にな行を構成する文字である「に」、「ぬ」、「ね」、「の」の候補文字に対応する候補キー703、704、705、706が表示される。このとき、候補キー703、704、705、706は、文字と、コンテンツに対応する動画、静止画、又はその他の画像とが重ねて表示されてもよい。   Next, character input using flick input will be described with reference to FIG. FIG. 7 is a schematic diagram for explaining a character input process using flick input using the character input program according to the present embodiment. As shown in FIG. 7, a kana key 701 is tapped with a finger 702 in a keyboard display area 502 in which a software keyboard for flick input is displayed. Then, candidate keys 703, 704, 705, and 706 corresponding to the candidate characters “NI”, “NU”, “NE”, and “NO”, which are characters constituting the four lines of the KANA key 701 key, are displayed. The At this time, the candidate keys 703, 704, 705, and 706 may be displayed by superimposing characters and moving images, still images, or other images corresponding to the contents.

タップした指702をタッチパネルディスプレイ16(図1参照)から離さずに、「ね」のための候補キー705が配置されている右方向に移動させる。候補キー704の位置で指702をタッチパネルディスプレイ16から離すと、「ね」の文字が入力され、アプリ表示エリア503に「ね」の文字が表示される。   The tapped finger 702 is moved in the right direction where the candidate key 705 for “Ne” is arranged without releasing the touched finger 702 from the touch panel display 16 (see FIG. 1). When the finger 702 is released from the touch panel display 16 at the position of the candidate key 704, the character “Ne” is input and the character “Ne” is displayed in the application display area 503.

候補キー703、704、705、706の検出領域について、図8を参照しながら説明する。図8は、本実施の形態に係る文字入力用プログラムを用いたフリック入力を用いた文字入力処理を説明するための模式図である。図8に示すように、かなキー701がタップされると、OS100によって、「な」が表示された領域と重複する領域に注目キー「な」のタップ検出領域801が設定される。また、タップ検出領域801の左側に、候補キー「に」のフリック検出領域802が、上側に、候補キー「ぬ」のフリック検出領域803が、右側に、候補キー「ね」のフリック検出領域804が、下側に、候補キー「の」のフリック検出領域805が、それぞれ設定される。このように、各フリック検出領域802〜805は、タップ検出領域801の四方に、放射状に配置されている。   The detection areas of the candidate keys 703, 704, 705, and 706 will be described with reference to FIG. FIG. 8 is a schematic diagram for explaining a character input process using flick input using the character input program according to the present embodiment. As illustrated in FIG. 8, when the kana key 701 is tapped, the OS 100 sets the tap detection area 801 of the attention key “NA” in an area overlapping with the area where “NA” is displayed. Further, a flick detection area 802 for the candidate key “ni” is on the left side of the tap detection area 801, a flick detection area 803 for the candidate key “nu” is on the upper side, and a flick detection area 804 for the candidate key “ne” is on the right side. However, the flick detection area 805 of the candidate key “NO” is set on the lower side. As described above, the flick detection areas 802 to 805 are arranged radially on the four sides of the tap detection area 801.

このようにフリック検出領域802〜805が設けられているので、例えば、タップした指702をタッチパネルディスプレイ16から離さずに、注目キー「ね」のタップ検出領域801から、「の」のためのフリック検出領域805が配置されている下方向に移動させ、指702をタッチパネルディスプレイ16から離すと、「の」の文字が入力され、アプリ表示エリア503に「の」の文字が表示される。このとき、フリック検出領域805は下方向に放射状に配置されているので、指702が右斜め下に移動しても「の」の文字が入力される。   Since the flick detection areas 802 to 805 are provided in this way, for example, without removing the tapped finger 702 from the touch panel display 16, a flick for “no” is performed from the tap detection area 801 of the attention key “Ne”. When the detection area 805 is moved downward and the finger 702 is released from the touch panel display 16, the character “NO” is input, and the character “NO” is displayed in the application display area 503. At this time, since the flick detection area 805 is arranged radially downward, even if the finger 702 moves diagonally downward to the right, the character “NO” is input.

<適用例>
以下、上記説明した文字入力プログラムを用いた文字入力方法を適用した適用例について、図9〜図15を参照して説明する。図9〜図15は、本実施の形態に係る文字入力用プログラムを用いた文字入力方法を適用した画面例を示す模式図である。
<Application example>
Hereinafter, application examples to which the character input method using the character input program described above is applied will be described with reference to FIGS. 9 to 15 are schematic diagrams showing screen examples to which the character input method using the character input program according to the present embodiment is applied.

図9〜図11は、本実施の形態に係る文字入力方法を、キャッチャー901がボールを捕球する画像に適用した例を示している。まず、図9は、キーボード表示エリア502に初期画面が表示された状態を示している。この状態は、文字入力用プログラム200が、図5中のS101において、初期画面であるコンテンツA及びソフトウエアキーボードを表示させた処理に対応している。コンテンツAは、キャッチャー901が座って投球を待っている状態を示している。このとき、表示制御部15は、コンテンツAよりも上のレイヤーにソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることで、ソフトウエアキーボードの背景に、コンテンツAを表示している。   9 to 11 show an example in which the character input method according to the present embodiment is applied to an image in which the catcher 901 catches a ball. First, FIG. 9 shows a state where an initial screen is displayed in the keyboard display area 502. This state corresponds to the process in which the character input program 200 displays the content A and the software keyboard, which are the initial screens, in S101 in FIG. Content A shows a state where the catcher 901 is sitting and waiting for a pitch. At this time, the display control unit 15 displays the content A on the background of the software keyboard by displaying the software keyboard in a layer above the content A and making the background of the software keyboard transparent. ing.

図10は、「た」のキー902をタップした状態を示している。この状態は、文字入力用プログラム200により、次のような処理が行われたことに対応している。まず、図5中のS102でタップ入力を検出し、次いで、S105において、タップ入力に対応するリアクションがある(Yes)と判定し、S106において、コンテンツAをコンテンツBに変更して表示させる。その後、S107において、候補文字がある(Yes)と判定して、S108において、候補文字「ち」、「つ」、「て」、「と」のための候補キー904、905、906、907を、「た」のキー902の四方に表示させている。ここで、コンテンツBは、タップ入力に対応して、キャッチャー901がグローブ903を「た」のキー902の位置に構えた状態を示している。このとき、表示制御部15は、コンテンツBよりも上のレイヤーにソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることにより、ソフトウエアキーボードの背景に、コンテンツBを表示する。コンテンツAとコンテンツBとはタップ入力された注目キーである「た」のキー902の部分、及び、その周辺の部分で異なり、タップ入力に応じて背景が変化する演出が行われる。   FIG. 10 shows a state where the “ta” key 902 is tapped. This state corresponds to the following processing performed by the character input program 200. First, a tap input is detected in S102 in FIG. 5, and then in S105, it is determined that there is a reaction corresponding to the tap input (Yes), and in S106, content A is changed to content B and displayed. Thereafter, in S107, it is determined that there is a candidate character (Yes). In S108, candidate keys 904, 905, 906, and 907 for the candidate characters “CHI”, “TSU”, “TE”, “TO” are set. , “TA” keys 902 are displayed in all directions. Here, the content B shows a state where the catcher 901 holds the globe 903 at the position of the “ta” key 902 corresponding to the tap input. At this time, the display control unit 15 displays the content B on the background of the software keyboard by displaying the software keyboard in a layer above the content B and making the background of the software keyboard transparent. . The content A and the content B are different in the portion of the “ta” key 902 that is the key of interest that has been tapped and in the vicinity thereof, and an effect that the background changes in response to the tap input is performed.

図11は、「た」のキー902から「ち」の候補キー904に向かってフリック入力が行われ、その後リリース入力が行われた状態を示している。この状態は、文字入力用プログラム200により、次のような処理が行われたことに対応している。まず、図5中のS109でフリック入力を検出したが、S111でフリック入力に対応するリアクションがない(No)と判定し、S113に進む。S113でリリース入力を検出し(Yes)、S114でリリース入力に対応するリアクションがある(Yes)と判定する。その後、S115において、リリース入力に対応するリアクションとして、コンテンツBをコンテンツDに変更している。コンテンツDは、キャッチャー901がグローブ903を候補キー904の位置に移動させ、ボール908を捕球した状態を示している。表示制御部15はコンテンツDよりも上のレイヤーにソフトウエアキーボードを重ねて表示し、ソフトウエアキーボードの背景を透明にすることにより、ソフトウエアキーボードの背景に、コンテンツDを表示する。コンテンツAとコンテンツDとはリリース入力された「ち」の候補キー904の部分、及び、その周辺の部分で異なり、リリース入力に応じて背景が変化する演出が行われる。このとき、文字入力用プログラム200は、コンテンツDの表示と共に、ボールを捕球したときの効果音やアンパイヤの判定の音声を、音生成部18に生成させ、スピーカ19から再生させることもできる。   FIG. 11 shows a state in which flick input is performed from the “ta” key 902 toward the “chi” candidate key 904, and then release input is performed. This state corresponds to the following processing performed by the character input program 200. First, although a flick input is detected in S109 in FIG. 5, it is determined in S111 that there is no reaction corresponding to the flick input (No), and the process proceeds to S113. A release input is detected in S113 (Yes), and it is determined in S114 that there is a reaction corresponding to the release input (Yes). Thereafter, in S115, the content B is changed to the content D as a reaction corresponding to the release input. Content D shows a state where the catcher 901 moves the globe 903 to the position of the candidate key 904 and catches the ball 908. The display control unit 15 displays the content D on the background of the software keyboard by displaying the software keyboard in a layer above the content D and making the background of the software keyboard transparent. The content A and the content D are different in the portion of the candidate key 904 of “CHI” that has been release-released and in the vicinity thereof, and an effect that the background changes in accordance with the release input is performed. At this time, the character input program 200 can cause the sound generator 18 to generate a sound effect when the ball is caught and an umpire determination sound together with the display of the content D and reproduce the sound from the speaker 19.

この後、図5中のS101に戻り、図9に示す初期画面の表示に戻る。つまり、文字入力用プログラム200は、表示制御部15に、コンテンツDの表示の後に、ソフトウエアキーボード及びコンテンツAを、ディスプレイ16aに重ねて表示させている。   Thereafter, the process returns to S101 in FIG. 5 and returns to the display of the initial screen shown in FIG. That is, the character input program 200 causes the display control unit 15 to display the software keyboard and the content A on the display 16a after the content D is displayed.

図12は、本実施の形態に係る文字入力方法を、キャッチャーがボールを捕球する画像に適用した他の例を示している。図12は、「改行」キー910がタップされ、その後、リリースされた状態を示している。この状態は、文字入力用プログラム200により、次のような処理が行われたことに対応している。まず、図5中のS102でタップ入力を検出し、次いで、S105において、タップ入力に対応するリアクションがある(Yes)と判定する。次に、S106において、コンテンツAをコンテンツBに変更して表示させる。コンテンツBは、キャッチャー901がグローブ903を「改行」キー910の位置に移動させ、ボール908を捕球した状態を示している。S107に進み、候補文字がない(No)と判定して、S113に進む。S113でリリース入力を検出し(Yes)、S114でリリース入力に対応するリアクションがある(Yes)と判定する。ここでのリアクションは、S115のコンテンツの変更に代えて、文字入力用プログラム200が、ボールを捕球したときの効果音やアンパイヤの判定の音声を、音生成部18に生成させ、スピーカ19から再生させている。ここで、「改行」キー910は、フリック入力に対応していない。すなわち、フリック入力に対応していない「改行」キー910がタップされて、当該キーに対するタップ入力が検出されたときに、表示制御部15は当該キーに対応する入力文字の候補キーの表示を行わない。この場合、上記の処理に代えて、図5のS102で入力検出部17がタップ入力を検出し、S105において中央制御部11がタップ入力に対応するリアクションがある(Yes)と判定し、S106において表示制御部15がコンテンツBを表示したときに、中央制御部11はリリース入力を待つことなく、音生成部18はスピーカ19により、ボールを捕球したときの効果音及びアンパイヤの判定の音声を再生させてもよい。上記のようにフリック入力に対応しないキーと、フリック入力に対応して、キーに対するタップ入力が検出されたときに当該キーに対応する入力文字の候補キーが表示されるキーとで、タップ入力、フリック入力若しくはリリース入力が検出された場合のいずれか、又は、これらすべての場合の処理を変更してもよい。これにより、文字入力に対応する自然な演出を行うことができる。   FIG. 12 shows another example in which the character input method according to the present embodiment is applied to an image in which a catcher catches a ball. FIG. 12 shows a state in which the “carriage return” key 910 has been tapped and then released. This state corresponds to the following processing performed by the character input program 200. First, a tap input is detected in S102 in FIG. 5, and then in S105, it is determined that there is a reaction corresponding to the tap input (Yes). Next, in S106, the content A is changed to the content B and displayed. Content B shows a state where the catcher 901 moves the globe 903 to the position of the “carriage return” key 910 and catches the ball 908. The process proceeds to S107, it is determined that there is no candidate character (No), and the process proceeds to S113. A release input is detected in S113 (Yes), and it is determined in S114 that there is a reaction corresponding to the release input (Yes). In this reaction, instead of changing the content in S115, the character input program 200 causes the sound generator 18 to generate a sound effect when the ball is caught and an umpire determination sound. You are playing. Here, the “line feed” key 910 does not support flick input. That is, when a “line feed” key 910 that does not support flick input is tapped and a tap input for the key is detected, the display control unit 15 displays candidate keys for input characters corresponding to the key. Absent. In this case, instead of the above processing, the input detection unit 17 detects the tap input in S102 of FIG. 5, and the central control unit 11 determines that there is a reaction corresponding to the tap input (Yes) in S105, and in S106 When the display control unit 15 displays the content B, the central control unit 11 does not wait for the release input, and the sound generation unit 18 uses the speaker 19 to output the sound effect and umpire determination sound when the ball is caught. It may be regenerated. As described above, a key that does not correspond to a flick input and a key that displays a candidate key of an input character corresponding to the key when a tap input corresponding to the key is detected. Processing when either flick input or release input is detected or in all cases may be changed. Thereby, a natural effect corresponding to character input can be performed.

図13〜図15は、本実施の形態に係る文字入力方法を、浜辺でテニスしている画像に適用した例を示している。まず、図13は、キーボード表示エリア502に初期画面が表示された状態を示している。この状態は、文字入力用プログラム200が、図5中のS101において、初期画面であるコンテンツA及びソフトウエアキーボードを表示させた処理に対応している。コンテンツAは、人物1001がラケット1002を手に持って構えている状態を示している。   13 to 15 show an example in which the character input method according to the present embodiment is applied to an image playing tennis on the beach. First, FIG. 13 shows a state where an initial screen is displayed in the keyboard display area 502. This state corresponds to the process in which the character input program 200 displays the content A and the software keyboard, which are the initial screens, in S101 in FIG. Content A shows a state where the person 1001 holds the racket 1002 in his / her hand.

図14は、「た」のキー902をタップした状態を示している。この状態は、文字入力用プログラム200により、次のような処理が行われたことに対応している。まず、図5中のS102でタップ入力を検出し、次いで、S105において、タップ入力に対応するリアクションがある(Yes)と判定し、S106において、コンテンツAをコンテンツBに変更して表示させる。その後、S107において、候補文字がある(Yes)と判定して、S108において、候補文字「ち」、「つ」、「て」、「と」のための候補キー904、905、906、907を、「た」のキー902の四方に表示させている。ここで、コンテンツBは、タップ入力に対応して、人物1001がラケット1002を「た」のキー902の位置に構えた状態を示している。   FIG. 14 shows a state where the “ta” key 902 is tapped. This state corresponds to the following processing performed by the character input program 200. First, a tap input is detected in S102 in FIG. 5, and then in S105, it is determined that there is a reaction corresponding to the tap input (Yes), and in S106, content A is changed to content B and displayed. Thereafter, in S107, it is determined that there is a candidate character (Yes). In S108, candidate keys 904, 905, 906, and 907 for the candidate characters “CHI”, “TSU”, “TE”, “TO” are set. , “TA” keys 902 are displayed in all directions. Here, the content B shows a state where the person 1001 holds the racket 1002 at the position of the “ta” key 902 corresponding to the tap input.

図15は、「た」のキー902から「ち」の候補キー904に向かってフリック入力が行われ、その後リリース入力が行われた状態を示している。この状態は、文字入力用プログラム200により、次のような処理が行われたことに対応している。まず、図5中のS109でフリック入力を検出し、S111でフリック入力に対応するリアクションがある(Yes)と判定し、S112において、フリック入力に対応するリアクションとして、コンテンツBをコンテンツCに変更している。コンテンツCは、人物1001が候補キー904の位置でラケット1002を振った状態を示している。このとき、文字入力用プログラム200は、コンテンツDの表示と共に、ボールをラケットで打ったときの効果音を、音生成部18に生成させ、スピーカ19から再生させることもできる。   FIG. 15 shows a state in which a flick input is performed from a “ta” key 902 toward a “chi” candidate key 904 and then a release input is performed. This state corresponds to the following processing performed by the character input program 200. First, a flick input is detected in S109 in FIG. 5, and it is determined in S111 that there is a reaction corresponding to the flick input (Yes). In S112, content B is changed to content C as a reaction corresponding to the flick input. ing. Content C shows a state in which the person 1001 swings the racket 1002 at the position of the candidate key 904. At this time, the character input program 200 can cause the sound generator 18 to generate a sound effect when the ball is hit with a racket and reproduce it from the speaker 19 together with the display of the content D.

この後、図5中のS101に戻り、図13に示す初期画面の表示に戻る。つまり、文字入力用プログラム200は、表示制御部15に、コンテンツDの表示の後に、ソフトウエアキーボード及びコンテンツAを、ディスプレイ16aに重ねて表示させている。   Thereafter, the process returns to S101 in FIG. 5 and returns to the display of the initial screen shown in FIG. That is, the character input program 200 causes the display control unit 15 to display the software keyboard and the content A on the display 16a after the content D is displayed.

以上、図9〜図15を参照して、タップ入力、フリック入力又はリリース入力に合わせて、コンテンツの変更を行うことで、ソフトウエアキーボードの背景のコンテンツに変化を与えた適用例について説明した。しかし、本発明は、これらの適用例に限定されるものではなく、設定情報401(図4参照)に含まれるリアクション定義により、どのキーに対して、どのようなタイミング(タップ入力時、フリック入力時、又は、リリース入力時)で、リアクション(コンテンツの変更や音の再生など)を行わせるか設定しておくことで、ソフトウエアキーボードの背景を多彩に変化させたり、音を付加して表現を豊かにしたり、することができる。   As described above, with reference to FIGS. 9 to 15, the application example in which the content on the background of the software keyboard is changed by changing the content in accordance with the tap input, the flick input, or the release input has been described. However, the present invention is not limited to these application examples. According to the reaction definition included in the setting information 401 (see FIG. 4), for any key, at what timing (when tapping, flick input) By setting whether to perform a reaction (content change, sound playback, etc.) at the time of release or release input), the background of the software keyboard can be changed in various ways, and sounds can be added. Can be enriched.

例えば、タップ入力時、フリック入力時及びリリース入力時の全てにおいて、コンテンツの変更及び音の再生が行われるようにリアクション定義を設定してもよい。   For example, the reaction definition may be set so that the content is changed and the sound is reproduced at all times of tap input, flick input, and release input.

また、図9〜図12を用いて説明したキャッチャーが捕球する例では、ボールの捕球は、文字入力が終わった時に行われるように、リリース入力時に対して、リアクション定義でコンテンツの変更及び音の再生を設定してもよい。例えば、入力検出部17が「た」キー902へのタップであるタップ入力を検出(S102)したときに、中央制御部11が対応するリアクションはない(No)と判断し、コンテンツの変更を行わずに、表示制御部15がディスプレイ16aにコンテンツAとソフトウエアキーボードとを重ねて表示しつづけてもよい。このとき、中央制御部11が入力する文字の候補である候補文字があると判断(S107)して、表示制御部15がディスプレイ16aに候補キーを含むソフトウエアキーボードとコンテンツAとを重ねて表示してよい。その後、入力検出部17が「た」キー902のリリースであるリリース入力を検出(S113)したときに、中央制御部11が対応するアクションがある(Yes)と判断して、表示制御部15がディスプレイ16aに、コンテンツAに代えて、コンテンツBとソフトウエアキーボードとを重ねて表示してもよい。これにより、「た」キー902がリリースされて「た」が入力されたときに演出が行われる。   Further, in the example where the catcher described with reference to FIGS. 9 to 12 catches the ball, the catch of the ball is performed when the character input is completed. Sound playback may be set. For example, when the input detection unit 17 detects a tap input that is a tap to the “ta” key 902 (S102), the central control unit 11 determines that there is no corresponding reaction (No), and changes the content. Instead, the display control unit 15 may continuously display the content A and the software keyboard on the display 16a. At this time, it is determined that there is a candidate character that is a candidate for the character input by the central control unit 11 (S107), and the display control unit 15 displays the software keyboard including the candidate key and the content A on the display 16a. You can do it. Thereafter, when the input detection unit 17 detects a release input that is the release of the “ta” key 902 (S113), the central control unit 11 determines that there is a corresponding action (Yes), and the display control unit 15 Instead of the content A, the content B and the software keyboard may be displayed in an overlapping manner on the display 16a. As a result, when the “ta” key 902 is released and “ta” is input, an effect is performed.

また、入力検出部17が「た」キー902へのタップ入力を検出した後に「ち」の候補キー904に向かうフリック入力を検出したときに、上記と同様に、中央制御部11は「た」キー902へのタップ入力に対応するリアクションはない(No)と判断(S105)してもよい。この場合に、中央制御部11は、「ち」キーの方向へのフリックであるフリック入力を検出(S109)したとき、若しくは、「ち」キー方向からのリリースであるリリース入力を検出(S113)したときのいずれか、又は、その両方のときに対応するリアクションがある(Yes)と判断してもよい。これにより、フリックしたとき、若しくは、リリースしたとき、又は、その双方のときに、表示制御部15がディスプレイ16aに、変更されたコンテンツとソフトウエアキーボードが重ねて表示される。また、これらのいずれか若しくはすべてのときに、音生成部18がスピーカ19により、音声を再生させてもよい。これにより、例えば、「た」キー902をタッチしたときには演出が行われず、「ち」にフリックしたときに「ち」の位置で捕球するコンテンツが表示されるとともに捕球音が再生され、リリースしたときに審判の「ボール」という音声を再生するなどの演出を行うことができる。   When the input detection unit 17 detects a flick input toward the “chi” candidate key 904 after detecting a tap input to the “ta” key 902, the central control unit 11 performs “ta” in the same manner as described above. It may be determined that there is no reaction corresponding to a tap input to the key 902 (No) (S105). In this case, the central control unit 11 detects a flick input that is a flick in the direction of the “Chi” key (S109) or detects a release input that is a release from the “Chi” key direction (S113). It may be determined that there is a reaction (Yes) corresponding to either or both of them. As a result, when flicking, releasing, or both, the display control unit 15 displays the changed content and the software keyboard on the display 16a. Further, at any or all of these times, the sound generation unit 18 may cause the speaker 19 to reproduce the sound. Thus, for example, when the “ta” key 902 is touched, the production is not performed, and when flicking to “Chi”, the content captured at the “Chi” position is displayed and the catching sound is played back and released. When this happens, it is possible to produce an effect such as playing the referee's “ball” sound.

(コンテンツの表現方法)
上述の図9〜図15を用いて説明した適用例では、コンテンツとして画像を用いた場合について説明したが、コンテンツの表現方法はそれに限定されず、他のコンテンツを用いることもできる。
(How to express content)
In the application examples described with reference to FIGS. 9 to 15 described above, the case where an image is used as the content has been described. However, the content expression method is not limited thereto, and other content can also be used.

ソフトウエアキーボードの背景に表示されるコンテンツは、入力に応じて演算されるアニメーションであってもよい。このとき、入力検出部17が指若しくはタッチペンその他の支持体による入力の位置を検出し、ディスプレイ16aにおいて支持体の入力の位置に対応する部分及びその周囲に表示されるコンテンツの画像に中央制御部11がアニメーション処理を施して、表示制御部15がディスプレイ16aに表示してもよい。当該アニメーション処理は、入力の検出に応じて、リアルタイムで演算処理されてもよい。一例として、中央制御部11が支持体の入力の位置に対応する部分及びその周囲部分のコンテンツの画像に対して、拡大及び縮小、又は、変形及び修復を繰り返すような演出を行うことができる。この例によって、コンテンツの画像の中で、指がタッチパネルディスプレイ16に触れた部分が、左右に揺れるアニメーションを表示してもよい。中央制御部11は、当該アニメーションを、入力を検出してから所定の時間にわたって継続した後に終了して、当該アニメーション処理が行われる前のコンテンツを表示制御部15がディスプレイ16aに表示してもよい。   The content displayed on the background of the software keyboard may be an animation calculated in response to an input. At this time, the input detection unit 17 detects the position of the input by the finger, the touch pen, or other support, and the central control unit displays the portion corresponding to the input position of the support on the display 16a and the image of the content displayed therearound. 11 may perform animation processing, and the display control unit 15 may display on the display 16a. The animation processing may be performed in real time in response to detection of input. As an example, the central control unit 11 can perform an effect of repeatedly enlarging and reducing, or deforming and repairing the content image of the portion corresponding to the input position of the support and the surrounding portion. According to this example, an animation may be displayed in which the part of the content image where the finger touches the touch panel display 16 shakes to the left or right. The central control unit 11 may end the animation after continuing for a predetermined time after detecting the input, and the display control unit 15 may display the content before the animation processing is performed on the display 16a. .

ソフトウエアキーボードの背景に表示されるコンテンツについて、図5及び図6を用いて、文字の入力が行われる毎に、入力に対応するコンテンツが表示された後に、元のコンテンツが再び表示される例を説明したが、これに限られない。すなわち、入力検出部17がタッチ入力、フリック入力又はリリース入力のいずれか一つ又は複数を検出(S102、S109、S113)して、表示制御部15がディスプレイ16aに変更したコンテンツを表示(S106、S112、S115)し、文字入力用プログラム200が中央制御部11に入力されたキーに対応する文字を出力(S116)させた後に、初期画面表示のコンテンツAにコンテンツを変更せずに、次の入力を受け付けてもよい。   An example in which the content displayed on the background of the software keyboard is displayed again after the content corresponding to the input is displayed each time a character is input using FIG. 5 and FIG. However, the present invention is not limited to this. That is, the input detection unit 17 detects one or more of touch input, flick input, or release input (S102, S109, S113), and the display control unit 15 displays the changed content on the display 16a (S106, S112, S115), and after the character input program 200 outputs the character corresponding to the key input to the central control unit 11 (S116), the content is not changed to the initial screen display content A, and the next Input may be accepted.

これにより例えば、オセロ、三目並べ、○×ゲームのようなボードゲームその他のゲームのコンテンツを、入力に応じてゲーム進行させてもよい。また、入力によってスクラッチくじのコンテンツがスクラッチされて、くじの結果が見えるように表示してもよい。このとき、入力に対応するリアクションがあるかどうかを判定(S105、S111、S114)する条件が、コンテンツを変更(S106、S112、S115)するときに変更されてもよい。一例として、オセロゲームのコンテンツの場合に、「た」キー902がタップされて「た」が入力されると、「た」キー902に対するタップ入力及びリリース入力が検出され、リリース入力に対応するリアクションとして「た」キー902に対応する位置にオセロの石が配置された画像のコンテンツを中央制御部11が生成して表示制御部15がディスプレイ16aに表示する。そして、「た」キー902に対するタップ入力又はリリース入力を検出したときのリアクションはないように、中央制御部11がリアクション定義を変更してよい。このとき、「あ」キーをタップしてから「た」キー方向にフリックしたときも、リアクションがないように、リアクション定義を変更してもよい。ゲームなどコンテンツのときに、ゲーム進行に用いられるデータ処理は、中央制御部11、メモリ12などを用いて行うことができる。例えば、オセロゲームのコンテンツの場合に、入力を受け付けて置かれた石と、同色の他の石によって挟まれた異なる色の石を反転して置かれた石と同じ色にする処理を、中央制御部11、メモリ12などを用いて行うことができる。   Thereby, for example, a game of board game or other game content such as Othello, Tic-Tac-Toe, and XX game may be advanced according to the input. Further, the content of the scratch lot may be scratched by the input, and the lottery result may be displayed. At this time, the condition for determining whether there is a reaction corresponding to the input (S105, S111, S114) may be changed when the content is changed (S106, S112, S115). As an example, in the case of an Othello game content, when the “ta” key 902 is tapped and “ta” is input, the tap input and release input for the “ta” key 902 are detected, and the reaction corresponding to the release input The central control unit 11 generates the content of the image in which the Othello stone is arranged at the position corresponding to the “ta” key 902, and the display control unit 15 displays the content on the display 16a. Then, the central control unit 11 may change the reaction definition so that there is no reaction when a tap input or a release input for the “ta” key 902 is detected. At this time, the reaction definition may be changed so that there is no reaction when the “a” key is tapped and then flicked in the “ta” key direction. Data processing used for game progress in the case of content such as a game can be performed using the central control unit 11, the memory 12, and the like. For example, in the case of Othello game content, the processing to change the color of the stone placed by receiving input and the stone of a different color sandwiched between other stones of the same color to the same color as the stone placed in reverse This can be performed using the control unit 11, the memory 12, and the like.

ソフトウエアキーボードの背景に表示されるコンテンツとして、インターネット上のライブカメラの映像を用いることもできる。ライブカメラの映像には、例えば、Ustream(登録商標)、ニコニコ生放送(登録商標)などのようなライブストリーミングサイトの映像や、Skype(登録商標)、FaceTime(登録商標)などのようなビデオ通話サービスの映像が含まれる。   As content displayed on the background of the software keyboard, video from a live camera on the Internet can be used. Examples of live camera video include video from live streaming sites such as Ustream (registered trademark) and Nico Nico Live Broadcast (registered trademark), and video call services such as Skype (registered trademark) and FaceTime (registered trademark). Is included.

<応用例>
上記説明した本実施の形態に係る文字入力用プログラムを用いた文字入力方法について、さらに以下のような応用が考えられる。
<Application example>
The following applications can be considered for the character input method using the character input program according to the present embodiment described above.

(特別なリアクションの発生)
上述のような入力に応じたコンテンツの変更を伴うリアクションに加えて、中央制御部11は、所定の条件が満たされたと判断した場合に、特別なリアクションを発生させることができる。特別なリアクションは、例えば、表示制御部15がディスプレイ16aに表示するコンテンツを、条件に対応づけられた所定のコンテンツに変更すること、若しくは、音生成部18がスピーカ19から再生する音声を所定のコンテンツに変更すること、又は、その双方である。当該変更は、コンテンツパッケージ400を別のコンテンツパッケージ400に変更することで実現してもよいし、コンテンツパッケージ400に含まれる画像データ403、407、409、410及び音データ405の全部または一部を別の画像データ又は音データに入れ替えることで実現してもよい。これらの場合において、所定の時間が経過後又は所定の条件を満たしたときに、表示されるコンテンツを変更前のコンテンツに戻してもよい。
(Special reaction occurs)
In addition to the reaction accompanied by the content change according to the input as described above, the central control unit 11 can generate a special reaction when it is determined that a predetermined condition is satisfied. The special reaction is, for example, changing the content displayed on the display 16a by the display control unit 15 to a predetermined content associated with the condition, or the sound reproduced by the sound generation unit 18 from the speaker 19 with a predetermined content. Changing to content, or both. The change may be realized by changing the content package 400 to another content package 400, or all or part of the image data 403, 407, 409, 410 and the sound data 405 included in the content package 400. You may implement | achieve by replacing with another image data or sound data. In these cases, the content to be displayed may be returned to the content before the change after a predetermined time has elapsed or when a predetermined condition is satisfied.

例えば、文字入力用プログラム200は、タップ入力を受け付けた注目キーや、フリック入力を受け付けた候補キーをメモリ12に記憶しておき、タップ入力又はフリック入力を複数回受け付けたときに記憶されている複数の注目キー又は候補キーが所定の組み合わせである場合に、初期画面のためのコンテンツAと少なくとも一部が異なる、特別なリアクション用のコンテンツXに変更して、ディスプレイ16aに表示させてもよい。   For example, the character input program 200 stores a key of interest that has received tap input or a candidate key that has received flick input in the memory 12 and is stored when tap input or flick input is received a plurality of times. When a plurality of attention keys or candidate keys are in a predetermined combination, the content may be changed to a special reaction content X that is at least partially different from the content A for the initial screen, and may be displayed on the display 16a. .

例えば、図9〜図12に示したキャッチャー901がボール908を捕球する例において、ストライクゾーンに位置する注目キー又は候補キーに対するタップ入力又はフリック入力を3回受け付けたときに、審判がバッターアウトを宣言している画像コンテンツを表示する。ストライクゾーンに位置する注目キー及び候補キーとは、図10に示す例であれば、「た」のキー902、及び、候補文字「つ」、「て」、「と」のための候補キー905、906、907である。   For example, in the example in which the catcher 901 shown in FIGS. 9 to 12 catches the ball 908, when the tap input or flick input to the attention key or candidate key located in the strike zone is received three times, the referee batters out. Display image content that declares. In the example shown in FIG. 10, the attention key and the candidate key located in the strike zone are a key 902 for “ta” and candidate keys 905 for candidate characters “tsu”, “te”, “to”. , 906, 907.

また、所定のフリック入力の方向の組み合せが入力されたときに、所定のコンテンツを表示し、かつ、所定の音声を再生してもよい。例えば、右、左、上、及び、下方向の組み合わせのフリック入力が行われたときに、格闘ゲームのコマンド入力ように、必殺技などのコンテンツを表示制御部15がディスプレイ16aのキーボード表示エリアに表示し、対応する音声を音生成部18がスピーカ19から再生する。   Further, when a combination of predetermined flick input directions is input, predetermined content may be displayed and predetermined audio may be reproduced. For example, when a combination of right, left, top, and bottom is flicked, content such as a special move is displayed in the keyboard display area of the display 16a by the display control unit 15 so as to input a fighting game command. The sound generation unit 18 reproduces the corresponding sound from the speaker 19.

また、入力に応じてランダムに、または、所定の頻度で、特別なコンテンツを表示してもよい。例えば、拳法家がミット打ちを行うコンテンツで、フリック入力を行うと、所定の回数に一回、ミットを持ったコーチが倒れる映像をディスプレイ16aのキーボード表示エリアに表示してもよい。   Further, special content may be displayed at random or at a predetermined frequency according to the input. For example, when a fist is performed on a content to be hit by a martial artist, a video in which a coach with a mitt falls once in a predetermined number of times may be displayed in the keyboard display area of the display 16a.

また、文字入力用プログラム200は、入力の速度を測定し、速度に応じてコンテンツB〜Dを変更し、ディスプレイ16aに表示させてもよい。入力の速度は、所定の時間内に入力された文字の数であってもよいし、所定の時間内に検出した入力の数であってもよい。例えば、10秒の間に20文字を超えて文字入力されたならば、通常のコンテンツB〜Dを、例えば、ファイヤーモードと名付けられた特別のコンテンツB〜Dに変更してもよい。   The character input program 200 may measure the input speed, change the contents B to D according to the speed, and display the contents on the display 16a. The speed of input may be the number of characters input within a predetermined time or the number of inputs detected within a predetermined time. For example, if more than 20 characters are input in 10 seconds, the normal contents B to D may be changed to, for example, special contents B to D named fire mode.

また、文字入力用プログラム200は、入力が行われた回数を積算してメモリ12に記憶し、入力が行われた回数が所定の回数(1000文字、1万字など)を超えた場合に、コンテンツB〜Dを変更し、ディスプレイ16aに表示させてもよい。入力が行われた回数は、検出した入力の数であってもよいし、入力された文字の数であってもよい。例えば、1000文字を超えると、レベルが1つ上がり、通常のコンテンツB〜Dを、レベル2用のコンテンツB〜Dに変更して用いることができる。   Also, the character input program 200 accumulates the number of times of input and stores it in the memory 12, and if the number of times of input exceeds a predetermined number (1000 characters, 10,000 characters, etc.) BD may be changed and displayed on the display 16a. The number of times of input may be the number of detected inputs or the number of input characters. For example, when the number exceeds 1000 characters, the level is increased by one, and the normal contents B to D can be changed to the contents B to D for level 2 and used.

また、文字入力用プログラム200は、時計部26から入力が行われた時間情報(年、月、日、時、分、曜日など)を取得し、時間情報に応じて、通常のコンテンツB〜Dを、特別のコンテンツB〜Dに変更して用いることができる。   Further, the character input program 200 acquires time information (year, month, day, hour, minute, day of the week, etc.) input from the clock unit 26, and normal contents B to D according to the time information. Can be used by changing to special contents B to D.

例えば、特定の時間帯(朝、昼、夜)や時刻に文字入力があったならば、時間帯や時刻に対応した特別なコンテンツが表示される。また、誕生日、記念日、祝祭日などに文字入力があったならば、それらに対応した特別なコンテンツが表示されてもよい。この場合、時間帯、時刻、誕生日、記念日、祝祭日などの情報をストレージデバイス13に記憶しておいてもよい。   For example, if there is a character input in a specific time zone (morning, noon, night) or time, special content corresponding to the time zone or time is displayed. In addition, if there is a character input for a birthday, an anniversary, a holiday, or the like, special content corresponding to them may be displayed. In this case, information such as time zone, time, birthday, anniversary, and public holidays may be stored in the storage device 13.

また、文字入力用プログラム200は、コンピュータデバイス10が、カメラ22、マイク23、センサ24及びGPS受信部25が取得した検出結果を取得し、検出結果に応じてコンテンツB〜Dを変えることができる。コンピュータデバイス10がこれらの検出結果を取得するのは、入力検出部17によって入力が検出されたときでもよいし、所定の期間ごとであってもよい。   In addition, the character input program 200 allows the computer device 10 to acquire the detection results acquired by the camera 22, the microphone 23, the sensor 24, and the GPS receiver 25, and change the contents B to D according to the detection results. . The computer device 10 may acquire these detection results when an input is detected by the input detection unit 17 or at predetermined intervals.

例えば、文字入力用プログラム200は、GPS受信部25で受信した位置データに基づいて、コンテンツB〜Dを変更することができる。例えば、入力が行われた位置が、あるランドマークの周辺である場合、当該ランドマークの映像をコンテンツB〜Dに用いることができる。また、入力が行われた位置から現在いる場所の都道府県を判定し、都道府県に対応した映像をコンテンツB〜Dに用いることができる。また、位置情報から入力が行われたときの移動速度を判定し、自動車や電車で高速移動中に特別なコンテンツを用いることもできる。   For example, the character input program 200 can change the contents B to D based on the position data received by the GPS receiver 25. For example, when the input position is around a certain landmark, the image of the landmark can be used for the contents B to D. In addition, it is possible to determine the prefecture of the current location from the input position, and use the video corresponding to the prefecture for the contents B to D. It is also possible to determine the moving speed when input is made from position information, and to use special content during high-speed movement by car or train.

なお、ここではGPS受信部25から位置情報を取得する場合について説明したが、位置情報は、移動体通信制御部20を介して移動体通信網の基地局から取得したり、WiFi網を構成するホットスポットから取得したり、近距離通信制御部21を介して、位置情報を発信するビーコンから取得したり、いろいろな方法で取得することができる。   In addition, although the case where position information is acquired from the GPS receiving unit 25 has been described here, the position information is acquired from a base station of the mobile communication network via the mobile communication control unit 20 or configures a WiFi network. It can be acquired from a hot spot, can be acquired from a beacon that transmits position information via the short-range communication control unit 21, or can be acquired by various methods.

例えば、文字入力用プログラム200は、センサ24が検知した検知結果に基づいて、コンテンツB〜Dを変更することができる。   For example, the character input program 200 can change the contents B to D based on the detection result detected by the sensor 24.

例えば、センサ24として気温計を用い、入力が行われたときの気温(室温又は外気温)に応じてコンテンツを変更できる。例えば、気温が所定の温度を超えると、花が咲く映像を表示させることができる。   For example, a thermometer is used as the sensor 24, and the content can be changed according to the temperature (room temperature or outside temperature) when input is performed. For example, when the temperature exceeds a predetermined temperature, an image of blooming flowers can be displayed.

また、例えば、センサ24として高度計を用い、入力が行われたときの高度に応じてコンテンツを変更できる。例えば、高度が所定の高さを超えると、飛行機の上でだけの特別なコンテンツを表示させることができる。   Further, for example, an altimeter is used as the sensor 24, and the content can be changed according to the altitude when the input is performed. For example, when the altitude exceeds a predetermined height, special content can be displayed only on an airplane.

また、例えば、センサ24としてジャイロセンサを用い、入力が行われたときのコンピュータデバイス10の傾きに応じてコンテンツを変更できる。例えば、コンピュータデバイス10が傾いている方向にボールが転がる映像を表示させることができる。   Further, for example, a gyro sensor is used as the sensor 24, and the content can be changed according to the inclination of the computer device 10 when the input is performed. For example, an image of the ball rolling in the direction in which the computer device 10 is tilted can be displayed.

また、カメラ22でユーザの顔を撮影し、撮影した顔の表情を認識して、当該表情に応じてコンテンツを変更してもよい。あるいは、カメラ22で撮影した静止画若しくは動画などの画像を、コンテンツとして用いてもよい。   Alternatively, the user's face may be photographed by the camera 22, the facial expression of the photographed face may be recognized, and the content may be changed according to the facial expression. Alternatively, an image such as a still image or a moving image captured by the camera 22 may be used as the content.

また、マイク23に入力される音を解析してコンテンツを変更してもよい。例えば、マイク23に入力される周囲の音を中央制御部11が解析して、所定の音楽が流れていることを検出したときに、所定の音楽に関連するコンテンツに変更してもよい。   Further, the content may be changed by analyzing the sound input to the microphone 23. For example, when the central control unit 11 analyzes surrounding sounds input to the microphone 23 and detects that predetermined music is flowing, the content may be changed to content related to the predetermined music.

また、タッチパネルディスプレイ16の位置入力デバイス16bにより、入力時の指による押圧の強さを検知し、押圧の強さに応じてコンテンツを変更してもよい。マルチタッチ(複数点認識)に対応している位置入力デバイス16bにより、入力時の指の数に応じてコンテンツを変更してもよい。   Alternatively, the position input device 16b of the touch panel display 16 may detect the strength of pressing with a finger at the time of input, and change the content according to the strength of pressing. The content may be changed according to the number of fingers at the time of input by the position input device 16b corresponding to multi-touch (multi-point recognition).

コンピュータデバイス10が内蔵しているセンサの他に、近距離通信制御部21を介して連携する外部装置のセンサを用いることもできる。例えば、ユーザが生体センサを内蔵したリストバンド型端末を装着しており、入力時のユーザの脈拍、体温、血圧、呼吸、血糖値などをリストバンド型端末で検出し、その検出結果に応じてコンテンツを変更してもよい。   In addition to the sensor built in the computer device 10, a sensor of an external device that cooperates via the near field communication control unit 21 can also be used. For example, a user wears a wristband type terminal with a built-in biosensor, and the user's pulse, body temperature, blood pressure, respiration, blood glucose level, and the like at the time of input are detected by the wristband type terminal, and according to the detection result The content may be changed.

文字入力用プログラム200は、アプリ300(図2参照)と連携して、コンテンツを変更することもできる。例えば、アプリ300が、電子メールアプリやSNSクライアントアプリである場合、メッセージを送る相手に応じてコンテンツを変えることができる。   The character input program 200 can also change content in cooperation with the application 300 (see FIG. 2). For example, when the application 300 is an e-mail application or an SNS client application, the content can be changed according to the party to whom the message is sent.

また、アプリ300が、音楽再生アプリである場合、再生中の楽曲によってコンテンツを変えることができる。また、アプリ300が、テレビアプリやラジオアプリである場合、視聴中の番組やCMと連動してコンテンツを変えることできる。   When the application 300 is a music playback application, the content can be changed depending on the music being played. When the application 300 is a TV application or a radio application, the content can be changed in conjunction with the program or CM being viewed.

また、文字入力用プログラム200は、入力された文字に応じて、初期画面のためのコンテンツAと少なくとも一部が異なる、所定のコンテンツYを、特別なリアクションとして、ディスプレイ16aに表示させてもよい。このとき、当該入力された文字は、「た」などの単一の文字でもよいし、「たび」などの複数の文字でもよいし、「旅」などの漢字変換された文字であってもよい。例えば、文字入力用プログラム200は中央制御部11に対して、ストレージデバイス13に格納された特定のキーワード及びそれに対応するコンテンツを対応付けたテーブルを参照し、文字が入力されたときに、キーワードと一致しているか否か判定させる。キーワードが一致した場合、文字入力用プログラム200は、当該キーワードに対応するコンテンツを、表示制御部15に表示させる。   The character input program 200 may cause the display 16a to display a predetermined content Y, which is at least partially different from the content A for the initial screen, as a special reaction according to the input character. . At this time, the input character may be a single character such as “TA”, a plurality of characters such as “Tai”, or a character converted to Kanji such as “Travel”. . For example, the character input program 200 refers to the central control unit 11 with reference to a table in which specific keywords stored in the storage device 13 are associated with content corresponding thereto. It is determined whether or not they match. If the keywords match, the character input program 200 causes the display control unit 15 to display content corresponding to the keywords.

例えば、ストレージデバイス13に、キーワードとして所定の人物の名前、対応するコンテンツとして当該人物に関連する映像、画像、その他のコンテンツを登録したテーブルを保存してもよい。これにより例えば、芸人の名前が入力されたときに、当該芸人の一発芸や持ちネタを撮影した映像がキーボード表示エリア502に表示できる。また、アイドルの名前や歌のタイトルが入力されたときに、当該アイドルのミュージックビデオの映像を表示制御部15がディスプレイ16aのキーボード表示エリア502に表示したり、歌のワンフレーズを音生成部18がスピーカ19に再生させたりできる。また、アニメのタイトルや名台詞が入力されたときに、アニメのワンシーンの映像を表示制御部15がディスプレイ16aのキーボード表示エリア502に表示されたり、名台詞を音生成部18がスピーカ19に再生させたり、できる。   For example, the storage device 13 may store a table in which a name of a predetermined person is registered as a keyword, and video, images, and other contents related to the person are registered as corresponding contents. Thereby, for example, when the name of the entertainer is input, an image of the entertainer's one-shot performance or possession can be displayed in the keyboard display area 502. When an idol's name or song title is input, the display control unit 15 displays the video image of the idol's music video on the keyboard display area 502 of the display 16a, or a single phrase of the song is generated by the sound generation unit 18. Can be reproduced by the speaker 19. In addition, when an animation title or line of speech is input, the display control unit 15 displays an animation of a single scene of the animation in the keyboard display area 502 of the display 16a, or the sound line generation unit 18 transmits the name line to the speaker 19. You can play it.

また、文字入力用プログラム200は、中央制御部11にOS100の検索機能を利用させて、表示制御部15にディスプレイ16aのソフトウエアキーボードの背景に検索結果が表示させるように構成されてもよい。例えば、「ネコ」と入力されると、中央制御部11がネコの画像を検索し、ディスプレイ16aに表示される。ここで、検索として、OS100の検索機能を用いて、コンピュータデバイス10のストレージデバイス13に格納される情報を検索してもよいし、OS100のインターネットブラウザ機能及び検索機能を利用して外部の検索サイトにアクセスして検索し、検索結果を含むWebコンテンツを受信してもよい。また、文字入力用プログラム200が、検索サイトで検索した結果をストレージデバイス13に格納させておき、文字の入力時に中央制御部11にローカルでストレージデバイス13を検索させてもよい。   The character input program 200 may be configured to cause the central control unit 11 to use the search function of the OS 100 and cause the display control unit 15 to display the search result on the background of the software keyboard of the display 16a. For example, when “cat” is input, the central control unit 11 searches for a cat image and displays it on the display 16a. Here, as the search, information stored in the storage device 13 of the computer device 10 may be searched using the search function of the OS 100, or an external search site may be searched using the Internet browser function and search function of the OS 100. You may access and search and receive Web contents including search results. Alternatively, the character input program 200 may store the search result on the search site in the storage device 13 and cause the central control unit 11 to search the storage device 13 locally when inputting characters.

また、文字入力用プログラム200は、入力された文字に関連する音声を、音生成部18に生成させ、スピーカ19から再生させてもよい。例えば、「ネコ」と入力すると、「ニャー」という鳴き声が再生されたり、歌詞の一節を入力すると、該当アーティストの歌声でその一節が再生されたり、する。   Further, the character input program 200 may cause the sound generator 18 to generate a sound related to the input character and reproduce it from the speaker 19. For example, if “cat” is input, the meow “meow” is played, and if a passage of lyrics is input, the passage is played back by the singing voice of the artist.

また、表示制御部15がディスプレイ16aに表示するコンテンツが、入力された文字に関連するコンテンツであってもよい。一例として、入力された文字に関連するニュース映像がコンテンツであってもよい。例えば、OS100のインターネット検索機能及び検索機能を利用して、入力された文字を用いてニュース映像を配信するサイトでニュース映像を検索し、その結果をソフトウエアキーボードの背景に表示してもよい。   Further, the content displayed on the display 16a by the display control unit 15 may be content related to the input character. As an example, a news video related to input characters may be content. For example, the Internet 100 search function and search function of the OS 100 may be used to search for news videos on a site that distributes news videos using input characters, and the results may be displayed on the background of the software keyboard.

また、文字を入力するとリアルタイム情報がソフトウエアキーボードの背景に表示されてもよい。例えば、「天気」とタイプすると、天気予報が表示される。また、「テレビ」とタイプすると、テレビ番組表が表示される。また、「占い」とタイプすると、占いの結果が表示される。例えば、「Twitter」とタイプすると、Twitter(登録商標)のタイムラインが表示される。これらの情報の取得及び表示には、OS100のインターネットブラウザ機能及び検索機能やアプリ300が利用される。   Further, when characters are input, real-time information may be displayed on the background of the software keyboard. For example, typing “weather” will display the weather forecast. When “TV” is typed, a TV program guide is displayed. If you type "Fortune-telling", the result of fortune-telling is displayed. For example, if you type “Twitter”, a Twitter (registered trademark) timeline is displayed. For obtaining and displaying these pieces of information, the Internet browser function and search function of the OS 100 and the application 300 are used.

また、入力された固有名詞や用語などの文字に対応して、オンライン又はローカルの辞書や、Wikipedia(登録商標)の情報がソフトウエアキーボードの背景として表示されてもよい。   In addition, online or local dictionaries or Wikipedia (registered trademark) information may be displayed as the background of the software keyboard in correspondence with the input characters such as proper nouns and terms.

さらに、コンピュータデバイス10を、移動体通信制御部20又は近距離通信制御部21を介して接続された外部装置と連携させ、文字入力用プログラム200は、入力した文字に応じてコンピュータデバイス10に接続された外部機器を操作させてもよい。   Further, the computer device 10 is linked with an external device connected via the mobile communication control unit 20 or the short-range communication control unit 21, and the character input program 200 is connected to the computer device 10 according to the input character. The external device may be operated.

例えば、「暑いなあ」と室内で入力した場合、Bluetooth(登録商標)を介して接続したエアコンに対して設定温度を下げる指示を送信してもよい。また、「暗くして」と室内で入力した場合、Bluetooth(登録商標)を介して接続した照明器具に対して明るさを下げる指示を送信してもよい。   For example, when “hot” is input indoors, an instruction to lower the set temperature may be transmitted to an air conditioner connected via Bluetooth (registered trademark). In addition, when “darken” is input indoors, an instruction to lower the brightness may be transmitted to a lighting apparatus connected via Bluetooth (registered trademark).

また、コンピュータデバイス10が、移動体通信制御部20を介してインターネット経由で接続されたWebサイトと連携できるように構成されていている場合、文字入力用プログラム200は、Webサイトに対して入力した文字に対応した処理を実行させることができる。例えば、「お腹すいた」と入力すると、OS100のインターネットブラウザ機能又はアプリ300としての注文専用アプリを用いて、インターネット経由で、ピザの宅配を発注してもよい。より具体的には、文字入力用プログラム200は、Web API(Web Application Programming Interface)を公開しているWebサイトに対してインターネットを介して、依頼内容をHTTPリクエストの形で送信すると、Webサイトは、Web APIに対応する処理を、HTTPリクエストに従って実行してもよい。   When the computer device 10 is configured to be able to cooperate with a website connected via the mobile communication control unit 20 via the Internet, the character input program 200 is input to the website. Processing corresponding to characters can be executed. For example, when “I am hungry” is input, the delivery of a pizza may be ordered via the Internet using the Internet browser function of the OS 100 or an order-only application as the application 300. More specifically, when the character input program 200 transmits a request content in the form of an HTTP request to a website that publishes a Web API (Web Application Programming Interface), the website The process corresponding to the Web API may be executed according to the HTTP request.

以上説明したように、本実施の形態に係る文字入力用プログラムによれば、入力検出部17が位置入力デバイス16bでのキーに対する入力を受け付けると、ディスプレイ16aに第1コンテンツと少なくとも一部が異なる第2コンテンツが表示されるので、キー入力に応じてディスプレイ16aによる表示が多様に変化するので、単調であったキー入力の作業が楽しくなるという効果を奏する。   As described above, according to the character input program according to the present embodiment, when the input detection unit 17 receives an input to a key on the position input device 16b, the display 16a is at least partially different from the first content. Since the second content is displayed, the display on the display 16a changes variously in accordance with the key input, and the monotonous key input operation becomes fun.

なお、本発明は上記実施の形態に限定されず、種々変更して実施することが可能であり、本発明の効果を発揮する範囲内で適宜変更することが可能である。   In addition, this invention is not limited to the said embodiment, It can change variously and can implement suitably in the range which exhibits the effect of this invention.

上記実施の形態では、コンテンツの変更は、画像全部を切り替えることでおこなっていたが、コンテンツの一部だけを変更してもよい。   In the above embodiment, the content is changed by switching all the images. However, only a part of the content may be changed.

また、上記実施の形態では、ディスプレイ16aの表示画面501(図4参照)において、キーボード表示エリア502に、コンテンツを表示し、キー入力に応じてコンテンツを変化させているが、例えば、図15に示す画面例において、キー1003をタップして、文字変換候補の一覧(図4に示す選択項目表示エリア530)がアプリ表示エリア503まで拡張して表示されたとき、言い換えれば、キーボード表示エリア502が表示画面501の全体に拡張したときには、その背景にもコンテンツを表示し、変化させてもよい。例えば、図13〜図15を用いて説明した例において、人物1001の身体がキーボード表示エリア502に表示され、ラケット1002が飛び出すようにアプリ表示エリア503に表示され、人物1001がスマッシュを打っているように変化してもよい。   Further, in the above embodiment, content is displayed in the keyboard display area 502 on the display screen 501 (see FIG. 4) of the display 16a, and the content is changed according to the key input. In the screen example shown, when the key 1003 is tapped and the list of character conversion candidates (the selection item display area 530 shown in FIG. 4) is expanded to the application display area 503, in other words, the keyboard display area 502 is displayed. When the entire display screen 501 is expanded, the content may be displayed on the background and changed. For example, in the example described with reference to FIGS. 13 to 15, the body of the person 1001 is displayed in the keyboard display area 502, displayed in the application display area 503 so that the racket 1002 pops out, and the person 1001 hits the smash. It may be changed as follows.

上記実施の形態では、文字入力用プログラム200が、OS100が備えているキー生成、辞書、文字変換及び予測入力の各機能を利用して、コンピュータデバイス10に文字入力の機能を実現させている。しかし、文字入力用プログラム200が、キー生成、辞書、文字変換又は予測入力の各機能を備えていてもよい。   In the above-described embodiment, the character input program 200 uses the key generation, dictionary, character conversion, and predictive input functions of the OS 100 to cause the computer device 10 to realize the character input function. However, the character input program 200 may have key generation, dictionary, character conversion, or predictive input functions.

上記実施の形態では、コンテンツAを初期画面として表示しているが、コンテンツAが文字入力プログラムが起動したときから必ず表示されている必要はなく、文字入力が始まった後でコンテンツAの表示が行われても良い。   In the above embodiment, the content A is displayed as the initial screen. However, the content A is not necessarily displayed since the character input program is started, and the content A is displayed after the character input starts. It may be done.

また、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。   In addition, the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning. In addition, information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by other corresponding information. .

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。   Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的に(例えば、当該所定の情報の通知を行わないことによって)行われてもよい。   Each aspect / embodiment described in this specification may be used independently, may be used in combination, or may be switched according to execution. In addition, notification of predetermined information (for example, notification of being “X”) is not limited to explicitly performed, but is performed implicitly (for example, by not performing notification of the predetermined information). May be.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。   The processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be switched in order as long as there is no contradiction. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.

本発明は、スマートフォン、タブレットなどのコンピュータデバイスのためのソフトウエアキーボードなどに好適に利用できる。   The present invention can be suitably used for software keyboards for computer devices such as smartphones and tablets.

10 コンピュータデバイス
11 中央制御部
15 表示制御部
16 タッチパネルディスプレイ
17 入力検出部
100 オペレーティングシステム(OS)
200 文字入力用プログラム
300 アプリケーションプログラム(アプリ)
DESCRIPTION OF SYMBOLS 10 Computer device 11 Central control part 15 Display control part 16 Touch panel display 17 Input detection part 100 Operating system (OS)
200 character input program 300 application program (application)

Claims (17)

コンピュータに、
所定の文字に対応する複数のキー、並びに、画像、映像又はアニメーションを含む第1コンテンツを、表示部に重ねて表示させる第1の表示ステップと、
前記キーに対する入力を受け付ける検出ステップと、
前記表示部に、前記第1コンテンツと少なくとも一部が異なる、画像、映像又はアニメーションを含む第2コンテンツを表示する第2の表示ステップと、
を実行させて、文字入力の機能を実現させることを特徴とする文字入力用プログラム。
On the computer,
A first display step of displaying a plurality of keys corresponding to a predetermined character and a first content including an image, a video or an animation on the display unit;
A detecting step for receiving an input to the key;
A second display step of displaying second content including an image, video, or animation at least partially different from the first content on the display unit;
Is executed to realize the character input function.
前記検出ステップの後に、音を再生する音再生ステップを、さらに備えることを特徴とする請求項1記載の文字入力用プログラム。The character input program according to claim 1, further comprising a sound reproduction step of reproducing a sound after the detection step. 前記第1の表示ステップにおいて所定の文字に対応する複数の前記キーが前記第1コンテンツと重ねて表示され、前記検出ステップにおいて前記複数のキーの1つに対する入力を受け付け、前記第2の表示ステップにおいて前記複数のキーに対応して互いに異なる前記第2コンテンツが表示されることを特徴とする請求項1又は請求項2記載の文字入力用プログラム。 In the first display step, a plurality of the keys corresponding to predetermined characters are displayed superimposed on the first content, and in the detection step, an input to one of the plurality of keys is received, and the second display step wherein the plurality of keys corresponding to claim 1 or claim 2, wherein the character input program, characterized in that it is displayed is different second content to each other in. 前記第2の表示ステップの後に、前記キー及び前記第1コンテンツを、前記表示部に重ねて表示させる第3の表示ステップを、さらに備えることを特徴とする請求項1から請求項3のいずれかに記載の文字入力用プログラム。 After said second display step, the key and the first content, any of claims 1 to 3, the third display step of displaying superimposed on the display unit, and further comprising The program for character input described in 1. 前記第1コンテンツと前記第2コンテンツとは、前記入力を受け付けた前記キーに対応する部分において少なくとも異なることを特徴とする請求項1から請求項のいずれかに記載の文字入力用プログラム。 The character input program according to any one of claims 1 to 4 , wherein the first content and the second content are different at least in a portion corresponding to the key that has received the input. 前記検出ステップにおいて、タップ入力及びフリック入力を前記入力として受け付け、前記第2の表示ステップにおいて前記タップ入力を受け付けたときに表示される前記第2コンテンツと、前記フリック入力を受け付けたときに表示される前記第2コンテンツとが互いに異なることを特徴とする請求項1から請求項のいずれかに記載の文字入力用プログラム。 In the detection step, tap input and flick input are accepted as the input, and the second content displayed when the tap input is accepted in the second display step and displayed when the flick input is accepted. The character input program according to any one of claims 1 to 5 , wherein the second content is different from each other. 前記検出ステップにおいて、タップ入力又はフリック入力及びリリース入力を前記入力として受け付け、前記第2の表示ステップにおいて前記タップ入力又は前記フリック入力を受け付けたときに表示される前記第2コンテンツと、前記リリース入力を受け付けたときに表示される前記第2コンテンツとが互いに異なることを特徴とする請求項1から請求項のいずれかに記載の文字入力用プログラム。 In the detection step, tap input or flick input and release input are accepted as the input, and the second content displayed when the tap input or flick input is accepted in the second display step, and the release input The character input program according to any one of claims 1 to 6 , wherein the second content displayed when receiving is different from each other. 前記検出ステップにおいて、タップ入力及びフリック入力を前記入力として受け付け、前記第2の表示ステップにおいて、前記タップ入力を受け付けたときに、所定の文字に対応する複数のキーが前記第2コンテンツと重ねて表示され、さらにフリック入力を受け付けたときに、前記第2コンテンツと少なくとも一部が異なる第3コンテンツを表示する第4の表示ステップを、さらに備えることを特徴とする請求項1から請求項のいずれかに記載の文字入力用プログラム。 In the detection step, tap input and flick input are accepted as the input, and when the tap input is accepted in the second display step, a plurality of keys corresponding to predetermined characters are overlapped with the second content. appears, further when accepting the flick input, said fourth displaying step second content and at least partially displaying a different third content, of claims 1 to 6, further comprising The program for character input in any one. 前記タップ入力又は前記フリック入力を受け付けた前記キーを記憶し、前記タップ入力又は前記フリック入力を複数回受け付けたときに記憶されている複数の前記キーが所定の組み合わせである場合に、前記第1コンテンツと少なくとも一部が異なる第4コンテンツを表示する第5の表示ステップを、さらに備えることを特徴とする請求項又は請求項記載の文字入力用プログラム。 The first key is stored when the tap input or the flick input is received, and the plurality of keys stored when the tap input or the flick input is received a plurality of times is a predetermined combination. content and at least partially a fifth displaying step of displaying a different fourth content, claim 7 or claim 8, wherein the character input program, and further comprising. 前記検出ステップにおいて、前記入力が行われた速度を測定し、前記第2の表示ステップにおいて、前記速度に応じて前記第2コンテンツを変えることを特徴とする請求項1から請求項のいずれかに記載の文字入力用プログラム。 In the detecting step, to measure the rate at which the input is performed, in the second display step, one of claims 1 to 9, characterized in that changing the second content in response to the speed The program for character input described in 1. 前記検出ステップにおいて、前記入力が行われた回数を測定し、前記第2の表示ステップにおいて、前記回数に応じて前記第2コンテンツを変えることを特徴とする請求項1から請求項10のいずれかに記載の文字入力用プログラム。 In the detecting step, the number of times that the input is performed by measuring, in the second display step, one of claims 1 to 10, characterized in that changing the second content in accordance with the number of The program for character input described in 1. 前記検出ステップにおいて、前記入力が行われた時間情報を取得し、前記第2の表示ステップにおいて、前記時間情報に応じて前記第2コンテンツを変えることを特徴とする請求項1から請求項1のいずれかに記載の文字入力用プログラム。 In the detecting step, to obtain the time information which the input is performed, in the second display step, according to claim 1 1 claim 1, wherein the changing the second content according to the time information The program for character input in any one of. 前記検出ステップにおいて、前記入力が行われたときに前記コンピュータが取得したセンサの検出結果を取得し、前記第2の表示ステップにおいて、前記検出結果に応じて前記第2コンテンツを変えることを特徴とする請求項1から請求項1のいずれかに記載の文字入力用プログラム。 In the detection step, the detection result of the sensor acquired by the computer when the input is performed is acquired, and in the second display step, the second content is changed according to the detection result. program character input according to any one of claims 1 2 to claim 1. 前記検出ステップにおいて、前記入力が行われたときに前記コンピュータが実行するアプリケーションプログラムに関するアプリ情報を取得し、前記第2の表示ステップにおいて、前記アプリ情報に応じて前記第2コンテンツを変えることを特徴とする請求項1から請求項1のいずれかに記載の文字入力用プログラム。 In the detection step, application information related to an application program executed by the computer when the input is performed is acquired, and in the second display step, the second content is changed according to the application information. character input program according to any one of claims 1 to 3 claim 1,. 前記キーに対する前記入力に応じて前記コンピュータに文字を入力させる文字入力ステップと、前記文字に応じて前記第1コンテンツと異なる第5コンテンツを表示する第6の表示ステップとを、さらに備えることを特徴とする請求項1から請求項1のいずれかに記載の文字入力用プログラム。 A character input step for causing the computer to input a character in response to the input to the key; and a sixth display step for displaying a fifth content different from the first content in accordance with the character. program character input according to any one of claims 1 to 4 claim 1 to. 前記キーに対する前記入力に応じて前記コンピュータに文字を入力させる文字入力ステップと、前記文字に応じて前記コンピュータに、外部機器を操作させる操作ステップとを、さらに備えることを特徴とする請求項1から請求項14のいずれかに記載の文字入力用プログラム。   2. The method according to claim 1, further comprising: a character input step for causing the computer to input a character in response to the input to the key; and an operation step for causing the computer to operate an external device in accordance with the character. The program for character input according to claim 14. コンピュータ上で文字入力を行う文字入力方法であって、
所定の文字に対応する複数のキー、並びに、画像、映像又はアニメーションを含む第1コンテンツを、表示部に重ねて表示させる第1の表示ステップと、
前記キーに対する入力を受け付ける検出ステップと、
前記表示部に、前記第1コンテンツと少なくとも一部が異なる、画像、映像又はアニメーションを含む第2コンテンツを表示する第2の表示ステップと、
を具備することを特徴とする文字入力方法。
A character input method for inputting characters on a computer,
A first display step of displaying a plurality of keys corresponding to a predetermined character and a first content including an image, a video or an animation on the display unit;
A detecting step for receiving an input to the key;
A second display step of displaying second content including an image, video, or animation at least partially different from the first content on the display unit;
The character input method characterized by comprising.
JP2015169732A 2015-08-28 2015-08-28 Character input program and character input method Active JP6622033B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015169732A JP6622033B2 (en) 2015-08-28 2015-08-28 Character input program and character input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015169732A JP6622033B2 (en) 2015-08-28 2015-08-28 Character input program and character input method

Publications (2)

Publication Number Publication Date
JP2017045424A JP2017045424A (en) 2017-03-02
JP6622033B2 true JP6622033B2 (en) 2019-12-18

Family

ID=58212139

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015169732A Active JP6622033B2 (en) 2015-08-28 2015-08-28 Character input program and character input method

Country Status (1)

Country Link
JP (1) JP6622033B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102054517B1 (en) * 2017-11-15 2019-12-11 주식회사 비트바이트 Method for providing interactive keyboard and system thereof
JP2021065302A (en) * 2019-10-18 2021-04-30 ホクユーメディックス株式会社 Belt for recognition and vital data management system using the belt
CN111708476B (en) 2020-05-25 2022-03-25 北京百度网讯科技有限公司 Virtual keyboard display method, virtual keyboard and display device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007237986A (en) * 2006-03-09 2007-09-20 Toyota Motor Corp Vehicular input device
KR101044320B1 (en) * 2010-10-14 2011-06-29 주식회사 네오패드 Method for providing background image contents of virtual key input means and its system
JP2013247394A (en) * 2012-05-23 2013-12-09 Sharp Corp Character input device, guide display time setting method, guide display time setting program and computer-readable recording medium with guide display time setting program recorded
JP2014195202A (en) * 2013-03-29 2014-10-09 Brother Ind Ltd Symbol inputting device and program
JP2014238704A (en) * 2013-06-07 2014-12-18 サムスン電子ジャパン株式会社 Input device, input method, and program
JP2015036886A (en) * 2013-08-13 2015-02-23 ソニー株式会社 Information processing device, storage medium, and method

Also Published As

Publication number Publication date
JP2017045424A (en) 2017-03-02

Similar Documents

Publication Publication Date Title
US11009958B2 (en) Method and apparatus for providing sight independent activity reports responsive to a touch gesture
US11692840B2 (en) Device, method, and graphical user interface for synchronizing two or more displays
CN109328381B (en) Detect the triggering of digital assistants
Grussenmeyer et al. Accessible touchscreen technology for people with visual impairments: a survey
US11755276B2 (en) Reducing description length based on confidence
CN107491285B (en) Smart machine arbitration and control
US10521466B2 (en) Data driven natural language event detection and classification
CN107615276B (en) Virtual assistant for media playback
US10567477B2 (en) Virtual assistant continuity
CN108874766A (en) Method and system for the voice match in digital assistants service
CN110364148A (en) Natural assistant&#39;s interaction
CN110019752A (en) Multi-direction dialogue
CN109313655A (en) Configure the user interface specific to context
CN109635130A (en) The intelligent automation assistant explored for media
CN107480161A (en) The intelligent automation assistant probed into for media
CN107491284A (en) The digital assistants of automation state report are provided
WO2017096509A1 (en) Displaying and processing method, and related apparatuses
CN108334227A (en) Method, equipment, medium and device for deleting content
CN107491181A (en) The phrase for dynamic state extension of language in-put
CN110275664A (en) For providing the equipment, method and graphic user interface of audiovisual feedback
CN111782130A (en) Column interface for navigating in a user interface
CN107949823A (en) Zero-lag digital assistants
WO2012170335A1 (en) Devices, methods, and graphical user interfaces for providing accessibility using a touch-sensitive surface
CN102033710A (en) Method for managing file folder and related equipment
KR20140028083A (en) Devices, methods, and graphical user interfaces for providing control of a touch-based user interface absent physical touch capabilities

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180706

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191121

R150 Certificate of patent or registration of utility model

Ref document number: 6622033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250