JP2007193455A - Character input device, terminal device, character input program and character input method - Google Patents

Character input device, terminal device, character input program and character input method Download PDF

Info

Publication number
JP2007193455A
JP2007193455A JP2006009275A JP2006009275A JP2007193455A JP 2007193455 A JP2007193455 A JP 2007193455A JP 2006009275 A JP2006009275 A JP 2006009275A JP 2006009275 A JP2006009275 A JP 2006009275A JP 2007193455 A JP2007193455 A JP 2007193455A
Authority
JP
Japan
Prior art keywords
input
sensor
candidate
input candidate
candidates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006009275A
Other languages
Japanese (ja)
Other versions
JP4711834B2 (en
Inventor
Takeshi Nitta
岳 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Ericsson Mobile Communications Japan Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Ericsson Mobile Communications Japan Inc filed Critical Sony Ericsson Mobile Communications Japan Inc
Priority to JP2006009275A priority Critical patent/JP4711834B2/en
Publication of JP2007193455A publication Critical patent/JP2007193455A/en
Application granted granted Critical
Publication of JP4711834B2 publication Critical patent/JP4711834B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)
  • Input From Keyboards Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simplify a user's character input operation by displaying various input candidates corresponding to the present state of the user in displaying a list of a plurality of input candidates predicted from a character inputted by the user. <P>SOLUTION: Various sensors such as a GPS sensor for detecting a current position, a temperature sensor for detecting the ambient temperature, and an acceleration sensor for detecting a moving speed are provided on a cellular phone. When a character is inputted by the user, a plurality of input candidates are retrieved from a dictionary database based on the input character. When an input candidate corresponding to any one sensor is present in the retrieved input candidates, the detection output of the sensor corresponding to this input candidate is displayed in a list as one of input candidates. When an input candidate of "temperature" is present, for example, in the input candidates retrieved from the dictionary database, the present temperature detected by the temperature sensor is displayed, for example, as "25°C" as the one of input candidates. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、例えば携帯電話機、PHS電話機(PHS:Personal Handyphone System)、PDA装置(PDA:Personal Digital Assistant)、デスクトップ型やノート型のパーソナルコンピュータ装置等の端末装置に適用して好適な文字入力装置、端末装置、文字入力プログラム及び文字入力方法に関し、特にユーザの現状に対応する様々な入力候補を表示することで、ユーザの入力操作の簡素化等を図った文字入力装置、端末装置、文字入力プログラム及び文字入力方法に関する。   The present invention is suitable for application to a terminal device such as a mobile phone, a PHS phone (PHS: Personal Handyphone System), a PDA device (PDA: Personal Digital Assistant), or a desktop or notebook personal computer device. The terminal device, the character input program, and the character input method, in particular, the character input device, the terminal device, and the character input for simplifying the user input operation by displaying various input candidates corresponding to the current state of the user The present invention relates to a program and a character input method.

特開2005−165460号の公開特許公報において、煩雑な入力操作を行うことなく、現在位置の住所を文字列として入力可能な携帯端末装置が開示されている。この携帯端末装置は、文章の作成時(=文字の入力時)において、「ここ」、「げんざいち」、「じゅうしょ」等の位置に関連する文字列が入力されると、CPUは、当該携帯端末装置の現在位置を検出するようにGPS無線部を制御し、このGPS無線部で検出された現在位置に対応する経度緯度情報を算出する。   Japanese Unexamined Patent Application Publication No. 2005-165460 discloses a portable terminal device that can input an address at the current position as a character string without performing a complicated input operation. In this portable terminal device, when a character string related to a position such as “here”, “genzaichi”, “jutsujo” is input when a sentence is created (= when a character is input), the CPU The GPS wireless unit is controlled to detect the current position of the mobile terminal device, and longitude / latitude information corresponding to the current position detected by the GPS wireless unit is calculated.

この携帯端末装置のメモリには、各入力文字列に対応する変換候補が記憶された辞書情報と共に、各経度緯度情報を、それぞれ対応する住所情報に変換するための住所変換情報が記憶されている。   In the memory of the portable terminal device, address conversion information for converting each longitude / latitude information into corresponding address information is stored together with dictionary information storing conversion candidates corresponding to each input character string. .

CPUは、入力された文字列に対応する変換候補を上記メモリの辞書情報から検出して表示部に表示制御すると共に、上記算出した経度緯度情報に対応する住所情報を上記メモリの住所変換情報から検出し、この住所情報を、上記各変換候補と共に表示部に表示制御する。   The CPU detects conversion candidates corresponding to the input character string from the dictionary information in the memory and controls display on the display unit, and also calculates address information corresponding to the calculated longitude / latitude information from the address conversion information in the memory. The address information is detected and displayed on the display unit together with the conversion candidates.

これにより、「ここ」、「げんざいち」、「じゅうしょ」等の位置に関連する文字列を入力するだけで、当該携帯端末装置の現在位置に対応する住所が、各変換候補と共に表示部に表示されることとなるため、ユーザは、表示部に表示された各変換候補の中から住所情報を選択するという簡単な操作のみで、現在位置に対応する住所の入力を行うことができる。   As a result, the address corresponding to the current position of the mobile terminal device can be displayed together with each conversion candidate by simply inputting a character string related to the position such as “here”, “genzaichi”, “juju”. Therefore, the user can input an address corresponding to the current position only by a simple operation of selecting address information from the conversion candidates displayed on the display unit.

特開2005−165460号公報(第8頁〜第9頁:図1、図7)JP 2005-165460 A (pages 8 to 9: FIGS. 1 and 7)

しかし、上述の特許文献1に開示されている携帯端末装置の場合、GPS無線部で検出された現在位置に対応する住所しか、複数の変換候補に含めて表示することができないため、ユーザの現状に対応する入力候補のうちの一部のみ(=現在位置に対応する住所のみ)しか表示できない問題があった。   However, in the case of the mobile terminal device disclosed in Patent Document 1 described above, since only the address corresponding to the current position detected by the GPS wireless unit can be included in a plurality of conversion candidates and displayed, the current situation of the user There is a problem that only a part of the input candidates corresponding to (= only the address corresponding to the current position) can be displayed.

すなわち、ユーザの現状を示すパラメータとしては、ユーザの現在位置に対応する住所の他、気温、湿度、方位、歩行速度等の各パラメータも、ユーザの現状を示すパラメータであるといえる。このため、上記住所以外にも、ユーザの現状を示すパラメータを入力候補として、より多く表示することができれば、ユーザの入力操作をより簡素化することが可能となる。   That is, as parameters indicating the current state of the user, parameters such as the temperature, humidity, direction, walking speed, etc., as well as the address corresponding to the current position of the user, can be said to be parameters indicating the current state of the user. For this reason, if more parameters can be displayed as input candidates in addition to the above address, the user's input operation can be further simplified.

本発明は上述の実状に鑑みてなされたものであり、ユーザの現状に対応する様々な入力候補を表示することで、ユーザの入力操作をより簡素化することができるような文字入力装置、携帯端末装置、文字入力プログラム及び文字入力方法の提供を目的とする。   The present invention has been made in view of the above-described situation, and displays a variety of input candidates corresponding to the current state of the user so that the user's input operation can be further simplified. An object is to provide a terminal device, a character input program, and a character input method.

本発明に係る文字入力装置は、上述の課題を解決するための手段として、
入力される文字から予測される入力候補が複数記憶された辞書データベースと、
複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段と、
入力された文字から予測される入力候補を辞書データベースから検索する入力候補検索手段と、
上記入力候補検索手段により上記辞書データベースから検索された入力候補の中に、上記センサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する対象入力候補検索手段と、
上記対象入力候補検索手段により上記辞書データベースから検索した入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出手段と、
上記センサ群の各センサからの検出出力のうち、上記対応センサ検出手段により検出されたセンサからの検出出力に対応する入力候補を、上記入力候補検索手段で検索された入力候補に含めて、表示手段に一覧的に表示する表示制御手段と
を有する。
The character input device according to the present invention is a means for solving the above-described problems.
A dictionary database storing a plurality of input candidates predicted from input characters;
Sensor-specific input candidate storage means in which input candidates assigned to each sensor of a sensor group composed of a plurality of sensors are stored;
Input candidate search means for searching the dictionary database for input candidates predicted from the input characters;
Target input candidate search means for determining whether or not there is an input candidate stored in the sensor-specific input candidate storage means among the input candidates searched from the dictionary database by the input candidate search means;
When an input candidate stored in the sensor-specific input candidate storage unit is searched from input candidates searched from the dictionary database by the target input candidate search unit, a sensor corresponding to the searched input candidate Corresponding sensor detection means for detecting from the sensor-specific input candidate storage means,
Among the detection outputs from each sensor of the sensor group, the input candidates corresponding to the detection outputs from the sensors detected by the corresponding sensor detection means are included in the input candidates searched by the input candidate search means, and displayed. Display control means for displaying a list on the means.

また、本発明に係る端末装置は、上述の課題を解決するための手段として、
文字入力操作を行うための操作手段と、
上記操作手段を介して入力される文字から予測される入力候補が複数記憶された辞書データベースと、
複数のセンサで構成されるセンサ群と、
上記センサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段と、
入力された文字から予測される入力候補を辞書データベースから検索する入力候補検索手段と、
上記入力候補検索手段により上記辞書データベースから検索された入力候補の中に、上記センサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する対象入力候補検索手段と、
上記対象入力候補検索手段により上記辞書データベースから検索した入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出手段と、
上記センサ群の各センサからの検出出力のうち、上記対応センサ検出手段により検出されたセンサからの検出出力に対応する入力候補を、上記入力候補検索手段で検索された入力候補に含めて、表示手段に一覧的に表示する表示制御手段と
を有する。
In addition, the terminal device according to the present invention is a means for solving the above-described problems.
Operation means for performing character input operation;
A dictionary database in which a plurality of input candidates predicted from characters input via the operation means are stored;
A sensor group composed of a plurality of sensors;
Sensor-specific input candidate storage means in which input candidates assigned to each sensor of the sensor group are stored;
Input candidate search means for searching the dictionary database for input candidates predicted from the input characters;
Target input candidate search means for determining whether or not there is an input candidate stored in the sensor-specific input candidate storage means among the input candidates searched from the dictionary database by the input candidate search means;
When an input candidate stored in the sensor-specific input candidate storage unit is searched from input candidates searched from the dictionary database by the target input candidate search unit, a sensor corresponding to the searched input candidate Corresponding sensor detection means for detecting from the sensor-specific input candidate storage means,
Among the detection outputs from each sensor of the sensor group, the input candidates corresponding to the detection outputs from the sensors detected by the corresponding sensor detection means are included in the input candidates searched by the input candidate search means, and displayed. Display control means for displaying a list on the means.

また、本発明に係る文字入力プログラムは、上述の課題を解決するために、
入力された文字から予測される入力候補を辞書データベースから検索する入力候補検索手段としてコンピュータを機能させ、
上記入力候補検索手段としてコンピュータを機能させることで、上記辞書データベースから検索された入力候補の中に、複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する対象入力候補検索手段としてコンピュータを機能させ、
上記対象入力候補検索手段としてコンピュータを機能させることで、上記辞書データベースから検索された入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出手段としてコンピュータを機能させ、
上記センサ群の各センサからの検出出力のうち、コンピュータを上記対応センサ検出手段として機能させることで検出されたセンサからの検出出力に対応する入力候補を、コンピュータを上記入力候補検索手段として機能させることで検索された入力候補に含めて、表示手段に一覧的に表示する表示制御手段としてコンピュータを機能させる。
Moreover, in order to solve the above-mentioned subject, the character input program which concerns on this invention
Let the computer function as input candidate search means for searching input candidates predicted from the input characters from the dictionary database,
Sensors in which input candidates assigned to each sensor of a sensor group composed of a plurality of sensors are stored in the input candidates searched from the dictionary database by causing a computer to function as the input candidate search means Causing the computer to function as target input candidate search means for determining whether or not there is an input candidate stored in another input candidate storage means;
When the input candidate stored in the sensor-specific input candidate storage unit is searched from the input candidates searched from the dictionary database by causing the computer to function as the target input candidate search unit, the search is performed. The computer is caused to function as corresponding sensor detection means for detecting the sensor corresponding to the input candidate that has been input from the sensor-specific input candidate storage means,
Among the detection outputs from the sensors of the sensor group, input candidates corresponding to the detection outputs from the sensors detected by causing the computer to function as the corresponding sensor detection means function the computer as the input candidate search means. Thus, the computer is caused to function as a display control unit that is included in the retrieved input candidates and displayed as a list on the display unit.

また、本発明に係る文字入力方法は、上述の課題を解決するための手段として、
入力候補検索手段により、入力された文字から予測される入力候補を辞書データベースから検索する検索ステップと、
対象入力候補検索手段が、上記検索ステップにおいて上記辞書データベースから検索された入力候補の中に、複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する判別ステップと、
上記判別ステップにおいて、上記辞書データベースから検索された入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、対応センサ検出手段が、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出ステップと、
表示制御手段が、上記センサ群の各センサからの検出出力のうち、上記対応センサ検出ステップにおいて検出されたセンサからの検出出力に対応する入力候補を、上記検索ステップにおいて検索された入力候補に含めて、表示手段に一覧的に表示する一覧表示ステップと
を有する。
In addition, the character input method according to the present invention is a means for solving the above-described problems.
A search step of searching the dictionary database for input candidates predicted from the input characters by the input candidate search means;
The target input candidate searching means stores the input candidates assigned to each sensor of the sensor group composed of a plurality of sensors among the input candidates searched from the dictionary database in the search step. A determination step of determining whether there is an input candidate stored in the candidate storage means;
In the determining step, when an input candidate stored in the sensor-specific input candidate storage unit is searched from the input candidates searched from the dictionary database, the corresponding sensor detection unit detects the input A corresponding sensor detection step of detecting a sensor corresponding to a candidate from the sensor-specific input candidate storage means;
The display control means includes the input candidates corresponding to the detection output from the sensor detected in the corresponding sensor detection step among the detection outputs from each sensor of the sensor group in the input candidates searched in the search step. And a list display step for displaying a list on the display means.

本発明は、複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補がセンサ別入力候補記憶手段に記憶されている。文字が入力されると、この入力された文字から予測される入力候補を辞書データベースから検索すると共に、この辞書データベースから検索された入力候補の中に、上記センサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを検出する。   In the present invention, input candidates assigned to each sensor of a sensor group composed of a plurality of sensors are stored in the sensor-specific input candidate storage means. When a character is input, input candidates predicted from the input character are searched from the dictionary database, and the input candidates searched from the dictionary database are stored in the sensor-specific input candidate storage means. It is detected whether there is an input candidate.

また、上記辞書データベースから検索された入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する。   When an input candidate stored in the sensor-specific input candidate storage unit is searched from input candidates searched from the dictionary database, a sensor corresponding to the searched input candidate is assigned to the sensor-specific input candidate. Detect from input candidate storage means.

そして、上記センサ群の各センサからの検出出力のうち、上記センサ別入力候補記憶手段から検出されたセンサからの検出出力に対応する入力候補を、上記辞書データベースから検索された入力候補に含めて、表示手段に一覧的に表示する。   Of the detection outputs from the sensors in the sensor group, the input candidates corresponding to the detection outputs from the sensors detected from the sensor-specific input candidate storage means are included in the input candidates searched from the dictionary database. Are displayed in a list on the display means.

これにより、辞書データベースから通常、検索される各入力候補に含めて、入力された文字に対応するセンサで検出された検出出力を入力候補として表示することができる。   Thereby, it is possible to display the detection output detected by the sensor corresponding to the input character as an input candidate, included in each input candidate normally searched from the dictionary database.

本発明は、例えばユーザの現在位置に対応する住所、気温、湿度、方位、歩行速度等の、各センサで検出されたユーザの現状に対応する様々な入力候補を表示することができる。このため、文字入力の際におけるユーザの入力操作をより簡素化することができる。   The present invention can display various input candidates corresponding to the current state of the user detected by each sensor, such as an address corresponding to the current position of the user, temperature, humidity, direction, walking speed, and the like. For this reason, a user's input operation in the case of character input can be simplified more.

本発明は、携帯電話機に適用することができる。   The present invention can be applied to a mobile phone.

[携帯電話機の構成]
この本発明の実施の形態となる携帯電話機は、図1に示すように基地局との間で無線通信を行うアンテナ1及び通信回路2と、着信音や受話音声等の音響出力を得るためのスピーカ部3と、送話音声を集音する他、当該携帯電話機の周囲の音声を集音する音声センサとして機能するマイクロホン部4と、画像(動画像、静止画像等)や文字等を表示するための表示部5と、所定の入力操作や選択操作を行うための操作部6、発着信等を光で知らせるための発光部7(LED:Light Emitting Diode)と、所望の被写体の静止画像或いは動画像を撮像するためのカメラ部8と、当該携帯電話機の筐体を振動させて発着信等をユーザに知らせるためのバイブレーションユニット9とを有している。
[Configuration of mobile phone]
As shown in FIG. 1, the mobile phone according to the embodiment of the present invention has an antenna 1 and a communication circuit 2 that perform wireless communication with a base station, and an acoustic output such as a ringtone and a received voice. In addition to collecting the transmitted voice from the speaker unit 3, the microphone unit 4 functioning as a voice sensor for collecting the voice around the mobile phone, and displaying images (moving images, still images, etc.), characters, etc. Display unit 5, an operation unit 6 for performing a predetermined input operation or selection operation, a light emitting unit 7 (LED: Light Emitting Diode) for notifying light of incoming / outgoing calls, a still image of a desired subject or It has a camera unit 8 for capturing a moving image and a vibration unit 9 for notifying the user of incoming / outgoing calls by vibrating the casing of the mobile phone.

また、この携帯電話機は一例として、以下の複数のセンサを有している。すなわち、この携帯電話機は、当該携帯電話機の現在位置を検出するGPSアンテナ10(GPS:Global Positioning System)及びGPSユニット11と、当該携帯電話機の加速度に基づいて、当該携帯電話機の進行速度を検出する加速度センサ12と、当該携帯電話機の周囲の温度を検出する温度センサ13と、当該携帯電話機に対して加えられている圧力を検出する圧力センサ14と、当該携帯電話機の周囲の光量を検出する光量センサ15と、当該携帯電話機の周囲の臭気(臭い)を検出するにおいセンサ16と、方位を検出する地磁気センサ17と、以下に説明する各種プログラムや情報等が記憶されたメモリ18と、当該携帯電話機全体の動作を制御する制御部19とを有している。   In addition, as an example, this mobile phone has the following plurality of sensors. That is, this mobile phone detects the traveling speed of the mobile phone based on the GPS antenna 10 (GPS: Global Positioning System) and the GPS unit 11 that detect the current position of the mobile phone and the acceleration of the mobile phone. An acceleration sensor 12, a temperature sensor 13 for detecting the temperature around the mobile phone, a pressure sensor 14 for detecting the pressure applied to the mobile phone, and a light amount for detecting the amount of light around the mobile phone A sensor 15; an odor sensor 16 for detecting an odor (odor) around the mobile phone; a geomagnetic sensor 17 for detecting a direction; a memory 18 storing various programs and information described below; And a control unit 19 for controlling the operation of the entire telephone.

メモリ18には、通信処理を行うための通信処理プログラム(コミュニケーションプログラム)、上記マイクロホン部4を含む各センサ11〜17を制御するための各種センサ制御プログラム、カメラ部8を撮像制御するためのカメラ制御プログラム、後に説明する文字入力処理を行うための文字入力プログラム、文字入力時に参照される各種辞書データが記憶された辞書データベース、上記マイクロホン部4を含む各センサ11〜17のうち、ユーザにより予め使用が指定されているセンサを示す使用センサ情報、ユーザにより入力された文字から予測される入力候補を表示し、この表示された入力候補の中から所望の入力候補を選択する予測入力機能を用いた文字入力を行うか否かを示す予測入力機能ON/OFF情報が記憶されている。   The memory 18 includes a communication processing program (communication program) for performing communication processing, various sensor control programs for controlling the sensors 11 to 17 including the microphone unit 4, and a camera for controlling imaging of the camera unit 8. A control program, a character input program for performing character input processing to be described later, a dictionary database storing various dictionary data to be referred to at the time of character input, and the sensors 11 to 17 including the microphone unit 4 are preliminarily determined by the user. Use sensor information that indicates the sensor that is specified for use, input candidates predicted from characters input by the user, and use the predictive input function to select the desired input candidates from the displayed input candidates Predictive input function ON / OFF information indicating whether or not to perform input is stored

また、メモリ18には、各センサに対応する文字として予め設定されたパラメータ表示対象入力候補と、このパラメータ表示対象入力候補と同じ文字がユーザにより入力された際に、各予測入力候補に含めて表示されるパラメータとが関連付けされて記憶されたパラメータテーブル、スケジュール帳、電話帳、発着信した電子メールのデータ、電話や電子メールの発着信履歴、及び音楽コンテンツや映像コンテンツ等のコンテンツファイル等が記憶されている。
The memory 18 includes a parameter display target input candidate set in advance as a character corresponding to each sensor, and when the same character as the parameter display target input candidate is input by the user, it is included in each prediction input candidate. A parameter table, schedule book, phone book, incoming and outgoing e-mail data, telephone and e-mail incoming and outgoing histories, content files such as music content and video content, etc. stored in association with displayed parameters It is remembered.

〔パラメータテーブルの構成〕
図2(a)に、メモリ18に記憶されているパラメータテーブルの一例を示す。この図2からわかるように、パラメータテーブルには、GPSセンサ11や加速度センサ12等の各センサ毎にパラメータ表示対象入力候補が記憶されている。このパラメータ表示対象入力候補は、所定のセンサの検出出力に対応する入力候補(パラメータ)の表示を行う入力候補を示している。制御部19は、ユーザから入力された文字に対応する入力候補を検出した際に、この入力候補の中に、このパラメータ表示対象入力候補と同じ入力候補が存在するか否かを判別し、該同じ入力候補が存在していた場合に、そのパラメータ表示対象入力候補に対応するセンサの検出出力を示す入力候補(パラメータ)を、上記検出した入力候補に含めて表示部5に表示制御する。
[Configuration of parameter table]
FIG. 2A shows an example of a parameter table stored in the memory 18. As can be seen from FIG. 2, the parameter table stores parameter display target input candidates for each sensor such as the GPS sensor 11 and the acceleration sensor 12. This parameter display target input candidate indicates an input candidate for displaying an input candidate (parameter) corresponding to a detection output of a predetermined sensor. When detecting an input candidate corresponding to the character input by the user, the control unit 19 determines whether or not the same input candidate as the parameter display target input candidate exists in the input candidate, When the same input candidate exists, an input candidate (parameter) indicating the detection output of the sensor corresponding to the parameter display target input candidate is included in the detected input candidate and displayed on the display unit 5.

具体的には、例えばユーザから入力された「げ」の文字に基づいて検出した各入力候補の中に、上記パラメータ表示対象入力候補の一つである「現在地」の入力候補が存在していた場合、制御部19は、この「現在地」のパラメータ表示対象入力候補に対応するGPSセンサ11の検出出力である当該携帯電話機の現在位置の地名等を上記パラメータとして、上記検出した入力候補に含めて表示部5に表示制御するようになっている。   Specifically, for example, among the input candidates detected based on the character “ge” input from the user, for example, there is an input candidate of “present location” which is one of the parameter display target input candidates. In this case, the control unit 19 includes the place name of the current position of the mobile phone, which is the detection output of the GPS sensor 11 corresponding to the parameter display target input candidate of “current location”, as the parameter, in the detected input candidate. Display control is performed on the display unit 5.

同様に、例えばユーザから入力された「き」の文字に基づいて検出した各入力候補の中に、上記パラメータ表示対象入力候補の一つである「気温」の入力候補が存在していた場合、制御部19は、この「気温」のパラメータ表示対象入力候補に対応する温度センサ13の検出出力である当該携帯電話機の周囲の温度を上記パラメータとして、上記検出した入力候補に含めて表示部5に表示制御するようになっている。   Similarly, for example, if there is an input candidate of “temperature” that is one of the parameter display target input candidates among the input candidates detected based on the character “ki” input from the user, The control unit 19 includes the temperature around the mobile phone, which is the detection output of the temperature sensor 13 corresponding to the “temperature” parameter display target input candidate, as the parameter, and includes the detected input candidate in the display unit 5. The display is controlled.

図2(b)は、各センサの検出出力に基づいて上記各入力候補に含めて表示されるパラメータの一例を示しているのであるが、この図2(b)からわかるように、GPSセンサ11の検出出力を上記入力候補(=上記パラメータ)として表示する場合には、このGPSセンサ11で検出された「大崎」、「品川」等の、当該携帯電話機の現在位置を示す地名等が上記入力候補として表示されることとなる。   FIG. 2 (b) shows an example of the parameters that are included in the input candidates and displayed based on the detection output of each sensor. As can be seen from FIG. 2 (b), the GPS sensor 11 Is displayed as the input candidate (= parameter), the place name indicating the current position of the mobile phone, such as “Osaki” and “Shinagawa” detected by the GPS sensor 11, is input It will be displayed as a candidate.

同様に、加速度センサ12の検出出力を上記入力候補として表示する場合には、この加速度センサ12で検出された「120歩/分」等の、当該携帯電話機の移動速度が上記入力候補として表示され、温度センサ13の検出出力を上記入力候補として表示する場合には、この温度センサ13で検出された「28℃」等の、当該携帯電話機の周囲の気温が上記入力候補として表示されることとなる。   Similarly, when the detection output of the acceleration sensor 12 is displayed as the input candidate, the moving speed of the mobile phone such as “120 steps / minute” detected by the acceleration sensor 12 is displayed as the input candidate. When the detection output of the temperature sensor 13 is displayed as the input candidate, the ambient temperature around the mobile phone such as “28 ° C.” detected by the temperature sensor 13 is displayed as the input candidate. Become.

さらに、地磁気センサ17の検出出力を上記入力候補として表示する場合には、この地磁気センサ17で検出された「東」、「西」、「南」、「北」等の方位が上記入力候補として表示され、基地局エリアの検出出力を上記入力候補として表示する場合には、制御部19が現在通信している基地局から送信される通信エリア情報に基づいて検出した、「東京」、「品川」等の基地局エリアが上記入力候補として表示されることとなる。   Further, when the detection output of the geomagnetic sensor 17 is displayed as the input candidate, directions such as “east”, “west”, “south”, “north”, etc. detected by the geomagnetic sensor 17 are used as the input candidate. When the detected output of the base station area is displayed as the input candidate, the “Tokyo”, “Shinagawa” detected based on the communication area information transmitted from the base station with which the control unit 19 is currently communicating is displayed. The base station area such as “” is displayed as the input candidate.

また、上記パラメータテーブルには、上述のように一覧的に表示された入力候補の中から、上記パラメータの入力候補がユーザにより選択された場合に、その次にユーザから入力された文字に対する入力候補を、何に基づいて予測して表示するかを示す「次候補予測対象文字」が記憶されている。   Further, in the parameter table, when the input candidate of the parameter is selected by the user from the input candidates displayed in a list as described above, the input candidate for the character input next by the user is selected. “Next candidate prediction target character” indicating what is predicted and displayed based on what is stored.

例えば、一覧的に表示した入力候補の中から、GPSセンサ11に対応するパラメータである地名の入力候補がユーザにより選択された場合、制御部19は、次にユーザから文字入力がなされた際にパラメータテーブルの「次候補予測対象文字」の項を参照する。この例の場合、GPSセンサ11の次候補予測対象文字としては「パラメータ」が既定されているため、制御部19は、ユーザにより選択された地名の入力候補に基づいて、次の入力候補を予測して表示制御することとなる。   For example, when an input candidate for a place name that is a parameter corresponding to the GPS sensor 11 is selected by the user from among the input candidates displayed in a list, the control unit 19 performs the next character input from the user. Refer to the “next candidate prediction target character” section of the parameter table. In this example, since “parameter” is defined as the next candidate prediction target character of the GPS sensor 11, the control unit 19 predicts the next input candidate based on the place name input candidate selected by the user. Thus, display control is performed.

同様に、一覧的に表示した入力候補の中から、温度センサ13に対応するパラメータである例えば25℃の入力候補がユーザにより選択された場合、制御部19は、次にユーザから文字入力がなされた際にパラメータテーブルの「次候補予測対象文字」の項を参照する。この例の場合、温度センサ13の次候補予測対象文字としては「入力文字」が既定されているため、制御部19は、次にユーザにより入力された文字に基づいて、次の入力候補を予測して表示制御することとなる。   Similarly, when an input candidate of, for example, 25 ° C. that is a parameter corresponding to the temperature sensor 13 is selected by the user from among the input candidates displayed in a list, the control unit 19 then inputs a character from the user. Refer to the “next candidate prediction target character” section of the parameter table. In this example, since “input character” is defined as the next candidate prediction target character of the temperature sensor 13, the control unit 19 predicts the next input candidate based on the next character input by the user. Thus, display control is performed.

なお、この次候補予測対象文字は、当該携帯電話機のメーカ側で固定的に設定してもよいし、ユーザが任意に設定可能としてもよい。
The next candidate prediction target character may be fixedly set by the manufacturer of the mobile phone or may be arbitrarily set by the user.

[文字入力動作]
次に、このような構成を有する当該実施の形態の携帯電話機における文字入力動作を説明する。
[Character input operation]
Next, a character input operation in the mobile phone of the embodiment having such a configuration will be described.

〔予測入力機能の設定〕
まず、当該実施の形態の携帯電話機には、例えばユーザにより「ば」と入力された場合、操作部6の変換キーが押圧され、或いは回転操作キーが回転操作される毎に「ば」→「羽」→「場」→「婆」→「罵」・・・等のように各入力候補を順次表示する「通常入力機能」と、例えばユーザにより「ば」と入力された場合、「ば」、「場所」、「場合」、「番地」・・・等の「ば」という入力文字から予測される入力候補を一覧的に表示する「予測入力機能」とが設けられている。そして、ユーザにより入力された文字に対応して各センサの検出出力に応じた入力候補(=上記パラメータ)を表示する「センサ辞書入力機能」を使用する場合、上記「予測入力機能」を予め選択する必要がある。
[Predictive input function settings]
First, in the mobile phone of the embodiment, for example, when “ba” is input by the user, “ba” → “every time the conversion key of the operation unit 6 is pressed or the rotation operation key is rotated. “Normal input function” that sequentially displays each input candidate like “wing” → “place” → “婆” → “罵”... , “Place”, “Case”, “Address”, etc. are provided with a “predictive input function” that displays a list of input candidates predicted from the input character “BA”. When the “sensor dictionary input function” that displays input candidates (= the above parameters) corresponding to the detection output of each sensor corresponding to the characters input by the user is used, the “predictive input function” is selected in advance. There is a need to.

一例ではあるが、当該実施の形態の携帯電話機の場合、ツールメニューから「文字入力ツール」のメニューを選択すると、図3(a)に示すように「予測変換切替メニュー」が表示される。この予測変換切替メニューでは、上記通常入力機能が選択されたことを示す「通常」の文字と、上記予測入力機能が選択されたことを示す「予測」との文字を、操作部19が操作部6の所定のキーが押圧操作される毎に交互に切り替え表示するようになっている。この場合、ユーザは、操作部6の所定のキーを押圧操作して上記「予測」との文字を表示させたうえで決定キーを押圧操作する。   For example, in the case of the mobile phone according to the present embodiment, when the “character input tool” menu is selected from the tool menu, a “predictive conversion switching menu” is displayed as shown in FIG. In the predictive conversion switching menu, the operation unit 19 displays the characters “normal” indicating that the normal input function is selected and the characters “prediction” indicating that the predictive input function is selected. Each time the predetermined key 6 is pressed, the display is alternately switched and displayed. In this case, the user presses a predetermined key on the operation unit 6 to display the character “prediction” and then presses the enter key.

制御部19は、予測変換切替メニューにおいて、上記「予測」との文字を表示している際に決定キーの押圧操作を検出すると、ユーザにより「予測入力機能」が選択されたものと認識し、文字入力機能として「予測入力機能」を用いることを示す予測入力ON/OFF情報をメモリ18に記憶制御する。これにより、いずれかのセンサからの検出出力に対応する入力候補(パラメータ)を、通常の入力候補に含めて一覧的に表示する「センサ辞書入力機能」を使用することが可能となる。
When the control unit 19 detects the pressing operation of the determination key while displaying the character “prediction” in the prediction conversion switching menu, the control unit 19 recognizes that the “prediction input function” is selected by the user, Predictive input ON / OFF information indicating that the “predictive input function” is used as the character input function is stored and controlled in the memory 18. As a result, it is possible to use a “sensor dictionary input function” that displays input candidates (parameters) corresponding to detection outputs from any of the sensors in a list including normal input candidates.

〔センサ辞書入力機能の設定〕
次に、「センサ辞書入力機能」を使用するためには、上述の「予測入力機能」を選択したうえで、センサ辞書入力機能の使用を指定すると共に、使用するセンサを選択する必要がある。
[Setting of sensor dictionary input function]
Next, in order to use the “sensor dictionary input function”, it is necessary to select the above-mentioned “predictive input function”, specify the use of the sensor dictionary input function, and select the sensor to be used.

すなわち、制御部19は、図3(a)に示すように「文字入力ツール」のメニュー画面において、上記「予測変換切替メニュー」と共に「センサ辞書入力選択メニュー」を表示部5に表示するようになっている。そして、ユーザにより、この「センサ辞書入力選択メニュー」が選択されると、図3(b)に示すようにセンサ辞書入力機能の使用を指定するための「ON」の文字、センサ辞書入力機能の使用を禁止するための「OFF」の文字を表示部5に表示する。   That is, the control unit 19 displays the “sensor dictionary input selection menu” on the display unit 5 together with the “predictive conversion switching menu” on the menu screen of the “character input tool” as shown in FIG. It has become. When this “sensor dictionary input selection menu” is selected by the user, as shown in FIG. 3B, the characters “ON” for designating the use of the sensor dictionary input function, the sensor dictionary input function A character “OFF” for prohibiting the use is displayed on the display unit 5.

ユーザは、センサ辞書入力機能の使用を禁止する場合には、上記「OFF」の文字の表示位置にカーソルを移動操作して決定キーを押圧操作し、センサ辞書入力機能の使用を指定する場合には、上記「ON」の文字の表示位置にカーソルを移動操作して決定キーを押圧操作する。   When the user prohibits the use of the sensor dictionary input function, the user moves the cursor to the display position of the character “OFF” and presses the enter key to designate the use of the sensor dictionary input function. Moves the cursor to the display position of the character “ON” and presses the enter key.

上記「ON」の文字の表示位置にカーソルが移動操作されたうえで決定キーが押圧操作されると、制御部19は、図3(c)に示すように、使用するセンサの選択画面を表示する。この使用するセンサの選択画面としては、GPSセンサ、加速度センサ、温度センサ・・・等の各センサの名称の一覧と、各センサの選択の有無を表示するためのチェックボックスが表示される。   When the determination key is pressed after the cursor is moved to the display position of the character “ON”, the control unit 19 displays a selection screen for the sensor to be used as shown in FIG. To do. As the sensor selection screen to be used, a list of names of sensors such as a GPS sensor, an acceleration sensor, a temperature sensor, etc., and a check box for displaying whether or not each sensor is selected are displayed.

ユーザは、使用する所望のセンサの名称の表示位置にカーソルを移動操作して決定キーを押圧操作する。この決定キーの押圧操作を検出すると、制御部19は、カーソルが位置しているセンサの使用がユーザにより指定されたものと認識し、当該センサのチェックボックスに対して、選択されたことを示す表示を行う。なお、図3(c)は、ユーザにより、使用するセンサとして「GPSセンサ」、「温度センサ」及び「基地局エリア(当該携帯電話機の地理的範囲の検出用)」が選択された場合の例である。
The user moves the cursor to the display position of the name of the desired sensor to be used and presses the enter key. When detecting the pressing operation of the determination key, the control unit 19 recognizes that the use of the sensor on which the cursor is positioned is designated by the user, and indicates that the sensor is selected with respect to the check box of the sensor. Display. FIG. 3C shows an example in which “GPS sensor”, “temperature sensor”, and “base station area (for detecting the geographical range of the mobile phone)” are selected by the user as sensors to be used. It is.

〔センサ辞書入力機能を用いた文字入力動作〕
図4のフローチャートに、センサ辞書入力機能を用いた文字入力動作の流れを示す。この図4のフローチャートは、例えば電子メール、スケジュール帳、電話帳等の文字入力の際に、制御部19が、メモリ18に記憶されている「文字入力プログラム」に基づいて実行するようになっており、制御部19が、ユーザからの文字入力を検出したタイミングでスタートとなる。
[Character input operation using sensor dictionary input function]
The flow chart of FIG. 4 shows the flow of character input operation using the sensor dictionary input function. The flowchart of FIG. 4 is executed by the control unit 19 based on a “character input program” stored in the memory 18 when inputting characters such as e-mail, schedule book, and telephone book. The control unit 19 starts at the timing when the character input from the user is detected.

制御部19は、このフローチャートをスタートさせると、まず、ステップS1において、メモリ18に記憶されている予測入力機能ON/OFF情報を読み込むことで、ユーザにより予測入力機能の使用が指定されているか否かを判別する。そして、ユーザにより予測入力機能の使用が指定されている場合は処理をステップS2に進め、ユーザにより予測入力機能の使用が指定されていない場合は処理をステップS8に進める。ステップS8では、ユーザにより予測入力機能の使用が指定されていないため、制御部19が、当該図3のフローチャートに示す処理を終了し、上述の「通常入力機能」に基づいて、ユーザから入力された文字の入力処理を行う。   When the control unit 19 starts this flowchart, first, in step S1, the prediction input function ON / OFF information stored in the memory 18 is read to determine whether or not the use of the prediction input function is specified by the user. Is determined. If the use of the prediction input function is designated by the user, the process proceeds to step S2, and if the use of the prediction input function is not designated by the user, the process proceeds to step S8. In step S8, since the use of the prediction input function is not specified by the user, the control unit 19 ends the process shown in the flowchart of FIG. 3 and is input from the user based on the above-described “normal input function”. Input processing of the characters.

これに対して、ユーザにより予測入力機能の使用が指定されているものと判別することで処理をステップS2に進めると、制御部19は、ユーザから入力された文字に対応する入力候補を、メモリ18に記憶されている辞書データベースから検出して処理をステップS3に進める。   In contrast, when the process proceeds to step S2 by determining that the use of the predictive input function is designated by the user, the control unit 19 stores input candidates corresponding to the characters input by the user. 18 is detected from the dictionary database stored in step 18, and the process proceeds to step S3.

ステップS3では、制御部19が、メモリ18に記憶されているパラメータテーブルの「パラメータ表示対象入力候補」の項を参照し、上記辞書データベースから検出した各入力候補の中に、「パラメータ表示対象入力候補」として指定されている入力候補が存在するか否かを判別する。そして、上記辞書データベースから検出した各入力候補の中に、「パラメータ表示対象入力候補」として指定されている入力候補が存在しない場合には、処理をステップS9に進め、上記ステップS2で検出した各入力候補を表示部5に表示制御して処理をステップS6に進める。   In step S 3, the control unit 19 refers to the “parameter display target input candidate” section of the parameter table stored in the memory 18, and selects “parameter display target input” from the input candidates detected from the dictionary database. It is determined whether or not there is an input candidate designated as “candidate”. If there is no input candidate designated as “parameter display target input candidate” among the input candidates detected from the dictionary database, the process proceeds to step S9, and each of the input candidates detected in step S2 is detected. The input candidates are displayed on the display unit 5 and the process proceeds to step S6.

一方、上記辞書データベースから検出した各入力候補の中に、「パラメータ表示対象入力候補」として指定されている入力候補が存在する場合、制御部19は、ステップS4において、この「パラメータ表示対象入力候補」として指定されている入力候補に対応するセンサを検出する。そして、メモリ18に記憶されている「使用センサ情報」に基づいて、この検出したセンサの使用がユーザにより指定されているか否かを判別する。   On the other hand, if there is an input candidate designated as a “parameter display target input candidate” among the input candidates detected from the dictionary database, the control unit 19 determines in step S4 this “parameter display target input candidate”. The sensor corresponding to the input candidate designated as “is detected. Then, based on “use sensor information” stored in the memory 18, it is determined whether or not the use of the detected sensor is designated by the user.

制御部19は、上記センサの使用がユーザにより指定されていない場合には、処理をステップS9に進め、上記ステップS2において、ユーザから入力された文字に基づいて検出した各入力候補を、表示部5に一覧的に表示制御して処理をステップS6に進める。   When the use of the sensor is not designated by the user, the control unit 19 advances the processing to step S9, and displays each input candidate detected based on the character input from the user in the step S2. Then, the display is controlled as a list, and the process proceeds to step S6.

これに対して、上記センサの使用がユーザにより指定されている場合には処理をステップS5に進め、上記「パラメータ表示対象入力候補」として指定されている入力候補に対応するセンサで検出された検出出力に対応する入力候補(パラメータ)を、上記ステップS2で検出された各入力候補に含めて、表示部5に一覧的に表示制御する。   On the other hand, if the use of the sensor is designated by the user, the process proceeds to step S5, and detection detected by the sensor corresponding to the input candidate designated as the “parameter display target input candidate”. Input candidates (parameters) corresponding to the output are included in each input candidate detected in step S2 and displayed on the display unit 5 in a list-controlled manner.

具体的には、ユーザにより、例えば「き」の文字が入力された場合、制御部19は、図5(a)に示すように、この「き」の入力文字から予測される「気合い」、「今日」、「急に」、「帰宅」・・・「気温」等の入力候補を上記辞書データベースから検出する(ステップS2)。   Specifically, for example, when a character “ki” is input by the user, the control unit 19, as shown in FIG. 5 (a), the “motivation” predicted from the input character “ki”, Input candidates such as “today”, “suddenly”, “return home”... “Temperature” are detected from the dictionary database (step S2).

次に、制御部19は、この各入力候補の中に、パラメータテーブルの「パラメータ表示対象入力候補」として既定されている入力候補が存在するか否かを判別する(ステップS3)。この場合、ユーザからの「き」の入力文字に基づいて検出された入力候補の一つである「気温」の入力候補が、図2(a)に示すようにパラメータテーブルの「パラメータ表示対象入力候補」として既定されている。また、図2(a)からわかるように、この「気温」の入力候補に対応するセンサは「温度センサ」である。   Next, the control unit 19 determines whether or not there is an input candidate defined as a “parameter display target input candidate” in the parameter table among the input candidates (step S3). In this case, the input candidate of “temperature”, which is one of the input candidates detected based on the input character “ki” from the user, is “parameter display target input” of the parameter table as shown in FIG. Defaulted as “candidate”. Further, as can be seen from FIG. 2A, the sensor corresponding to this “temperature” input candidate is the “temperature sensor”.

このため、制御部19は、図1に示す温度センサ13からの検出出力を取り込み、この検出出力に対応する例えば「32℃」等の現在の気温を示す入力候補を、図5(b)に示すように各入力候補に含めて表示部5に表示制御する(ステップS5)。   For this reason, the control part 19 takes in the detection output from the temperature sensor 13 shown in FIG. 1, and inputs the input candidate which shows the present temperature corresponding to this detection output, such as "32 degreeC", to FIG.5 (b). As shown, display control is performed on the display unit 5 in each input candidate (step S5).

同様に、ユーザにより、例えば「ば」の文字が入力された場合、制御部19は、図6(a)に示すように、この「ば」の入力文字から予測される「馬場」、「バック」、「番号」・・・「場所」等の入力候補を上記辞書データベースから検出する。   Similarly, when the user inputs a character “BA”, for example, the control unit 19, as shown in FIG. 6A, predicts “BABA”, “BACK” predicted from the input character “BA”. ”,“ Number ”...“ Location ”and the like are detected from the dictionary database.

次に、制御部19は、この各入力候補の中に、パラメータテーブルの「パラメータ表示対象入力候補」として既定されている入力候補が存在するか否かを判別する。この場合、ユーザからの「ば」の入力文字に基づいて検出された入力候補の一つである「場所」の入力候補が、図2(a)に示すようにパラメータテーブルの「パラメータ表示対象入力候補」として既定されている。また、図2(a)からわかるように、この「場所」の入力候補に対応するセンサは「基地局エリア」である。   Next, the control unit 19 determines whether or not there is an input candidate defined as a “parameter display target input candidate” in the parameter table among the input candidates. In this case, the input candidate of “place”, which is one of the input candidates detected based on the input character “ba” from the user, is displayed as “parameter display target input” in the parameter table as shown in FIG. Defaulted as “candidate”. Further, as can be seen from FIG. 2A, the sensor corresponding to this “place” input candidate is the “base station area”.

このため、制御部19は、図1に示すアンテナ1及び通信回路2を介して基地局から受信される通信エリア情報に基づいて、当該携帯電話機が現在、位置している通信エリアを検出し、この通信エリアに対応する例えば「大崎」等の現在の場所を示す入力候補を、図6(b)に示すように各入力候補に含めて表示部5に表示制御する。   For this reason, the control unit 19 detects the communication area where the mobile phone is currently located based on the communication area information received from the base station via the antenna 1 and the communication circuit 2 shown in FIG. Input candidates indicating the current location such as “Osaki” corresponding to this communication area are included in each input candidate as shown in FIG.

同様に、ユーザにより、例えば「げ」の文字が入力された場合、制御部19は、図6(d)に示すように、この「げ」の入力文字から予測される「限界」、「元気」、「限定」・・・「現在地」等の入力候補を上記辞書データベースから検出する。   Similarly, when the user inputs a character “G”, for example, as shown in FIG. 6 (d), the control unit 19 predicts the “limit” and “energy” predicted from the input character “G”. ”,“ Limited ”...“ Current location ”and the like are detected from the dictionary database.

次に、制御部19は、この各入力候補の中に、パラメータテーブルの「パラメータ表示対象入力候補」として既定されている入力候補が存在するか否かを判別する。この場合、ユーザからの「げ」の入力文字に基づいて検出された入力候補の一つである「現在地」の入力候補が、図2(a)に示すようにパラメータテーブルの「パラメータ表示対象入力候補」として既定されている。また、図2(a)からわかるように、この「現在地」の入力候補に対応するセンサは「GPSセンサ」である。   Next, the control unit 19 determines whether or not there is an input candidate defined as a “parameter display target input candidate” in the parameter table among the input candidates. In this case, an input candidate of “current location” that is one of input candidates detected based on the input character “ge” from the user is “parameter display target input” of the parameter table as shown in FIG. Defaulted as “candidate”. Further, as can be seen from FIG. 2A, the sensor corresponding to the input candidate of the “current location” is “GPS sensor”.

このため、制御部19は、図1に示すGPSセンサ11からの検出出力を取り込み、この検出出力に対応する例えば「大崎」等の、当該携帯電話機の現在位置を示す入力候補を、図6(e)に示すように各入力候補に含めて表示部5に表示制御する。   For this reason, the control unit 19 takes in the detection output from the GPS sensor 11 shown in FIG. 1, and selects an input candidate indicating the current position of the mobile phone, such as “Osaki”, corresponding to this detection output, as shown in FIG. As shown in e), display control is performed on the display unit 5 in each input candidate.

次に、図5(b)、図6(b)、図6(e)に示したように、通常の各入力候補に含めて表示されたパラメータ(=センサの検出出力に対応する入力候補)を選択する場合、ユーザは、操作部6を操作してカーソルを上記パラメータの表示位置に移動させ、決定キーを押圧操作する。この押圧操作を検出すると、制御部19は、ユーザにより入力された文字を、現在、カーソルが位置している入力候補の文字に変換して表示する。これにより、ユーザが「き」の文字を入力して上記パラメータを選択した場合には、図5(c)に示すように、この入力した「き」の文字が、現在の気温を示す「32℃」の文字に変換されて入力されることとなる。   Next, as shown in FIG. 5B, FIG. 6B, and FIG. 6E, the parameters displayed by being included in each normal input candidate (= input candidates corresponding to the detection output of the sensor) When selecting the user, the user operates the operation unit 6 to move the cursor to the parameter display position and presses the enter key. When this pressing operation is detected, the control unit 19 converts the character input by the user into the input candidate character where the cursor is currently positioned, and displays it. As a result, when the user inputs the character “KI” and selects the parameter, as shown in FIG. 5C, the input character “KI” indicates “32” indicating the current temperature. It is converted into the character “° C.” and input.

同様に、ユーザが「ば」の文字を入力して上記パラメータを選択した場合には、図6(c)に示すように、この入力した「ば」の文字が、現在の場所を示す「大崎」の文字に変換されて入力され、ユーザが「げ」の文字を入力して上記パラメータを選択した場合には、図6(c)に示すように、この入力した「げ」の文字が、現在置を示す「大崎」の文字に変換されて入力されることとなる。
Similarly, when the user inputs the character “BA” and selects the above parameter, as shown in FIG. 6C, the input character “BA” indicates the current location “Osaki”. When the user inputs the character “G” and selects the above parameter, as shown in FIG. 6C, the character “G” inputted is It is converted into the character “Osaki” indicating the current position and input.

〔次入力候補の予測動作〕
次に、図4のフローチャートに戻り、ステップS6では、制御部19が、ユーザにより各入力候補の中からパラメータの入力候補が選択されたか否かを判別する。そして、パラメータの入力候補が選択された場合には、処理をステップS10に進め、パラメータ以外の入力候補が選択された場合には、処理をステップS7に進める。
[Next input candidate prediction]
Next, returning to the flowchart of FIG. 4, in step S <b> 6, the control unit 19 determines whether or not a parameter input candidate has been selected from among the input candidates by the user. If a parameter input candidate is selected, the process proceeds to step S10. If an input candidate other than the parameter is selected, the process proceeds to step S7.

ユーザによりパラメータの入力候補が選択されることで処理をステップS10に進めると、制御部19は、ユーザにより、次の文字が入力されたか否かを判別する。そして、次の文字が入力されたことを検出した場合、処理をステップS11に進め、次の文字が入力されたことを検出しなかった場合には、処理をステップS7に進める。   When the process proceeds to step S10 by selecting a parameter input candidate by the user, the control unit 19 determines whether or not the next character has been input by the user. If it is detected that the next character has been input, the process proceeds to step S11. If it is not detected that the next character has been input, the process proceeds to step S7.

ユーザから次の文字が入力されることで処理をステップS11に進めると、制御部19は、図2(a)に示すパラメータテーブルを参照し、ユーザからの次の入力文字に対する入力候補を、何に基づいて検出するかを判別する。   When the process proceeds to step S11 when the next character is input from the user, the control unit 19 refers to the parameter table shown in FIG. It is determined whether or not to detect based on.

具体的には、例えば図5(a)〜(c)に示したように、ユーザが「き」の文字を入力することで「32℃」のパラメータが選択された場合、図2からわかるように、この「32℃」の気温を検出した温度センサ13に対する次候補予測対象文字は「入力文字」として既定されている。これは、ユーザによりパラメータの入力が選択され、次にユーザから入力された文字に対しては、このユーザから入力された文字(=上記「入力文字」)に基づいて辞書データベースから入力候補を検出することを示している。   Specifically, as shown in FIGS. 5A to 5C, for example, when the user selects the parameter “32 ° C.” by inputting the character “KI”, it can be seen from FIG. In addition, the next candidate prediction target character for the temperature sensor 13 that has detected the temperature of “32 ° C.” is defined as “input character”. This is because the input of parameters is selected by the user, and for the next character input by the user, input candidates are detected from the dictionary database based on the character input from the user (= “input character” above). It shows that

同様に、例えば図6(d)、図6(e)、図6(c)に示したように、ユーザが「げ」の文字を入力することで「大崎」のパラメータが選択された場合、図2からわかるように、この「大崎」の現在地を検出したGPSセンサ11に対する次候補予測対象文字は「パラメータ」として既定されている。これは、ユーザによりパラメータの入力が選択され、次にユーザから入力された文字に対しては、このユーザにより選択されたパラメータに基づいて辞書データベースから入力候補を検出することを示している。   Similarly, for example, as shown in FIG. 6D, FIG. 6E, and FIG. 6C, when the user selects the parameter “Osaki” by inputting the letter “G”, As can be seen from FIG. 2, the next candidate prediction target character for the GPS sensor 11 that has detected the current location of “Osaki” is defined as “parameter”. This indicates that the input of the parameter is selected by the user, and for the next character input by the user, input candidates are detected from the dictionary database based on the parameter selected by the user.

このため、制御部19は、上記パラメータテーブルに基づいて、次の入力候補を検出する対象が「入力文字」であるか、或いは「パラメータ」であるかを検出すると、この検出した対象に基づいて、ユーザから入力された文字に対応する入力候補を辞書データベースから検出して表示部5に一覧的に表示し、処理をステップS7に進める。   Therefore, when the control unit 19 detects whether the next input candidate to be detected is “input character” or “parameter” based on the parameter table, based on the detected target. The input candidates corresponding to the characters input by the user are detected from the dictionary database and displayed in a list on the display unit 5, and the process proceeds to step S7.

このように、ユーザによりパラメータが選択された場合に、次の入力文字に対して検出する入力候補の対象を「パラメータ」か或いは「入力文字」かを既定しておくことで、次の入力文字に対する、より適切な入力候補を検出することができると共に、該入力候補の一覧の表示をより迅速に行うことができる。
In this way, when a parameter is selected by the user, the next input character can be determined by setting whether the input candidate to be detected for the next input character is “parameter” or “input character”. More appropriate input candidates can be detected, and the list of input candidates can be displayed more quickly.

次に、上記ステップS6においてパラメータ以外の入力候補が選択されたものと判別され、或いは上記ステップS10において、パラメータの入力候補の選択後に、次の文字入力がなされないものと判別され、さらには上記ステップS11において、上記次候補予測対象文字に基づいて入力候補を表示することで、処理をステップS7に進めると、制御部19は、ユーザにより、次の文字が入力されたか否かを判別する。そして、次の文字が入力されたことを検出した場合、処理をステップS2に戻し、次の文字が入力されたことを検出しなかった場合には、そのまま当該図4のフローチャートに示す処理を終了する。
Next, it is determined in step S6 that an input candidate other than the parameter has been selected, or in step S10, it is determined that the next character input is not performed after the parameter input candidate is selected. When the input candidate is displayed based on the next candidate prediction target character in step S11 and the process proceeds to step S7, the control unit 19 determines whether or not the user has input the next character. If it is detected that the next character is input, the process returns to step S2, and if it is not detected that the next character is input, the process shown in the flowchart of FIG. To do.

[実施の形態の効果]
以上の説明から明らかなように、この実施の形態の携帯電話機は、通常の入力候補に含めて、気温、現在位置、方位、移動速度、方位等のユーザの現状に対応する様々な入力候補を表示することができる。このため、ユーザの文字入力操作をより簡素化することができる。
[Effect of the embodiment]
As is clear from the above description, the mobile phone according to this embodiment includes various input candidates corresponding to the current state of the user, such as temperature, current position, direction, moving speed, and direction, in addition to normal input candidates. Can be displayed. For this reason, a user's character input operation can be simplified more.

[変形例]
上述の実施の形態の説明では、本発明を携帯電話機に適用することとしたが、本発明は、この携帯電話機の他、PHS電話機(PHS:Personal Handyphone System)、PDA装置(PDA:Personal Digital Assistant)、ノート型、デスクトップ型のパーソナルコンピュータ装置等の他の端末装置に適用してもよい。この場合でも、上述と同様の効果を得ることができる。
[Modification]
In the above description of the embodiment, the present invention is applied to a cellular phone. However, the present invention is not limited to this cellular phone, but also a PHS phone (PHS: Personal Handyphone System), a PDA device (PDA: Personal Digital Assistant). ), And may be applied to other terminal devices such as notebook type and desktop type personal computer devices. Even in this case, the same effect as described above can be obtained.

また、図5(a)、図6(a)、図6(d)には、ユーザにより入力された文字に対応するパラメータが、入力候補の一覧の最後に表示されているように図示されているが、このパラメータの表示位置としては、入力候補の一覧の先頭や中程等の任意の位置に表示してもよいし、また、ユーザが予めパラメータの表示位置を指定可能としてもよい。   Also, in FIG. 5A, FIG. 6A, and FIG. 6D, the parameters corresponding to the characters input by the user are illustrated as being displayed at the end of the input candidate list. However, the parameter display position may be displayed at an arbitrary position such as the top or middle of the input candidate list, or the parameter display position may be designated in advance by the user.

最後に、本発明は、本発明の一例として開示したに過ぎない上述の実施の形態に限定されることはなく、本発明に係る技術的思想を逸脱しない範囲であれば、上述の実施の形態以外であっても設計等に応じて種々の変更が可能であることは勿論であることを付け加えておく。   Finally, the present invention is not limited to the above-described embodiment that has been disclosed as an example of the present invention. The above-described embodiment is within the scope of the technical idea of the present invention. It should be added that various changes can be made according to the design and the like even if other than the above.

本発明を適用した実施の形態となる携帯電話機のブロック図である。1 is a block diagram of a mobile phone according to an embodiment to which the present invention is applied. 実施の形態の携帯電話機に設けられているパラメータテーブルの模式図である。It is a schematic diagram of a parameter table provided in the mobile phone according to the embodiment. 実施の形態の携帯電話機におけるセンサ辞書入力機能の選択設定操作、及びセンサ辞書入力機能において使用するセンサの選択設定操作を説明するための図である。It is a figure for demonstrating selection setting operation of the sensor dictionary input function in the mobile telephone of embodiment, and selection selection operation of the sensor used in a sensor dictionary input function. 実施の形態の携帯電話機におけるセンサ辞書入力動作を説明するためのフローチャートである。It is a flowchart for demonstrating the sensor dictionary input operation | movement in the mobile telephone of embodiment. 実施の形態の携帯電話機のセンサ辞書入力時における文字入力例を示す図である。It is a figure which shows the example of a character input at the time of the sensor dictionary input of the mobile telephone of embodiment. 実施の形態の携帯電話機のセンサ辞書入力時における他の文字入力例を示す図である。It is a figure which shows the other example of a character input at the time of sensor dictionary input of the mobile telephone of embodiment.

符号の説明Explanation of symbols

1 アンテナ、2 通信回路、3 スピーカ部、4 マイクロホン部、5 表示部、6 操作部、7 発光部(LED)、8 カメラ部、9 バイブレーションユニット、10 GPSアンテナ、11 GPSユニット、12 加速度センサ、13 温度センサ、14 圧力センサ、15 光量センサ、16 においセンサ、17 地磁気センサ、18 メモリ、19 制御部   DESCRIPTION OF SYMBOLS 1 Antenna 2 Communication circuit 3 Speaker part 4 Microphone part 5 Display part 6 Operation part 7 Light emission part (LED) 8 Camera part 9 Vibration unit 10 GPS antenna 11 GPS unit 12 Acceleration sensor 13 temperature sensor, 14 pressure sensor, 15 light quantity sensor, 16 odor sensor, 17 geomagnetic sensor, 18 memory, 19 control unit

Claims (6)

入力される文字から予測される入力候補が複数記憶された辞書データベースと、
複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段と、
入力された文字から予測される入力候補を辞書データベースから検索する入力候補検索手段と、
上記入力候補検索手段により上記辞書データベースから検索された入力候補の中に、上記センサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する対象入力候補検索手段と、
上記対象入力候補検索手段により上記辞書データベースから検索した入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出手段と、
上記センサ群の各センサからの検出出力のうち、上記対応センサ検出手段により検出されたセンサからの検出出力に対応する入力候補を、上記入力候補検索手段で検索された入力候補に含めて、表示手段に一覧的に表示する表示制御手段と
を有する文字入力装置。
A dictionary database storing a plurality of input candidates predicted from input characters;
Sensor-specific input candidate storage means in which input candidates assigned to each sensor of a sensor group composed of a plurality of sensors are stored;
Input candidate search means for searching the dictionary database for input candidates predicted from the input characters;
Target input candidate search means for determining whether or not there is an input candidate stored in the sensor-specific input candidate storage means among the input candidates searched from the dictionary database by the input candidate search means;
When an input candidate stored in the sensor-specific input candidate storage unit is searched from input candidates searched from the dictionary database by the target input candidate search unit, a sensor corresponding to the searched input candidate Corresponding sensor detection means for detecting from the sensor-specific input candidate storage means,
Among the detection outputs from each sensor of the sensor group, the input candidates corresponding to the detection outputs from the sensors detected by the corresponding sensor detection means are included in the input candidates searched by the input candidate search means, and displayed. A character input device comprising: display control means for displaying a list on the means.
請求項1に記載の文字入力装置であって、
上記センサ群の各センサからの検出出力のうち、入力候補の表示に用いるセンサを示す使用センサ情報が記憶された使用センサ情報記憶手段を有し、
上記表示制御手段は、上記対応センサ検出手段で検出されたセンサが、上記入力候補の表示に用いるセンサとして上記使用センサ情報記憶手段に記憶されている場合に、上記対応センサ検出手段により検出されたセンサからの検出出力に対応する入力候補を、上記入力候補検索手段で検索された入力候補に含めて上記表示手段に一覧的に表示し、上記対応センサ検出手段で検出されたセンサが、上記入力候補の表示に用いるセンサとして上記使用センサ情報記憶手段に記憶されていない場合には、上記入力候補検索手段で検索された入力候補のみ、上記表示手段に一覧的に表示すること
を特徴とする文字入力装置。
The character input device according to claim 1,
Of the detection outputs from the sensors of the sensor group, the sensor includes a sensor information storage unit that stores sensor information indicating sensors used to display input candidates.
The display control means is detected by the corresponding sensor detection means when the sensor detected by the corresponding sensor detection means is stored in the use sensor information storage means as a sensor used for displaying the input candidate. Input candidates corresponding to detection outputs from the sensors are included in the input candidates searched by the input candidate search means and displayed in a list on the display means, and the sensors detected by the corresponding sensor detection means are Characters that are not stored in the use sensor information storage means as sensors used for displaying candidates, only the input candidates searched by the input candidate search means are displayed in a list on the display means. Input device.
請求項1又は請求項2に記載の文字入力装置であって、
上記一覧的に表示された各入力候補のうち、上記センサからの検出出力に対応する入力候補が、入力する文字として選択された際に、この選択直後に入力された文字に対応する入力候補を、当該直後に入力された文字に基づいて検索するか、或いは上記選択された上記センサからの検出出力に対応する入力候補に基づいて検索するかを示す入力候補の検索対象が、各センサ別に記憶された検索対象記憶手段を有し、
上記入力候補検索手段は、上記センサからの検出出力に対応する入力候補が、入力する文字として選択された際に、この選択された入力候補に対応する検出出力を出力したセンサの上記検索対象を上記検索対象記憶手段から検出し、この検出結果に基づいて、上記選択直後に入力された文字に対応する入力候補を、当該入力された文字に基づいて上記辞書データベースから検索し、或いは上記選択直後に入力された文字に対応する入力候補を、上記選択された上記センサからの検出出力に対応する入力候補の文字に基づいて上記辞書データベースから検索すること
を特徴とする文字入力装置。
The character input device according to claim 1 or 2,
Among the input candidates displayed in a list, when an input candidate corresponding to the detection output from the sensor is selected as a character to be input, an input candidate corresponding to the character input immediately after the selection is selected. A search target of input candidates indicating whether to search based on a character input immediately after the search or to search based on an input candidate corresponding to a detection output from the selected sensor is stored for each sensor. Search target storage means,
When the input candidate corresponding to the detection output from the sensor is selected as a character to be input, the input candidate search means selects the search target of the sensor that has output the detection output corresponding to the selected input candidate. Based on the detection result, the input candidate corresponding to the character input immediately after the selection is searched from the dictionary database based on the input character, or immediately after the selection. An input candidate corresponding to the character input to is searched from the dictionary database based on the input candidate character corresponding to the detection output from the selected sensor.
文字入力操作を行うための操作手段と、
上記操作手段を介して入力される文字から予測される入力候補が複数記憶された辞書データベースと、
複数のセンサで構成されるセンサ群と、
上記センサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段と、
入力された文字から予測される入力候補を辞書データベースから検索する入力候補検索手段と、
上記入力候補検索手段により上記辞書データベースから検索された入力候補の中に、上記センサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する対象入力候補検索手段と、
上記対象入力候補検索手段により上記辞書データベースから検索した入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出手段と、
上記センサ群の各センサからの検出出力のうち、上記対応センサ検出手段により検出されたセンサからの検出出力に対応する入力候補を、上記入力候補検索手段で検索された入力候補に含めて、表示手段に一覧的に表示する表示制御手段と
を有する端末装置。
Operation means for performing character input operation;
A dictionary database in which a plurality of input candidates predicted from characters input via the operation means are stored;
A sensor group composed of a plurality of sensors;
Sensor-specific input candidate storage means in which input candidates assigned to each sensor of the sensor group are stored;
Input candidate search means for searching the dictionary database for input candidates predicted from the input characters;
Target input candidate search means for determining whether or not there is an input candidate stored in the sensor-specific input candidate storage means among the input candidates searched from the dictionary database by the input candidate search means;
When an input candidate stored in the sensor-specific input candidate storage unit is searched from input candidates searched from the dictionary database by the target input candidate search unit, a sensor corresponding to the searched input candidate Corresponding sensor detection means for detecting from the sensor-specific input candidate storage means,
Among the detection outputs from each sensor of the sensor group, the input candidates corresponding to the detection outputs from the sensors detected by the corresponding sensor detection means are included in the input candidates searched by the input candidate search means, and displayed. Display control means for displaying a list on the means.
入力された文字から予測される入力候補を辞書データベースから検索する入力候補検索手段としてコンピュータを機能させ、
上記入力候補検索手段としてコンピュータを機能させることで、上記辞書データベースから検索された入力候補の中に、複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する対象入力候補検索手段としてコンピュータを機能させ、
上記対象入力候補検索手段としてコンピュータを機能させることで、上記辞書データベースから検索された入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出手段としてコンピュータを機能させ、
上記センサ群の各センサからの検出出力のうち、コンピュータを上記対応センサ検出手段として機能させることで検出されたセンサからの検出出力に対応する入力候補を、コンピュータを上記入力候補検索手段として機能させることで検索された入力候補に含めて、表示手段に一覧的に表示する表示制御手段としてコンピュータを機能させること
を特徴とする文字入力プログラム。
Let the computer function as input candidate search means for searching input candidates predicted from the input characters from the dictionary database,
Sensors in which input candidates assigned to each sensor of a sensor group composed of a plurality of sensors are stored in the input candidates searched from the dictionary database by causing a computer to function as the input candidate search means Causing the computer to function as target input candidate search means for determining whether or not there is an input candidate stored in another input candidate storage means;
When the input candidate stored in the sensor-specific input candidate storage unit is searched from the input candidates searched from the dictionary database by causing the computer to function as the target input candidate search unit, the search is performed. The computer is caused to function as corresponding sensor detection means for detecting the sensor corresponding to the input candidate that has been input from the sensor-specific input candidate storage means,
Among the detection outputs from the sensors of the sensor group, input candidates corresponding to the detection outputs from the sensors detected by causing the computer to function as the corresponding sensor detection means function the computer as the input candidate search means. A character input program that causes a computer to function as a display control means that is included in the input candidates searched for and displayed in a list on the display means.
入力候補検索手段により、入力された文字から予測される入力候補を辞書データベースから検索する検索ステップと、
対象入力候補検索手段が、上記検索ステップにおいて上記辞書データベースから検索された入力候補の中に、複数のセンサで構成されるセンサ群の各センサ毎に割り当てられた入力候補が記憶されたセンサ別入力候補記憶手段に記憶されている入力候補が存在するか否かを判別する判別ステップと、
上記判別ステップにおいて、上記辞書データベースから検索された入力候補の中から、上記センサ別入力候補記憶手段に記憶されている入力候補が検索された場合に、対応センサ検出手段が、当該検索された入力候補に対応するセンサを、上記センサ別入力候補記憶手段から検出する対応センサ検出ステップと、
表示制御手段が、上記センサ群の各センサからの検出出力のうち、上記対応センサ検出ステップにおいて検出されたセンサからの検出出力に対応する入力候補を、上記検索ステップにおいて検索された入力候補に含めて、表示手段に一覧的に表示する一覧表示ステップと
を有する文字入力方法。
A search step of searching the dictionary database for input candidates predicted from the input characters by the input candidate search means;
The target input candidate searching means stores the input candidates assigned to each sensor of the sensor group composed of a plurality of sensors among the input candidates searched from the dictionary database in the search step. A determination step of determining whether there is an input candidate stored in the candidate storage means;
In the determining step, when an input candidate stored in the sensor-specific input candidate storage unit is searched from the input candidates searched from the dictionary database, the corresponding sensor detection unit detects the input A corresponding sensor detection step of detecting a sensor corresponding to a candidate from the sensor-specific input candidate storage means;
The display control means includes the input candidates corresponding to the detection output from the sensor detected in the corresponding sensor detection step among the detection outputs from each sensor of the sensor group in the input candidates searched in the search step. And a list display step for displaying a list on the display means.
JP2006009275A 2006-01-17 2006-01-17 Character input device, terminal device, character input program, and character input method Expired - Fee Related JP4711834B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006009275A JP4711834B2 (en) 2006-01-17 2006-01-17 Character input device, terminal device, character input program, and character input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006009275A JP4711834B2 (en) 2006-01-17 2006-01-17 Character input device, terminal device, character input program, and character input method

Publications (2)

Publication Number Publication Date
JP2007193455A true JP2007193455A (en) 2007-08-02
JP4711834B2 JP4711834B2 (en) 2011-06-29

Family

ID=38449120

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006009275A Expired - Fee Related JP4711834B2 (en) 2006-01-17 2006-01-17 Character input device, terminal device, character input program, and character input method

Country Status (1)

Country Link
JP (1) JP4711834B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129205A (en) * 2007-11-22 2009-06-11 Sharp Corp Character input device
JP2009246550A (en) * 2008-03-28 2009-10-22 Kyocera Corp Communication device
JP2010271938A (en) * 2009-05-21 2010-12-02 Jvc Kenwood Holdings Inc System, auxiliary method, and auxiliary program for inputting character
JP2012217217A (en) * 2012-08-03 2012-11-08 Kyocera Corp Communication equipment
US8320941B2 (en) 2009-09-24 2012-11-27 Fujitsu Toshiba Mobile Communications Limited Mobile terminal and method for displaying data added location information
CN102843476A (en) * 2012-09-12 2012-12-26 惠州Tcl移动通信有限公司 Mobile terminal and input method management method thereof
JP2013130954A (en) * 2011-12-20 2013-07-04 Ntt Docomo Inc Input auxiliary device, input auxiliary system and input auxiliary method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004020951A1 (en) * 2002-08-27 2004-03-11 Vitec Co., Ltd. Mobile terminal device
JP2005128883A (en) * 2003-10-24 2005-05-19 Sony Ericsson Mobilecommunications Japan Inc Method and device for searching for character, and portable terminal device
JP2005165460A (en) * 2003-11-28 2005-06-23 Kyocera Corp Mobile terminal device and data processing method thereof
JP2006004016A (en) * 2004-06-15 2006-01-05 Matsushita Electric Ind Co Ltd Character input conversion unit, character input conversion method, personal computer, telecommunication portable terminal, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004020951A1 (en) * 2002-08-27 2004-03-11 Vitec Co., Ltd. Mobile terminal device
JP2005128883A (en) * 2003-10-24 2005-05-19 Sony Ericsson Mobilecommunications Japan Inc Method and device for searching for character, and portable terminal device
JP2005165460A (en) * 2003-11-28 2005-06-23 Kyocera Corp Mobile terminal device and data processing method thereof
JP2006004016A (en) * 2004-06-15 2006-01-05 Matsushita Electric Ind Co Ltd Character input conversion unit, character input conversion method, personal computer, telecommunication portable terminal, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129205A (en) * 2007-11-22 2009-06-11 Sharp Corp Character input device
JP2009246550A (en) * 2008-03-28 2009-10-22 Kyocera Corp Communication device
JP2010271938A (en) * 2009-05-21 2010-12-02 Jvc Kenwood Holdings Inc System, auxiliary method, and auxiliary program for inputting character
US8320941B2 (en) 2009-09-24 2012-11-27 Fujitsu Toshiba Mobile Communications Limited Mobile terminal and method for displaying data added location information
JP2013130954A (en) * 2011-12-20 2013-07-04 Ntt Docomo Inc Input auxiliary device, input auxiliary system and input auxiliary method
JP2012217217A (en) * 2012-08-03 2012-11-08 Kyocera Corp Communication equipment
CN102843476A (en) * 2012-09-12 2012-12-26 惠州Tcl移动通信有限公司 Mobile terminal and input method management method thereof
CN102843476B (en) * 2012-09-12 2015-04-15 惠州Tcl移动通信有限公司 Mobile terminal and input method management method thereof

Also Published As

Publication number Publication date
JP4711834B2 (en) 2011-06-29

Similar Documents

Publication Publication Date Title
JP4711834B2 (en) Character input device, terminal device, character input program, and character input method
US8831636B2 (en) Method of operating mobile device by recognizing user&#39;s gesture and mobile device using the method
US8654148B2 (en) Display control apparatus for deciding a retrieval range for displaying stored pieces of information
JP4719804B2 (en) Mobile device
JP2008046893A (en) Portable communication terminal, method for acquiring information and information acquisition program
JP4566885B2 (en) Mobile terminal and terminal control method
JP2010527188A (en) Method and apparatus for generating multimedia content in response to simultaneous input from associated mobile devices
KR101364044B1 (en) Mobile terminal and method for displaying image according to call
KR20100027457A (en) Collecting information display device for portable device and method using the same
CN101923391A (en) Apparatus and method for motion detection in portable terminal
EP1610533B1 (en) Method for performing functions associated with a phone number in a mobile communication terminal
JP4497418B2 (en) Communication terminal device and communication partner selection transmission method
JP5439790B2 (en) Terminal device, computer program, and character string conversion method
WO2011093409A1 (en) Portable terminal device and display control method
JP2008158949A (en) Information terminal and prediction conversion program
JP5011497B2 (en) INPUT PROCESSING DEVICE, INPUT PROCESSING METHOD, INPUT PROCESSING PROGRAM, AND PORTABLE TERMINAL DEVICE
JP2004153398A (en) Information entry method
JP2006262332A (en) Neighboring user list preparation program, mobile terminal, and neighboring user list preparation method
JP2006127002A (en) Character information input device and character information input program
JP5177010B2 (en) Mobile terminal, telephone directory search method, telephone directory search program, and program recording medium
JP2009288888A (en) Character input device, character input learning method and program
CN106055610B (en) Voice information retrieval method and mobile terminal
JP5354648B2 (en) Terminal device and program
JP5040524B2 (en) Terminal device and program
JP5261005B2 (en) Portable information equipment

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20071009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081117

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20091002

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110301

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110322

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees