JP2012103912A - Character input device - Google Patents

Character input device Download PDF

Info

Publication number
JP2012103912A
JP2012103912A JP2010252028A JP2010252028A JP2012103912A JP 2012103912 A JP2012103912 A JP 2012103912A JP 2010252028 A JP2010252028 A JP 2010252028A JP 2010252028 A JP2010252028 A JP 2010252028A JP 2012103912 A JP2012103912 A JP 2012103912A
Authority
JP
Japan
Prior art keywords
input
character
syllable
group
common
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010252028A
Other languages
Japanese (ja)
Inventor
Tomoshi Arikura
智志 有倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokai Rika Co Ltd
Original Assignee
Tokai Rika Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokai Rika Co Ltd filed Critical Tokai Rika Co Ltd
Priority to JP2010252028A priority Critical patent/JP2012103912A/en
Publication of JP2012103912A publication Critical patent/JP2012103912A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a character input device attaining reduction of a burden of an operator by reducing the number of operations to input characters.SOLUTION: A character input device 1 includes: an operation device 10 to be operated by an operator; a display 8; a storage section 30 for storing word data 31 having words in association with syllable information of the words registered therein; common vowel group input means for receiving an input of a character for each common vowel group to which syllables of the character belong; character string extraction means for extracting from the word data 31 a character string constituted by the same combination as the inputted common vowel group; and conversion candidate display means for displaying a conversion candidate including the extracted character string as a list on the display 8.

Description

本発明は、文字入力装置に関する。   The present invention relates to a character input device.

従来、カーナビゲーションで目的地を検索したり、カーオーディオで再生したい曲名を検索したりする等の場合において、利用者がその目的地や曲名等の検索語を入力するための文字入力装置が用いられている。   Conventionally, when searching for a destination by car navigation or searching for a song name to be played back by car audio, a character input device for a user to input a search term such as the destination or a song name has been used. It has been.

カーナビゲーションシステムにおいて従来用いられる文字入力装置の例としては、ディスプレイに表示されるキーボードの画像(ソフトキーボード)を利用者である操作者が見ながら文字入力を行うものがある(例えば特許文献1参照)。   As an example of a character input device conventionally used in a car navigation system, there is one in which a user, who is a user, inputs characters while viewing a keyboard image (soft keyboard) displayed on a display (see, for example, Patent Document 1). ).

このような文字入力を行うために用いられる操作デバイスは、例えばジョイスティックや十字キー等のXY操作型の操作スイッチからなり、ディスプレイに隣接して、又は遠隔操作を可能とするために車両のセンターコンソールや無線通信接続されるリモコン装置に搭載される。   An operation device used for performing such character input includes, for example, an XY operation type operation switch such as a joystick or a cross key, and is adjacent to the display or for enabling remote operation of the vehicle center console. It is mounted on remote control devices that are connected by wireless communication.

従来の文字入力装置によれば、文字の入力に際して50音別に仮名文字が配列されたソフトキーボードの画像がディスプレイに表示され、操作者は入力しようとする検索語等の音節に対応する仮名文字をソフトキーボードから1文字ごとに順に選択することで、文字の入力を行っている。   According to the conventional character input device, when inputting characters, an image of a soft keyboard in which kana characters are arranged for each of the 50 tones is displayed on the display, and the operator selects kana characters corresponding to syllables such as a search word to be input. Characters are entered by selecting each character in turn from the soft keyboard.

特開2005−85083号公報JP 2005-85083 A

しかし、上述した従来の方法で文字列を入力する場合、音節に対応する「あ」〜「ん」までの46個の仮名文字と、濁音及び反濁音等を含め50音以上の文字が配列されたソフトキーボードの中から対応する文字を逐一探して選択しなければならず、操作が煩雑であった。とりわけ、操作デバイスを使った遠隔での文字列の入力操作においては煩雑さが増し、操作者の負担が大きかった。   However, when inputting a character string by the above-described conventional method, 46 kana characters corresponding to syllables, “a” to “n”, and 50 or more characters including muddy and anti-turbid sounds are arranged. Therefore, it was necessary to search and select the corresponding characters from the soft keyboard one by one, and the operation was complicated. In particular, in the remote character string input operation using the operation device, the complexity increases and the burden on the operator is large.

また、仮名で音節を直接入力する場合に比較して選択する文字数が少ない入力方法としては、各音節に対応する文字をアルファベットで入力(いわゆるローマ字入力)する方法がある。しかし、ローマ字による入力方法では、音節を子音と母音とに2回に分けて入力する必要があり、仮名を直接入力する場合と比較して入力する操作回数が却って多くなってしまう。このため、操作入力の煩雑さを十分解消できる方法とはいえなかった。   In addition, as an input method in which the number of characters to be selected is smaller than when inputting syllables directly with kana, there is a method of inputting characters corresponding to each syllable in alphabet (so-called Roman character input). However, in the input method using Roman characters, it is necessary to input the syllables into consonants and vowels twice, and the number of operations to be input is increased compared to the case of directly inputting the kana. For this reason, it cannot be said that it is the method which can fully eliminate the complexity of operation input.

そこで、本発明の目的は、文字を入力する操作回数を減らし、操作者の負担軽減を図った文字入力装置を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide a character input device that reduces the number of operations for inputting characters and reduces the burden on the operator.

[1]上記目的を達成するため本発明に係る文字入力装置は、操作者により操作される操作入力部と、前記操作入力部を用いた操作の用に供せられる画像を表示する画像表示部と、複数の単語がその単語を構成する音節と共に登録された単語データを記憶する記憶部と、前記操作入力部を操作することによってなされる1つの音節に対応する文字の入力を、その音節が属する共通の音を有する音節群からなる音節グループごとに受け付ける音節グループ入力手段と、前記音節グループ入力手段が受け付けた音節グループの組み合わせと同一の組み合わせで構成される文字列を前記記憶部に記憶される前記単語データから抽出する文字列抽出手段と、前記文字列抽出手段が抽出した文字列を変換候補として前記画像表示部に表示する変換候補表示手段と、を備える。 [1] In order to achieve the above object, a character input device according to the present invention includes an operation input unit operated by an operator and an image display unit for displaying an image provided for operation using the operation input unit. A storage unit for storing word data in which a plurality of words are registered together with syllables constituting the word, and input of characters corresponding to one syllable made by operating the operation input unit. A syllable group input means that is received for each syllable group that includes syllable groups having a common sound to which the syllable group belongs, and a character string that is the same combination as the combination of syllable groups received by the syllable group input means is stored in the storage unit. A character string extracting means for extracting from the word data, and a conversion candidate table for displaying the character string extracted by the character string extracting means as conversion candidates on the image display unit. And means, the.

[2]また、前記音節グループ入力手段は、共通の母音を有する音節群からなる共通母音グループごとに文字の入力を受け付ける文字入力装置である。 [2] The syllable group input means is a character input device that receives input of characters for each common vowel group including syllable groups having a common vowel.

[3]また、前記音節グループ入力手段は、共通の子音を有する音節群からなる共通子音グループごとに文字の入力を受け付ける文字入力装置である。 [3] The syllable group input means is a character input device that receives input of characters for each common consonant group including syllable groups having common consonants.

[4]また、前記操作入力部は、第1の方向及び前記第1の方向に直交する第2の方向に操作可能な遠隔操作型の操作スイッチからなる文字入力装置である。 [4] The operation input unit is a character input device including a remote operation type operation switch operable in a first direction and a second direction orthogonal to the first direction.

本発明によれば、文字を入力する操作回数を減らし、操作者の負担軽減を図ることができる。   According to the present invention, it is possible to reduce the number of operations for inputting characters and reduce the burden on the operator.

図1は、発明の実施の形態に係る文字入力装置に備えられる操作デバイスが車両内のセンターコンソールに取り付けられた状態を示す斜視図である。FIG. 1 is a perspective view showing a state in which an operation device provided in a character input device according to an embodiment of the invention is attached to a center console in a vehicle. 図2は、発明の実施の形態に係る文字入力装置とカーナビゲーション及びカーオーディオを含むシステムの構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a system including a character input device, car navigation, and car audio according to an embodiment of the invention. 図3は、第1の実施の形態の文字入力装置による文字入力動作及び操作者が行う手順を示すフローチャートである。FIG. 3 is a flowchart illustrating a character input operation and a procedure performed by the operator using the character input device according to the first embodiment. 図4は、第1の実施の形態による初期の文字入力画面を例示する図である。FIG. 4 is a diagram illustrating an initial character input screen according to the first embodiment. 図5(a)及び(b)は、第1の実施の形態による共通母音グループ入力手段が起動されたときに表示される文字入力画面をそれぞれ例示する図である。FIGS. 5A and 5B are diagrams respectively illustrating character input screens displayed when the common vowel group input unit according to the first embodiment is activated. 図6は、第1の実施の形態において音節構成「とうざいだい」の第1音節が属する共通母音グループが選択決定されたときに表示される文字入力画面を例示する図である。FIG. 6 is a diagram illustrating a character input screen that is displayed when the common vowel group to which the first syllable having the syllable configuration “Touzaidai” belongs is selected and determined in the first embodiment. 図7は、第1の実施の形態において音節構成「とうざいだい」の第2音節が属する共通母音グループが選択決定されたときに表示される文字入力画面を例示する図である。FIG. 7 is a diagram illustrating a character input screen displayed when the common vowel group to which the second syllable group having the syllable configuration “Touzaidai” belongs is selected and determined in the first embodiment. 図8は、第1の実施の形態において音節構成「とうざいだい」の最後の第6音節が属する共通母音グループが選択決定されたときに表示される文字入力画面を例示する図である。FIG. 8 is a diagram illustrating a character input screen that is displayed when the common vowel group to which the last sixth syllable of the syllable configuration “Touzaidai” belongs is selected and determined in the first embodiment. 図9は、第1の実施の形態による文字入力画面の変形例を示す図である。FIG. 9 is a diagram illustrating a modification of the character input screen according to the first embodiment. 図10は、第1の実施の形態による変換候補表示画面を例示する図である。FIG. 10 is a diagram illustrating a conversion candidate display screen according to the first embodiment. 図11は、第1の実施の形態による変換候補表示画面の変形例を示す図である。FIG. 11 is a diagram illustrating a modification of the conversion candidate display screen according to the first embodiment. 図12は、第2の実施の形態において入力しようとする文字列の一部の音節が仮名文字で直接入力されたときに表示される文字入力画面を例示する図である。FIG. 12 is a diagram illustrating a character input screen that is displayed when a part of the syllable of the character string to be input is directly input as a kana character in the second embodiment. 図13は、第3の実施の形態の共通子音グループ入力手段による文字入力画面を例示する図である。FIG. 13 is a diagram illustrating a character input screen by the common consonant group input unit according to the third embodiment. 図14(a)及び(b)は、第3の実施の形態による文字入力画面の変形例をそれぞれ示す図である。FIGS. 14A and 14B are diagrams respectively showing modifications of the character input screen according to the third embodiment.

以下、本発明の実施の形態について図面を参照して説明する。なお、各図中、実質的に同一の機能を有する構成要素については、同一の符号を付してその重複した説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, in each figure, about the component which has the substantially same function, the same code | symbol is attached | subjected and the duplicate description is abbreviate | omitted.

[第1の実施の形態]
図1は、本発明の第1の実施の形態による文字入力装置に備えられる操作入力部としての操作デバイスが車両内のセンターコンソールに取り付けられた状態を示す斜視図である。なお、センターコンソール6は、運転席5の左方に隣接する車両の中央付近に設けられている。また、ステアリング7の左方のインスツルメントパネル9には、カーナビゲーションやカーオーディオシステムの画像表示部としてのディスプレイ8が設けられている。なお、ディスプレイ8は、後述する文字入力画面100等の画像を表示することにより、文字入力装置1の構成要素としても兼用される。
[First Embodiment]
FIG. 1 is a perspective view showing a state in which an operation device as an operation input unit provided in the character input device according to the first embodiment of the present invention is attached to a center console in a vehicle. The center console 6 is provided near the center of the vehicle adjacent to the left side of the driver's seat 5. The instrument panel 9 on the left side of the steering 7 is provided with a display 8 as an image display unit of a car navigation system or a car audio system. The display 8 also serves as a component of the character input device 1 by displaying an image such as a character input screen 100 described later.

また、図2は、本実施の形態による文字入力装置1と、カーナビゲーション及びカーオーディオを含むシステムの構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of a system including the character input device 1 according to the present embodiment, and car navigation and car audio.

本実施の形態に係る文字入力装置1は、操作者によって操作がされる操作デバイス10と、入力装置ECU(ECU: Electric Control Unit)20と、単語データ31を記憶する第1の記憶部30と、上述したディスプレイ8とを備えて構成される。   The character input device 1 according to the present embodiment includes an operation device 10 that is operated by an operator, an input device ECU (ECU: Electric Control Unit) 20, and a first storage unit 30 that stores word data 31. The display 8 described above is provided.

操作デバイス10は、第1の方向X及び第1の方向Xに直交する第2の方向Yに操作可能なXY操作型の操作スイッチからなる。また、操作デバイス10は、操作者がディスプレイ8に表示された画像を見ながら手元の操作で文字入力をできる遠隔操作型の操作入力部としてセンターコンソール6に設けられている。操作デバイス10は、詳細には図1の円内に示されるように円盤状の操作キープレート16と、操作キープレート16が左右(X)方向と前後(Y)方向にそれぞれ押され又はタッチされることで作動する4個のマイクロスイッチ11〜14と、操作キープレート16の中心部に設けられる小型のプッシュスイッチ15を作動させる決定ボタン17とを備えて構成されている。   The operation device 10 includes an XY operation type operation switch that can be operated in a first direction X and a second direction Y orthogonal to the first direction X. In addition, the operation device 10 is provided in the center console 6 as a remote operation type operation input unit that allows an operator to input characters by hand operation while looking at an image displayed on the display 8. As shown in detail in the circle of FIG. 1, the operation device 10 has a disk-shaped operation key plate 16 and the operation key plate 16 is pressed or touched in the left-right (X) direction and the front-back (Y) direction, respectively. The four micro switches 11 to 14 that are activated by the operation and the determination button 17 that activates the small push switch 15 provided at the center of the operation key plate 16 are configured.

なお、文字入力装置1の操作デバイスとしては、上述したものに限定されず、例えばジョイスティック、スライド又はロータリー等の様々な操作タイプのスイッチであってもよい。また、操作デバイスは、ディスプレイ8の画面にマトリクス状に配置した透明なタッチパネルスイッチであってもよい。   The operation device of the character input device 1 is not limited to the one described above, and may be switches of various operation types such as a joystick, a slide, or a rotary. The operation device may be a transparent touch panel switch arranged in a matrix on the screen of the display 8.

入力装置ECU20は、後述するようにディスプレイ8へ文字入力画面100等の画像表示、操作デバイス10の操作に基づくカーソルの移動、選択された音節グループの変換等の処理を行う。図2に示されるように入力装置ECU20には、操作デバイス10と、第1の記憶部30が接続されている。   As will be described later, the input device ECU 20 performs processing such as displaying an image such as the character input screen 100 on the display 8, moving the cursor based on the operation of the operation device 10, and converting the selected syllable group. As shown in FIG. 2, the operation device 10 and the first storage unit 30 are connected to the input device ECU 20.

また、入力装置ECU20は、車両に備えられている車内LAN(LAN: Local area network)90に相互通信可能に接続している。車内LAN90には、ディスプレイ8と、スピーカ4が接続している。スピーカ4は、カーナビゲーション装置50による案内音声や、カーオーディオ装置60により再生された音楽や、ラジオの受信音などを出力する。   The input device ECU 20 is connected to an in-vehicle LAN (LAN: Local Area Network) 90 provided in the vehicle so as to be able to communicate with each other. A display 8 and a speaker 4 are connected to the in-vehicle LAN 90. The speaker 4 outputs guidance voice from the car navigation device 50, music reproduced by the car audio device 60, radio reception sound, and the like.

本実施の形態では、文字入力装置1による文字入力の対象装置としてカーナビゲーション装置50を例に挙げて説明する。図2に示されるように、カーナビゲーション装置50は、カーナビゲーションECU51と、GPSセンサ52と、車速・方位センサ53と、第2の記憶部54を備えて構成されている。GPSセンサ52、車速・方位センサ53及び第2の記憶部54は、カーナビゲーションECU51にそれぞれ接続されている。   In the present embodiment, a car navigation device 50 will be described as an example of a target device for character input by the character input device 1. As shown in FIG. 2, the car navigation device 50 includes a car navigation ECU 51, a GPS sensor 52, a vehicle speed / orientation sensor 53, and a second storage unit 54. The GPS sensor 52, the vehicle speed / orientation sensor 53, and the second storage unit 54 are connected to the car navigation ECU 51, respectively.

また、カーナビゲーションECU51は、車内LAN90を介して文字入力装置1の入力装置ECU20と通信可能に接続している。第2の記憶部54には、マップデータ55が記憶されている。マップデータ55は、緯度経度、行政区画、道路などの路線、河川及び地形等の情報を基礎とする地図情報と、目的地として検索される施設、店舗、ランドマーク等が地図上の緯度経度に対応付けられたロケーション情報とにより構成される。ロケーション情報には、目的地として参照されるロケーション名称と、それが位置する緯度経度の他にそのロケーションの属性である例えばその施設の目的、店舗の種類及び住所などの情報が含まれる。   The car navigation ECU 51 is communicably connected to the input device ECU 20 of the character input device 1 via the in-vehicle LAN 90. Map data 55 is stored in the second storage unit 54. The map data 55 includes map information based on information such as latitude and longitude, administrative divisions, routes such as roads, rivers and topography, and facilities, stores, landmarks and the like searched as destinations in latitude and longitude on the map. And associated location information. The location information includes, for example, the location name referred to as the destination and the latitude and longitude in which the location is located, and the location attributes such as the purpose of the facility, the type of the store, and the address.

カーナビゲーション装置50のカーナビゲーションECU51は、GPSセンサ52が検出する車両の現在位置情報と車速・方位センサ53からの速度情報とに基づいて、車両が位置する地図上の位置を正確に検出する。また、カーナビゲーションECU51は、第2の記憶部54に記憶されたマップデータ55とマッチング処理を行うことでより正確な位置検出も可能である。   The car navigation ECU 51 of the car navigation device 50 accurately detects the position on the map where the vehicle is located based on the current position information of the vehicle detected by the GPS sensor 52 and the speed information from the vehicle speed / direction sensor 53. In addition, the car navigation ECU 51 can perform more accurate position detection by performing matching processing with the map data 55 stored in the second storage unit 54.

また、カーナビゲーションECU51は、現在地から後述する方法で入力された目的地までの最適ルートをマップデータ55を参照して検索し、その結果を地図画像とともにディスプレイ8に表示する。   In addition, the car navigation ECU 51 searches the map data 55 for the optimum route from the current location to the destination input by a method described later, and displays the result on the display 8 together with the map image.

カーオーディオ装置60は、カーオーディオECU61と、CD・スマートメディア読取部62と、ラジオ受信部63などを備えて構成される。カーオーディオECU61は、車内LAN90を介して文字入力装置1の入力装置ECU20と通信可能に接続している。なお、ここでは詳述はしないが、カーオーディオECU61は、文字入力装置1を介して入力されたアルバム名や曲名等に基づいて、CD・スマートメディア読取部62にセットされているCD等の記憶媒体から音楽データを検索して再生をすることも可能である。   The car audio device 60 includes a car audio ECU 61, a CD / smart media reader 62, a radio receiver 63, and the like. The car audio ECU 61 is communicably connected to the input device ECU 20 of the character input device 1 via the in-vehicle LAN 90. Although not described in detail here, the car audio ECU 61 stores a CD or the like set in the CD / smart media reading unit 62 based on an album name or a song name input via the character input device 1. It is also possible to retrieve music data from the medium and play it.

(第1の実施の形態による文字入力動作)
図3は、文字入力装置1による文字入力動作及び操作者が行う手順を示すフローチャートである。以下、図3に示されるフローチャートを参照しながら、カーナビゲーション装置50によるルート検索をするために、その目的地を示す検索語として「東西大(とうざいだい)」を入力する場合を例に挙げながら文字入力の具体的な方法を説明する。なお、図3に示される文字入力装置1による各動作は、入力装置ECU20に備えられる例えば以下説明する音節グループ入力手段等の各手段がプログラムに従って演算処理をすることで実行される。
(Character input operation according to the first embodiment)
FIG. 3 is a flowchart showing the character input operation by the character input device 1 and the procedure performed by the operator. Hereinafter, with reference to the flowchart shown in FIG. 3, in order to search for a route by the car navigation device 50, a case where “Tozai Dai” is input as a search term indicating the destination is given as an example. A specific method of character input will be described. Note that each operation by the character input device 1 shown in FIG. 3 is executed when each means such as a syllable group input means described below provided in the input device ECU 20 performs arithmetic processing according to a program.

図4は、カーナビゲーション装置50を用いてルートを検索する際にディスプレイ8に表示される、文字入力のための初期の文字入力画面100を示す図である。入力装置ECU20は、カーナビゲーションECU51から目的地の検索に必要な検索語入力の指令を受けると、はじめに図4に示されるような文字入力画面100をディスプレイ8に表示する(ステップS1)。そして、入力装置ECU20は、文字入力のカウント変数nに「1」をセットするなどのイニシャライズ処理を行う(ステップS2)。   FIG. 4 is a diagram showing an initial character input screen 100 for character input, which is displayed on the display 8 when searching for a route using the car navigation device 50. When the input device ECU 20 receives a search word input command necessary for searching for a destination from the car navigation ECU 51, the input device ECU 20 first displays a character input screen 100 as shown in FIG. 4 on the display 8 (step S1). Then, the input device ECU 20 performs an initialization process such as setting “1” to the count variable n for character input (step S2).

ここで、ディスプレイ8に表示される文字入力画面100は、50音配列表111と、入力された文字を表示する入力文字エリア112と、入力モードを適宜切り換えるためのモード切換アイコン113とを有して構成される。モード切換アイコン113は、「簡単モード」113a、「修正」113b、「小文字」113c、「カナ」113d、「検索開始」113eなどの複数のアイコンエリアから構成される。   Here, the character input screen 100 displayed on the display 8 includes a 50-tone arrangement table 111, an input character area 112 for displaying the input characters, and a mode switching icon 113 for appropriately switching the input mode. Configured. The mode switching icon 113 includes a plurality of icon areas such as “easy mode” 113a, “correction” 113b, “lowercase” 113c, “kana” 113d, and “start search” 113e.

図4に示された初期の文字入力画面100で、モード切換アイコン113の「簡単モード」113aがクリックされると、入力装置ECU20に備えられる音節グループ入力手段が起動される。以下詳細に説明するように、音節グループ入力手段は、操作者が検索語等の文字列を入力するに際し、その文字列を構成する音節ごとにその音節が属する音節グループ単位での入力を受け付ける。   When “easy mode” 113a of mode switching icon 113 is clicked on initial character input screen 100 shown in FIG. 4, syllable group input means provided in input device ECU 20 is activated. As will be described in detail below, when an operator inputs a character string such as a search word, the syllable group input means accepts input in units of syllable groups to which the syllable belongs for each syllable constituting the character string.

ここで「音節グループ」とは、共通の音を有する音節群のグループのことをいう。以下説明する「共通母音グループ」とは、母音が共通する音節群からなるグループであり、「音節グループ」の下位概念である。また、後述する「共通子音グループ」とは、子音が共通する音節群からなるグループであり、同じく「音節グループ」の下位概念である。   Here, the “syllable group” refers to a group of syllable groups having a common sound. The “common vowel group” described below is a group composed of syllable groups with common vowels, and is a subordinate concept of “syllable group”. A “common consonant group” to be described later is a group composed of syllable groups with common consonants, and is also a subordinate concept of “syllable group”.

第1の実施の形態では、音節グループ入力手段の一例として共通母音グループ入力手段が起動された場合を説明する。   In the first embodiment, a case where the common vowel group input unit is activated as an example of the syllable group input unit will be described.

図5(a)及び(b)は、「簡単モード」113aが選択され、共通母音グループ入力手段が起動したときにディスプレイ8に表示される文字入力画面101,102を示す図である。この「簡単モード」では、50音配列表111の「あ」〜「お」で代表される各共通母音グループの何れかの段を囲んで横長のカーソル114が表示される。図5(a)の文字入力画面101の例では、母音「あ」を共有する共通母音グループの段にカーソル114が表示されている。図5(b)の文字入力画面102の例では、母音「お」を共有する共通母音グループの段にカーソル114が表示されている。操作デバイス10の操作キープレート16が上下方向(第2の方向Y)に操作されるとマイクロスイッチ11,12が作動し、これに応じて50音配列表111のカーソル114が共通母音グループの段ごとに上下に移動する。そして、カーソル114で囲まれた共通母音グループの段が次の操作で選択決定可能な状態となる。なお、選択決定可能な状態にある共通母音グループの代表文字(図5(a)の例では「あ」、図5(b)の例では「お」)を入力文字エリア112に表示してもよい。   FIGS. 5A and 5B are diagrams showing character input screens 101 and 102 displayed on the display 8 when the “simple mode” 113a is selected and the common vowel group input means is activated. In this “simple mode”, a horizontally long cursor 114 is displayed surrounding any stage of each common vowel group represented by “a” to “o” in the 50-tone arrangement table 111. In the example of the character input screen 101 in FIG. 5A, the cursor 114 is displayed in the row of the common vowel group sharing the vowel “A”. In the example of the character input screen 102 in FIG. 5B, the cursor 114 is displayed at the common vowel group stage sharing the vowel “o”. When the operation key plate 16 of the operation device 10 is operated in the up and down direction (second direction Y), the micro switches 11 and 12 are activated, and the cursor 114 of the 50-tone arrangement table 111 is accordingly moved to the common vowel group stage. Move up and down every time. The stage of the common vowel group surrounded by the cursor 114 is in a state where it can be selected and determined by the next operation. Note that the representative character of the common vowel group that can be selected and determined ("A" in the example of FIG. 5A and "O" in the example of FIG. 5B) is displayed in the input character area 112. Good.

なお、選択決定可能な共通母音グループの段を表示する方法としては、本実施の形態のようにカーソル114を用いなくても、例えば共通母音グループの段をより明るく表示したり、色を変えて表示したりする等の他の段と視覚的に区別できる方法であればどのような態様であってもよい。   In addition, as a method of displaying the selectable and determined common vowel group level, the common vowel group level can be displayed brighter or the color can be changed without using the cursor 114 as in the present embodiment. Any mode may be used as long as the method can be visually distinguished from other levels such as display.

操作者は、文字入力画面101,102等を見ながら、入力しようとする文字列を構成する音節ごとに先頭から順に共通母音グループを選択してゆく。すなわち、本実施の形態による「簡単モード」では、操作者が入力しようとする文字列を音節ごとに共通母音グループ単位で入力することが可能とされている。   The operator selects a common vowel group in order from the beginning for each syllable constituting the character string to be input while looking at the character input screens 101, 102 and the like. That is, in the “simple mode” according to the present embodiment, it is possible to input a character string to be input by the operator for each syllable in units of common vowel groups.

図6は、図3に示されるフローチャートのステップS3において、操作者が目的地の検索語として入力しようとする文字列の例である「東西大」の音節構成「とうざいだい」の先頭(n=1)の第1音節「と」が属する共通母音グループの段が選択決定されたときに表示される文字入力画面103を示す図である。この場合、音節に対応する仮名文字「と」が属する共通母音グループを代表する文字(以下「代表文字」という。)である「お」が入力文字エリア112に表示される。共通母音グループの決定は、操作デバイス10の操作キープレート16が上下に操作されてカーソル114が示す50音配列表111の1つの段(図6では「お」)が選択可能な状態となり、その後、決定ボタン17が押されてプッシュスイッチ15が作動したとき、その段の共通母音グループが選択決定される。ある共通母音グループが選択決定されると、選択決定可能な状態と区別するために、図6に示されるような横矢印のマークM1がその代表文字(図6では「お」)と共に表示される。   FIG. 6 shows the top of the syllable structure “Tozai Dai” of “Tozai Dai”, which is an example of a character string that the operator wants to input as a destination search word in step S3 of the flowchart shown in FIG. = 1) is a diagram showing a character input screen 103 displayed when the stage of the common vowel group to which the first syllable “to” of 1) belongs is selected and determined. In this case, “o”, which is a character representing the common vowel group to which the kana character “to” corresponding to the syllable belongs (hereinafter referred to as “representative character”), is displayed in the input character area 112. The common vowel group is determined by moving the operation key plate 16 of the operation device 10 up and down to select one level (“O” in FIG. 6) of the 50-sound arrangement table 111 indicated by the cursor 114. When the push button 15 is actuated by pressing the decision button 17, the common vowel group at that stage is selected and decided. When a certain common vowel group is selected and determined, a horizontal arrow mark M1 as shown in FIG. 6 is displayed together with its representative character (“O” in FIG. 6) in order to distinguish it from the selectable state. .

次に、共通母音グループ入力手段は、文字入力のカウント変数nをインクリメントし(ステップS5)、第2音節(n=2)が属する共通母音グループの選択を受け付ける。図7は、第2音節「う」が属する共通母音グループが選択決定されたときに表示される文字入力画面104を示す図である。操作者は、繰り返されるステップS3の処理において先頭文字の選択操作と同様に音節構成「とうざいだい」の第2音節「う」が属する共通母音グループの段を操作デバイス10の操作キープレート16を上下に操作して選択する。そして、カーソル114で当該段を選択した状態で決定ボタン17を押すことにより、図7に示されるように共通母音グループの「う」の段が決定され、その代表文字「う」と共に横矢印のマークM1が入力文字エリア112に表示される。   Next, the common vowel group input means increments the count variable n for character input (step S5) and accepts selection of the common vowel group to which the second syllable (n = 2) belongs. FIG. 7 is a diagram showing a character input screen 104 displayed when the common vowel group to which the second syllable “U” belongs is selected and determined. The operator moves the operation key plate 16 of the operation device 10 to the common vowel group stage to which the second syllable “U” of the syllable structure “Touzaidai” belongs as in the operation of selecting the first character in the repeated processing of Step S3. Select by operating up and down. Then, by pressing the decision button 17 with the cursor 114 selected, the stage of “U” of the common vowel group is determined as shown in FIG. The mark M1 is displayed in the input character area 112.

操作者は、引き続き入力しようとする文字列の共通母音グループ単位の選択決定操作を同様の操作手順で繰り返す。図8は、音節構成「とうざいだい」の最後の第6音節「い」が属する共通母音グループが選択決定されたときに表示される文字入力画面105を示す図である。操作者は、最後の共通母音グループの「い」の段を選択決定した後、例えば操作デバイス10の決定ボタン17を長押し(例えば3秒以上)することで、共通母音グループの選択入力を終了したことを入力装置ECU20に伝える。なお、操作者が文字入力画面105の「検索開始」113eのアイコンをクリックすることで、選択入力終了の指示を行ってもよい。   The operator repeats the selection determination operation for the common vowel group unit of the character string to be continuously input in the same operation procedure. FIG. 8 is a diagram showing a character input screen 105 that is displayed when the common vowel group to which the last sixth syllable “I” of the syllable configuration “Toizaida” belongs is selected and determined. After the operator selects and determines the “yes” row of the last common vowel group, the operator finishes the selection input of the common vowel group by, for example, pressing and holding the determination button 17 of the operation device 10 (for example, 3 seconds or more) This is communicated to the input device ECU 20. It should be noted that the operator may instruct the selection input end by clicking the “search start” 113 e icon on the character input screen 105.

ここで、図9は、上述した文字入力画面100〜105の変形例を示す図である。共通母音グループ入力手段は、図9に示されるように50音配列表111に代えて、共通母音グループの代表文字だけを縦に配列した共通母音グループ配列表111aをディスプレイ8に表示してもよい。この文字入力画面の変形例によれば、共通母音グループの代表文字の表示エリアをディスプレイ8の画面上において広くとることができる。つまり、代表文字を大きく表示することで、操作者の視認性及び操作性を向上させることができる。   Here, FIG. 9 is a figure which shows the modification of the character input screens 100-105 mentioned above. The common vowel group input means may display on the display 8 a common vowel group arrangement table 111a in which only representative characters of the common vowel group are arranged vertically instead of the 50-note arrangement table 111 as shown in FIG. . According to this modification of the character input screen, the display area of the representative characters of the common vowel group can be widened on the screen of the display 8. That is, by displaying the representative character in a large size, the visibility and operability of the operator can be improved.

入力装置ECU20は、決定ボタン17に連結するプッシュスイッチ15の作動を検知し、又は「検索開始」113eのクリックを検出して共通母音グループの選択入力の終了を認識すると(ステップS4:Yes)、文字列抽出手段による処理を開始させる。本実施の形態による文字列抽出手段は、ステップS3で選択決定された共通母音グループの組み合わせから第1の記憶部30に予め記憶された単語データ31を参照することで、対応する文字列を抽出する(ステップS6)。ここで、単語データ31は、登録される単語とその単語が有する音節構成に対応する共通母音グループの組み合わせが相互検索可能な関係を有して第1の記憶部30に記憶されている。   When the input device ECU 20 detects the operation of the push switch 15 connected to the determination button 17 or detects the click of the “search start” 113e and recognizes the end of the selection input of the common vowel group (step S4: Yes), The processing by the character string extraction means is started. The character string extraction unit according to the present embodiment extracts a corresponding character string by referring to the word data 31 stored in advance in the first storage unit 30 from the combination of the common vowel groups selected and determined in step S3. (Step S6). Here, the word data 31 is stored in the first storage unit 30 so that a combination of a registered word and a common vowel group corresponding to the syllable structure of the word can be mutually searched.

本実施の形態の例では、選択決定された共通母音グループの組み合わせである「おうあいあい」(ここでは代表文字で表記する。)に対応する文字列として、例えば「東西大」(とうざいだい)、「東海河岸」(とうかいかし)、「東海菓子」(とうかいかし)、「国際会」(こくさいかい)、「国債買い」(こくさいかい)、「小倉北市」(こくらきたし)などが抽出される。ここで、抽出される文字列の各音節が属する共通母音グループの組み合わせは、ステップS3で選択された共通母音グループの組み合わせ「おうあいあい」に一致している。また、文字列を構成する単語(例えば「東西」、「東海」、「国際」、「大」、「菓子」、「会」、「買い」など)は、単語データ31に登録されたものから抽出される。   In the example of the present embodiment, for example, “Todai University” (Tozai Dai) is used as a character string corresponding to “Oaiai” (represented by a representative character) that is a combination of the selected and determined common vowel groups. , “Tokai River Bank”, “Tokai Confectionery”, “International Association” (Kokusai), “JGB Purchase” (Kokusai), “Ogura Kita City” (Kokura Kitashi), etc. Is extracted. Here, the combination of the common vowel groups to which each syllable of the extracted character string belongs matches the combination of the common vowel groups selected in step S3. In addition, the words constituting the character string (for example, “East / West”, “Tokai”, “International”, “Large”, “Sweet”, “Meeting”, “Buy”, etc.) are registered in the word data 31. Extracted.

このように、文字列抽出手段は、選択決定された共通母音グループの組み合わせと同一の共通母音グループの組み合わせからなる文字列を単語データ31から抽出する。   As described above, the character string extraction unit extracts, from the word data 31, a character string composed of the same combination of common vowel groups as the selected combination of common vowel groups.

続いて入力装置ECU20は、変換候補表示手段による処理を開始させる。ここで、図10は、図3に示されるフローチャートのステップS7においてディスプレイ8に表示される変換候補表示画面121を示す図である。本実施の形態による変換候補表示手段は、カーナビゲーション装置50と連携して、第2の記憶部54に記憶されているマップデータ55のロケーション情報として登録されている目的地の名称のうち、抽出された文字列を含むものを変換候補として変換候補文字列リスト115に表示する(ステップS7)。   Subsequently, the input device ECU 20 starts processing by the conversion candidate display unit. Here, FIG. 10 is a diagram showing the conversion candidate display screen 121 displayed on the display 8 in step S7 of the flowchart shown in FIG. The conversion candidate display means according to the present embodiment extracts the destination name registered as the location information of the map data 55 stored in the second storage unit 54 in cooperation with the car navigation device 50. Those including the character string thus made are displayed as conversion candidates in the conversion candidate character string list 115 (step S7).

図10の例では、入力された共通母音グループの組み合わせである「おうあいあい」に対応して抽出される文字列を含み、かつ、ロケーション情報として登録されている名称(例えば「東西大学」、「東海河岸」、「国際会議場」など)がリスト表示される。   In the example of FIG. 10, a name (for example, “Tozai University”, “" including a character string extracted corresponding to “Ouaiai”, which is a combination of input common vowel groups, and registered as location information. "Tokai River Bank", "International Conference Hall", etc.) are listed.

なお、変換候補表示手段は、上述のステップS6で文字列抽出手段が抽出した文字列のうち、例えば「国債買い」などのようなマップデータ55のロケーション情報に登録されていないものは、変換候補文字列リスト115の表示から自動的に除外する。また、予め検索エリア(例えば現在位置から5km以内又は特定の県内など)を制限した場合や、目的地の属性(例えばレストラン、工場、大学など)を限定した場合は、その検索条件を満たすロケーションのみに絞り込んで変換候補をリスト表示することもできる。   The conversion candidate display means is a conversion candidate that is not registered in the location information of the map data 55 such as “JGB purchase” among the character strings extracted by the character string extraction means in step S6 described above. It is automatically excluded from the display of the character string list 115. In addition, when the search area (for example, within 5 km from the current position or within a specific prefecture) is limited in advance, or when the destination attribute (for example, restaurant, factory, university, etc.) is limited, only the location that satisfies the search condition It is also possible to narrow down to a list of conversion candidates.

また、ステップS7において、操作者は、操作デバイス10の操作キープレート16を左右方向(第1の方向X)に操作しマイクロスイッチ13、14を作動させることで、図11に示される別の変換候補表示画面122にディスプレイ6の表示を切り換えることができる。   In step S7, the operator operates the operation key plate 16 of the operation device 10 in the left-right direction (first direction X) to activate the microswitches 13 and 14, thereby performing another conversion shown in FIG. The display on the display 6 can be switched to the candidate display screen 122.

図11の変換候補表示画面122には、文字列抽出手段が抽出した文字列を仮名文字で表記した変換文字列リスト118と、変換文字列リスト118の各文字列に対応して当該文字列を含むロケーション名称のヒット件数を示すヒット件数ボックス119が表示される。この変換候補表示画面122により、操作者は共通母音グループの選択により入力した文字列が正しかったのか確認することができる。   In the conversion candidate display screen 122 of FIG. 11, the character string corresponding to each character string in the conversion character string list 118 and the conversion character string list 118 in which the character string extracted by the character string extraction unit is expressed in kana characters is displayed. A hit number box 119 indicating the number of hits of the location name is displayed. From this conversion candidate display screen 122, the operator can confirm whether the character string input by selecting the common vowel group is correct.

操作者は、図10の変換候補文字列リスト115に表示された変換候補のうち、当初検索しようとしていた目的地の名称(検索語)が存在すれば(ステップS8:Yes)、操作デバイス10の操作キープレート16を上下に操作してカーソル116を移動させ、該当する変換候補の項目を選択する。そして、操作者が当該項目を選択した状態で決定ボタン17を押すことにより、最終的な文字列の入力操作が完了する(ステップS9)。なお、変換候補文字列リスト115に該当する名称がなければ(ステップS8:No)、文字の再入力または入力した文字のキャンセル処理に移る(ステップS10)。   If there is a name (search word) of the destination to be originally searched among the conversion candidates displayed in the conversion candidate character string list 115 in FIG. 10 (step S8: Yes), the operator The operation key plate 16 is operated up and down to move the cursor 116, and the corresponding conversion candidate item is selected. Then, when the operator selects the item and presses the enter button 17, the final character string input operation is completed (step S9). If there is no corresponding name in the conversion candidate character string list 115 (step S8: No), the process proceeds to the re-input of characters or the cancel processing of the input characters (step S10).

入力装置ECU20は、決定ボタン17に連結するプッシュスイッチ15の作動を検知し文字列入力の決定を認識すると、その文字列の情報を対象装置であるカーナビゲーション装置50に送信する(ステップS11)。   When the input device ECU 20 detects the operation of the push switch 15 connected to the determination button 17 and recognizes the determination of the character string input, the input device ECU 20 transmits information on the character string to the car navigation device 50 that is the target device (step S11).

上述した第1の実施の形態によれば、1つの音節に対応する文字の入力を、その音節が属する共通母音グループごとに受け付けることにより、文字入力の操作を簡略化して操作回数を従来よりも減らすことができる。特に、遠隔操作が可能な操作デバイス10として簡素な構成の操作スイッチを用いた場合でも操作が煩雑にならず、操作者の負担を軽減することができる。   According to the first embodiment described above, by accepting input of characters corresponding to one syllable for each common vowel group to which the syllable belongs, the operation of character input is simplified and the number of operations is made more than before. Can be reduced. In particular, even when an operation switch having a simple configuration is used as the operation device 10 that can be operated remotely, the operation is not complicated, and the burden on the operator can be reduced.

[第2の実施の形態]
次に、上述した第1の実施の形態の共通母音グループ入力手段による文字入力方法の一部を変形した第2の実施の形態について説明する。この第2の実施の形態は、図3に示された共通母音グループを選択するステップS3において、各音節に対応する共通母音グループを選択決定する操作だけでなく、操作者の任意で音節に対応する仮名文字の直接入力も許容するものである。
[Second Embodiment]
Next, a second embodiment in which a part of the character input method by the common vowel group input means of the first embodiment described above is modified will be described. In the second embodiment, in step S3 for selecting the common vowel group shown in FIG. 3, not only the operation for selecting and determining the common vowel group corresponding to each syllable, but also the syllable arbitrarily supported by the operator. Direct input of kana characters is also allowed.

図12は、第2の実施の形態において、入力しようとする文字列の一部の音節が仮名文字で直接入力されたときに表示される文字入力画面106を示す図である。図12の例では、操作者が入力しようとする音節構成「とうざいだい」の第1音節に対応する「と」と、第5音節「だ」に対応する「た」が仮名文字で選択決定された場合が示されている。   FIG. 12 is a diagram showing a character input screen 106 displayed when a part of a syllable of a character string to be input is directly input as a kana character in the second embodiment. In the example of FIG. 12, “to” corresponding to the first syllable of the syllable structure “Touzaidai” to be input by the operator and “ta” corresponding to the fifth syllable “da” are selected and determined by kana characters. The case is shown.

操作者は、仮名文字を直接入力する場合には、はじめに入力しようとする音節である例えば「た」が属する共通母音グループである「あ」の段を、操作キープレート16を上下に操作しカーソル114で指示することにより選択する。続いて操作者が操作キープレート16を左右に操作すると、選択された共通母音グループの何れか1つの文字を丸囲いするサークルカーソル114bが表示される。操作者は、操作キープレート16を左右に操作して、直接入力したい仮名文字「た」をサークルカーソル114bで指示し、この状態で決定ボタン17を押す。これにより、図12に示されるように第5音節「だ」に対応する仮名文字「た」が選択決定される。このとき、仮名文字が直接入力されたことを示す丸囲いのマークM2が仮名文字「た」と共に入力文字エリア112に表示される。   When the operator directly inputs kana characters, the operator operates the operation key plate 16 up and down the cursor of the “a” stage, which is a common vowel group to which “ta” belongs, for example, the syllable to be input first. A selection is made by instructing at 114. Subsequently, when the operator operates the operation key plate 16 left and right, a circle cursor 114b that circles any one character of the selected common vowel group is displayed. The operator operates the operation key plate 16 to the left and right to indicate the kana character “ta” to be directly input with the circle cursor 114b, and presses the enter button 17 in this state. As a result, as shown in FIG. 12, the kana character “TA” corresponding to the fifth syllable “DA” is selected and determined. At this time, a circle mark M2 indicating that the kana character is directly input is displayed in the input character area 112 together with the kana character “ta”.

入力装置ECU20は、決定ボタン17が押され文字の選択入力の終了を認識すると、第1の実施の形態と同様の文字列抽出手段による処理を開始させる。本実施の形態による文字列抽出手段は、選択決定された共通母音グループの組み合わせと共に、直接入力された仮名文字を考慮して対応する文字列を抽出する。   When the determination button 17 is pressed and the input device ECU 20 recognizes the end of the character selection input, the input device ECU 20 starts processing by the character string extraction unit similar to that of the first embodiment. The character string extraction unit according to the present embodiment extracts a corresponding character string in consideration of the directly input kana characters together with the combination of the selected and determined common vowel groups.

この第2の実施の形態によれば、直接入力された仮名文字は音節が確定しているため、第1の実施の形態で説明した共通母音グループの組み合わせのみに基づく場合に比較して、抽出される文字列や表示される変換候補を少なくすることができる。したがって文字列変換の精度をより向上させることができる。   According to the second embodiment, since the syllable is fixed for the directly input kana character, it is extracted as compared with the case where it is based only on the combination of the common vowel groups described in the first embodiment. The number of character strings to be displayed and conversion candidates to be displayed can be reduced. Therefore, the accuracy of character string conversion can be further improved.

[第3の実施の形態]
次に、上述した第1の実施の形態による文字入力方法の更に別の変形例である第3の実施の形態について説明する。この第3の実施の形態では、音節グループ入力手段として共通子音グループ入力手段が起動される。
[Third Embodiment]
Next, a third embodiment, which is still another modified example of the character input method according to the first embodiment described above, will be described. In the third embodiment, common consonant group input means is activated as syllable group input means.

図13は、第3の実施の形態である共通子音グループ入力手段によりディスプレイ8に表示される文字入力画面107を示す図である。文字入力画面107の50音配列表111には、子音が共通する音節群からなる共通子音グループが右から「あ」「か」「さ」「た」「な」…の順に縦の列として配置されている。そして、何れかの共通子音グループの列を囲んで縦長のカーソル117が表示される。   FIG. 13 is a diagram showing a character input screen 107 displayed on the display 8 by the common consonant group input means according to the third embodiment. In the 50 sound arrangement table 111 of the character input screen 107, common consonant groups including syllable groups with common consonants are arranged in a vertical column from the right in the order of “a”, “ka”, “sa”, “ta”, “na”,. Has been. A vertically long cursor 117 is displayed surrounding any common consonant group row.

共通子音グループ入力手段によれば、操作者が操作デバイス10の操作キープレート16を左右に操作しマイクロスイッチ13,14を作動させると、カーソル117が50音配列表111の共通子音グループの列ごとに左右に移動する。そして、何れかの共通子音グループの列をカーソル117が囲んで選択可能な状態とした後、操作者が決定ボタン17を押しプッシュスイッチ15を作動させることにより、当該共通子音グループが選択決定される。このとき選択決定可能な状態と区別するために、図13に示されるような縦矢印のマークM3が代表文字と共に入力文字エリア112に表示される。   According to the common consonant group input means, when the operator operates the operation key plate 16 of the operation device 10 to the left and right to actuate the micro switches 13 and 14, the cursor 117 moves to each common consonant group column of the 50 sound arrangement table 111. Move left and right. Then, after the cursor 117 surrounds any common consonant group row so that it can be selected, the operator presses the enter button 17 and activates the push switch 15 to select and determine the common consonant group. . At this time, in order to distinguish from the state where selection can be made, a vertical arrow mark M3 as shown in FIG. 13 is displayed in the input character area 112 together with the representative character.

操作者は、操作デバイス10をこのように繰り返し操作して、入力しようとする文字列を音節ごとに共通子音グループ単位で順次選択決定してゆく。   The operator repeatedly operates the operation device 10 in this way, and sequentially selects and determines a character string to be input for each syllable in units of common consonant groups.

なお、図13は、操作者が入力しようとする文字列の例である「東西大」の音節構成「とうざいだい」の第1音節から第5音節までの共通子音グループが選択決定されたときの表示例を示している。本実施の形態では、入力文字エリア112に表示される共通子音グループの代表文字を50音配列表111の最上段の文字としている。したがって、図13に示されるように、共通子音グループが選択された音節構成「とうざいだ」に対応して、代表文字「たあさあた」が入力文字エリア112に表示される。   FIG. 13 shows a case where a common consonant group from the first syllable to the fifth syllable of the syllable structure “Toizaida” of “Tozai Dai” which is an example of a character string to be input by the operator is selected and determined. A display example is shown. In the present embodiment, the representative character of the common consonant group displayed in the input character area 112 is the uppermost character of the 50-tone arrangement table 111. Accordingly, as shown in FIG. 13, the representative character “Tasaasa” is displayed in the input character area 112 in correspondence with the syllable configuration “Toizaida” for which the common consonant group is selected.

ここで、図14(a)及び(b)は、上述した文字入力画面107の変形例を示す図である。例えば図14(a)に示される文字入力画面108には、共通子音グループの代表文字だけを横一列に配置した共通子音グループ配列表111bが表示される。また、図14(b)に示されるように、共通子音グループの代表文字をマトリクス状に配置した共通子音グループ配列表111cを文字入力画面に表示してもよい。文字入力画面のこれらの変形例によれば、共通子音グループの代表文字の表示エリアをディスプレイ8の画面上において広くとることができる。つまり、代表文字を大きく表示することで、操作者の視認性や操作性を向上させることができる。   Here, FIGS. 14A and 14B are diagrams showing a modification of the character input screen 107 described above. For example, the character input screen 108 shown in FIG. 14A displays a common consonant group arrangement table 111b in which only representative characters of the common consonant group are arranged in a horizontal row. Further, as shown in FIG. 14B, a common consonant group arrangement table 111c in which representative characters of a common consonant group are arranged in a matrix may be displayed on the character input screen. According to these modifications of the character input screen, the display area of the representative characters of the common consonant group can be widened on the screen of the display 8. In other words, the visibility and operability of the operator can be improved by displaying the representative character large.

第3の実施形態による文字列抽出手段は、選択決定された共通子音グループの組み合わせに基づいて、第1の記憶部30に予め記憶された単語データ31を参照して同一の共通子音グループの組み合わせからなる文字列を抽出する。   The character string extracting unit according to the third embodiment refers to the combination of the common consonant groups that is stored in the first storage unit 30 in advance based on the combination of the selected consonant groups. Extract a string consisting of

そして、変換候補表示手段は、カーナビゲーション装置50のマップデータ55にロケーション情報として登録されている目的地の名称のうち、抽出された文字列を含む名称を変換候補として変換候補文字列リストに表示する。これにより、操作者が入力しようとしていた検索語等の文字列の最終的な入力を、変換候補文字列リストに表示される変換候補の選択により可能となる。   Then, the conversion candidate display means displays the name including the extracted character string among the names of the destinations registered as the location information in the map data 55 of the car navigation device 50 as the conversion candidate in the conversion candidate character string list. To do. As a result, the final input of a character string such as a search word that the operator is trying to input can be performed by selecting a conversion candidate displayed in the conversion candidate character string list.

上述した第3の実施の形態によれば、1つの音節に対応する文字の入力を、その音節が属する共通子音グループごとに受け付けることにより、文字を入力する操作回数を従来よりも減らすことができる。したがって、操作の煩雑さを解消して操作者の負担を軽減することができる。   According to the third embodiment described above, by accepting input of a character corresponding to one syllable for each common consonant group to which that syllable belongs, the number of operations for inputting a character can be reduced as compared with the conventional case. . Therefore, the burden on the operator can be reduced by eliminating the complexity of the operation.

以上、本発明の好適な実施の形態を複数説明したが、本発明はこれらの実施の形態に限定されるものではなく、その要旨を変更しない範囲内で更なる変形・応用が可能である。例えば、銀行のATMシステムで振込先等を入力する文字入力手段や、携帯電話におけるアドレスを検索等するための文字入力手段などへの応用が考えられる。   Although a plurality of preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and can be further modified and applied within the scope not changing the gist thereof. For example, it can be applied to a character input means for inputting a bank account or the like in a bank ATM system, or a character input means for searching for an address in a mobile phone.

また、上記実施の形態では、音節グループ入力手段、文字列抽出手段、変換候補表示手段をプログラムで実現する場合について説明したが、プログラムの全部又は一部をASIC(Application Specific IC)等のハードウェアによって実現してもよい。   In the above embodiment, the case has been described in which the syllable group input means, the character string extraction means, and the conversion candidate display means are realized by a program. However, all or part of the program is implemented by hardware such as an ASIC (Application Specific IC). It may be realized by.

1…文字入力装置、4…スピーカ、5…運転席、6…センターコンソール、7…ステアリング、8…ディスプレイ、9…インスツルメントパネル、10…操作デバイス、11〜14…マイクロスイッチ、15…プッシュスイッチ、16…操作キープレート、17…決定ボタン、20…入力装置ECU、30…第1の記憶部、31…単語データ、50…カーナビゲーション装置、51…カーナビゲーションECU、52…GPSセンサ、53…車速・方位センサ、54…第2の記憶部、55…マップデータ、60…カーオーディオ装置、61…カーオーディオECU、62…CD・スマートメディア読取部、62…ラジオ受信部、90…車内LAN、100〜108…文字入力画面、111…50音配列表、111a…共通母音グループ配列表、111b,111c…共通子音グループ配列表、112…入力文字エリア、113…モード切換アイコン、114,114a…カーソル、114b…サークルカーソル、115…変換候補文字列リスト、116,116a,117,117a,117b…カーソル、118…変換文字列リスト、119…ヒット件数ボックス、121,122…変換候補表示画面

DESCRIPTION OF SYMBOLS 1 ... Character input device, 4 ... Speaker, 5 ... Driver's seat, 6 ... Center console, 7 ... Steering, 8 ... Display, 9 ... Instrument panel, 10 ... Operation device, 11-14 ... Micro switch, 15 ... Push Switch ... 16 Operation key plate 17 ... Enter button 20 ... Input device ECU 30 ... First storage unit 31 ... Word data 50 ... Car navigation device 51 ... Car navigation ECU 52 ... GPS sensor 53 ... Vehicle speed / orientation sensor, 54 ... Second storage, 55 ... Map data, 60 ... Car audio device, 61 ... Car audio ECU, 62 ... CD / Smart media reader, 62 ... Radio receiver, 90 ... In-vehicle LAN , 100 to 108 ... character input screen, 111 ... 50 sound arrangement table, 111a ... common vowel group arrangement table 111b, 111c ... common consonant group arrangement table, 112 ... input character area, 113 ... mode switching icon, 114, 114a ... cursor, 114b ... circle cursor, 115 ... conversion candidate character string list, 116, 116a, 117, 117a, 117b ... Cursor, 118 ... Conversion character string list, 119 ... Hit count box, 121,122 ... Conversion candidate display screen

Claims (4)

操作者により操作される操作入力部と、
前記操作入力部を用いた操作の用に供せられる画像を表示する画像表示部と、
複数の単語がその単語を構成する音節と共に登録された単語データを記憶する記憶部と、
前記操作入力部を操作することによってなされる1つの音節に対応する文字の入力を、その音節が属する共通の音を有する音節群からなる音節グループごとに受け付ける音節グループ入力手段と、
前記音節グループ入力手段が受け付けた音節グループの組み合わせと同一の組み合わせで構成される文字列を前記記憶部に記憶される前記単語データから抽出する文字列抽出手段と、
前記文字列抽出手段が抽出した文字列を変換候補として前記画像表示部に表示する変換候補表示手段と、を備える文字入力装置。
An operation input unit operated by an operator;
An image display unit for displaying an image provided for operation using the operation input unit;
A storage unit for storing word data in which a plurality of words are registered together with syllables constituting the word;
Syllable group input means for accepting input of characters corresponding to one syllable made by operating the operation input unit for each syllable group having a common syllable group to which the syllable belongs;
A character string extracting means for extracting a character string composed of the same combination as the combination of syllable groups received by the syllable group input means from the word data stored in the storage unit;
A character input device comprising: conversion candidate display means for displaying the character string extracted by the character string extraction means as a conversion candidate on the image display unit.
前記音節グループ入力手段は、共通の母音を有する音節群からなる共通母音グループごとに文字の入力を受け付ける、請求項1に記載の文字入力装置。   The character input device according to claim 1, wherein the syllable group input unit accepts input of characters for each common vowel group including a syllable group having a common vowel. 前記音節グループ入力手段は、共通の子音を有する音節群からなる共通子音グループごとに文字の入力を受け付ける、請求項1に記載の文字入力装置。   The character input device according to claim 1, wherein the syllable group input unit accepts input of characters for each common consonant group including a syllable group having a common consonant. 前記操作入力部は、第1の方向及び前記第1の方向に直交する第2の方向に操作可能な遠隔操作型の操作スイッチからなる、請求項1乃至3の何れかに記載の文字入力装置。

4. The character input device according to claim 1, wherein the operation input unit includes a remote operation type operation switch operable in a first direction and a second direction orthogonal to the first direction. 5. .

JP2010252028A 2010-11-10 2010-11-10 Character input device Pending JP2012103912A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010252028A JP2012103912A (en) 2010-11-10 2010-11-10 Character input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010252028A JP2012103912A (en) 2010-11-10 2010-11-10 Character input device

Publications (1)

Publication Number Publication Date
JP2012103912A true JP2012103912A (en) 2012-05-31

Family

ID=46394228

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010252028A Pending JP2012103912A (en) 2010-11-10 2010-11-10 Character input device

Country Status (1)

Country Link
JP (1) JP2012103912A (en)

Similar Documents

Publication Publication Date Title
US8731820B2 (en) Method and apparatus for keyboard arrangement for efficient data entry for navigation system
CN102713796B (en) Input device
JP2010515982A (en) Improved search capability for portable navigation devices
JP2007052397A (en) Operating apparatus
JP2007148559A (en) Information retrieval device
US20160188184A1 (en) Text entry method with character input slider
JP4930858B2 (en) Character selection device, navigation device, and character selection program
JPH05313580A (en) Navigation device and data input conrol method for the device
JP4664775B2 (en) Navigation device
JP2008090794A (en) Character-input device and program
JP2009140287A (en) Retrieval result display device
JP5455355B2 (en) Speech recognition apparatus and program
JP4885645B2 (en) In-vehicle information terminal
JP5004026B2 (en) Character selection device, navigation device, and character selection program
JP4471618B2 (en) Item search device and item search method
JP2012103912A (en) Character input device
US10007697B2 (en) Location search device
JP5171364B2 (en) Navigation device, search method, and search program
JP4273559B2 (en) Search device
JP5748988B2 (en) Information extraction device
JP4618544B2 (en) Navigation device and storage medium
JP4588192B2 (en) Address input method
JP2007257208A (en) Facility retrieval device, method, and program therefor
JP5334446B2 (en) Information retrieval device and navigation device
US7765223B2 (en) Data search method and apparatus for same