JP2004246599A - The japanese syllabary input system and method - Google Patents
The japanese syllabary input system and method Download PDFInfo
- Publication number
- JP2004246599A JP2004246599A JP2003035335A JP2003035335A JP2004246599A JP 2004246599 A JP2004246599 A JP 2004246599A JP 2003035335 A JP2003035335 A JP 2003035335A JP 2003035335 A JP2003035335 A JP 2003035335A JP 2004246599 A JP2004246599 A JP 2004246599A
- Authority
- JP
- Japan
- Prior art keywords
- word
- input mode
- line
- stick
- control unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Navigation (AREA)
- Input From Keyboards Or The Like (AREA)
- Switch Cases, Indication, And Locking (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は50音入力システムおよび方法に関し、特に、少なくとも水平方向への傾倒または移動操作と回転操作とが可能に構成された操作子を用いて「あ」〜「ん」の50音を入力するシステムに用いて好適なものである。
【0002】
【従来の技術】
一般に、車両の走行案内を行うナビゲーション装置は、単に現在地周辺の地図を表示するのみでなく、目的地を指定することにより、現在地から目的地までの誘導経路を自動設定して案内する機能を備えている。この種のナビゲーション装置では、目的地を入力するためのユーザインタフェースとして様々な方法が用意されている。その中に、施設名や地点名、訪問先宅名称(友人の名前等)などを50音で入力するという方法がある。
【0003】
現在のナビゲーション装置で50音入力する場合は、図10のようにナビゲーション画面上にソフトウェアキーボードを表示し、ジョイスティックもしくはタッチパネルにて各語を順次選択していくのが主流である。ジョイスティックの場合は、スティックを上下左右に倒すことによってソフトウェアキーボード上のカーソルを移動させ、所望の語の上にカーソルを置いた状態で決定ボタンを押すという操作を1語1語繰り返し行っていく(例えば、特許文献1参照)。
【0004】
また、最近ではいわゆるジョグダイヤルのように、ダイヤルを回して各語を選択し、同じダイヤルをプッシュして各語を決定するような方式のものも提供されている。この方式では、ダイヤルの回転によって「あ」〜「ん」の50音を順にインクリメントし、所望の語のところでダイヤルをプッシュして各語を順次決定していく方法がある。この他に、まずダイヤルの回転によって「あ行」〜「わ行」の何れかの行を選択してダイヤルをプッシュした後、選択した行に属する語をダイヤルの回転とプッシュによってもう一度選択するといった方法も提供されている(例えば、特許文献2参照)。
【0005】
【特許文献1】
特開2002−164973号公報
【特許文献2】
特開2000−193475号公報
【0006】
【発明が解決しようとする課題】
しかしながら、ソフトウェアキーボードを使用する上記従来の技術では、ユーザがいまどの語を選択しているのかを画面を見て確認する必要がある。ジョイスティックを用いる場合もタッチパネルを用いる場合も、複数の語を順次選択して施設名等を入力する場合には、画面を凝視しながらの操作となる。そのため、走行中の操作は困難であるという問題があった。
【0007】
また、ジョイスティックを用いる場合には、スティックを上下左右に倒して所望の語の上までカーソルを移動させ、さらに決定ボタンを押すという操作が必要になる。施設名等を50音入力するためにはこれを1語1語繰り返し行わなければならないので、その操作には非常に多くの時間がかかるという問題もあった。
【0008】
ジョグダイヤルを用いる場合も、基本的に50音の入力操作には非常に多くの時間がかかる。すなわち、ダイヤルの回転によって50音を順にインクリメントしていく方式では、選択する語によっては多くのダイヤル回転量が必要となり、その操作に時間がかかってしまう。一方、行選択と語選択とを分けて行う方式では、ダイヤルを回転してからプッシュするという操作を2回繰り返して行うことが必要であり、操作が煩雑であった。
【0009】
また、ジョグダイヤルの場合、ダイヤルは任意の位置から無制限に回転するため、ダイヤルの回転位置と選択している語との関係が分かりにくい。そのため、どの位置でどの語が選択されるのかについては、画面あるいは音声のフィードバックがないと殆ど分からない。
【0010】
画面からのフィードバックのためにソフトウェアキーボードを表示する場合には、上述のように走行中の操作が困難になるという問題が生じる。一方、音声によるフィードバックを利用する場合は、ダイヤルを回すたびに音声を聞いて選択語を確認する必要があり、ソフトウェアキーボードを利用する場合に比べて更に多くの操作時間がかかってしまうという問題が生じる。
【0011】
本発明は、このような問題を解決するために成されたものであり、画面表示によるフィードバック無しに、簡単な操作で50音を入力できるようにすることを目的とする。
また、本発明は、画面表示によるフィードバックだけでなく、音声によるフィードバックも無しに、簡単な操作で50音を入力できるようにすることを目的としている。
【0012】
【課題を解決するための手段】
上記した課題を解決するために、本発明の50音入力システムでは、操作子を水平方向へ傾倒または移動して所望の行を選択する行入力モードと、操作子を水平方向に回転して選択行に属する所望の語を選択する語入力モードとを有し、操作子の傾倒または移動操作に応じて行入力モードから語入力モードに遷移させ、操作子の傾倒または移動操作により所望の行を選択した後、引き続いて行われる操作子の回転操作により選択行に属する所望の語を選択するようにしている。これにより、行入力モードで操作子を水平方向に倒した後、自動的に遷移した語入力モードで操作子を円周方向に回転するという一連の簡単な操作で、所望の語を選択することが可能となる。
【0013】
本発明の他の態様では、行入力モードにおいては各行が割り当てられた方向に対してのみ操作子を傾倒または移動操作可能なようにアクチュエータに力を加え、語入力モードにおいては各語が割り当てられた範囲内でのみ操作子を回転操作可能なようにアクチュエータに力を加えるようにしている。また、本発明のその他の態様では、語入力モードにおいて各語が割り当てられた位置の近傍で操作子に対して操作反力を加えるようにしている。このように構成した本発明によれば、フォース制御された所定の方向および範囲内でしか操作子を操作できないように制限が加えられる。また、各語に割り当てられた位置でユーザの触感が変わるように反力が加えられる。これにより、操作子の操作位置と選択行および選択語との対応関係が明確になる。
【0014】
【発明の実施の形態】
(第1の実施形態)
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による50音入力システムの構成例を示すブロック図である。図1に示すように、本実施形態の50音入力システムは、入力装置であるジョイスティック1と、入力管理部2と、制御部3と、音声合成処理部4と、出力装置であるスピーカ5とを備えて構成されている。制御部3には、入力した50音に従ってナビゲーション機能を果たす装置であるナビゲーション装置6が接続されている。
【0015】
ジョイスティック1は、水平方向への傾倒、水平方向の回転、および垂直方向への押し下げ操作が可能なスティック11と、スティック11の水平方向への傾倒の有無を検出する水平方向センサ12と、スティック11の水平方向の回転角を検出するロータリセンサ13と、スティック11の垂直方向への押し下げの有無を検出するプッシュセンサ14とを備えている。
【0016】
水平方向センサ12が検出した傾倒の有無は水平方向データとして、ロータリセンサ13が検出した回転角は回転データとして、プッシュセンサ14が検出した垂直方向への押し下げの有無はプッシュデータとして、それぞれ入力管理部2に出力される。入力管理部2は、ジョイスティック1から入力された水平方向データ、回転データおよびプッシュデータを制御部3に中継する。
【0017】
制御部3は、ジョイスティック1から入力管理部2を介して入力したデータを解析する入力解析部31と主制御部32とを備えている。主制御部32は、入力解析部31の解析結果に応じて入力モード(後述する)をソフトウェア的に切り替え、ジョイスティック1の操作に応じた50音設定コマンドをナビゲーション装置6に出力するとともに、音声出力コマンドを音声合成処理部4に出力する。
【0018】
音声合成処理部4は、主制御部32から入力される音声出力コマンドに従って音声合成を行い、ジョイスティック1の操作により選択されている語をスピーカ5から出力する。また、ナビゲーション装置6は、主制御部32から入力される50音設定コマンドに従って施設名等を目的地として設定し、誘導経路の探索処理などを実行する。
【0019】
図2は、上記のように構成した本実施形態の50音入力システムを用いて所望の語を入力する際におけるユーザ操作の例を示す図である。以下に、図1および図2を参照しながら、本実施形態による50音入力システムの動作を説明する。
【0020】
ジョイスティック1が操作されていない初期状態では、主制御部32は、「あ行」〜「わ行」の何れかの行を選択する行入力モードに設定されている。この行入力モードでは、図2(a)に示すように、スティック11を傾倒可能な360度のエリアを10等分したそれぞれの小エリアに対して「あ行」〜「わ行」が割り当てられている。例えば「あ行」には、図2(a)の斜線で示す小エリアが割り当てられており、この小エリア内の方向にスティック11が倒されたときに「あ行」の選択が成されるようになっている。
【0021】
すなわち、この行入力モードにおいてユーザは、「あ行」〜「わ行」のどの文字を入力したいかによって、スティック11をその方向に倒す。このとき、ジョイスティック1からは水平方向データが出力され、入力管理部2を介して制御部3に入力される。制御部3では、入力解析部31によってその水平方向データを解析し、スティック11の倒された方向を主制御部32に伝える。
【0022】
これに応じて主制御部32は、スティック11が倒された方向の行を選択し、それに対応する音声出力コマンドを音声合成処理部4に出力する。これにより、スピーカ5からはその選択された行の音声が出力される。例えば、図2(a)にて「あ行」を選択した場合には、スピーカ5から「あ」と発音される。これによってユーザは、どの行を選択したのかを音声により確認することができる。
【0023】
また、主制御部32は、スティック11が倒された動作を検知すると、選択した行に属する何れかの語を選択するための語入力モードに遷移する。この語入力モードでは、図2(b)に示すように、スティック11の傾倒位置を基点として360度のエリアを5分割したそれぞれの小エリアに対して各語を割り当てる(例えば、図2(a)で「あ行」を選択した場合には、「あ」「い」「う」「え」「お」の5語を図2(b)の各小エリアに割り当てる)。
【0024】
上述の行入力モードでは各行の選択エリアがあらかじめ固定されているのに対して、語入力モードでは、スティック11が倒された位置を基点として小エリアを5分割するので、それぞれの語選択エリアの位置は最初のスティック11の傾倒方向に応じて変動する。なお、小エリアに5分割する際の基点は、最初のスティック11の傾倒方向に厳密に一致している必要はない。例えば、行選択エリアの中心(図2(a)中に放射状の矢印で示す位置)を常に基点とするようにしても良い。
【0025】
この語入力モードにおいてユーザは、「あ」〜「お」のどの語を入力したいかによって、スティック11を傾倒した位置から傾倒状態を保ったまま円周方向にスティック11を回転する。このとき、ジョイスティック1からは水平方向データおよび回転データが出力され、入力管理部2を介して制御部3に入力される。制御部3では、入力解析部31によってその水平方向データおよび回転データを解析し、スティック11がどの方向まで回転したのかを主制御部32に伝える。
【0026】
これに応じて主制御部32は、スティック11が回転した方向の語を選択し、それに対応する音声出力コマンドを音声合成処理部4に出力する。これにより、スピーカ5からはその選択された語の音声が出力される。例えば、図2(b)にて「う」を選択した場合には、スピーカ5から「う」と発音される。これによってユーザは、どの語を選択したのかを音声により確認することができる。
【0027】
なお、ここではスティック11の回転を停止した位置に対応する語の音声のみをスピーカ5から出力する例について説明したが、スティック11の回転に伴い語選択エリアが切り替わるたびに、「あ」「い」「う」・・・のように順に音声を出力するようにしても良い。
【0028】
さらにユーザは、スピーカ5から出力される語の音声を確認してそれで良いと判断したときは、スティック11を垂直方向に押し下げる。このとき、ジョイスティック1からはプッシュデータが出力され、入力管理部2を介して制御部3に入力される。主制御部32は、そのスティック11の押下動作を検知すると、そのとき選択されている語を決定し、50音設定コマンドをナビゲーション装置6に出力する。
【0029】
図3は、本実施形態による主制御部32の動作を示すフローチャートである。図3において、初期状態において主制御部32は行入力モードを設定することにより、図2(a)に示す10個の小エリアに「あ行」〜「わ行」を割り当てる(ステップS1)。この状態で主制御部32は、スティック11が水平方向に倒されたかどうかを監視している(ステップS2)。
【0030】
そして、主制御部32は、スティック11の傾倒動作を検知すると、スティック11が倒された方向の行を選択し(ステップS3)、それに対応する音声出力コマンドを音声合成処理部4に出力して、選択行の音声をスピーカ5から出力する(ステップS4)。また、主制御部32は、行入力モードから語入力モードに遷移することにより、図2(b)に示す5個(「や行」または「わ行」の場合は3個)の小エリアに対して選択行に属する各語を割り当てる(ステップS5)。
【0031】
この語入力モードにおいて、主制御部32は、スティック11が水平方向に回転されたかどうかを監視している(ステップS6)。スティック11の回転が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS7)。ここで、スティック11が元の位置に戻されていない場合は回転の監視を継続するが、戻された場合にはステップS1の処理に戻る。
【0032】
一方、主制御部32は、スティック11の回転動作を検知すると、当該スティック11が回転した方向の語を選択する(ステップS8)。そして、その選択した語に対応する音声出力コマンドを音声合成処理部4に出力して、選択語の音声をスピーカ5から出力する(ステップS9)。
【0033】
その後主制御部32は、スティック11が垂直方向に押下されたかどうかを監視する(ステップS10)。スティック11の押下が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS12)。ここで、スティック11が元の位置に戻されていない場合は押下の監視を継続するが、戻された場合にはステップS1の処理に戻る。
【0034】
また、主制御部32は、スティック11の押下動作を検知すると、そのとき選択されている語を決定し(ステップS12)、その決定した語を表す50音設定コマンドをナビゲーション装置6に出力する(ステップS13)。その後、ステップS1の処理に戻って再び行入力モードとなり、引き続き入力する文字があれば以上と同様の動作を繰り返す。
【0035】
以上詳しく説明したように、第1の実施形態によれば、行入力モードでジョイスティック1を水平方向に倒した後、自動的に遷移した語入力モードでジョイスティック1を円周方向に回転するという一連の簡単な操作で、所望の語を選択することができる。このように、ジョイスティック1の傾倒と回転との組み合わせで各語を一意に決定できるため、視覚へのフィードバックが不要となり、画面表示無しで50音入力が可能となる。画面表示を必要としないため、走行中の操作も可能となる。
【0036】
なお、従来のジョグダイヤル方式でも、上述のように行選択と語選択とを分けて行う方法が存在する。しかし、所望の行を選択してはダイヤルをプッシュし、所望の語を選択してはダイヤルをプッシュするという2段階の操作が必要となる。これに対して本実施形態では、ジョイスティック1を倒して回転するという一連の操作で任意の語を選択することができ、操作性が遥かに向上している。また、ジョグダイヤル方式では画面表示あるいは音声のフィードバックが必要であるが、本実施形態では少なくとも画面表示のフィードバックは不要である。
【0037】
本実施形態においても、音声によるフィードバックはあった方が好ましいが、ジョイスティック1の傾倒方向はわずか10方向であり、回転角はわずか5段階のみである。しかも、どの方向に倒せばどの行を選択できるか、どの程度回転すれば何番目の語を選択できるかについては直感的に把握することができ、音声によるフィードバックは単なる確認用として利用する程度で済む。したがって、無制限に回転するダイヤルの操作に伴い出力される音声を一々聞きながら所望の語を探していかなければならなかった従来のジョグダイヤル方式と異なり、音声のフィードバックがあっても操作時間は短くなる。
【0038】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図4は、第2の実施形態による50音入力システムの構成例を示すブロック図である。なお、この図4において、図1に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
【0039】
図2に示すように、本実施形態の50音入力システムは、ユーザに伝える触感を制御することのできる入力装置である力覚操作子10と、入力管理部2と、制御部3と、力覚制御部7とを備えて構成されている。制御部3には、入力した50音に従ってナビゲーション機能を果たす装置であるナビゲーション装置6が接続されている。
【0040】
力覚操作子10は、フォース制御された水平方向への傾倒、フォース制御された水平方向の回転、および垂直方向への押し下げ操作が可能なスティック11と、水平方向センサ12と、ロータリセンサ13と、プッシュセンサ14と、スティック11に対して水平傾倒方向および水平回転方向へのトルクを与えるDCモータ等のアクチュエータ15とを備えている。
【0041】
力覚制御部7は、力覚操作子10より入力する回転データをもとにスティック11の回転角度を検出する回転角度検出部71と、入力モードに応じて切り替えるスティック11に対する力の方向とトルク強さとを表したフォースパターンテーブル72と、フォースパターンテーブル72に従ってアクチュエータ15を制御し、スティック11に与える力の方向とトルク強さとを制御するフォース制御部73とを備えている。
【0042】
図5は、フォースパターンテーブル72により示される各入力モードでのフォースパターンの例を示す図である。初期状態の行入力モードでは、図5(a)に示すように、360度を均等に10分割したそれぞれの方向にのみスティック11を倒すことができるように可倒方向の制限をかけるようなフォースパターンが設定されている。
【0043】
また、任意の行を選択したときに遷移する語入力モードでは、図5(b)に示すように、スティック11を倒した位置を基点として円周を8等分したときの各頂点のうち、当該基点の頂点を含めてそこから時計回りに数えて5個もしくは3個(や行、わ行の場合)の頂点間においてのみスティック11を円周方向に回転することができるように可動範囲の制限をかけるようなフォースパターンが設定されている。また、語入力モードのフォースパターンは、円周方向に操作を行っている際に各語(5個もしくは3個の頂点)の位置が明確に判断できるように、図6に示すように、各語の位置に達する前後で、操作している方向とは逆方向に反力を与えるパターンも含んでいる。
【0044】
フォース制御部73は、行入力モードでは、フォースパターンテーブル72に従って、図5(a)の矢印に示す方向に対してのみ比較的弱い力をかけ、それ以外の方向(矢印間の方向)には強い力をかけるようにアクチュエータ15を制御することにより、矢印以外の方向にはスティック11を倒すことができないようにする。
【0045】
フォース制御部73はまた、語入力モードでは、フォースパターンテーブル72に従って、図5(b)の矢印で示す可動範囲では比較的弱い力をかけ、×印で示す非可動範囲では強い力をかけるようにアクチュエータ15を制御することにより、矢印の可動範囲でのみスティック11を回転することができるようにする。また、フォース制御部73は、回転角度検出部71より出力される回転角度情報とフォースパターンテーブル72とに従って、図6のように各語の位置に達する前後でアクチュエータ15に反力を与える。
【0046】
制御部3が備える主制御部33は、入力解析部31の解析結果に応じて、力覚操作子10の操作に応じた50音設定コマンドをナビゲーション装置6に出力する。また、当該解析結果に応じて入力モードをソフトウェア的に切り替え、設定した入力モードに従ってフォース制御部73を制御する。フォース制御部73は、主制御部33により設定された入力モードに従ってフォースパターンを切り替え、アクチュエータ15を制御してスティック11の力覚を調整する。
【0047】
図7は、上記のように構成した本実施形態の50音入力システムを用いて、例えば「おく」の2文字を入力する際におけるユーザ操作の例を示す図である。以下に、図4〜図7を参照しながら、本実施形態による50音入力システムの動作を説明する。
【0048】
力覚操作子10が操作されていない初期状態では、主制御部33は行入力モードに設定されている。この行入力モードにおいて、フォース制御部73は、図5(a)に示すように、スティック11が限定の10方向にのみ倒れるようにアクチュエータ15を制御している。また、主制御部33は、図5(a)の矢印で示す10方向に対して「あ行」〜「わ行」を割り当てている。
【0049】
この行入力モードにおいてユーザは、「あ行」〜「わ行」のどの文字を入力したいかによって、スティック11をその方向に倒す。最初は「お」の文字を入力したいので、図7(a)のように「あ行」の方向にスティック11を倒す。このとき、力覚操作子10からは水平方向データが出力され、入力管理部2を介して制御部3に入力される。制御部3では、入力解析部31によってその水平方向データを解析し、スティック11の倒された方向を主制御部33に伝える。
【0050】
主制御部33は、スティック11が倒された動作を検知すると、語入力モードに遷移し、そのことをフォース制御部73に通知する。この語入力モードにおいて、フォース制御部73は、図5(b)に示すように、矢印の可動範囲のみをスティック11が回転するようにアクチュエータ15を制御している。また、主制御部33は、スティック11の傾倒位置から数えて5個の頂点に対して「あ」「い」「う」「え」「お」の各語を順に割り当てている。
【0051】
この語入力モードにおいてユーザは、「あ」〜「お」のどの語を入力したいかによって、スティック11を傾倒した位置から傾倒状態を保ったまま円周方向にスティック11を回転する。今の例では「お」の文字を入力したいので、図7(a)のように5個目の頂点までスティック11を回転する。このとき、力覚操作子10からは水平方向データおよび回転データが出力され、入力管理部2を介して制御部3に入力される。
【0052】
制御部3では、入力解析部31によりその水平方向データおよび回転データを解析し、スティック11がどの方向まで回転したのかを主制御部33に伝える。これにより主制御部33は、現在「お」の語が選択されていることを認識する。
【0053】
その後ユーザは、スティック11を垂直方向に押し下げる。このとき、ジョイスティック1からはプッシュデータが出力され、入力管理部2を介して制御部3に入力される。主制御部33は、そのスティック11の押下動作を検知すると、そのとき選択されている語を決定し、50音設定コマンドをナビゲーション装置6に出力して行入力モードに戻る。
【0054】
以上の動作により「お」の入力が完了する。次いで、図7(b)に示すユーザ操作によって「く」の文字を入力する。すなわち、「か行」の方向にスティック11を倒した後、その傾倒位置から時計回りに3個目の頂点までスティック11を回転する。そして、その位置でスティック11を垂直方向に押し下げることにより、「く」の文字を決定する。
【0055】
ここで、「お」の文字を入力するときも、「く」の文字を入力するときも、行入力モードでの可倒方向は何れも同じである。一方、「あ行」を選択した後の語入力モードでは、図7(a)に示すように、「あ行」の方向を基点として時計回りに5個分の頂点が可動範囲として設定され、各頂点に対して「あ」〜「お」の語が割り当てられるのに対し、「か行」を選択した後の語入力モードでは、図7(b)に示すように、「か行」の方向を基点として時計回りに5個分の頂点が可動範囲として設定され、各頂点に対して「か」〜「こ」の語が割り当てられる。このとき、行入力モードでスティック11を倒した位置に対して各行の先頭語(「あ」および「か」)が割り当てられる。
【0056】
図8は、本実施形態による主制御部33およびフォース制御部73の動作を示すフローチャートである。図8において、初期状態において主制御部33は行入力モードを設定することにより、図5(a)の10方向に「あ行」〜「わ行」を割り当てる(ステップS21)。また、フォース制御部73は行入力用のフォースパターンに従ってアクチュエータ15を制御することにより、図5(a)の10方向にのみスティック11が倒れるように可倒方向を制限する(ステップS22)。
【0057】
この状態で主制御部33は、スティック11が水平方向に倒されたかどうかを監視している(ステップS23)。そして、スティック11の傾倒動作を検知すると、当該スティック11が倒された方向の行を選択し(ステップS24)、行入力モードから語入力モードに遷移することにより、図5(b)に示すような5個(「や行」または「わ行」の場合は3個)の頂点に対して選択行に属する各語を割り当てる(ステップS25)。また、フォース制御部73は、語入力用のフォースパターンに従ってアクチュエータ15を制御することにより、図5(b)の矢印で示す範囲でのみスティック11が回転可能なように可動範囲を制限する(ステップS26)。
【0058】
この語入力モードにおいて、主制御部33は、スティック11が水平方向に回転されたかどうかを監視している(ステップS27)。そして、スティック11の回転が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS28)。ここで、スティック11が元の位置に戻されていない場合は回転の監視を継続するが、戻された場合にはステップS21の処理に戻る。
【0059】
一方、主制御部33は、スティック11の回転動作を検知すると、当該スティック11が回転した方向の語を選択する(ステップS29)。その後主制御部33は、スティック11が垂直方向に押下されたかどうかを監視する(ステップS30)。スティック11の押下が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS31)。ここで、スティック11が元の位置に戻されていない場合は押下の監視を継続するが、戻された場合にはステップS21の処理に戻る。
【0060】
また、主制御部33は、スティック11の押下動作を検知すると、そのとき選択されている語を決定し(ステップS32)、その決定した語を表す50音設定コマンドをナビゲーション装置6に出力する(ステップS33)。その後、ステップS21の処理に戻って再び行入力モードとなり、引き続き入力する文字があれば以上と同様の動作を繰り返す。
【0061】
以上詳しく説明したように、第2の実施形態によれば、行入力モードと語入力モードとを有すること自体は第1の実施形態と同様であるが、ジョイスティック1の代わりに力覚操作子10を用いた。これにより、どの方向にも傾倒操作が自在にできるフリーのジョイスティック1を用いる場合に比べて、力覚操作子10ではフォース制御された所定の方向にしか操作できないようになり、傾倒位置と選択行との対応を明確にすることができる。また、語入力モードでの回転範囲にも制限を設け、各語の位置に達する前後で反力を加えるようにしたので、回転位置と選択語との対応も明確にすることができる。これにより、画面表示のフィードバックだけでなく、音声のフィードバックがなくても50音入力が簡単にでき、操作時間を更に短くすることができる。
【0062】
なお、この第2の実施形態においても、確認用のために音声のフィードバックを行うようにしても良い。基本的には音声フィードバックは不要であるが、操作に慣れるまでは音声フィードバックがあった方が好ましい。
【0063】
なお、上記第2の実施形態では、「あ行」〜「わ行」を図5(a)の10方向に割り振る例について説明したが、図9(a)のように8方向に割り振るようにしても良い。この場合、「ま行」と「や行」は同じ方向に割り振り、「ら行」と「わ行」は別の同じ方向に割り振る。「あ行」〜「は行」が選択された場合に遷移する語入力モードでのフォースパターンは図5(b)と同様であるが、「ま行」と「や行」あるいは「ら行」と「わ行」が選択された場合に遷移する語入力モードでは、図9(b)(c)のようにフォースパターンを設定する。
【0064】
このようにした場合、スティック11を最初に倒せる方向は8方向に減り、上下左右とそのちょうど中間の分かりやすい方向のみとなるので、傾倒位置と選択行との対応をより明確にすることができる。
上述した第1の実施形態においても同様に、「あ行」〜「わ行」を8分割した小エリアに割り振るようにしても良い。
【0065】
また、上記第2の実施形態では、語入力モードにおけるスティック11の可動範囲を基点の頂点から時計回りの方向に設定する例について説明したが、反時計回りの方向に設定するようにしても良い。また、図2(b)と同様に、可動範囲に制限は設けず、各頂点に達する前後で反力を加えるだけにしても良い。この場合は、スティック11の回転により、「あ」→「い」→・・・→「お」→「あ」のように各語をトグル的に選択することができる。
【0066】
また、上記第1および第2の実施形態では、行入力モードにおいてスティック11を所望の方向に倒すような構成について説明したが、所望の方向に平行移動するように構成しても良い。
また、上記第1および第2の実施形態では、最終的な語決定操作としてスティック11を垂直方向に押し下げる例について説明したが、これに限られるものではない。例えば、他に設けられた決定ボタンを押下するようにしても良い。
【0067】
また、上記第1および第2の実施形態では、50音入力システムをナビゲーション装置に適用する例について説明したが、これに限定されるものではない。例えば、タイトル等を50音入力する機能を備えたオーディオ装置などに適用することも可能である。また、本実施形態の50音入力システムは、車載用の電子機器に限らず、家屋設置用の各種電子機器に適用することも可能である。
【0068】
その他、上記各実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
【0069】
【発明の効果】
本発明は上述したように、所望の行を選択する行入力モードと選択行に属する所望の語を選択する語入力モードとを有し、操作子の傾倒または移動操作の検出に応じて行を選択した後、引き続いて行われる操作子の回転操作の検出に応じて選択行に属する語を選択するようにしたので、例えば操作子を所望の方向に傾した後、そこから所望の方向まで操作子を回転するという一連の簡単な操作で、所望の語を選択することが可能となる。これにより、操作子の傾倒または移動操作と回転操作との組み合わせで各語を一意に決定できるため、視覚へのフィードバックが不要となり、画面表示無しで50音を入力することができるようになる。また、操作の時間も短くて済むようになる。
【0070】
本発明の他の特徴によれば、行入力モードにおいて各行が割り当てられた方向に対してのみ操作子を傾倒または移動可能なように力制限を加え、語入力モードにおいて各語が割り当てられた範囲内でのみ操作子を回転可能なように力制限を加えるようにし、また、語入力モードにおいて各語が割り当てられた位置の近傍で操作子に対して操作反力を加えるようにしたので、操作子の操作位置と選択行および選択語との対応関係を明確にすることが可能となる。これにより、画面表示によるフィードバックだけでなく、音声によるフィードバックも無しに、簡単な操作で50音を入力することができるようになる。
【図面の簡単な説明】
【図1】第1の実施形態による50音入力システムの構成例を示すブロック図である。
【図2】第1の実施形態による50音入力システムを用いて所望の語を入力する際におけるユーザ操作の例を示す図である。
【図3】第1の実施形態による主制御部の動作を示すフローチャートである。
【図4】第2の実施形態による50音入力システムの構成例を示すブロック図である。
【図5】行入力モードおよび語入力モードでのフォースパターンの例を示す図である。
【図6】各語の位置近辺における反力の与え方を示す概念図である。
【図7】第2の実施形態による50音入力システムを用いて所望の語を入力する際におけるユーザ操作の例を示す図である。
【図8】第2の実施形態による主制御部およびフォース制御部の動作を示すフローチャートである。
【図9】行入力モードおよび語入力モードでのフォースパターンの他の例を示す図である。
【図10】従来の50音入力操作例を示す図である。
【符号の説明】
1 ジョイスティック
2 入力管理部
3 制御部
4 音声合成処理部
5 スピーカ
6 ナビゲーション装置
7 力覚制御部
11 スティック
12 水平方向センサ
13 ロータリセンサ
14 プッシュセンサ
15 アクチュエータ
31 入力解析部
32,33 主制御部
71 回転角度検出部
72 フォースパターンテーブル
73 フォース制御部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a Japanese syllabary input system and method, and more particularly, to input the Japanese syllabary "A" to "N" using an operator configured to be able to perform at least a horizontal tilting or moving operation and a rotating operation. It is suitable for use in a system.
[0002]
[Prior art]
In general, a navigation device for guiding a vehicle has a function of not only displaying a map around the current position but also automatically setting a guidance route from the current position to the destination by designating the destination. ing. In this type of navigation device, various methods are prepared as a user interface for inputting a destination. Among them, there is a method of inputting the name of a facility, the name of a point, the name of a visited home (name of a friend, etc.) in 50 sounds.
[0003]
When inputting 50 sounds with the current navigation device, a mainstream is to display a software keyboard on the navigation screen as shown in FIG. 10 and sequentially select each word using a joystick or a touch panel. In the case of a joystick, the operation of moving the cursor on the software keyboard by tilting the stick up, down, left, and right, and pressing the enter button with the cursor placed on a desired word is repeated one word at a time ( For example, see Patent Document 1).
[0004]
Recently, there has also been provided a system such as a so-called jog dial, in which each word is selected by turning a dial, and each word is determined by pushing the same dial. In this system, there is a method of sequentially incrementing the 50 sounds of "A" to "N" by rotating the dial, and pushing the dial at a desired word to sequentially determine each word. In addition, after selecting one of the lines "A" to "W" by rotating the dial and pushing the dial, the word belonging to the selected line is selected again by rotating and pushing the dial. A method is also provided (see, for example, Patent Document 2).
[0005]
[Patent Document 1]
JP-A-2002-164973
[Patent Document 2]
JP-A-2000-193475
[0006]
[Problems to be solved by the invention]
However, in the above-mentioned conventional technique using a software keyboard, it is necessary to confirm on the screen which word the user is currently selecting. In both cases where a joystick is used and a touch panel is used, when a plurality of words are sequentially selected and a facility name or the like is input, the operation is performed while staring at the screen. Therefore, there is a problem that operation during traveling is difficult.
[0007]
In the case of using a joystick, an operation of tilting the stick up, down, left, and right to move a cursor to a desired word, and further pressing an enter button is required. This must be repeated one word at a time in order to input 50 sounds of the facility name and the like, so that there is a problem that the operation takes a very long time.
[0008]
Even when the jog dial is used, basically, it takes a very long time to perform an operation of inputting 50 sounds. That is, in the method of sequentially incrementing the Japanese syllabary by the rotation of the dial, a large amount of dial rotation is required depending on the word to be selected, and the operation takes time. On the other hand, in the method in which line selection and word selection are performed separately, it is necessary to repeat the operation of rotating and then pushing the dial twice, and the operation is complicated.
[0009]
In the case of a jog dial, since the dial rotates from an arbitrary position without limitation, it is difficult to understand the relationship between the rotational position of the dial and the selected word. Therefore, it is almost impossible to know which word is selected at which position without screen or audio feedback.
[0010]
When the software keyboard is displayed for the feedback from the screen, there is a problem that the operation during traveling becomes difficult as described above. On the other hand, when using feedback by voice, it is necessary to check the selected word by listening to the voice each time the dial is turned, which takes longer operation time than using a software keyboard. Occurs.
[0011]
The present invention has been made to solve such a problem, and an object of the present invention is to make it possible to input 50 sounds by a simple operation without feedback by screen display.
Another object of the present invention is to enable the user to input 50 sounds by a simple operation without feedback by voice as well as feedback by screen display.
[0012]
[Means for Solving the Problems]
In order to solve the above-described problems, in the Japanese syllabary input system of the present invention, a row input mode in which a desired control is selected by tilting or moving a control in a horizontal direction, and a selection by rotating a control in a horizontal direction are provided. Having a word input mode for selecting a desired word belonging to a line, and transitioning from the line input mode to the word input mode in accordance with the tilting or moving operation of the operation element, and changing the desired line by tilting or moving the operation element. After the selection, a desired word belonging to the selected line is selected by a subsequent rotation operation of the operation element. This allows a desired word to be selected by a series of simple operations in which the operator is tilted horizontally in the line input mode, and then the operator is rotated in the circumferential direction in the automatically entered word input mode. Becomes possible.
[0013]
In another aspect of the present invention, in the line input mode, a force is applied to the actuator so that the operator can be tilted or moved only in the direction to which each line is assigned, and in the word input mode, each word is assigned. A force is applied to the actuator so that the operating element can be rotated only within the range. Further, in another aspect of the present invention, in the word input mode, an operation reaction force is applied to the operator near the position where each word is assigned. According to the present invention configured as described above, a restriction is imposed so that the operation element can be operated only within a predetermined direction and range in which the force control is performed. Also, a reaction force is applied so that the user's tactile sensation changes at the position assigned to each word. As a result, the correspondence between the operation position of the operator and the selected line and the selected word becomes clear.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of the Japanese syllabary input system according to the first embodiment. As shown in FIG. 1, the syllabary input system according to the present embodiment includes a joystick 1 as an input device, an input management unit 2, a
[0015]
The joystick 1 includes a
[0016]
The presence / absence of tilt detected by the
[0017]
The
[0018]
The voice
[0019]
FIG. 2 is a diagram illustrating an example of a user operation when a desired word is input using the syllabary input system of the present embodiment configured as described above. Hereinafter, the operation of the Japanese syllabary input system according to the present embodiment will be described with reference to FIGS.
[0020]
In an initial state in which the joystick 1 is not operated, the main control unit 32 is set to a line input mode for selecting any one of “A line” to “Wa line”. In this line input mode, as shown in FIG. 2A, "A line" to "Wa line" are assigned to each of the small areas obtained by equally dividing the 360-degree area in which the
[0021]
That is, in this line input mode, the user tilts the
[0022]
In response to this, the main control unit 32 selects a row in the direction in which the
[0023]
When detecting that the
[0024]
In the above-described row input mode, the selection area of each row is fixed in advance, whereas in the word input mode, the small area is divided into five parts based on the position where the
[0025]
In this word input mode, the user rotates the
[0026]
In response to this, the main control unit 32 selects a word in the direction in which the
[0027]
Here, an example has been described in which only the sound of the word corresponding to the position where the rotation of the
[0028]
Further, the user confirms the sound of the word output from the speaker 5 and, when judging that it is sufficient, pushes down the
[0029]
FIG. 3 is a flowchart illustrating the operation of the main control unit 32 according to the present embodiment. In FIG. 3, in the initial state, the main control unit 32 assigns “A line” to “Wa line” to the ten small areas shown in FIG. 2A by setting the line input mode (step S1). In this state, the main control unit 32 monitors whether the
[0030]
When detecting the tilting operation of the
[0031]
In this word input mode, the main control unit 32 monitors whether the
[0032]
On the other hand, when detecting the rotation operation of the
[0033]
Thereafter, the main control unit 32 monitors whether the
[0034]
Further, when detecting the pressing operation of the
[0035]
As described in detail above, according to the first embodiment, after the joystick 1 is tilted in the horizontal direction in the line input mode, the joystick 1 is rotated in the circumferential direction in the automatically changed word input mode. With a simple operation, a desired word can be selected. As described above, since each word can be uniquely determined by the combination of the tilt and rotation of the joystick 1, visual feedback is not required, and it is possible to input 50 sounds without displaying a screen. Since no screen display is required, operation during traveling is also possible.
[0036]
In addition, even in the conventional jog dial system, there is a method of performing line selection and word selection separately as described above. However, a two-stage operation of selecting a desired line and pushing the dial, and selecting a desired word and pushing the dial is required. On the other hand, in the present embodiment, an arbitrary word can be selected by a series of operations of tilting and rotating the joystick 1, and the operability is much improved. In the jog dial system, screen display or voice feedback is required. In the present embodiment, at least screen display feedback is not required.
[0037]
Also in the present embodiment, it is preferable that there be feedback by sound, but the tilting direction of the joystick 1 is only 10 directions, and the rotation angle is only 5 steps. In addition, it is possible to intuitively understand which line can be selected by tilting in which direction, and how many words can be selected by rotating, and the audio feedback is used only for confirmation. I'm done. Therefore, unlike the conventional jog dial system in which the user has to search for a desired word while listening to the voice output one by one by operating the dial that rotates indefinitely, the operation time is shortened even if there is voice feedback. .
[0038]
(Second embodiment)
Next, a second embodiment of the present invention will be described. FIG. 4 is a block diagram showing a configuration example of the Japanese syllabary input system according to the second embodiment. In FIG. 4, components denoted by the same reference numerals as those shown in FIG. 1 have the same functions, and thus redundant description will be omitted.
[0039]
As shown in FIG. 2, the syllabary input system according to the present embodiment includes a
[0040]
The
[0041]
The force sense control unit 7 includes a rotation
[0042]
FIG. 5 is a diagram illustrating an example of a force pattern in each input mode indicated by the force pattern table 72. In the row input mode in the initial state, as shown in FIG. 5A, a force that restricts the tilting direction so that the
[0043]
In the word input mode to which a transition is made when an arbitrary line is selected, as shown in FIG. 5B, among the vertices when the circumference is divided into eight equal parts based on the position at which the
[0044]
In the line input mode, the
[0045]
In the word input mode, the
[0046]
The
[0047]
FIG. 7 is a diagram illustrating an example of a user operation when inputting, for example, two characters “Oku” using the Japanese syllabary input system configured as described above. Hereinafter, the operation of the Japanese syllabary input system according to the present embodiment will be described with reference to FIGS.
[0048]
In an initial state in which the
[0049]
In this line input mode, the user tilts the
[0050]
When detecting that the
[0051]
In this word input mode, the user rotates the
[0052]
In the
[0053]
Thereafter, the user pushes down the
[0054]
With the above operation, the input of “O” is completed. Next, the character "" is input by the user operation shown in FIG. That is, after the
[0055]
Here, the tilting direction in the line input mode is the same both when the character "O" is input and when the character "K" is input. On the other hand, in the word input mode after “A line” is selected, as shown in FIG. 7A, five vertices are set as the movable range in the clockwise direction with the direction of “A line” as a base point. While the words “A” to “O” are assigned to each vertex, in the word input mode after “KA LINE” is selected, as shown in FIG. Five vertices are set as the movable range in the clockwise direction with the direction as a base point, and the words “ka” to “ko” are assigned to each vertex. At this time, the head words (“A” and “KA”) of each line are assigned to the position where the
[0056]
FIG. 8 is a flowchart illustrating the operation of the
[0057]
In this state, the
[0058]
In this word input mode, the
[0059]
On the other hand, when detecting the rotation operation of the
[0060]
Further, when detecting the pressing operation of the
[0061]
As described in detail above, according to the second embodiment, having the line input mode and the word input mode is the same as the first embodiment, but the
[0062]
Note that, also in the second embodiment, audio feedback may be performed for confirmation. Basically, no audio feedback is required, but it is preferable to have audio feedback until the user becomes accustomed to the operation.
[0063]
In the above-described second embodiment, an example in which “A row” to “Wa row” are allocated in ten directions in FIG. 5A has been described. However, as shown in FIG. May be. In this case, “ma line” and “ya line” are allocated in the same direction, and “ra line” and “wa line” are allocated in another same direction. The force pattern in the word input mode to which the transition is made when “A row” to “ha row” is selected is the same as in FIG. 5B, but “ma row” and “ya row” or “ra row” In the word input mode to which a transition is made when “W” is selected, a force pattern is set as shown in FIGS. 9B and 9C.
[0064]
In this case, the direction in which the
Similarly, in the above-described first embodiment, “A row” to “Wa row” may be allocated to the small areas divided into eight.
[0065]
In the second embodiment, the example in which the movable range of the
[0066]
In the first and second embodiments, the configuration in which the
Further, in the first and second embodiments, an example has been described in which the
[0067]
Further, in the first and second embodiments, the example in which the Japanese syllabary input system is applied to the navigation device has been described, but the present invention is not limited to this. For example, the present invention can be applied to an audio device having a function of inputting 50 sounds of a title or the like. In addition, the Japanese syllabary input system of the present embodiment is not limited to electronic devices mounted on a vehicle, and can be applied to various electronic devices installed in a house.
[0068]
In addition, each of the above-described embodiments is merely an example of a specific embodiment for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. That is, the present invention can be embodied in various forms without departing from the spirit or main features thereof.
[0069]
【The invention's effect】
As described above, the present invention has a line input mode for selecting a desired line and a word input mode for selecting a desired word belonging to the selected line. After the selection, the words belonging to the selected line are selected according to the detection of the subsequent rotation operation of the operator. For example, after the operator is tilted in a desired direction, the operation is performed from there to a desired direction. With a series of simple operations of rotating the child, a desired word can be selected. As a result, since each word can be uniquely determined by a combination of the tilting or moving operation and the rotation operation of the operation element, feedback to the sight is not required, and it is possible to input 50 sounds without screen display. In addition, the operation time can be reduced.
[0070]
According to another feature of the present invention, in the line input mode, a force is limited so that the operator can be tilted or moved only in the direction to which each line is allocated, and the range in which each word is allocated in the word input mode. In the word input mode, an operation reaction force is applied to the operator in the vicinity of the position where each word is assigned in the word input mode. It is possible to clarify the correspondence between the child's operation position and the selected line and the selected word. As a result, it is possible to input 50 sounds by a simple operation without feedback not only by screen display but also by voice.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a Japanese syllabary input system according to a first embodiment.
FIG. 2 is a diagram illustrating an example of a user operation when inputting a desired word using the Japanese syllabary input system according to the first embodiment;
FIG. 3 is a flowchart illustrating an operation of a main control unit according to the first embodiment.
FIG. 4 is a block diagram illustrating a configuration example of a Japanese syllabary input system according to a second embodiment.
FIG. 5 is a diagram illustrating an example of a force pattern in a line input mode and a word input mode.
FIG. 6 is a conceptual diagram showing how to apply a reaction force near the position of each word.
FIG. 7 is a diagram illustrating an example of a user operation when a desired word is input using the Japanese syllabary input system according to the second embodiment.
FIG. 8 is a flowchart illustrating operations of a main control unit and a force control unit according to the second embodiment.
FIG. 9 is a diagram showing another example of a force pattern in a line input mode and a word input mode.
FIG. 10 is a diagram showing an example of a conventional Japanese syllabary input operation.
[Explanation of symbols]
1 Joystick
2 Input management unit
3 control part
4 Voice synthesis processing unit
5 Speaker
6 Navigation device
7 Force sense control unit
11 sticks
12 Horizontal sensor
13 Rotary sensor
14 Push sensor
15 Actuator
31 Input analysis unit
32,33 Main control unit
71 Rotation angle detector
72 Force pattern table
73 Force control unit
Claims (10)
上記操作子の傾倒または移動操作と回転操作とを検出する操作検出手段と、
上記操作子が操作されていない中立状態において行入力モードを設定するとともに、上記操作検出手段による上記操作子の傾倒または移動操作の検出に応じて語入力モードを設定するモード切替手段と、
上記操作子の傾倒または移動操作の検出に応じて何れかの行を選択した後、引き続いて行われる上記操作子の回転操作の検出に応じて上記選択した行に属する何れかの語を選択する語選択手段とを備えたことを特徴とする50音入力システム。An operator configured to be capable of at least tilting or moving in a horizontal direction and a rotating operation,
Operation detection means for detecting a tilt or movement operation and a rotation operation of the operation element;
A mode switching unit that sets the line input mode in the neutral state where the operator is not operated, and sets the word input mode in accordance with detection of the tilt or movement operation of the operator by the operation detector.
After selecting one of the lines according to the detection of the tilting or moving operation of the operation element, selecting one of the words belonging to the selected line according to the detection of the rotation operation of the operation element performed subsequently. A syllabary input system comprising: a word selecting unit.
上記行入力モードにおいては各行が割り当てられた方向に対してのみ上記操作子を傾倒または移動操作可能なように、上記語入力モードにおいては各語が割り当てられた範囲内でのみ上記操作子を回転操作可能なように、上記アクチュエータに対する力を制御するフォース制御手段とを備えたことを特徴とする請求項1に記載の50音入力システム。An actuator for applying a force to the operator,
In the word input mode, the operator is rotated only within the range in which each word is assigned so that the operator can be tilted or moved only in the direction in which each line is assigned. 2. The 50 sound input system according to claim 1, further comprising: force control means for controlling a force applied to said actuator so as to be operable.
上記フォース制御手段は、上記回転角度検出手段による上記回転角度の検出に応じて、上記語入力モードにおいて各語が割り当てられた位置の近傍で上記操作子に対して操作反力を加えるように制御することを特徴とする請求項2に記載の50音入力システム。In the word input mode, comprises a rotation angle detection means for detecting a rotation angle of the operation element,
The force control means controls to apply an operation reaction force to the operation element in the vicinity of the position where each word is assigned in the word input mode, in response to the detection of the rotation angle by the rotation angle detection means. 3. The Japanese syllabary input system according to claim 2, wherein
上記行入力モードで上記操作子の傾倒または移動操作が行われたときに、上記制御部がその操作方向に応じて何れかの行を選択するするとともに、上記行入力モードから語入力モードに遷移して所望の語の選択を受け付ける第2の段階と、
上記語入力モードで上記操作子の回転操作が行われたときに、上記制御部がその操作方向に応じて、上記第2の段階で選択された行に属する何れかの語を選択する第3の段階とを有することを特徴とする50音入力方法。A first stage in which the control unit sets the line input mode in a neutral state of an operator configured to be capable of at least tilting or moving in the horizontal direction and a rotation operation, and receives a selection of a desired line;
When the operation element is tilted or moved in the line input mode, the control unit selects one of the lines according to the operation direction, and transitions from the line input mode to the word input mode. A second step of accepting the selection of the desired word
A third step of selecting one of the words belonging to the line selected in the second step according to the operation direction when the operation of rotating the operation element is performed in the word input mode; A method for inputting 50 sounds, comprising the steps of:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003035335A JP4105559B2 (en) | 2003-02-13 | 2003-02-13 | 50 sound input system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003035335A JP4105559B2 (en) | 2003-02-13 | 2003-02-13 | 50 sound input system and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004246599A true JP2004246599A (en) | 2004-09-02 |
JP4105559B2 JP4105559B2 (en) | 2008-06-25 |
Family
ID=33020784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003035335A Expired - Lifetime JP4105559B2 (en) | 2003-02-13 | 2003-02-13 | 50 sound input system and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4105559B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006068218A1 (en) * | 2004-12-22 | 2006-06-29 | Appside Co., Ltd. | Data input device, data input method, data input program and recording medium wherein such data input program is recorded |
WO2006070898A1 (en) * | 2004-12-27 | 2006-07-06 | Sunarrow Ltd. | Directionality determination method for operation key in direction detection switch |
JP2006284219A (en) * | 2005-03-31 | 2006-10-19 | Xanavi Informatics Corp | Navigation device and japanese syllabary character input method |
WO2007055367A1 (en) * | 2005-11-14 | 2007-05-18 | Matsushita Electric Industrial Co., Ltd. | Input device |
WO2009016915A1 (en) * | 2007-08-02 | 2009-02-05 | Konami Digital Entertainment Co., Ltd. | Game program, game device, and game control method |
JP2009538437A (en) * | 2006-02-01 | 2009-11-05 | ザ ユニバーシティー オブ ダンディー | Utterance generation user interface |
JP2012139026A (en) * | 2010-12-27 | 2012-07-19 | Alpine Electronics Inc | Power consumption control system |
-
2003
- 2003-02-13 JP JP2003035335A patent/JP4105559B2/en not_active Expired - Lifetime
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006068218A1 (en) * | 2004-12-22 | 2006-06-29 | Appside Co., Ltd. | Data input device, data input method, data input program and recording medium wherein such data input program is recorded |
US7944432B2 (en) | 2004-12-22 | 2011-05-17 | Appside Co., Ltd. | Data input device, data input method, data input program and recording medium wherein such data input program is recorded |
WO2006070898A1 (en) * | 2004-12-27 | 2006-07-06 | Sunarrow Ltd. | Directionality determination method for operation key in direction detection switch |
US7936335B2 (en) | 2004-12-27 | 2011-05-03 | Sunarrow Ltd. | Operation direction judging method for operation key in direction detecting switch |
JP2006284219A (en) * | 2005-03-31 | 2006-10-19 | Xanavi Informatics Corp | Navigation device and japanese syllabary character input method |
JP4621527B2 (en) * | 2005-03-31 | 2011-01-26 | クラリオン株式会社 | Navigation device and 50-syllabary character input method |
WO2007055367A1 (en) * | 2005-11-14 | 2007-05-18 | Matsushita Electric Industrial Co., Ltd. | Input device |
JP2009538437A (en) * | 2006-02-01 | 2009-11-05 | ザ ユニバーシティー オブ ダンディー | Utterance generation user interface |
WO2009016915A1 (en) * | 2007-08-02 | 2009-02-05 | Konami Digital Entertainment Co., Ltd. | Game program, game device, and game control method |
JP2012139026A (en) * | 2010-12-27 | 2012-07-19 | Alpine Electronics Inc | Power consumption control system |
Also Published As
Publication number | Publication date |
---|---|
JP4105559B2 (en) | 2008-06-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4091871B2 (en) | Data processing device | |
CN100462905C (en) | Portable device having rotatable input buttons and method of operating the same | |
KR100441173B1 (en) | Display and maneouvring system and method | |
JP5071753B2 (en) | Equipment operation device | |
JP2001331272A (en) | Character inputting device | |
JP2006285859A (en) | Information processing method and device | |
JP2002062988A (en) | Operation device | |
KR101608799B1 (en) | Apparatus and method for having object display dial of in portable terminal | |
JP3876671B2 (en) | INPUT DEVICE, INFORMATION PROCESSING DEVICE EQUIPPED WITH THE SAME, AND CURSOR DISPLAY CONTROL METHOD | |
JP4105559B2 (en) | 50 sound input system and method | |
JP2002341991A (en) | Information display device | |
JP2006155205A (en) | Electronic apparatus, input controller, and input control program | |
JP2002081942A (en) | Navigator | |
JP2007017269A (en) | Navigation device | |
JP2000032110A (en) | Telephone set | |
JP2003330608A (en) | Inner force sense applying device | |
JP4803951B2 (en) | CHARACTER INPUT DEVICE, ITS PROCESSING METHOD, RECORDING MEDIUM, AND PROGRAM | |
JP4038064B2 (en) | User interface control device | |
JP5329176B2 (en) | MAP SCROLL CONTROL DEVICE, NAVIGATION DEVICE USING THE SAME, AND MAP SCROLL CONTROL METHOD | |
JP2010039768A (en) | Information input device and information input method | |
JP2007041909A (en) | Operation device and operation system | |
JP2006301782A (en) | Switching device | |
JP2007127867A (en) | Map display device and map display method | |
JP2007159800A (en) | Pointer-based object selection system | |
JP2010257076A (en) | Character input method using rotary three-dimensional input device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080129 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080325 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080327 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140404 Year of fee payment: 6 |