JP2004246599A - The japanese syllabary input system and method - Google Patents

The japanese syllabary input system and method Download PDF

Info

Publication number
JP2004246599A
JP2004246599A JP2003035335A JP2003035335A JP2004246599A JP 2004246599 A JP2004246599 A JP 2004246599A JP 2003035335 A JP2003035335 A JP 2003035335A JP 2003035335 A JP2003035335 A JP 2003035335A JP 2004246599 A JP2004246599 A JP 2004246599A
Authority
JP
Japan
Prior art keywords
word
input mode
line
stick
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003035335A
Other languages
Japanese (ja)
Other versions
JP4105559B2 (en
Inventor
Mitsuaki Watanabe
光章 渡邉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Original Assignee
Alpine Electronics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc filed Critical Alpine Electronics Inc
Priority to JP2003035335A priority Critical patent/JP4105559B2/en
Publication of JP2004246599A publication Critical patent/JP2004246599A/en
Application granted granted Critical
Publication of JP4105559B2 publication Critical patent/JP4105559B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Switch Cases, Indication, And Locking (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To input the Japanese syllabary with a simple operation without feedback through a screen display. <P>SOLUTION: A main control part 32 for switching a row input mode for selecting a desired row by pushing down a stick 11 and a word input mode for selecting a desired word belonging to the selected row by rotating the stick 11 and selecting a word belonging to the selected row in accordance with detection by rotation operation of the stick 11 after selecting the row in accordance with pushing-down operation of the stick 11. For example, with only a series of simple operation such as pushing down the stick 11 in a desired direction and rotating the stick 11 to a desired direction from there, a desired word can be selected. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は50音入力システムおよび方法に関し、特に、少なくとも水平方向への傾倒または移動操作と回転操作とが可能に構成された操作子を用いて「あ」〜「ん」の50音を入力するシステムに用いて好適なものである。
【0002】
【従来の技術】
一般に、車両の走行案内を行うナビゲーション装置は、単に現在地周辺の地図を表示するのみでなく、目的地を指定することにより、現在地から目的地までの誘導経路を自動設定して案内する機能を備えている。この種のナビゲーション装置では、目的地を入力するためのユーザインタフェースとして様々な方法が用意されている。その中に、施設名や地点名、訪問先宅名称(友人の名前等)などを50音で入力するという方法がある。
【0003】
現在のナビゲーション装置で50音入力する場合は、図10のようにナビゲーション画面上にソフトウェアキーボードを表示し、ジョイスティックもしくはタッチパネルにて各語を順次選択していくのが主流である。ジョイスティックの場合は、スティックを上下左右に倒すことによってソフトウェアキーボード上のカーソルを移動させ、所望の語の上にカーソルを置いた状態で決定ボタンを押すという操作を1語1語繰り返し行っていく(例えば、特許文献1参照)。
【0004】
また、最近ではいわゆるジョグダイヤルのように、ダイヤルを回して各語を選択し、同じダイヤルをプッシュして各語を決定するような方式のものも提供されている。この方式では、ダイヤルの回転によって「あ」〜「ん」の50音を順にインクリメントし、所望の語のところでダイヤルをプッシュして各語を順次決定していく方法がある。この他に、まずダイヤルの回転によって「あ行」〜「わ行」の何れかの行を選択してダイヤルをプッシュした後、選択した行に属する語をダイヤルの回転とプッシュによってもう一度選択するといった方法も提供されている(例えば、特許文献2参照)。
【0005】
【特許文献1】
特開2002−164973号公報
【特許文献2】
特開2000−193475号公報
【0006】
【発明が解決しようとする課題】
しかしながら、ソフトウェアキーボードを使用する上記従来の技術では、ユーザがいまどの語を選択しているのかを画面を見て確認する必要がある。ジョイスティックを用いる場合もタッチパネルを用いる場合も、複数の語を順次選択して施設名等を入力する場合には、画面を凝視しながらの操作となる。そのため、走行中の操作は困難であるという問題があった。
【0007】
また、ジョイスティックを用いる場合には、スティックを上下左右に倒して所望の語の上までカーソルを移動させ、さらに決定ボタンを押すという操作が必要になる。施設名等を50音入力するためにはこれを1語1語繰り返し行わなければならないので、その操作には非常に多くの時間がかかるという問題もあった。
【0008】
ジョグダイヤルを用いる場合も、基本的に50音の入力操作には非常に多くの時間がかかる。すなわち、ダイヤルの回転によって50音を順にインクリメントしていく方式では、選択する語によっては多くのダイヤル回転量が必要となり、その操作に時間がかかってしまう。一方、行選択と語選択とを分けて行う方式では、ダイヤルを回転してからプッシュするという操作を2回繰り返して行うことが必要であり、操作が煩雑であった。
【0009】
また、ジョグダイヤルの場合、ダイヤルは任意の位置から無制限に回転するため、ダイヤルの回転位置と選択している語との関係が分かりにくい。そのため、どの位置でどの語が選択されるのかについては、画面あるいは音声のフィードバックがないと殆ど分からない。
【0010】
画面からのフィードバックのためにソフトウェアキーボードを表示する場合には、上述のように走行中の操作が困難になるという問題が生じる。一方、音声によるフィードバックを利用する場合は、ダイヤルを回すたびに音声を聞いて選択語を確認する必要があり、ソフトウェアキーボードを利用する場合に比べて更に多くの操作時間がかかってしまうという問題が生じる。
【0011】
本発明は、このような問題を解決するために成されたものであり、画面表示によるフィードバック無しに、簡単な操作で50音を入力できるようにすることを目的とする。
また、本発明は、画面表示によるフィードバックだけでなく、音声によるフィードバックも無しに、簡単な操作で50音を入力できるようにすることを目的としている。
【0012】
【課題を解決するための手段】
上記した課題を解決するために、本発明の50音入力システムでは、操作子を水平方向へ傾倒または移動して所望の行を選択する行入力モードと、操作子を水平方向に回転して選択行に属する所望の語を選択する語入力モードとを有し、操作子の傾倒または移動操作に応じて行入力モードから語入力モードに遷移させ、操作子の傾倒または移動操作により所望の行を選択した後、引き続いて行われる操作子の回転操作により選択行に属する所望の語を選択するようにしている。これにより、行入力モードで操作子を水平方向に倒した後、自動的に遷移した語入力モードで操作子を円周方向に回転するという一連の簡単な操作で、所望の語を選択することが可能となる。
【0013】
本発明の他の態様では、行入力モードにおいては各行が割り当てられた方向に対してのみ操作子を傾倒または移動操作可能なようにアクチュエータに力を加え、語入力モードにおいては各語が割り当てられた範囲内でのみ操作子を回転操作可能なようにアクチュエータに力を加えるようにしている。また、本発明のその他の態様では、語入力モードにおいて各語が割り当てられた位置の近傍で操作子に対して操作反力を加えるようにしている。このように構成した本発明によれば、フォース制御された所定の方向および範囲内でしか操作子を操作できないように制限が加えられる。また、各語に割り当てられた位置でユーザの触感が変わるように反力が加えられる。これにより、操作子の操作位置と選択行および選択語との対応関係が明確になる。
【0014】
【発明の実施の形態】
(第1の実施形態)
以下、本発明の第1の実施形態を図面に基づいて説明する。図1は、第1の実施形態による50音入力システムの構成例を示すブロック図である。図1に示すように、本実施形態の50音入力システムは、入力装置であるジョイスティック1と、入力管理部2と、制御部3と、音声合成処理部4と、出力装置であるスピーカ5とを備えて構成されている。制御部3には、入力した50音に従ってナビゲーション機能を果たす装置であるナビゲーション装置6が接続されている。
【0015】
ジョイスティック1は、水平方向への傾倒、水平方向の回転、および垂直方向への押し下げ操作が可能なスティック11と、スティック11の水平方向への傾倒の有無を検出する水平方向センサ12と、スティック11の水平方向の回転角を検出するロータリセンサ13と、スティック11の垂直方向への押し下げの有無を検出するプッシュセンサ14とを備えている。
【0016】
水平方向センサ12が検出した傾倒の有無は水平方向データとして、ロータリセンサ13が検出した回転角は回転データとして、プッシュセンサ14が検出した垂直方向への押し下げの有無はプッシュデータとして、それぞれ入力管理部2に出力される。入力管理部2は、ジョイスティック1から入力された水平方向データ、回転データおよびプッシュデータを制御部3に中継する。
【0017】
制御部3は、ジョイスティック1から入力管理部2を介して入力したデータを解析する入力解析部31と主制御部32とを備えている。主制御部32は、入力解析部31の解析結果に応じて入力モード(後述する)をソフトウェア的に切り替え、ジョイスティック1の操作に応じた50音設定コマンドをナビゲーション装置6に出力するとともに、音声出力コマンドを音声合成処理部4に出力する。
【0018】
音声合成処理部4は、主制御部32から入力される音声出力コマンドに従って音声合成を行い、ジョイスティック1の操作により選択されている語をスピーカ5から出力する。また、ナビゲーション装置6は、主制御部32から入力される50音設定コマンドに従って施設名等を目的地として設定し、誘導経路の探索処理などを実行する。
【0019】
図2は、上記のように構成した本実施形態の50音入力システムを用いて所望の語を入力する際におけるユーザ操作の例を示す図である。以下に、図1および図2を参照しながら、本実施形態による50音入力システムの動作を説明する。
【0020】
ジョイスティック1が操作されていない初期状態では、主制御部32は、「あ行」〜「わ行」の何れかの行を選択する行入力モードに設定されている。この行入力モードでは、図2(a)に示すように、スティック11を傾倒可能な360度のエリアを10等分したそれぞれの小エリアに対して「あ行」〜「わ行」が割り当てられている。例えば「あ行」には、図2(a)の斜線で示す小エリアが割り当てられており、この小エリア内の方向にスティック11が倒されたときに「あ行」の選択が成されるようになっている。
【0021】
すなわち、この行入力モードにおいてユーザは、「あ行」〜「わ行」のどの文字を入力したいかによって、スティック11をその方向に倒す。このとき、ジョイスティック1からは水平方向データが出力され、入力管理部2を介して制御部3に入力される。制御部3では、入力解析部31によってその水平方向データを解析し、スティック11の倒された方向を主制御部32に伝える。
【0022】
これに応じて主制御部32は、スティック11が倒された方向の行を選択し、それに対応する音声出力コマンドを音声合成処理部4に出力する。これにより、スピーカ5からはその選択された行の音声が出力される。例えば、図2(a)にて「あ行」を選択した場合には、スピーカ5から「あ」と発音される。これによってユーザは、どの行を選択したのかを音声により確認することができる。
【0023】
また、主制御部32は、スティック11が倒された動作を検知すると、選択した行に属する何れかの語を選択するための語入力モードに遷移する。この語入力モードでは、図2(b)に示すように、スティック11の傾倒位置を基点として360度のエリアを5分割したそれぞれの小エリアに対して各語を割り当てる(例えば、図2(a)で「あ行」を選択した場合には、「あ」「い」「う」「え」「お」の5語を図2(b)の各小エリアに割り当てる)。
【0024】
上述の行入力モードでは各行の選択エリアがあらかじめ固定されているのに対して、語入力モードでは、スティック11が倒された位置を基点として小エリアを5分割するので、それぞれの語選択エリアの位置は最初のスティック11の傾倒方向に応じて変動する。なお、小エリアに5分割する際の基点は、最初のスティック11の傾倒方向に厳密に一致している必要はない。例えば、行選択エリアの中心(図2(a)中に放射状の矢印で示す位置)を常に基点とするようにしても良い。
【0025】
この語入力モードにおいてユーザは、「あ」〜「お」のどの語を入力したいかによって、スティック11を傾倒した位置から傾倒状態を保ったまま円周方向にスティック11を回転する。このとき、ジョイスティック1からは水平方向データおよび回転データが出力され、入力管理部2を介して制御部3に入力される。制御部3では、入力解析部31によってその水平方向データおよび回転データを解析し、スティック11がどの方向まで回転したのかを主制御部32に伝える。
【0026】
これに応じて主制御部32は、スティック11が回転した方向の語を選択し、それに対応する音声出力コマンドを音声合成処理部4に出力する。これにより、スピーカ5からはその選択された語の音声が出力される。例えば、図2(b)にて「う」を選択した場合には、スピーカ5から「う」と発音される。これによってユーザは、どの語を選択したのかを音声により確認することができる。
【0027】
なお、ここではスティック11の回転を停止した位置に対応する語の音声のみをスピーカ5から出力する例について説明したが、スティック11の回転に伴い語選択エリアが切り替わるたびに、「あ」「い」「う」・・・のように順に音声を出力するようにしても良い。
【0028】
さらにユーザは、スピーカ5から出力される語の音声を確認してそれで良いと判断したときは、スティック11を垂直方向に押し下げる。このとき、ジョイスティック1からはプッシュデータが出力され、入力管理部2を介して制御部3に入力される。主制御部32は、そのスティック11の押下動作を検知すると、そのとき選択されている語を決定し、50音設定コマンドをナビゲーション装置6に出力する。
【0029】
図3は、本実施形態による主制御部32の動作を示すフローチャートである。図3において、初期状態において主制御部32は行入力モードを設定することにより、図2(a)に示す10個の小エリアに「あ行」〜「わ行」を割り当てる(ステップS1)。この状態で主制御部32は、スティック11が水平方向に倒されたかどうかを監視している(ステップS2)。
【0030】
そして、主制御部32は、スティック11の傾倒動作を検知すると、スティック11が倒された方向の行を選択し(ステップS3)、それに対応する音声出力コマンドを音声合成処理部4に出力して、選択行の音声をスピーカ5から出力する(ステップS4)。また、主制御部32は、行入力モードから語入力モードに遷移することにより、図2(b)に示す5個(「や行」または「わ行」の場合は3個)の小エリアに対して選択行に属する各語を割り当てる(ステップS5)。
【0031】
この語入力モードにおいて、主制御部32は、スティック11が水平方向に回転されたかどうかを監視している(ステップS6)。スティック11の回転が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS7)。ここで、スティック11が元の位置に戻されていない場合は回転の監視を継続するが、戻された場合にはステップS1の処理に戻る。
【0032】
一方、主制御部32は、スティック11の回転動作を検知すると、当該スティック11が回転した方向の語を選択する(ステップS8)。そして、その選択した語に対応する音声出力コマンドを音声合成処理部4に出力して、選択語の音声をスピーカ5から出力する(ステップS9)。
【0033】
その後主制御部32は、スティック11が垂直方向に押下されたかどうかを監視する(ステップS10)。スティック11の押下が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS12)。ここで、スティック11が元の位置に戻されていない場合は押下の監視を継続するが、戻された場合にはステップS1の処理に戻る。
【0034】
また、主制御部32は、スティック11の押下動作を検知すると、そのとき選択されている語を決定し(ステップS12)、その決定した語を表す50音設定コマンドをナビゲーション装置6に出力する(ステップS13)。その後、ステップS1の処理に戻って再び行入力モードとなり、引き続き入力する文字があれば以上と同様の動作を繰り返す。
【0035】
以上詳しく説明したように、第1の実施形態によれば、行入力モードでジョイスティック1を水平方向に倒した後、自動的に遷移した語入力モードでジョイスティック1を円周方向に回転するという一連の簡単な操作で、所望の語を選択することができる。このように、ジョイスティック1の傾倒と回転との組み合わせで各語を一意に決定できるため、視覚へのフィードバックが不要となり、画面表示無しで50音入力が可能となる。画面表示を必要としないため、走行中の操作も可能となる。
【0036】
なお、従来のジョグダイヤル方式でも、上述のように行選択と語選択とを分けて行う方法が存在する。しかし、所望の行を選択してはダイヤルをプッシュし、所望の語を選択してはダイヤルをプッシュするという2段階の操作が必要となる。これに対して本実施形態では、ジョイスティック1を倒して回転するという一連の操作で任意の語を選択することができ、操作性が遥かに向上している。また、ジョグダイヤル方式では画面表示あるいは音声のフィードバックが必要であるが、本実施形態では少なくとも画面表示のフィードバックは不要である。
【0037】
本実施形態においても、音声によるフィードバックはあった方が好ましいが、ジョイスティック1の傾倒方向はわずか10方向であり、回転角はわずか5段階のみである。しかも、どの方向に倒せばどの行を選択できるか、どの程度回転すれば何番目の語を選択できるかについては直感的に把握することができ、音声によるフィードバックは単なる確認用として利用する程度で済む。したがって、無制限に回転するダイヤルの操作に伴い出力される音声を一々聞きながら所望の語を探していかなければならなかった従来のジョグダイヤル方式と異なり、音声のフィードバックがあっても操作時間は短くなる。
【0038】
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。図4は、第2の実施形態による50音入力システムの構成例を示すブロック図である。なお、この図4において、図1に示した符号と同一の符号を付したものは同一の機能を有するものであるので、ここでは重複する説明を省略する。
【0039】
図2に示すように、本実施形態の50音入力システムは、ユーザに伝える触感を制御することのできる入力装置である力覚操作子10と、入力管理部2と、制御部3と、力覚制御部7とを備えて構成されている。制御部3には、入力した50音に従ってナビゲーション機能を果たす装置であるナビゲーション装置6が接続されている。
【0040】
力覚操作子10は、フォース制御された水平方向への傾倒、フォース制御された水平方向の回転、および垂直方向への押し下げ操作が可能なスティック11と、水平方向センサ12と、ロータリセンサ13と、プッシュセンサ14と、スティック11に対して水平傾倒方向および水平回転方向へのトルクを与えるDCモータ等のアクチュエータ15とを備えている。
【0041】
力覚制御部7は、力覚操作子10より入力する回転データをもとにスティック11の回転角度を検出する回転角度検出部71と、入力モードに応じて切り替えるスティック11に対する力の方向とトルク強さとを表したフォースパターンテーブル72と、フォースパターンテーブル72に従ってアクチュエータ15を制御し、スティック11に与える力の方向とトルク強さとを制御するフォース制御部73とを備えている。
【0042】
図5は、フォースパターンテーブル72により示される各入力モードでのフォースパターンの例を示す図である。初期状態の行入力モードでは、図5(a)に示すように、360度を均等に10分割したそれぞれの方向にのみスティック11を倒すことができるように可倒方向の制限をかけるようなフォースパターンが設定されている。
【0043】
また、任意の行を選択したときに遷移する語入力モードでは、図5(b)に示すように、スティック11を倒した位置を基点として円周を8等分したときの各頂点のうち、当該基点の頂点を含めてそこから時計回りに数えて5個もしくは3個(や行、わ行の場合)の頂点間においてのみスティック11を円周方向に回転することができるように可動範囲の制限をかけるようなフォースパターンが設定されている。また、語入力モードのフォースパターンは、円周方向に操作を行っている際に各語(5個もしくは3個の頂点)の位置が明確に判断できるように、図6に示すように、各語の位置に達する前後で、操作している方向とは逆方向に反力を与えるパターンも含んでいる。
【0044】
フォース制御部73は、行入力モードでは、フォースパターンテーブル72に従って、図5(a)の矢印に示す方向に対してのみ比較的弱い力をかけ、それ以外の方向(矢印間の方向)には強い力をかけるようにアクチュエータ15を制御することにより、矢印以外の方向にはスティック11を倒すことができないようにする。
【0045】
フォース制御部73はまた、語入力モードでは、フォースパターンテーブル72に従って、図5(b)の矢印で示す可動範囲では比較的弱い力をかけ、×印で示す非可動範囲では強い力をかけるようにアクチュエータ15を制御することにより、矢印の可動範囲でのみスティック11を回転することができるようにする。また、フォース制御部73は、回転角度検出部71より出力される回転角度情報とフォースパターンテーブル72とに従って、図6のように各語の位置に達する前後でアクチュエータ15に反力を与える。
【0046】
制御部3が備える主制御部33は、入力解析部31の解析結果に応じて、力覚操作子10の操作に応じた50音設定コマンドをナビゲーション装置6に出力する。また、当該解析結果に応じて入力モードをソフトウェア的に切り替え、設定した入力モードに従ってフォース制御部73を制御する。フォース制御部73は、主制御部33により設定された入力モードに従ってフォースパターンを切り替え、アクチュエータ15を制御してスティック11の力覚を調整する。
【0047】
図7は、上記のように構成した本実施形態の50音入力システムを用いて、例えば「おく」の2文字を入力する際におけるユーザ操作の例を示す図である。以下に、図4〜図7を参照しながら、本実施形態による50音入力システムの動作を説明する。
【0048】
力覚操作子10が操作されていない初期状態では、主制御部33は行入力モードに設定されている。この行入力モードにおいて、フォース制御部73は、図5(a)に示すように、スティック11が限定の10方向にのみ倒れるようにアクチュエータ15を制御している。また、主制御部33は、図5(a)の矢印で示す10方向に対して「あ行」〜「わ行」を割り当てている。
【0049】
この行入力モードにおいてユーザは、「あ行」〜「わ行」のどの文字を入力したいかによって、スティック11をその方向に倒す。最初は「お」の文字を入力したいので、図7(a)のように「あ行」の方向にスティック11を倒す。このとき、力覚操作子10からは水平方向データが出力され、入力管理部2を介して制御部3に入力される。制御部3では、入力解析部31によってその水平方向データを解析し、スティック11の倒された方向を主制御部33に伝える。
【0050】
主制御部33は、スティック11が倒された動作を検知すると、語入力モードに遷移し、そのことをフォース制御部73に通知する。この語入力モードにおいて、フォース制御部73は、図5(b)に示すように、矢印の可動範囲のみをスティック11が回転するようにアクチュエータ15を制御している。また、主制御部33は、スティック11の傾倒位置から数えて5個の頂点に対して「あ」「い」「う」「え」「お」の各語を順に割り当てている。
【0051】
この語入力モードにおいてユーザは、「あ」〜「お」のどの語を入力したいかによって、スティック11を傾倒した位置から傾倒状態を保ったまま円周方向にスティック11を回転する。今の例では「お」の文字を入力したいので、図7(a)のように5個目の頂点までスティック11を回転する。このとき、力覚操作子10からは水平方向データおよび回転データが出力され、入力管理部2を介して制御部3に入力される。
【0052】
制御部3では、入力解析部31によりその水平方向データおよび回転データを解析し、スティック11がどの方向まで回転したのかを主制御部33に伝える。これにより主制御部33は、現在「お」の語が選択されていることを認識する。
【0053】
その後ユーザは、スティック11を垂直方向に押し下げる。このとき、ジョイスティック1からはプッシュデータが出力され、入力管理部2を介して制御部3に入力される。主制御部33は、そのスティック11の押下動作を検知すると、そのとき選択されている語を決定し、50音設定コマンドをナビゲーション装置6に出力して行入力モードに戻る。
【0054】
以上の動作により「お」の入力が完了する。次いで、図7(b)に示すユーザ操作によって「く」の文字を入力する。すなわち、「か行」の方向にスティック11を倒した後、その傾倒位置から時計回りに3個目の頂点までスティック11を回転する。そして、その位置でスティック11を垂直方向に押し下げることにより、「く」の文字を決定する。
【0055】
ここで、「お」の文字を入力するときも、「く」の文字を入力するときも、行入力モードでの可倒方向は何れも同じである。一方、「あ行」を選択した後の語入力モードでは、図7(a)に示すように、「あ行」の方向を基点として時計回りに5個分の頂点が可動範囲として設定され、各頂点に対して「あ」〜「お」の語が割り当てられるのに対し、「か行」を選択した後の語入力モードでは、図7(b)に示すように、「か行」の方向を基点として時計回りに5個分の頂点が可動範囲として設定され、各頂点に対して「か」〜「こ」の語が割り当てられる。このとき、行入力モードでスティック11を倒した位置に対して各行の先頭語(「あ」および「か」)が割り当てられる。
【0056】
図8は、本実施形態による主制御部33およびフォース制御部73の動作を示すフローチャートである。図8において、初期状態において主制御部33は行入力モードを設定することにより、図5(a)の10方向に「あ行」〜「わ行」を割り当てる(ステップS21)。また、フォース制御部73は行入力用のフォースパターンに従ってアクチュエータ15を制御することにより、図5(a)の10方向にのみスティック11が倒れるように可倒方向を制限する(ステップS22)。
【0057】
この状態で主制御部33は、スティック11が水平方向に倒されたかどうかを監視している(ステップS23)。そして、スティック11の傾倒動作を検知すると、当該スティック11が倒された方向の行を選択し(ステップS24)、行入力モードから語入力モードに遷移することにより、図5(b)に示すような5個(「や行」または「わ行」の場合は3個)の頂点に対して選択行に属する各語を割り当てる(ステップS25)。また、フォース制御部73は、語入力用のフォースパターンに従ってアクチュエータ15を制御することにより、図5(b)の矢印で示す範囲でのみスティック11が回転可能なように可動範囲を制限する(ステップS26)。
【0058】
この語入力モードにおいて、主制御部33は、スティック11が水平方向に回転されたかどうかを監視している(ステップS27)。そして、スティック11の回転が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS28)。ここで、スティック11が元の位置に戻されていない場合は回転の監視を継続するが、戻された場合にはステップS21の処理に戻る。
【0059】
一方、主制御部33は、スティック11の回転動作を検知すると、当該スティック11が回転した方向の語を選択する(ステップS29)。その後主制御部33は、スティック11が垂直方向に押下されたかどうかを監視する(ステップS30)。スティック11の押下が検知されない場合は、スティック11が元の位置に戻されたかどうかを更に判断する(ステップS31)。ここで、スティック11が元の位置に戻されていない場合は押下の監視を継続するが、戻された場合にはステップS21の処理に戻る。
【0060】
また、主制御部33は、スティック11の押下動作を検知すると、そのとき選択されている語を決定し(ステップS32)、その決定した語を表す50音設定コマンドをナビゲーション装置6に出力する(ステップS33)。その後、ステップS21の処理に戻って再び行入力モードとなり、引き続き入力する文字があれば以上と同様の動作を繰り返す。
【0061】
以上詳しく説明したように、第2の実施形態によれば、行入力モードと語入力モードとを有すること自体は第1の実施形態と同様であるが、ジョイスティック1の代わりに力覚操作子10を用いた。これにより、どの方向にも傾倒操作が自在にできるフリーのジョイスティック1を用いる場合に比べて、力覚操作子10ではフォース制御された所定の方向にしか操作できないようになり、傾倒位置と選択行との対応を明確にすることができる。また、語入力モードでの回転範囲にも制限を設け、各語の位置に達する前後で反力を加えるようにしたので、回転位置と選択語との対応も明確にすることができる。これにより、画面表示のフィードバックだけでなく、音声のフィードバックがなくても50音入力が簡単にでき、操作時間を更に短くすることができる。
【0062】
なお、この第2の実施形態においても、確認用のために音声のフィードバックを行うようにしても良い。基本的には音声フィードバックは不要であるが、操作に慣れるまでは音声フィードバックがあった方が好ましい。
【0063】
なお、上記第2の実施形態では、「あ行」〜「わ行」を図5(a)の10方向に割り振る例について説明したが、図9(a)のように8方向に割り振るようにしても良い。この場合、「ま行」と「や行」は同じ方向に割り振り、「ら行」と「わ行」は別の同じ方向に割り振る。「あ行」〜「は行」が選択された場合に遷移する語入力モードでのフォースパターンは図5(b)と同様であるが、「ま行」と「や行」あるいは「ら行」と「わ行」が選択された場合に遷移する語入力モードでは、図9(b)(c)のようにフォースパターンを設定する。
【0064】
このようにした場合、スティック11を最初に倒せる方向は8方向に減り、上下左右とそのちょうど中間の分かりやすい方向のみとなるので、傾倒位置と選択行との対応をより明確にすることができる。
上述した第1の実施形態においても同様に、「あ行」〜「わ行」を8分割した小エリアに割り振るようにしても良い。
【0065】
また、上記第2の実施形態では、語入力モードにおけるスティック11の可動範囲を基点の頂点から時計回りの方向に設定する例について説明したが、反時計回りの方向に設定するようにしても良い。また、図2(b)と同様に、可動範囲に制限は設けず、各頂点に達する前後で反力を加えるだけにしても良い。この場合は、スティック11の回転により、「あ」→「い」→・・・→「お」→「あ」のように各語をトグル的に選択することができる。
【0066】
また、上記第1および第2の実施形態では、行入力モードにおいてスティック11を所望の方向に倒すような構成について説明したが、所望の方向に平行移動するように構成しても良い。
また、上記第1および第2の実施形態では、最終的な語決定操作としてスティック11を垂直方向に押し下げる例について説明したが、これに限られるものではない。例えば、他に設けられた決定ボタンを押下するようにしても良い。
【0067】
また、上記第1および第2の実施形態では、50音入力システムをナビゲーション装置に適用する例について説明したが、これに限定されるものではない。例えば、タイトル等を50音入力する機能を備えたオーディオ装置などに適用することも可能である。また、本実施形態の50音入力システムは、車載用の電子機器に限らず、家屋設置用の各種電子機器に適用することも可能である。
【0068】
その他、上記各実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその精神、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
【0069】
【発明の効果】
本発明は上述したように、所望の行を選択する行入力モードと選択行に属する所望の語を選択する語入力モードとを有し、操作子の傾倒または移動操作の検出に応じて行を選択した後、引き続いて行われる操作子の回転操作の検出に応じて選択行に属する語を選択するようにしたので、例えば操作子を所望の方向に傾した後、そこから所望の方向まで操作子を回転するという一連の簡単な操作で、所望の語を選択することが可能となる。これにより、操作子の傾倒または移動操作と回転操作との組み合わせで各語を一意に決定できるため、視覚へのフィードバックが不要となり、画面表示無しで50音を入力することができるようになる。また、操作の時間も短くて済むようになる。
【0070】
本発明の他の特徴によれば、行入力モードにおいて各行が割り当てられた方向に対してのみ操作子を傾倒または移動可能なように力制限を加え、語入力モードにおいて各語が割り当てられた範囲内でのみ操作子を回転可能なように力制限を加えるようにし、また、語入力モードにおいて各語が割り当てられた位置の近傍で操作子に対して操作反力を加えるようにしたので、操作子の操作位置と選択行および選択語との対応関係を明確にすることが可能となる。これにより、画面表示によるフィードバックだけでなく、音声によるフィードバックも無しに、簡単な操作で50音を入力することができるようになる。
【図面の簡単な説明】
【図1】第1の実施形態による50音入力システムの構成例を示すブロック図である。
【図2】第1の実施形態による50音入力システムを用いて所望の語を入力する際におけるユーザ操作の例を示す図である。
【図3】第1の実施形態による主制御部の動作を示すフローチャートである。
【図4】第2の実施形態による50音入力システムの構成例を示すブロック図である。
【図5】行入力モードおよび語入力モードでのフォースパターンの例を示す図である。
【図6】各語の位置近辺における反力の与え方を示す概念図である。
【図7】第2の実施形態による50音入力システムを用いて所望の語を入力する際におけるユーザ操作の例を示す図である。
【図8】第2の実施形態による主制御部およびフォース制御部の動作を示すフローチャートである。
【図9】行入力モードおよび語入力モードでのフォースパターンの他の例を示す図である。
【図10】従来の50音入力操作例を示す図である。
【符号の説明】
1 ジョイスティック
2 入力管理部
3 制御部
4 音声合成処理部
5 スピーカ
6 ナビゲーション装置
7 力覚制御部
11 スティック
12 水平方向センサ
13 ロータリセンサ
14 プッシュセンサ
15 アクチュエータ
31 入力解析部
32,33 主制御部
71 回転角度検出部
72 フォースパターンテーブル
73 フォース制御部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a Japanese syllabary input system and method, and more particularly, to input the Japanese syllabary "A" to "N" using an operator configured to be able to perform at least a horizontal tilting or moving operation and a rotating operation. It is suitable for use in a system.
[0002]
[Prior art]
In general, a navigation device for guiding a vehicle has a function of not only displaying a map around the current position but also automatically setting a guidance route from the current position to the destination by designating the destination. ing. In this type of navigation device, various methods are prepared as a user interface for inputting a destination. Among them, there is a method of inputting the name of a facility, the name of a point, the name of a visited home (name of a friend, etc.) in 50 sounds.
[0003]
When inputting 50 sounds with the current navigation device, a mainstream is to display a software keyboard on the navigation screen as shown in FIG. 10 and sequentially select each word using a joystick or a touch panel. In the case of a joystick, the operation of moving the cursor on the software keyboard by tilting the stick up, down, left, and right, and pressing the enter button with the cursor placed on a desired word is repeated one word at a time ( For example, see Patent Document 1).
[0004]
Recently, there has also been provided a system such as a so-called jog dial, in which each word is selected by turning a dial, and each word is determined by pushing the same dial. In this system, there is a method of sequentially incrementing the 50 sounds of "A" to "N" by rotating the dial, and pushing the dial at a desired word to sequentially determine each word. In addition, after selecting one of the lines "A" to "W" by rotating the dial and pushing the dial, the word belonging to the selected line is selected again by rotating and pushing the dial. A method is also provided (see, for example, Patent Document 2).
[0005]
[Patent Document 1]
JP-A-2002-164973
[Patent Document 2]
JP-A-2000-193475
[0006]
[Problems to be solved by the invention]
However, in the above-mentioned conventional technique using a software keyboard, it is necessary to confirm on the screen which word the user is currently selecting. In both cases where a joystick is used and a touch panel is used, when a plurality of words are sequentially selected and a facility name or the like is input, the operation is performed while staring at the screen. Therefore, there is a problem that operation during traveling is difficult.
[0007]
In the case of using a joystick, an operation of tilting the stick up, down, left, and right to move a cursor to a desired word, and further pressing an enter button is required. This must be repeated one word at a time in order to input 50 sounds of the facility name and the like, so that there is a problem that the operation takes a very long time.
[0008]
Even when the jog dial is used, basically, it takes a very long time to perform an operation of inputting 50 sounds. That is, in the method of sequentially incrementing the Japanese syllabary by the rotation of the dial, a large amount of dial rotation is required depending on the word to be selected, and the operation takes time. On the other hand, in the method in which line selection and word selection are performed separately, it is necessary to repeat the operation of rotating and then pushing the dial twice, and the operation is complicated.
[0009]
In the case of a jog dial, since the dial rotates from an arbitrary position without limitation, it is difficult to understand the relationship between the rotational position of the dial and the selected word. Therefore, it is almost impossible to know which word is selected at which position without screen or audio feedback.
[0010]
When the software keyboard is displayed for the feedback from the screen, there is a problem that the operation during traveling becomes difficult as described above. On the other hand, when using feedback by voice, it is necessary to check the selected word by listening to the voice each time the dial is turned, which takes longer operation time than using a software keyboard. Occurs.
[0011]
The present invention has been made to solve such a problem, and an object of the present invention is to make it possible to input 50 sounds by a simple operation without feedback by screen display.
Another object of the present invention is to enable the user to input 50 sounds by a simple operation without feedback by voice as well as feedback by screen display.
[0012]
[Means for Solving the Problems]
In order to solve the above-described problems, in the Japanese syllabary input system of the present invention, a row input mode in which a desired control is selected by tilting or moving a control in a horizontal direction, and a selection by rotating a control in a horizontal direction are provided. Having a word input mode for selecting a desired word belonging to a line, and transitioning from the line input mode to the word input mode in accordance with the tilting or moving operation of the operation element, and changing the desired line by tilting or moving the operation element. After the selection, a desired word belonging to the selected line is selected by a subsequent rotation operation of the operation element. This allows a desired word to be selected by a series of simple operations in which the operator is tilted horizontally in the line input mode, and then the operator is rotated in the circumferential direction in the automatically entered word input mode. Becomes possible.
[0013]
In another aspect of the present invention, in the line input mode, a force is applied to the actuator so that the operator can be tilted or moved only in the direction to which each line is assigned, and in the word input mode, each word is assigned. A force is applied to the actuator so that the operating element can be rotated only within the range. Further, in another aspect of the present invention, in the word input mode, an operation reaction force is applied to the operator near the position where each word is assigned. According to the present invention configured as described above, a restriction is imposed so that the operation element can be operated only within a predetermined direction and range in which the force control is performed. Also, a reaction force is applied so that the user's tactile sensation changes at the position assigned to each word. As a result, the correspondence between the operation position of the operator and the selected line and the selected word becomes clear.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
(1st Embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a configuration example of the Japanese syllabary input system according to the first embodiment. As shown in FIG. 1, the syllabary input system according to the present embodiment includes a joystick 1 as an input device, an input management unit 2, a control unit 3, a voice synthesis processing unit 4, and a speaker 5 as an output device. It is configured with. The control unit 3 is connected to a navigation device 6 that performs a navigation function according to the input 50 sounds.
[0015]
The joystick 1 includes a stick 11 capable of tilting in the horizontal direction, rotating in the horizontal direction, and pressing down in the vertical direction; a horizontal sensor 12 for detecting whether the stick 11 is tilted in the horizontal direction; And a push sensor 14 for detecting whether or not the stick 11 is pressed down in the vertical direction.
[0016]
The presence / absence of tilt detected by the horizontal sensor 12 is input as horizontal data, the rotation angle detected by the rotary sensor 13 is input as rotation data, and the presence / absence of vertical depression detected by the push sensor 14 is input as push data. Output to the section 2. The input management unit 2 relays the horizontal direction data, the rotation data, and the push data input from the joystick 1 to the control unit 3.
[0017]
The control unit 3 includes an input analysis unit 31 that analyzes data input from the joystick 1 via the input management unit 2, and a main control unit 32. The main control unit 32 switches an input mode (described later) by software according to the analysis result of the input analysis unit 31, outputs a 50-sound setting command corresponding to the operation of the joystick 1 to the navigation device 6, and outputs a voice. The command is output to the speech synthesis processing unit 4.
[0018]
The voice synthesis processing unit 4 performs voice synthesis according to a voice output command input from the main control unit 32, and outputs a word selected by operating the joystick 1 from the speaker 5. Further, the navigation device 6 sets a facility name or the like as a destination in accordance with the Japanese syllabary setting command input from the main control unit 32, and executes a search process for a guidance route.
[0019]
FIG. 2 is a diagram illustrating an example of a user operation when a desired word is input using the syllabary input system of the present embodiment configured as described above. Hereinafter, the operation of the Japanese syllabary input system according to the present embodiment will be described with reference to FIGS.
[0020]
In an initial state in which the joystick 1 is not operated, the main control unit 32 is set to a line input mode for selecting any one of “A line” to “Wa line”. In this line input mode, as shown in FIG. 2A, "A line" to "Wa line" are assigned to each of the small areas obtained by equally dividing the 360-degree area in which the stick 11 can be tilted into ten. ing. For example, a small area indicated by diagonal lines in FIG. 2A is assigned to “A row”, and “A row” is selected when the stick 11 is tilted in the direction within this small area. It has become.
[0021]
That is, in this line input mode, the user tilts the stick 11 in that direction depending on which character of “A line” to “Wa line” is desired to be input. At this time, horizontal data is output from the joystick 1 and input to the control unit 3 via the input management unit 2. In the control unit 3, the horizontal direction data is analyzed by the input analysis unit 31, and the direction in which the stick 11 is tilted is transmitted to the main control unit 32.
[0022]
In response to this, the main control unit 32 selects a row in the direction in which the stick 11 is tilted, and outputs a corresponding voice output command to the voice synthesis processing unit 4. Thereby, the sound of the selected line is output from the speaker 5. For example, when “A” is selected in FIG. 2A, “A” is pronounced from the speaker 5. Thus, the user can confirm which row has been selected by voice.
[0023]
When detecting that the stick 11 has been tilted, the main control unit 32 makes a transition to a word input mode for selecting any word belonging to the selected row. In this word input mode, as shown in FIG. 2B, each word is assigned to each small area obtained by dividing the 360-degree area into five parts based on the tilt position of the stick 11 (for example, FIG. If "A line" is selected in ()), the five words "A", "I", "U", "E", and "O" are assigned to each small area in FIG. 2B).
[0024]
In the above-described row input mode, the selection area of each row is fixed in advance, whereas in the word input mode, the small area is divided into five parts based on the position where the stick 11 is tilted, so that each of the word selection areas The position fluctuates according to the initial tilt direction of the stick 11. Note that the base point for dividing into five small areas does not need to exactly match the tilt direction of the first stick 11. For example, the center (the position indicated by a radial arrow in FIG. 2A) of the row selection area may be always set as the base point.
[0025]
In this word input mode, the user rotates the stick 11 in the circumferential direction while maintaining the tilted state from the position where the stick 11 is tilted, depending on which word of “A” to “O” is desired to be input. At this time, horizontal data and rotation data are output from the joystick 1 and input to the control unit 3 via the input management unit 2. In the control unit 3, the input analysis unit 31 analyzes the horizontal direction data and the rotation data, and notifies the main control unit 32 of the direction in which the stick 11 has rotated.
[0026]
In response to this, the main control unit 32 selects a word in the direction in which the stick 11 has rotated, and outputs a corresponding voice output command to the voice synthesis processing unit 4. Thereby, the voice of the selected word is output from the speaker 5. For example, when “U” is selected in FIG. 2B, “U” is pronounced from the speaker 5. Thereby, the user can confirm which word is selected by voice.
[0027]
Here, an example has been described in which only the sound of the word corresponding to the position where the rotation of the stick 11 is stopped is output from the speaker 5, but each time the word selection area is switched with the rotation of the stick 11, the words "A" and "I" are output. The sound may be output in the order of "U".
[0028]
Further, the user confirms the sound of the word output from the speaker 5 and, when judging that it is sufficient, pushes down the stick 11 in the vertical direction. At this time, push data is output from the joystick 1 and input to the control unit 3 via the input management unit 2. When detecting the pressing operation of the stick 11, the main control unit 32 determines the word selected at that time, and outputs a Japanese syllabary setting command to the navigation device 6.
[0029]
FIG. 3 is a flowchart illustrating the operation of the main control unit 32 according to the present embodiment. In FIG. 3, in the initial state, the main control unit 32 assigns “A line” to “Wa line” to the ten small areas shown in FIG. 2A by setting the line input mode (step S1). In this state, the main control unit 32 monitors whether the stick 11 is tilted in the horizontal direction (step S2).
[0030]
When detecting the tilting operation of the stick 11, the main control unit 32 selects a line in the direction in which the stick 11 is tilted (step S3), and outputs a corresponding voice output command to the voice synthesis processing unit 4. Then, the sound of the selected line is output from the speaker 5 (step S4). In addition, the main control unit 32 shifts from the line input mode to the word input mode, so that the five small areas (three in the case of “ya row” or “wa row”) shown in FIG. Then, each word belonging to the selected line is assigned (step S5).
[0031]
In this word input mode, the main control unit 32 monitors whether the stick 11 has been rotated in the horizontal direction (step S6). If the rotation of the stick 11 is not detected, it is further determined whether or not the stick 11 has been returned to the original position (step S7). Here, if the stick 11 has not been returned to the original position, the monitoring of the rotation is continued, but if it has been returned, the process returns to the step S1.
[0032]
On the other hand, when detecting the rotation operation of the stick 11, the main control unit 32 selects a word in the direction in which the stick 11 has rotated (step S8). Then, a voice output command corresponding to the selected word is output to the voice synthesis processing unit 4, and the voice of the selected word is output from the speaker 5 (step S9).
[0033]
Thereafter, the main control unit 32 monitors whether the stick 11 has been pressed vertically (step S10). If the pressing of the stick 11 is not detected, it is further determined whether or not the stick 11 has been returned to the original position (step S12). Here, if the stick 11 has not been returned to the original position, monitoring of pressing is continued, but if it has been returned, the process returns to step S1.
[0034]
Further, when detecting the pressing operation of the stick 11, the main control unit 32 determines the word selected at that time (step S12), and outputs the Japanese syllabary setting command representing the determined word to the navigation device 6 (step S12). Step S13). Thereafter, the process returns to the step S1 to return to the line input mode, and if there are characters to be continuously input, the same operation as described above is repeated.
[0035]
As described in detail above, according to the first embodiment, after the joystick 1 is tilted in the horizontal direction in the line input mode, the joystick 1 is rotated in the circumferential direction in the automatically changed word input mode. With a simple operation, a desired word can be selected. As described above, since each word can be uniquely determined by the combination of the tilt and rotation of the joystick 1, visual feedback is not required, and it is possible to input 50 sounds without displaying a screen. Since no screen display is required, operation during traveling is also possible.
[0036]
In addition, even in the conventional jog dial system, there is a method of performing line selection and word selection separately as described above. However, a two-stage operation of selecting a desired line and pushing the dial, and selecting a desired word and pushing the dial is required. On the other hand, in the present embodiment, an arbitrary word can be selected by a series of operations of tilting and rotating the joystick 1, and the operability is much improved. In the jog dial system, screen display or voice feedback is required. In the present embodiment, at least screen display feedback is not required.
[0037]
Also in the present embodiment, it is preferable that there be feedback by sound, but the tilting direction of the joystick 1 is only 10 directions, and the rotation angle is only 5 steps. In addition, it is possible to intuitively understand which line can be selected by tilting in which direction, and how many words can be selected by rotating, and the audio feedback is used only for confirmation. I'm done. Therefore, unlike the conventional jog dial system in which the user has to search for a desired word while listening to the voice output one by one by operating the dial that rotates indefinitely, the operation time is shortened even if there is voice feedback. .
[0038]
(Second embodiment)
Next, a second embodiment of the present invention will be described. FIG. 4 is a block diagram showing a configuration example of the Japanese syllabary input system according to the second embodiment. In FIG. 4, components denoted by the same reference numerals as those shown in FIG. 1 have the same functions, and thus redundant description will be omitted.
[0039]
As shown in FIG. 2, the syllabary input system according to the present embodiment includes a haptic operator 10, which is an input device capable of controlling a tactile sensation transmitted to a user, an input management unit 2, a control unit 3, And a sense control unit 7. The control unit 3 is connected to a navigation device 6 that performs a navigation function according to the input 50 sounds.
[0040]
The haptic operator 10 includes a stick 11 capable of performing a force-controlled horizontal tilt, a force-controlled horizontal rotation, and a vertical push-down operation, a horizontal sensor 12, and a rotary sensor 13. , A push sensor 14 and an actuator 15 such as a DC motor that applies torque to the stick 11 in the horizontal tilt direction and the horizontal rotation direction.
[0041]
The force sense control unit 7 includes a rotation angle detection unit 71 that detects the rotation angle of the stick 11 based on rotation data input from the force sense operation unit 10, and a force direction and torque for the stick 11 that switches according to the input mode. A force pattern table 72 representing the strength is provided, and a force control unit 73 that controls the actuator 15 according to the force pattern table 72 to control the direction of the force applied to the stick 11 and the torque strength.
[0042]
FIG. 5 is a diagram illustrating an example of a force pattern in each input mode indicated by the force pattern table 72. In the row input mode in the initial state, as shown in FIG. 5A, a force that restricts the tilting direction so that the stick 11 can be tilted only in each direction obtained by equally dividing 360 degrees into ten parts. The pattern has been set.
[0043]
In the word input mode to which a transition is made when an arbitrary line is selected, as shown in FIG. 5B, among the vertices when the circumference is divided into eight equal parts based on the position at which the stick 11 is tilted, The movable range of the movable range is set so that the stick 11 can be rotated in the circumferential direction only between five or three vertices (in the case of a row or a row) counted clockwise from the base point inclusive. A force pattern is set that imposes restrictions. In addition, the force pattern in the word input mode is, as shown in FIG. 6, so that the position of each word (5 or 3 vertices) can be clearly determined when the operation is performed in the circumferential direction. Before and after the word position is reached, a pattern that applies a reaction force in the direction opposite to the direction in which the word is operated is also included.
[0044]
In the line input mode, the force control unit 73 applies a relatively weak force only in the direction shown by the arrow in FIG. 5A according to the force pattern table 72, and in the other direction (the direction between the arrows). By controlling the actuator 15 so as to apply a strong force, the stick 11 cannot be tilted in a direction other than the arrow.
[0045]
In the word input mode, the force control unit 73 applies a relatively weak force in the movable range indicated by the arrow in FIG. 5B and applies a strong force in the non-movable range indicated by the cross in accordance with the force pattern table 72. By controlling the actuator 15, the stick 11 can be rotated only in the movable range of the arrow. Further, the force control unit 73 applies a reaction force to the actuator 15 before and after the position of each word is reached as shown in FIG. 6 according to the rotation angle information output from the rotation angle detection unit 71 and the force pattern table 72.
[0046]
The main control unit 33 included in the control unit 3 outputs a Japanese syllabary setting command corresponding to the operation of the haptic operator 10 to the navigation device 6 according to the analysis result of the input analysis unit 31. Further, the input mode is switched by software according to the analysis result, and the force control unit 73 is controlled according to the set input mode. The force control unit 73 switches the force pattern according to the input mode set by the main control unit 33, and controls the actuator 15 to adjust the force sense of the stick 11.
[0047]
FIG. 7 is a diagram illustrating an example of a user operation when inputting, for example, two characters “Oku” using the Japanese syllabary input system configured as described above. Hereinafter, the operation of the Japanese syllabary input system according to the present embodiment will be described with reference to FIGS.
[0048]
In an initial state in which the haptic operator 10 is not operated, the main control unit 33 is set to the line input mode. In this row input mode, the force control unit 73 controls the actuator 15 so that the stick 11 falls only in the limited 10 directions as shown in FIG. Further, the main control unit 33 assigns “A row” to “Wa row” to ten directions indicated by arrows in FIG.
[0049]
In this line input mode, the user tilts the stick 11 in that direction depending on which character of "A line" to "Wa line" is desired to be input. At first, the character “O” is desired to be input, so that the stick 11 is tilted in the direction of “A” as shown in FIG. At this time, the horizontal direction data is output from the haptic operator 10 and input to the control unit 3 via the input management unit 2. In the control unit 3, the horizontal direction data is analyzed by the input analysis unit 31, and the direction in which the stick 11 is tilted is transmitted to the main control unit 33.
[0050]
When detecting that the stick 11 has been moved down, the main control unit 33 transitions to the word input mode, and notifies the force control unit 73 of the transition. In the word input mode, the force control unit 73 controls the actuator 15 so that the stick 11 rotates only in the movable range of the arrow as shown in FIG. 5B. In addition, the main control unit 33 sequentially assigns the words “A”, “I”, “U”, “E”, and “O” to five vertices counted from the tilt position of the stick 11.
[0051]
In this word input mode, the user rotates the stick 11 in the circumferential direction while maintaining the tilted state from the position where the stick 11 is tilted, depending on which word of “A” to “O” is desired to be input. In this example, the character "O" is to be input, so that the stick 11 is rotated to the fifth vertex as shown in FIG. At this time, the horizontal direction data and the rotation data are output from the force sense operator 10, and are input to the control unit 3 via the input management unit 2.
[0052]
In the control section 3, the input analysis section 31 analyzes the horizontal direction data and the rotation data, and notifies the main control section 33 of the direction in which the stick 11 has rotated. Thus, the main control unit 33 recognizes that the word “O” is currently selected.
[0053]
Thereafter, the user pushes down the stick 11 in the vertical direction. At this time, push data is output from the joystick 1 and input to the control unit 3 via the input management unit 2. When detecting the pressing operation of the stick 11, the main control unit 33 determines the word selected at that time, outputs the Japanese syllabary setting command to the navigation device 6, and returns to the line input mode.
[0054]
With the above operation, the input of “O” is completed. Next, the character "" is input by the user operation shown in FIG. That is, after the stick 11 has been tilted in the direction of "ka row", the stick 11 is rotated clockwise from the tilted position to the third vertex. Then, by depressing the stick 11 in the vertical direction at that position, the character "" is determined.
[0055]
Here, the tilting direction in the line input mode is the same both when the character "O" is input and when the character "K" is input. On the other hand, in the word input mode after “A line” is selected, as shown in FIG. 7A, five vertices are set as the movable range in the clockwise direction with the direction of “A line” as a base point. While the words “A” to “O” are assigned to each vertex, in the word input mode after “KA LINE” is selected, as shown in FIG. Five vertices are set as the movable range in the clockwise direction with the direction as a base point, and the words “ka” to “ko” are assigned to each vertex. At this time, the head words (“A” and “KA”) of each line are assigned to the position where the stick 11 is tilted in the line input mode.
[0056]
FIG. 8 is a flowchart illustrating the operation of the main control unit 33 and the force control unit 73 according to the present embodiment. In FIG. 8, in the initial state, the main control unit 33 assigns “A line” to “WA line” in ten directions in FIG. 5A by setting the line input mode (step S21). Further, the force control unit 73 controls the actuator 15 in accordance with the line input force pattern, thereby restricting the tilting direction such that the stick 11 is tilted only in the ten directions in FIG. 5A (step S22).
[0057]
In this state, the main control unit 33 monitors whether the stick 11 is tilted in the horizontal direction (step S23). Then, when the tilting operation of the stick 11 is detected, a line in the direction in which the stick 11 is tilted is selected (step S24), and the mode is changed from the line input mode to the word input mode, as shown in FIG. 5B. Each word belonging to the selected row is assigned to the five vertices (three in the case of "ya row" or "wa row") (step S25). In addition, the force control unit 73 controls the actuator 15 in accordance with the word input force pattern, thereby limiting the movable range such that the stick 11 can rotate only in the range indicated by the arrow in FIG. S26).
[0058]
In this word input mode, the main control unit 33 monitors whether the stick 11 has been rotated in the horizontal direction (step S27). If the rotation of the stick 11 is not detected, it is further determined whether the stick 11 has been returned to the original position (step S28). Here, when the stick 11 has not been returned to the original position, the monitoring of the rotation is continued, but when the stick has been returned, the process returns to the step S21.
[0059]
On the other hand, when detecting the rotation operation of the stick 11, the main control unit 33 selects a word in the direction in which the stick 11 has rotated (step S29). Thereafter, the main control unit 33 monitors whether the stick 11 has been pressed vertically (step S30). If the pressing of the stick 11 is not detected, it is further determined whether or not the stick 11 has been returned to the original position (step S31). Here, if the stick 11 has not been returned to the original position, the monitoring of the pressing is continued, but if it has been returned, the process returns to the step S21.
[0060]
Further, when detecting the pressing operation of the stick 11, the main control unit 33 determines the word selected at that time (step S32), and outputs the syllabary setting command representing the determined word to the navigation device 6 (step S32). Step S33). After that, the process returns to the step S21 to return to the line input mode. If there is a character to be continuously input, the same operation as described above is repeated.
[0061]
As described in detail above, according to the second embodiment, having the line input mode and the word input mode is the same as the first embodiment, but the haptic operator 10 is used instead of the joystick 1. Was used. As a result, in comparison with the case of using the free joystick 1 which can freely tilt in any direction, the force sense operator 10 can operate only in a force-controlled predetermined direction, and the tilt position and the selected line Can be clarified. In addition, since the rotation range in the word input mode is also limited so that a reaction force is applied before and after reaching the position of each word, the correspondence between the rotation position and the selected word can be clarified. As a result, it is possible to easily input the Japanese syllabary even without the feedback of the screen display and the feedback of the voice, and further reduce the operation time.
[0062]
Note that, also in the second embodiment, audio feedback may be performed for confirmation. Basically, no audio feedback is required, but it is preferable to have audio feedback until the user becomes accustomed to the operation.
[0063]
In the above-described second embodiment, an example in which “A row” to “Wa row” are allocated in ten directions in FIG. 5A has been described. However, as shown in FIG. May be. In this case, “ma line” and “ya line” are allocated in the same direction, and “ra line” and “wa line” are allocated in another same direction. The force pattern in the word input mode to which the transition is made when “A row” to “ha row” is selected is the same as in FIG. 5B, but “ma row” and “ya row” or “ra row” In the word input mode to which a transition is made when “W” is selected, a force pattern is set as shown in FIGS. 9B and 9C.
[0064]
In this case, the direction in which the stick 11 can be first tilted is reduced to eight directions, and only the easy-to-understand direction between the upper, lower, left, and right sides thereof is provided. .
Similarly, in the above-described first embodiment, “A row” to “Wa row” may be allocated to the small areas divided into eight.
[0065]
In the second embodiment, the example in which the movable range of the stick 11 in the word input mode is set in a clockwise direction from the vertex of the base point has been described. However, the movable range may be set in a counterclockwise direction. . Further, similarly to FIG. 2B, the movable range is not limited, and a reaction force may be applied only before and after reaching each vertex. In this case, by rotating the stick 11, each word can be toggled in the order of “A” → “I” →... → “O” → “A”.
[0066]
In the first and second embodiments, the configuration in which the stick 11 is tilted in a desired direction in the line input mode has been described. However, the stick 11 may be configured to move in parallel in a desired direction.
Further, in the first and second embodiments, an example has been described in which the stick 11 is pressed down in the vertical direction as a final word determination operation, but the present invention is not limited to this. For example, another set button may be pressed.
[0067]
Further, in the first and second embodiments, the example in which the Japanese syllabary input system is applied to the navigation device has been described, but the present invention is not limited to this. For example, the present invention can be applied to an audio device having a function of inputting 50 sounds of a title or the like. In addition, the Japanese syllabary input system of the present embodiment is not limited to electronic devices mounted on a vehicle, and can be applied to various electronic devices installed in a house.
[0068]
In addition, each of the above-described embodiments is merely an example of a specific embodiment for carrying out the present invention, and the technical scope of the present invention should not be interpreted in a limited manner. That is, the present invention can be embodied in various forms without departing from the spirit or main features thereof.
[0069]
【The invention's effect】
As described above, the present invention has a line input mode for selecting a desired line and a word input mode for selecting a desired word belonging to the selected line. After the selection, the words belonging to the selected line are selected according to the detection of the subsequent rotation operation of the operator. For example, after the operator is tilted in a desired direction, the operation is performed from there to a desired direction. With a series of simple operations of rotating the child, a desired word can be selected. As a result, since each word can be uniquely determined by a combination of the tilting or moving operation and the rotation operation of the operation element, feedback to the sight is not required, and it is possible to input 50 sounds without screen display. In addition, the operation time can be reduced.
[0070]
According to another feature of the present invention, in the line input mode, a force is limited so that the operator can be tilted or moved only in the direction to which each line is allocated, and the range in which each word is allocated in the word input mode. In the word input mode, an operation reaction force is applied to the operator in the vicinity of the position where each word is assigned in the word input mode. It is possible to clarify the correspondence between the child's operation position and the selected line and the selected word. As a result, it is possible to input 50 sounds by a simple operation without feedback not only by screen display but also by voice.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration example of a Japanese syllabary input system according to a first embodiment.
FIG. 2 is a diagram illustrating an example of a user operation when inputting a desired word using the Japanese syllabary input system according to the first embodiment;
FIG. 3 is a flowchart illustrating an operation of a main control unit according to the first embodiment.
FIG. 4 is a block diagram illustrating a configuration example of a Japanese syllabary input system according to a second embodiment.
FIG. 5 is a diagram illustrating an example of a force pattern in a line input mode and a word input mode.
FIG. 6 is a conceptual diagram showing how to apply a reaction force near the position of each word.
FIG. 7 is a diagram illustrating an example of a user operation when a desired word is input using the Japanese syllabary input system according to the second embodiment.
FIG. 8 is a flowchart illustrating operations of a main control unit and a force control unit according to the second embodiment.
FIG. 9 is a diagram showing another example of a force pattern in a line input mode and a word input mode.
FIG. 10 is a diagram showing an example of a conventional Japanese syllabary input operation.
[Explanation of symbols]
1 Joystick
2 Input management unit
3 control part
4 Voice synthesis processing unit
5 Speaker
6 Navigation device
7 Force sense control unit
11 sticks
12 Horizontal sensor
13 Rotary sensor
14 Push sensor
15 Actuator
31 Input analysis unit
32,33 Main control unit
71 Rotation angle detector
72 Force pattern table
73 Force control unit

Claims (10)

少なくとも水平方向への傾倒または移動操作と回転操作とが可能に構成された操作子と、
上記操作子の傾倒または移動操作と回転操作とを検出する操作検出手段と、
上記操作子が操作されていない中立状態において行入力モードを設定するとともに、上記操作検出手段による上記操作子の傾倒または移動操作の検出に応じて語入力モードを設定するモード切替手段と、
上記操作子の傾倒または移動操作の検出に応じて何れかの行を選択した後、引き続いて行われる上記操作子の回転操作の検出に応じて上記選択した行に属する何れかの語を選択する語選択手段とを備えたことを特徴とする50音入力システム。
An operator configured to be capable of at least tilting or moving in a horizontal direction and a rotating operation,
Operation detection means for detecting a tilt or movement operation and a rotation operation of the operation element;
A mode switching unit that sets the line input mode in the neutral state where the operator is not operated, and sets the word input mode in accordance with detection of the tilt or movement operation of the operator by the operation detector.
After selecting one of the lines according to the detection of the tilting or moving operation of the operation element, selecting one of the words belonging to the selected line according to the detection of the rotation operation of the operation element performed subsequently. A syllabary input system comprising: a word selecting unit.
上記操作子に対して力を加えるアクチュエータと、
上記行入力モードにおいては各行が割り当てられた方向に対してのみ上記操作子を傾倒または移動操作可能なように、上記語入力モードにおいては各語が割り当てられた範囲内でのみ上記操作子を回転操作可能なように、上記アクチュエータに対する力を制御するフォース制御手段とを備えたことを特徴とする請求項1に記載の50音入力システム。
An actuator for applying a force to the operator,
In the word input mode, the operator is rotated only within the range in which each word is assigned so that the operator can be tilted or moved only in the direction in which each line is assigned. 2. The 50 sound input system according to claim 1, further comprising: force control means for controlling a force applied to said actuator so as to be operable.
上記語入力モードにおいて上記操作子を回転可能な範囲は、上記行入力モードにおいて上記操作子を傾倒または移動した位置を基点として設定されることを特徴とする請求項2に記載の50音入力システム。The syllabary input system according to claim 2, wherein a range in which the operator can be rotated in the word input mode is set based on a position at which the operator is tilted or moved in the line input mode. . 上記行入力モードから上記語入力モードに遷移した際、上記行入力モードにおいて上記操作子を傾倒または移動した位置に各行の先頭語を割り当てることを特徴とする請求項2に記載の50音入力システム。3. The 50-sound input system according to claim 2, wherein when transitioning from the line input mode to the word input mode, a head word of each line is assigned to a position where the operator is tilted or moved in the line input mode. . 上記語入力モードにおいて上記操作子の回転角度を検出する回転角度検出手段を備え、
上記フォース制御手段は、上記回転角度検出手段による上記回転角度の検出に応じて、上記語入力モードにおいて各語が割り当てられた位置の近傍で上記操作子に対して操作反力を加えるように制御することを特徴とする請求項2に記載の50音入力システム。
In the word input mode, comprises a rotation angle detection means for detecting a rotation angle of the operation element,
The force control means controls to apply an operation reaction force to the operation element in the vicinity of the position where each word is assigned in the word input mode, in response to the detection of the rotation angle by the rotation angle detection means. 3. The Japanese syllabary input system according to claim 2, wherein
少なくとも水平方向への傾倒または移動操作と回転操作とが可能に構成された操作子の中立状態において制御部が行入力モードに設定し、所望の行の選択を受け付ける第1の段階と、
上記行入力モードで上記操作子の傾倒または移動操作が行われたときに、上記制御部がその操作方向に応じて何れかの行を選択するするとともに、上記行入力モードから語入力モードに遷移して所望の語の選択を受け付ける第2の段階と、
上記語入力モードで上記操作子の回転操作が行われたときに、上記制御部がその操作方向に応じて、上記第2の段階で選択された行に属する何れかの語を選択する第3の段階とを有することを特徴とする50音入力方法。
A first stage in which the control unit sets the line input mode in a neutral state of an operator configured to be capable of at least tilting or moving in the horizontal direction and a rotation operation, and receives a selection of a desired line;
When the operation element is tilted or moved in the line input mode, the control unit selects one of the lines according to the operation direction, and transitions from the line input mode to the word input mode. A second step of accepting the selection of the desired word
A third step of selecting one of the words belonging to the line selected in the second step according to the operation direction when the operation of rotating the operation element is performed in the word input mode; A method for inputting 50 sounds, comprising the steps of:
上記第1の段階においてフォース制御部がアクチュエータに対して力を加えることにより、上記行入力モードにおいては各行が割り当てられた方向に対してのみ上記操作子を傾倒または移動操作可能なように制御することを特徴とする請求項6に記載の50音入力方法。In the first stage, the force control unit applies a force to the actuator, so that in the row input mode, control is performed so that the operating element can be tilted or moved only in the direction to which each row is assigned. The method according to claim 6, wherein 上記第2の段階においてフォース制御部がアクチュエータに対して力を加えることにより、上記語入力モードにおいては各語が割り当てられた範囲内でのみ上記操作子を回転操作可能なように制御することを特徴とする請求項6または7に記載の50音入力方法。In the word input mode, the force control unit applies a force to the actuator in the second step to control the operation element to be rotatable only within a range to which each word is assigned. The method of inputting Japanese syllabary sounds according to claim 6 or 7, wherein 上記語入力モードにおいて、上記行入力モードで上記操作子を傾倒または移動した位置に各行の先頭語を割り当てることを特徴とする請求項8に記載の50音入力方法。The method according to claim 8, wherein in the word input mode, a head word of each line is assigned to a position where the operator is tilted or moved in the line input mode. 上記フォース制御部が、上記操作子の回転角度の検出結果に応じて、上記語入力モードにおいて各語が割り当てられた位置の近傍で上記操作子に対して操作反力を加えるように制御することを特徴とする請求項8に記載の50音入力方法。The force control unit performs control so as to apply an operation reaction force to the operation element in the vicinity of a position where each word is assigned in the word input mode, according to a detection result of the rotation angle of the operation element. The method according to claim 8, wherein
JP2003035335A 2003-02-13 2003-02-13 50 sound input system and method Expired - Lifetime JP4105559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003035335A JP4105559B2 (en) 2003-02-13 2003-02-13 50 sound input system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003035335A JP4105559B2 (en) 2003-02-13 2003-02-13 50 sound input system and method

Publications (2)

Publication Number Publication Date
JP2004246599A true JP2004246599A (en) 2004-09-02
JP4105559B2 JP4105559B2 (en) 2008-06-25

Family

ID=33020784

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003035335A Expired - Lifetime JP4105559B2 (en) 2003-02-13 2003-02-13 50 sound input system and method

Country Status (1)

Country Link
JP (1) JP4105559B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068218A1 (en) * 2004-12-22 2006-06-29 Appside Co., Ltd. Data input device, data input method, data input program and recording medium wherein such data input program is recorded
WO2006070898A1 (en) * 2004-12-27 2006-07-06 Sunarrow Ltd. Directionality determination method for operation key in direction detection switch
JP2006284219A (en) * 2005-03-31 2006-10-19 Xanavi Informatics Corp Navigation device and japanese syllabary character input method
WO2007055367A1 (en) * 2005-11-14 2007-05-18 Matsushita Electric Industrial Co., Ltd. Input device
WO2009016915A1 (en) * 2007-08-02 2009-02-05 Konami Digital Entertainment Co., Ltd. Game program, game device, and game control method
JP2009538437A (en) * 2006-02-01 2009-11-05 ザ ユニバーシティー オブ ダンディー Utterance generation user interface
JP2012139026A (en) * 2010-12-27 2012-07-19 Alpine Electronics Inc Power consumption control system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068218A1 (en) * 2004-12-22 2006-06-29 Appside Co., Ltd. Data input device, data input method, data input program and recording medium wherein such data input program is recorded
US7944432B2 (en) 2004-12-22 2011-05-17 Appside Co., Ltd. Data input device, data input method, data input program and recording medium wherein such data input program is recorded
WO2006070898A1 (en) * 2004-12-27 2006-07-06 Sunarrow Ltd. Directionality determination method for operation key in direction detection switch
US7936335B2 (en) 2004-12-27 2011-05-03 Sunarrow Ltd. Operation direction judging method for operation key in direction detecting switch
JP2006284219A (en) * 2005-03-31 2006-10-19 Xanavi Informatics Corp Navigation device and japanese syllabary character input method
JP4621527B2 (en) * 2005-03-31 2011-01-26 クラリオン株式会社 Navigation device and 50-syllabary character input method
WO2007055367A1 (en) * 2005-11-14 2007-05-18 Matsushita Electric Industrial Co., Ltd. Input device
JP2009538437A (en) * 2006-02-01 2009-11-05 ザ ユニバーシティー オブ ダンディー Utterance generation user interface
WO2009016915A1 (en) * 2007-08-02 2009-02-05 Konami Digital Entertainment Co., Ltd. Game program, game device, and game control method
JP2012139026A (en) * 2010-12-27 2012-07-19 Alpine Electronics Inc Power consumption control system

Also Published As

Publication number Publication date
JP4105559B2 (en) 2008-06-25

Similar Documents

Publication Publication Date Title
JP4091871B2 (en) Data processing device
CN100462905C (en) Portable device having rotatable input buttons and method of operating the same
KR100441173B1 (en) Display and maneouvring system and method
JP5071753B2 (en) Equipment operation device
JP2001331272A (en) Character inputting device
JP2006285859A (en) Information processing method and device
JP2002062988A (en) Operation device
KR101608799B1 (en) Apparatus and method for having object display dial of in portable terminal
JP3876671B2 (en) INPUT DEVICE, INFORMATION PROCESSING DEVICE EQUIPPED WITH THE SAME, AND CURSOR DISPLAY CONTROL METHOD
JP4105559B2 (en) 50 sound input system and method
JP2002341991A (en) Information display device
JP2006155205A (en) Electronic apparatus, input controller, and input control program
JP2002081942A (en) Navigator
JP2007017269A (en) Navigation device
JP2000032110A (en) Telephone set
JP2003330608A (en) Inner force sense applying device
JP4803951B2 (en) CHARACTER INPUT DEVICE, ITS PROCESSING METHOD, RECORDING MEDIUM, AND PROGRAM
JP4038064B2 (en) User interface control device
JP5329176B2 (en) MAP SCROLL CONTROL DEVICE, NAVIGATION DEVICE USING THE SAME, AND MAP SCROLL CONTROL METHOD
JP2010039768A (en) Information input device and information input method
JP2007041909A (en) Operation device and operation system
JP2006301782A (en) Switching device
JP2007127867A (en) Map display device and map display method
JP2007159800A (en) Pointer-based object selection system
JP2010257076A (en) Character input method using rotary three-dimensional input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071113

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110404

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120404

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130404

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140404

Year of fee payment: 6