JP2004028678A - Input display device and input display method - Google Patents

Input display device and input display method Download PDF

Info

Publication number
JP2004028678A
JP2004028678A JP2002182912A JP2002182912A JP2004028678A JP 2004028678 A JP2004028678 A JP 2004028678A JP 2002182912 A JP2002182912 A JP 2002182912A JP 2002182912 A JP2002182912 A JP 2002182912A JP 2004028678 A JP2004028678 A JP 2004028678A
Authority
JP
Japan
Prior art keywords
display
map information
input
input operation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002182912A
Other languages
Japanese (ja)
Other versions
JP3893325B2 (en
Inventor
Takako Suzuki
鈴木 貴子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kenwood KK
Original Assignee
Kenwood KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kenwood KK filed Critical Kenwood KK
Priority to JP2002182912A priority Critical patent/JP3893325B2/en
Publication of JP2004028678A publication Critical patent/JP2004028678A/en
Application granted granted Critical
Publication of JP3893325B2 publication Critical patent/JP3893325B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To switch and display, easily and quickly, the scale reduction ratio of a map displayed on a navigation screen. <P>SOLUTION: A navigation device 1 determines whether the locus of an inputted touch instruction is approximately circular or not based on X, Y coordinates of the touch instruction detected by a touch panel 15b. When the locus of the touch instruction is approximately circular, the device 1 determines which of magnification and reduction is instructed based on the input direction wherein the approximately circular locus is inputted. The device 1 calculates the center of the inputted approximately circular locus, displays display information displayed on the center on the center of a display part 15a, extracts the nearest point from the external periphery of the touch panel 15b, determines the scale reduction ratio based on the separation distance from the point to the external periphery, magnifies or reduces map information, and displays it on the display part 15a. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、入力表示装置及び入力表示方法に関するものである。
【0002】
【従来の技術】
従来、ナビゲーション装置は、予め複数の縮尺率に対応した地図情報を格納する記憶装置を備えており、この記憶装置からデフォルトで設定された縮尺率の地図情報が選択されて読み出され、所定の縮尺率の地図がナビゲーション画面に表示されている。そこで、ユーザは、必要に応じて手動操作により、地図を拡大または縮小して、ユーザの用途に応じた広域地図または詳細地図を表示させていた。
【0003】
ここで、ユーザの手動操作により、地図を縮小、拡大して表示させる方法としては、例えば、タッチパネルが備えられる入力表示装置である場合、ナビゲーション画面上に表示されている拡大・縮小キーを、希望する縮尺率に応じて複数回タッチ指示する方法がある。これにより、タッチ指示の回数に応じて、所定の縮尺率の地図情報が記憶装置から読み出され、目的とする縮尺率の地図が表示される構成となっていた。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来のナビゲーションの入力表示装置にあっては、拡大・縮小キーがタッチ指示された場合、タッチ指示の回数に応じて、例えば、2倍、4倍、8倍、…、1/2倍、1/4倍、1/8倍、…というように、予め設定された所定間隔にて段階的に拡大、縮小が行われるため、ユーザが希望する正確な縮尺率にて地図を表示できない場合があった。また、目的とする縮尺率に到達するまでに、何度もタッチ指示を行わなければならず、手間がかかるという問題があった。或いは、地図の拡大、縮小を行うたびに音声案内により、地図を拡大、縮小する旨のアナウンスが入るため、煩わしさがあると共に、必要以上に車載バッテリを消費するという問題があった。
【0005】
さらに、ユーザは、1回のタッチ指示で切り替えられる縮尺率を感覚的につかみにくいため、段階的に縮尺率を切り替える場合、その都度地図を表示させて確認する必要がある。ここで、1回のタッチ指示で縮尺率が切り替えられ、地図情報が読み込まれるのに数秒間を要するため、目的とする縮尺率の地図を表示させるまでにかなりの時間がかかるという問題があった。
【0006】
本発明の課題は、ナビゲーション画面に表示される地図の縮尺率を容易かつ素早く切り替えて表示することが可能な入力表示装置及び入力表示方法を提供することである。
【0007】
【課題を解決するための手段】
上記課題を解決するために、本発明は、
任意の縮尺率により表示可能な地図情報を記憶する記憶手段から前記地図情報を取得して表示手段に表示させる表示制御手段と、前記表示手段の表面における入力操作に応じた位置座標を検出する位置検出手段と、を備える入力表示装置において、
前記位置検出手段により検出された入力操作の位置座標が、所定の軌跡を描いているか否かを判別する判別手段と、
前記判別手段により前記入力操作の位置座標が所定の軌跡を描いていると判別された場合に、前記位置検出手段により検出された入力操作の操作方向を検出する方向検出手段と、を備え、
前記表示制御手段は、前記方向検出手段により検出された入力操作の操作方向に応じて、表示手段に表示されている地図情報を拡大又は縮小して表示手段に表示させることを特徴とする。
【0008】
また、本発明において、
前記位置検出手段により検出された入力操作の位置座標に基づいて、前記入力操作の軌跡から前記表示手段の外周辺までの離間距離を算出する距離算出手段と、
前記距離算出手段により演算された前記入力操作の軌跡から前記表示手段の外周辺までの離間距離及び前記方向検出手段により検出された操作方向に基づいて、地図情報の縮尺率を算出する縮尺率算出手段と、を備え、
前記表示制御手段は、前記縮尺率算出手段により算出された縮尺率に基づいて、前記地図情報を拡大又は縮小して前記表示手段に表示させることが好ましい。
【0009】
また、本発明において、
前記位置検出手段により検出された入力操作の位置座標に基づいて、前記入力操作の軌跡の略中心を算出する中心算出手段をさらに備え、
前記表示制御手段は、前記中心算出手段により算出された前記入力操作の軌跡の略中心に表示されていた地図情報を前記表示手段の中心に配置して表示させることが好ましい。
【0010】
さらに、本発明は、
任意の縮尺率により表示可能な地図情報を記憶する記憶手段から前記地図情報を取得して表示手段に表示させる工程と、前記表示手段の表面における入力操作に応じた位置座標を検出する工程と、を含む入力表示方法において、
前記検出された入力操作の位置座標が、所定の軌跡を描いているか否かを判別する工程と、
前記入力操作の位置座標が所定の軌跡を描いていると判別された場合に、前記検出された入力操作の操作方向を検出する工程と、
前記検出された入力操作の操作方向に応じて、表示手段に表示されている地図情報を拡大又は縮小して表示手段に表示させる工程と、
を含むことを特徴とする。
【0011】
【発明の実施の形態】
以下、図を参照して本発明の実施の形態を詳細に説明する。ただし、発明の範囲は、図示例に限定されない。以下では、本発明の入力表示装置がナビゲーション装置に適用された場合を例として説明を行う。
【0012】
まず、本実施の形態の構成を説明する。
図1は、本実施の形態におけるナビゲーション装置1の要部構成を示すブロック図である。図1に示すようにナビゲーション装置1は、CPU11、GPSアンテナ12aを備えるGPSユニット12、自律航法ユニット13、メモリ14、表示部15a及びタッチパネル15bを備える入力表示装置15、地図情報DB16aを備える記憶装置16等から構成され、各部はバスにより接続されている。
【0013】
CPU11は、記憶装置16に記憶されている各種システムプログラムを読み出して実行し、ナビゲーション装置1の各部を駆動制御する。また、GPSユニット12、自律航法ユニット13、入力表示装置15等を介して入力されるデータに基づいて、記憶装置16に記憶されたナビゲーション用の各種アプリケーションプログラムを読み出して、現在位置検出処理、経路探索処理、拡大縮小処理等の各種処理を実行し、処理結果を表示部15aに表示させる。なお、CPU11は、本発明の表示制御手段、判別手段、方向検出手段、距離算出手段、縮尺率算出手段、中心算出手段としての機能を有している。
【0014】
具体的に、CPU11は、本発明に特徴的な処理として後述する拡大縮小処理(図4参照)を実行する。ここで、図2〜3を参照して、拡大縮小処理を実行する際のCPU11の機能について説明する。まず、CPU11は、拡大縮小処理を実行するに際して、タッチパネル15bにより、ユーザから入力されたタッチ指示が検出されると、入力されたタッチ指示のX,Y座標を取得する。
【0015】
ここで、CPU11は、タッチパネル15bにより検出されたX,Y座標が、略円状の軌跡を描いているか否かを判断する。そして、検出されたX,Y座標が、点、線又は他の形状の軌跡を描いている場合、CPU11は、タッチ指示に応じた処理を行う。また、タッチパネル15bにより検出されたX,Y座標が、略円状の軌跡を描いている場合、CPU11は、検出された略円状の軌跡が右回りに入力されたか、左周りに入力されたかを判断する。
【0016】
ここで、軌跡が右回りに入力されていた場合、CPU11は、タッチ指示が拡大指示であると判断する。そして、図2(a)に示すように、CPU11は、検出された軌跡のX,Y座標において、タッチパネル15bの外周辺、即ち表示可能領域の外端部を構成する4辺からそれぞれ最も近い位置にある4点A〜DのX,Y座標を抽出する。また、CPU11は、抽出した4点A〜Dの交点Gを算出する。
【0017】
続いて、図2(b)に示すように、CPU11は、取得した交点Gが中心に位置するように表示情報を配置して、4点A〜Dに対応する4点A´〜D´のX,Y座標を算出する。次いで、算出された4点A´〜D´のX,Y座標に基づいて、4点A´〜D´から、タッチパネル15bの外周辺までの距離a〜dをそれぞれ算出して、外周辺からの最も距離が近い点を抽出する。ここで、図2(b)においては、4点A´〜D´から外周辺までの距離は、a<c<d<bとなっているため、外周辺から最も距離が近い点は、点A´となる。
【0018】
そして、CPU11は、4点の交点Gが表示部15aの中心に配置された状態で、現在点A´に表示されている表示情報が、点A´から外周辺に対して引かれた垂線hと外周辺とが交わる点Pに位置するように、地図情報を拡大して、表示部15aに表示する。
【0019】
より詳細に説明すると、CPU11は、点A´から点Pまでの距離(即ち、点A´から外周辺までの距離)aと、点G´から点Pまでの距離(即ち、点G´から外周辺までの距離)gを取得して、(g−a)を算出する。ここで、タッチパネル15bの表示可能領域における縦長がl、横長がmである場合、gはm/2であり、(g−a)は(m/2−a)となる。そして、CPU11は、(m/2−a)をm/2まで拡大して表示することとなるため、縮尺率は、m/(m−2a)となる。したがって、CPU11は、交点Gを表示部15aの中心に配置すると共に、現在表示されている地図情報をm/(m−2a)倍することにより、点A´に表示されている表示情報を、点Pに位置するように地図情報を拡大して表示することができる。
【0020】
一方、図3(a)に示すように、タッチ指示が左回りに入力された場合、CPU11は、タッチ指示が縮小指示であると判断する。そして、CPU11は、タッチパネル15bの外周辺を構成する4辺からそれぞれ最も近い位置にある4点A〜DのX,Y座標を抽出すると共に、4点A〜Dの交点Gを算出する。続いて、図3(b)に示すように、CPU11は、取得した交点Gが中心に位置するように表示情報を配置して、4点A〜Dに対応する4点A´〜D´のX,Y座標を算出する。
【0021】
そして、CPU11は、算出された4点A´〜D´のX,Y座標に基づいて、4点A´〜D´から外周辺までの距離a〜dをそれぞれ算出して、外周辺からの最も距離が近い点を抽出する。ここで、図3(b)においては、4点A´〜D´から外周辺までの距離は、c<a<d<bとなっているため、外周辺から最も距離が近い点は、点C´となる。
【0022】
そして、CPU11は、4点の交点Gが表示部15aの中心に配置された状態で、点C´から外周辺に対して引かれた垂線hと外周辺とが交わる点Pに表示されている表示情報が、点C´に位置するように、地図情報を縮小して、表示部15aに地図の表示を行う。
【0023】
より詳細に説明すると、CPU11は、点C´から点Pまでの距離(即ち、点C´から外周辺までの距離)cと、点G´から点Pまでの距離(即ち、点G´から外周辺までの距離)gを取得して、(g−c)を算出する。ここで、タッチパネル15bの表示可能領域における縦長がl、横長がmである場合、gはm/2であり、(g−c)は(m/2−c)となる。そこで、CPU11は、m/2を(m/2−c)まで縮小して表示することとなるため、縮尺率は、(m−2c)/mとなる。したがって、CPU11は、交点Gを表示部15aの中心に配置すると共に、現在表示されている地図情報を(m−2c)/m倍することにより、点Pに表示されている表示情報を、点C´に位置するように地図情報を縮小して表示させることができる。
【0024】
図1に戻り、GPSユニット12は、GPSアンテナ12aを備え、地球低軌道に打ち上げられた複数のGPS衛星から送信されるGPS信号を受信する。GPSアンテナ12aは、少なくとも3個のGPS衛星から送信されるGPS信号を受信し、受信したGPS信号に基づいて車両の絶対的な現在位置(緯度、経度)を検出して、CPU11に出力する。
【0025】
自律航法ユニット13は、角度センサ、距離センサ等を備えて構成される。角度センサは、車の角速度(単位時間あたりの水平方向への回転角度)を検出して、移動方位の変化量を算出する。距離センサは、車輪の回転に応じて出力されるパルス信号を検出して、車両の移動量を算出する。自律航法ユニット13は、これら角速度信号および車速パルス信号により、車両の相対的な位置変化を算出してCPU11に出力する。
【0026】
メモリ14は、RAM(Random Access Memory)、ROM(Read Only Memory)等から構成され、CPU11によって実行される各種プログラムやこれら各種プログラムにかかるデータ等を一時的に記憶するワークエリアを形成する。
【0027】
入力表示装置15は、表示部15a、タッチパネル15bを備えて構成されている。表示部15aは、LCD(Liquid Crystal Display)等により構成され、CPU11から入力されるナビゲーション用の表示情報や、タッチパネル15bを介して入力される入力情報を表示する。タッチパネル15bは、光学式、赤外線走査式、再帰反射式の座標読み取り原理でタッチ指示された位置座標(X,Y座標)を検出し、検出した位置座標を位置信号としてCPU11に出力する。なお、表示部15aは、本発明の表示手段としての機能を有し、タッチパネル15bは、本発明の位置検出手段としての機能を有している。
【0028】
記憶装置16は、プログラムやデータ等が予め記憶されている記録媒体(図示せず)を備え、この記録媒体内に、CPU11により実行されるナビゲーション装置1の各種アプリケーション、およびこれらのプログラムにかかるデータ等を記憶する。例えば、記録媒体には、上記処理を行うための現在位置検出処理、経路探索処理、拡大縮小処理等の各種プログラムや、ナビゲーション装置1の動作に関する各種設定内容が記録された設定データ、或いは複数の縮尺率に対応する地図情報がそれぞれ格納される地図情報データベース(DB)16aを記憶している。なお、記憶装置16は、本発明の記憶手段としての機能を有している。
【0029】
具体的に、地図情報DB16aは、例えば、縮尺率1/100万程度に日本地図が描画された全国図、縮尺率1/40万程度の近隣3県前後を含む地方図、縮尺率1/20万程度の県単位の地域図、縮尺率1/10万程度の市単位の市街図、縮尺率1/5万程度の詳細市街図、縮尺率1/2万〜1/1500程度の詳細拡大図等を地図情報として記憶している。なお、地図の作成は、ベクトル入力に行われているため、任意の縮尺率にて拡大、縮小が可能である。
【0030】
また、地図情報は、車両の現在位置の検出、マップマッチング、ナビゲーションの表示等に使用する地図データ、道路の属性(例えば、道路名、国道、県道、有料道路、あるいは、一方通行路等)、道路のつながり(例えば、三叉路、十字路、T字路等)、道路、施設、海、湖等の各種シンボルデータ等を含んでいる。
【0031】
次に、本実施の形態の動作を説明する。
なお、以下に示す図4のフローチャートに記述されている各機能を実現するためのプログラムは、読み取り可能なプログラムコードの形態で記憶装置16に格納されており、CPU11は、このプログラムコードに従った動作を逐次実行する。また、図示しないCD−ROM、DVD―ROM等から外部供給されるプログラム/データを利用してこの実施の形態特有の動作を実行することも可能である。
【0032】
図4は、CPU11により実行される拡大縮小処理を示すフローチャートである。図4に示すように、CPU11は、タッチパネル5bにより、タッチ指示の入力が検出されると(ステップS1)、入力されたタッチ指示に応じたX,Y座標を取得する(ステップS2)。次いで、CPU11は、取得されたタッチ指示のX,Y座標が、略円状の軌跡を描いているか否かを判断し(ステップS3)、取得されたタッチ指示のX,Y座標が、点、線又は他の図形を描いている場合(ステップS3;NO)、タッチ指示に応じた他の処理を実行する。
【0033】
一方、取得されたタッチ指示のX,Y座標が、略円状の軌跡を描いている場合(ステップS3;YES)、CPU11は、略円状の軌跡が右回りに入力されているか、左周りに入力されているかを判断する(ステップS4)。ここで、入力されたタッチ指示の軌跡が右回りである場合(ステップS4;YES)、CPU11は、タッチ指示が拡大指示であると判断する。
【0034】
続いて、CPU11は、タッチパネル15bの外周辺を構成する4辺からの離間距離がそれぞれ最短となる4点A〜DのX,Y座標を抽出し(ステップS5)、抽出した4点A〜Dの交点Gを算出する(ステップS6)。続いて、CPU11は、取得した交点Gを表示部15aの中心に配置させ(ステップS7)、4点A〜Dに対応する4点A´〜D´のX,Y座標をそれぞれ算出する。そして、CPU11は、算出した4点A´〜D´のうち、外周辺からの離間距離が最も近い点を抽出する(ステップS8)。
【0035】
さらに、CPU11は、抽出した点から外周辺までの離間距離を算出して、この離間距離に基づいて縮尺率を算出する。そして、CPU11は、交点Gを表示部15aの中心に配置させると共に、算出された縮尺率に基づいて地図情報を拡大して表示させ(ステップS9)、本拡大縮小処理を終了する。
【0036】
一方、ステップS4に戻って、入力されたタッチ指示の軌跡が左周りである場合(ステップS4;NO)、CPU11は、タッチ指示が縮小指示であると判断する。続いて、CPU11は、タッチパネル15bの外周辺を構成する4辺からの離間距離がそれぞれ最短となる4点A〜DのX,Y座標を抽出し(ステップS10)、抽出した4点A〜Dの交点Gを算出する(ステップS11)。次いで、CPU11は、取得した交点Gを表示部15aの中心に配置させ(ステップS12)、4点A〜Dに対応する4点A´〜D´のX,Y座標をそれぞれ算出する。
【0037】
そして、CPU11は、算出した4点A´〜D´のうち、外周辺からの離間距離最も近い点を抽出する(ステップS13)。さらに、CPU11は、抽出した点から外周辺までの離間距離を算出して、この離間距離に基づいて表示させる地図情報の縮尺率を算出する。そして、CPU11は、交点Gを表示部15aの中心に配置させると共に、算出された縮尺率に基づいて地図情報を縮尺して表示させ(ステップS14)、本拡大縮小処理を終了する。
【0038】
以上のように、本実施の形態によれば、ナビゲーション装置1のCPU11は、タッチパネル15bにより検出されるタッチ指示のX,Y座標に基づいて、入力されたタッチ指示の軌跡が略円状であるかを判断し、タッチ指示の軌跡が略円状であった場合に、略円状の軌跡が入力された入力方向に基づいて、拡大又は縮小のどちらの指示であるかを判断する。また、入力された略円状の軌跡の中心を算出して、この中心に表示されていた表示情報を表示部15aの中心に配置させると共に、タッチパネル15bの外周辺から最も近い点を抽出し、この点から外周辺までの離間距離に基づいて縮尺率を決定し、地図情報を拡大又は縮小して、表示部15aに表示させる。
【0039】
したがって、ユーザは、現在表示部15aに表示されている地図情報を拡大又は縮小して表示させる場合に、表示部15aの所望の領域において、略円状の軌跡を左右いずれかの方向から描くことにより、略円状の軌跡に囲まれた領域を中央に表示させる共に、タッチパネルの外周辺から略円状の軌跡までの最短離間距離に応じて縮尺率を決定させ、地図情報を拡大又は縮小して表示させることができる。
【0040】
これにより、ユーザは、段階的に地図情報を拡大又は縮小させる手間及び時間を省くことができ、拡大又は縮小の指示を入力する度に行われる音声案内を一度の案内に抑えることができる。また、拡大に際しては、略円状に囲んだ領域が表示部15aの略全面に表示されるように地図情報を拡大することができるため、拡大される地図情報を感覚的に認識しながら指示を入力することができる。一方、縮小に際しても、略円状に囲んだ領域内に、現在表示部15aに表示されている地図情報が略収まるように縮小して表示することができるため、縮小される地図情報を感覚的に認識することができる。
【0041】
また、略円状の軌跡に囲まれた領域を表示部15aの中央に配置して表示させるため、常にユーザの見たい領域を最も見やすい位置に表示させることができる。即ち、例えば、拡大するにつれて目的とする領域が表示画面から押し出されることがなく、縮小するにつれて目的とする領域を見失ってしまうことがない。さらに、拡大及び移動の操作を一操作で行えるため、操作性が向上する。
【0042】
なお、上述した本実施の形態における記述は、本発明にかかる好適なナビゲーション装置1の一例であり、これに限定されるものではない。
本実施の形態においては、タッチ指示により入力される軌跡が略円状である場合を例として説明したが、これに限らず、その他種々の形状の軌跡により、指示を入力することが可能である。例えば、タッチパネル15b上において、直線的なタッチ指示により入力が行われた場合、入力された方向に応じて、拡大又は縮小の判断を行う共に、入力された直線の長さに応じて縮尺率を算出して、地図情報を表示させる構成であっても良い。また、上述した方法と同様に、直線の開始点及び終了点のX,Y座標を算出し、タッチパネル15bの外周辺からの離間距離に基づいて、縮尺率を算出する構成であっても良い。さらに、入力された直線の中心を算出し、算出された中心を表示部15aの中心に配置させて表示させる構成であっても良い。
【0043】
さらに、本実施の形態においては、タッチパネルの外周辺から略円状の軌跡までの最短離間距離に応じて縮尺率を決定する構成としたが、これに限らず、最長離間距離に応じて縮尺率を決定する構成であっても良い。また、入力操作の左右方向に応じて、拡大又は縮小を決定する構成としたが、これらも任意に変更可能であることは勿論である。
【0044】
その他、本実施の形態におけるナビゲーション装置1の細部構成及び詳細動作に関しても、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
【0045】
【発明の効果】
本発明によれば、煩雑な操作を必要とせずに、表示手段における簡単な操作により、ユーザの所望する縮尺率にて地図情報を拡大又は縮小して、表示手段に速やかに表示させることができる。
【図面の簡単な説明】
【図1】本発明を適用した実施の形態におけるナビゲーション装置1の様部構成を示すブロック図である。
【図2】表示部15aにおける拡大指示の入力操作及び縮尺率の決定方法を説明する図である。
【図3】表示部15aにおける縮小指示の入力操作及び縮尺率の決定方法を説明する図である。
【図4】図1のCPU11により実行される拡大縮小処理を示すフローチャートである。
【符号の説明】
1  ナビゲーション装置
11  CPU
12  GPSユニット
12a GPSアンテナ
13  自律航法ユニット
14  メモリ
15  入力表示装置
15a 表示部
15b タッチパネル
16  記憶装置
16a 地図情報DB
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an input display device and an input display method.
[0002]
[Prior art]
Conventionally, a navigation device is provided with a storage device for storing map information corresponding to a plurality of scales in advance, and map information of a scale set by default is selected and read out from the storage device, and a predetermined scale is read. A scaled map is displayed on the navigation screen. Therefore, the user manually enlarges or reduces the map as necessary, and displays a wide area map or a detailed map according to the user's purpose.
[0003]
Here, as a method of reducing and enlarging the map by a user's manual operation, for example, in the case of an input display device provided with a touch panel, the user can select an enlargement / reduction key displayed on the navigation screen. There is a method of giving a touch instruction a plurality of times in accordance with the scale ratio to be performed. Thus, according to the number of touch instructions, map information of a predetermined scale is read from the storage device, and a map of a target scale is displayed.
[0004]
[Problems to be solved by the invention]
However, in such a conventional navigation input display device, when an enlargement / reduction key is touched, for example, 2 times, 4 times, 8 times,. .., × 2, 4 ×, 8 ×,..., Are enlarged or reduced stepwise at predetermined intervals, so that the map can be displayed at the exact scale desired by the user. There were cases where it could not be displayed. In addition, there is a problem that the touch instruction must be performed many times before the target scale is reached, which is troublesome. Alternatively, an announcement to enlarge or reduce the map is provided by voice guidance every time the map is enlarged or reduced, which is troublesome and consumes more on-vehicle battery than necessary.
[0005]
Furthermore, since it is difficult for the user to intuitively grasp the scale that can be switched with a single touch instruction, it is necessary to display a map each time the scale is switched in a stepwise manner. Here, the scale is switched by one touch instruction, and it takes several seconds for the map information to be read. Therefore, there is a problem that it takes a considerable amount of time to display the map of the target scale. .
[0006]
An object of the present invention is to provide an input display device and an input display method capable of easily and quickly switching and displaying the scale of a map displayed on a navigation screen.
[0007]
[Means for Solving the Problems]
In order to solve the above problems, the present invention provides
Display control means for acquiring the map information from a storage means for storing map information which can be displayed at an arbitrary scale, and displaying the map information on a display means, and a position for detecting position coordinates corresponding to an input operation on the surface of the display means An input display device comprising:
Determining means for determining whether the position coordinates of the input operation detected by the position detecting means are drawing a predetermined trajectory,
Direction detecting means for detecting an operation direction of the input operation detected by the position detecting means, when it is determined by the determining means that the position coordinates of the input operation is drawing a predetermined locus,
The display control means enlarges or reduces the map information displayed on the display means and displays the map information on the display means in accordance with the operation direction of the input operation detected by the direction detection means.
[0008]
In the present invention,
Distance calculation means for calculating a separation distance from the trajectory of the input operation to the outer periphery of the display means based on the position coordinates of the input operation detected by the position detection means;
Scale ratio calculation for calculating a scale ratio of map information based on a separation distance from the trajectory of the input operation calculated by the distance calculation unit to an outer periphery of the display unit and an operation direction detected by the direction detection unit. Means,
The display control means preferably enlarges or reduces the map information based on the scale calculated by the scale calculation means and displays the map information on the display means.
[0009]
In the present invention,
A center calculating unit configured to calculate a substantially center of a trajectory of the input operation based on a position coordinate of the input operation detected by the position detecting unit;
It is preferable that the display control means arranges and displays the map information displayed substantially at the center of the trajectory of the input operation calculated by the center calculation means at the center of the display means.
[0010]
Further, the present invention provides
A step of acquiring the map information from a storage unit that stores map information that can be displayed at an arbitrary scale, and displaying the map information on a display unit, and a step of detecting position coordinates according to an input operation on a surface of the display unit, In the input display method including
A step of determining whether or not the position coordinates of the detected input operation are drawing a predetermined trajectory;
A step of detecting an operation direction of the detected input operation when it is determined that the position coordinates of the input operation are drawing a predetermined trajectory;
According to the operation direction of the detected input operation, a step of enlarging or reducing the map information displayed on the display means and displaying the map information on the display means,
It is characterized by including.
[0011]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the scope of the invention is not limited to the illustrated example. Hereinafter, a case where the input display device of the present invention is applied to a navigation device will be described as an example.
[0012]
First, the configuration of the present embodiment will be described.
FIG. 1 is a block diagram illustrating a main configuration of a navigation device 1 according to the present embodiment. As shown in FIG. 1, the navigation device 1 includes a CPU 11, a GPS unit 12 including a GPS antenna 12a, an autonomous navigation unit 13, a memory 14, an input display device 15 including a display unit 15a and a touch panel 15b, and a storage device including a map information DB 16a. 16 and each unit is connected by a bus.
[0013]
The CPU 11 reads and executes various system programs stored in the storage device 16 to drive and control each unit of the navigation device 1. Further, based on data input through the GPS unit 12, the autonomous navigation unit 13, the input display device 15, and the like, various application programs for navigation stored in the storage device 16 are read, and the current position detection processing, route Various kinds of processing such as search processing and enlargement / reduction processing are executed, and the processing results are displayed on the display unit 15a. The CPU 11 has functions as a display control unit, a determination unit, a direction detection unit, a distance calculation unit, a scale calculation unit, and a center calculation unit of the present invention.
[0014]
Specifically, the CPU 11 executes a later-described enlargement / reduction process (see FIG. 4) as a characteristic process of the present invention. Here, the function of the CPU 11 when executing the enlargement / reduction processing will be described with reference to FIGS. First, when executing a scaling process, the CPU 11 obtains X and Y coordinates of the input touch instruction when the touch instruction input by the user is detected by the touch panel 15b.
[0015]
Here, the CPU 11 determines whether or not the X and Y coordinates detected by the touch panel 15b draw a substantially circular locus. When the detected X and Y coordinates depict a locus of a point, a line, or another shape, the CPU 11 performs a process according to the touch instruction. When the X and Y coordinates detected by the touch panel 15b describe a substantially circular locus, the CPU 11 determines whether the detected substantially circular locus has been input clockwise or counterclockwise. Judge.
[0016]
Here, when the trajectory has been input clockwise, the CPU 11 determines that the touch instruction is an enlargement instruction. Then, as illustrated in FIG. 2A, the CPU 11 determines, on the X and Y coordinates of the detected trajectory, positions that are closest to the outer periphery of the touch panel 15 b, that is, the four sides forming the outer end of the displayable area. , The X and Y coordinates of the four points A to D are extracted. Further, the CPU 11 calculates an intersection G of the extracted four points A to D.
[0017]
Subsequently, as shown in FIG. 2B, the CPU 11 arranges the display information so that the acquired intersection G is located at the center, and outputs the four points A ′ to D ′ corresponding to the four points A to D. X and Y coordinates are calculated. Next, based on the calculated X and Y coordinates of the four points A ′ to D ′, the distances a to d from the four points A ′ to D ′ to the outer periphery of the touch panel 15b are calculated, and the distances from the outer periphery are calculated. Extract the point with the closest distance. Here, in FIG. 2B, since the distance from the four points A ′ to D ′ to the outer periphery is a <c <d <b, the point closest to the outer periphery is the point A '.
[0018]
Then, in a state where the intersection G of the four points is arranged at the center of the display unit 15a, the CPU 11 displays the display information currently displayed at the point A 'on the perpendicular h drawn from the point A' to the outer periphery. The map information is enlarged and displayed on the display unit 15a such that the map information is located at the point P where the outside and the outside cross.
[0019]
More specifically, the CPU 11 calculates the distance a from the point A ′ to the point P (that is, the distance from the point A ′ to the outer periphery) and the distance from the point G ′ to the point P (that is, from the point G ′). The distance (g) to the outer periphery is obtained, and (ga) is calculated. Here, when the vertical length in the displayable area of the touch panel 15b is 1 and the horizontal length is m, g is m / 2 and (ga) is (m / 2-a). Then, since the CPU 11 enlarges (m / 2-a) to m / 2 and displays it, the scale factor is m / (m-2a). Therefore, the CPU 11 arranges the intersection G at the center of the display unit 15a and multiplies the currently displayed map information by m / (m−2a), thereby reducing the display information displayed at the point A ′. The map information can be enlarged and displayed so as to be located at the point P.
[0020]
On the other hand, as shown in FIG. 3A, when the touch instruction is input counterclockwise, the CPU 11 determines that the touch instruction is a reduction instruction. Then, the CPU 11 extracts the X and Y coordinates of the four points A to D closest to the four sides constituting the outer periphery of the touch panel 15b, and calculates the intersection G of the four points A to D. Subsequently, as shown in FIG. 3B, the CPU 11 arranges the display information so that the acquired intersection G is located at the center, and sets the four points A ′ to D ′ corresponding to the four points A to D. X and Y coordinates are calculated.
[0021]
Then, the CPU 11 calculates distances a to d from the four points A ′ to D ′ to the outer periphery based on the calculated X and Y coordinates of the four points A ′ to D ′, respectively, and The closest point is extracted. Here, in FIG. 3B, since the distance from the four points A ′ to D ′ to the outer periphery is c <a <d <b, the point closest to the outer periphery is the point C '.
[0022]
Then, the CPU 11 displays the point P where the perpendicular h drawn from the point C ′ to the outer periphery intersects the outer periphery in a state where the four intersections G are arranged at the center of the display unit 15a. The map information is reduced so that the display information is located at the point C ′, and the map is displayed on the display unit 15a.
[0023]
More specifically, the CPU 11 calculates the distance c from the point C ′ to the point P (that is, the distance from the point C ′ to the outer periphery) and the distance from the point G ′ to the point P (that is, from the point G ′). The distance (g to the outer periphery) g is obtained, and (g−c) is calculated. Here, when the vertical length in the displayable area of the touch panel 15b is 1 and the horizontal length is m, g is m / 2, and (g−c) is (m / 2−c). Therefore, the CPU 11 displays m / 2 by reducing it to (m / 2-c), so that the scale is (m-2c) / m. Therefore, the CPU 11 arranges the intersection G at the center of the display unit 15a and multiplies the currently displayed map information by (m−2c) / m, thereby changing the display information displayed at the point P to the point P. The map information can be reduced and displayed so as to be located at C '.
[0024]
Returning to FIG. 1, the GPS unit 12 includes a GPS antenna 12a and receives GPS signals transmitted from a plurality of GPS satellites launched in low earth orbit. The GPS antenna 12a receives GPS signals transmitted from at least three GPS satellites, detects an absolute current position (latitude, longitude) of the vehicle based on the received GPS signals, and outputs the detected current position to the CPU 11.
[0025]
The autonomous navigation unit 13 includes an angle sensor, a distance sensor, and the like. The angle sensor detects the angular velocity of the vehicle (the rotation angle in the horizontal direction per unit time) and calculates the amount of change in the moving direction. The distance sensor detects a pulse signal output according to the rotation of the wheel, and calculates the amount of movement of the vehicle. The autonomous navigation unit 13 calculates a relative position change of the vehicle based on the angular velocity signal and the vehicle speed pulse signal, and outputs the change to the CPU 11.
[0026]
The memory 14 includes a random access memory (RAM), a read only memory (ROM), and the like, and forms a work area for temporarily storing various programs executed by the CPU 11 and data related to the various programs.
[0027]
The input display device 15 includes a display unit 15a and a touch panel 15b. The display unit 15a includes an LCD (Liquid Crystal Display) or the like, and displays navigation display information input from the CPU 11 and input information input via the touch panel 15b. The touch panel 15b detects the position coordinates (X, Y coordinates) pointed by the touch based on the optical, infrared scanning, and retroreflective coordinate reading principles, and outputs the detected position coordinates to the CPU 11 as position signals. The display unit 15a has a function as a display unit of the present invention, and the touch panel 15b has a function as a position detection unit of the present invention.
[0028]
The storage device 16 includes a recording medium (not shown) in which programs, data, and the like are stored in advance. In the recording medium, various applications of the navigation device 1 executed by the CPU 11 and data related to these programs are stored. And so on. For example, on a recording medium, various programs such as a current position detection process, a route search process, and an enlargement / reduction process for performing the above process, and various setting data relating to the operation of the navigation device 1 are recorded. A map information database (DB) 16a in which map information corresponding to the scale is stored. The storage device 16 has a function as a storage unit of the present invention.
[0029]
Specifically, the map information DB 16a includes, for example, a nationwide map in which a Japanese map is drawn at a scale of about 1 / 1,000,000, a local map including three neighboring prefectures at a scale of about 1 / 400,000, and a scale of 1/20. A regional map of about 10,000 prefectures, a city map of about 1 / 100,000 city scale, a detailed city map of about 1 / 50,000 scale, a detailed enlarged view of about 120,000 to 1/1500 scale Etc. are stored as map information. Since the map is created by vector input, it can be enlarged or reduced at any scale.
[0030]
The map information includes map data used for detection of the current position of the vehicle, map matching, display of navigation, etc., attributes of roads (for example, road names, national roads, prefectural roads, toll roads, or one-way roads), It includes various symbol data such as road connections (for example, three-way intersections, crossroads, T-shaped roads, etc.), roads, facilities, seas, lakes and the like.
[0031]
Next, the operation of the present embodiment will be described.
A program for realizing each function described in the flowchart of FIG. 4 described below is stored in the storage device 16 in the form of a readable program code, and the CPU 11 complies with the program code. Execute the operation sequentially. Further, it is also possible to execute an operation specific to this embodiment using a program / data externally supplied from a CD-ROM, a DVD-ROM or the like (not shown).
[0032]
FIG. 4 is a flowchart showing the enlargement / reduction processing executed by the CPU 11. As shown in FIG. 4, when an input of a touch instruction is detected by the touch panel 5b (step S1), the CPU 11 acquires X and Y coordinates corresponding to the input touch instruction (step S2). Next, the CPU 11 determines whether or not the X and Y coordinates of the acquired touch instruction describe a substantially circular trajectory (step S3). When a line or another figure is drawn (step S3; NO), other processing according to the touch instruction is executed.
[0033]
On the other hand, when the X and Y coordinates of the acquired touch instruction describe a substantially circular trajectory (step S3; YES), the CPU 11 determines whether the substantially circular trajectory is input clockwise or counterclockwise. Is determined (step S4). Here, when the locus of the input touch instruction is clockwise (step S4; YES), the CPU 11 determines that the touch instruction is an enlargement instruction.
[0034]
Subsequently, the CPU 11 extracts the X and Y coordinates of the four points A to D having the shortest distance from the four sides constituting the outer periphery of the touch panel 15b (step S5), and extracts the extracted four points A to D. Is calculated (step S6). Subsequently, the CPU 11 arranges the obtained intersection point G at the center of the display unit 15a (step S7) and calculates the X and Y coordinates of the four points A ′ to D ′ corresponding to the four points A to D, respectively. Then, the CPU 11 extracts, from the calculated four points A ′ to D ′, a point having the closest distance from the outer periphery (step S8).
[0035]
Further, the CPU 11 calculates a separation distance from the extracted point to the outer periphery, and calculates a scale factor based on the separation distance. Then, the CPU 11 arranges the intersection G at the center of the display unit 15a, enlarges and displays the map information based on the calculated scale factor (step S9), and ends the main scaling process.
[0036]
On the other hand, returning to step S4, when the locus of the input touch instruction is counterclockwise (step S4; NO), the CPU 11 determines that the touch instruction is a reduction instruction. Subsequently, the CPU 11 extracts the X and Y coordinates of the four points A to D having the shortest distance from the four sides constituting the outer periphery of the touch panel 15b (step S10), and extracts the extracted four points A to D. Is calculated (step S11). Next, the CPU 11 arranges the acquired intersection G at the center of the display unit 15a (step S12), and calculates the X and Y coordinates of the four points A ′ to D ′ corresponding to the four points A to D, respectively.
[0037]
Then, the CPU 11 extracts, from the calculated four points A ′ to D ′, the point closest to the distance from the outer periphery (step S13). Further, the CPU 11 calculates a separation distance from the extracted point to the outer periphery, and calculates a scale of map information to be displayed based on the separation distance. Then, the CPU 11 arranges the intersection G at the center of the display unit 15a, displays the map information on a reduced scale based on the calculated scale factor (step S14), and ends the main scaling process.
[0038]
As described above, according to the present embodiment, CPU 11 of navigation device 1 has a substantially circular trajectory of an input touch instruction based on the X and Y coordinates of the touch instruction detected by touch panel 15b. If the trajectory of the touch instruction is substantially circular, it is determined which of the enlargement and reduction instructions is based on the input direction in which the substantially circular trajectory is input. In addition, the center of the input substantially circular locus is calculated, the display information displayed at the center is arranged at the center of the display unit 15a, and the closest point from the outer periphery of the touch panel 15b is extracted. The scale is determined based on the distance from this point to the outer periphery, and the map information is enlarged or reduced and displayed on the display unit 15a.
[0039]
Therefore, when enlarging or reducing the map information currently displayed on the display unit 15a, the user draws a substantially circular trajectory in a desired area of the display unit 15a from one of the left and right directions. By displaying the area surrounded by the substantially circular locus in the center, the scale information is determined according to the shortest separation distance from the outer periphery of the touch panel to the substantially circular locus, and the map information is enlarged or reduced. Can be displayed.
[0040]
Thereby, the user can save time and effort for enlarging or reducing the map information step by step, and can suppress the voice guidance performed every time an instruction for enlarging or reducing is input to one guidance. In addition, at the time of enlargement, the map information can be enlarged so that a substantially circular area is displayed on substantially the entire surface of the display unit 15a. Can be entered. On the other hand, at the time of reduction, since the map information currently displayed on the display unit 15a can be reduced and displayed so as to substantially fit in the substantially circled area, the reduced map information is intuitively displayed. Can be recognized.
[0041]
In addition, since the area surrounded by the substantially circular locus is arranged and displayed at the center of the display unit 15a, the area desired by the user can always be displayed at the position where it is most easy to see. That is, for example, as the image is enlarged, the target area is not pushed out of the display screen, and as the image is reduced, the target area is not lost. Furthermore, since the operation of enlargement and movement can be performed by one operation, operability is improved.
[0042]
The above description of the present embodiment is an example of a preferred navigation device 1 according to the present invention, and the present invention is not limited to this.
In the present embodiment, the case where the trajectory input by the touch instruction is substantially circular has been described as an example. However, the present invention is not limited to this, and it is possible to input the instruction using trajectories of various other shapes. . For example, when an input is performed by a linear touch instruction on the touch panel 15b, the enlargement or reduction is determined according to the input direction, and the scale factor is set according to the length of the input straight line. It may be configured to calculate and display map information. Further, similarly to the method described above, the X and Y coordinates of the start point and the end point of the straight line may be calculated, and the scale factor may be calculated based on the distance from the outer periphery of the touch panel 15b. Further, the center of the input straight line may be calculated, and the calculated center may be arranged at the center of the display unit 15a and displayed.
[0043]
Further, in the present embodiment, the scale is determined according to the shortest separation distance from the outer periphery of the touch panel to the substantially circular locus. However, the present invention is not limited to this, and the scale is determined according to the longest separation distance. May be determined. In addition, the enlargement or reduction is determined according to the left and right direction of the input operation, but it is needless to say that these can be arbitrarily changed.
[0044]
In addition, the detailed configuration and detailed operation of the navigation device 1 according to the present embodiment can be appropriately changed without departing from the spirit of the present invention.
[0045]
【The invention's effect】
According to the present invention, it is possible to enlarge or reduce map information at a scale desired by a user and display the map information promptly on the display unit by a simple operation on the display unit without requiring complicated operations. .
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a navigation device 1 according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an input operation of an enlargement instruction on a display unit 15a and a method of determining a scale factor.
FIG. 3 is a diagram illustrating an input operation of a reduction instruction on a display unit 15a and a method of determining a reduction ratio.
FIG. 4 is a flowchart illustrating a scaling process executed by a CPU 11 of FIG. 1;
[Explanation of symbols]
1 navigation device 11 CPU
12 GPS unit 12a GPS antenna 13 Autonomous navigation unit 14 Memory 15 Input display device 15a Display unit 15b Touch panel 16 Storage device 16a Map information DB

Claims (4)

任意の縮尺率により表示可能な地図情報を記憶する記憶手段から前記地図情報を取得して表示手段に表示させる表示制御手段と、前記表示手段の表面における入力操作に応じた位置座標を検出する位置検出手段と、を備える入力表示装置において、
前記位置検出手段により検出された入力操作の位置座標が、所定の軌跡を描いているか否かを判別する判別手段と、
前記判別手段により前記入力操作の位置座標が所定の軌跡を描いていると判別された場合に、前記位置検出手段により検出された入力操作の操作方向を検出する方向検出手段と、を備え、
前記表示制御手段は、前記方向検出手段により検出された入力操作の操作方向に応じて、表示手段に表示されている地図情報を拡大又は縮小して表示手段に表示させることを特徴とする入力表示装置。
Display control means for acquiring the map information from a storage means for storing map information which can be displayed at an arbitrary scale, and displaying the map information on a display means, and a position for detecting position coordinates corresponding to an input operation on the surface of the display means An input display device comprising:
Determining means for determining whether the position coordinates of the input operation detected by the position detecting means are drawing a predetermined trajectory,
Direction detecting means for detecting an operation direction of the input operation detected by the position detecting means, when it is determined by the determining means that the position coordinates of the input operation is drawing a predetermined locus,
The input display, wherein the display control means enlarges or reduces the map information displayed on the display means and displays the map information on the display means according to the operation direction of the input operation detected by the direction detection means. apparatus.
前記位置検出手段により検出された入力操作の位置座標に基づいて、前記入力操作の軌跡から前記表示手段の外周辺までの離間距離を算出する距離算出手段と、
前記距離算出手段により演算された前記入力操作の軌跡から前記表示手段の外周辺までの離間距離及び前記方向検出手段により検出された操作方向に基づいて、地図情報の縮尺率を算出する縮尺率算出手段と、を備え、
前記表示制御手段は、前記縮尺率算出手段により算出された縮尺率に基づいて、前記地図情報を拡大又は縮小して前記表示手段に表示させることを特徴とする請求項1記載の入力表示装置。
Distance calculation means for calculating a separation distance from the trajectory of the input operation to the outer periphery of the display means based on the position coordinates of the input operation detected by the position detection means;
Scale ratio calculation for calculating a scale ratio of map information based on a separation distance from the trajectory of the input operation calculated by the distance calculation unit to an outer periphery of the display unit and an operation direction detected by the direction detection unit. Means,
2. The input display device according to claim 1, wherein the display control unit enlarges or reduces the map information and displays the map information on the display unit based on the scale calculated by the scale calculation unit. 3.
前記位置検出手段により検出された入力操作の位置座標に基づいて、前記入力操作の軌跡の略中心を算出する中心算出手段を備え、
前記表示制御手段は、前記中心算出手段により算出された前記入力操作の軌跡の略中心に表示されていた地図情報を前記表示手段の中心に配置して表示させることを特徴とする請求項1又は2記載の入力表示装置。
A center calculating unit that calculates an approximate center of the trajectory of the input operation based on the position coordinates of the input operation detected by the position detecting unit;
2. The display control unit according to claim 1, wherein the map information displayed substantially at the center of the trajectory of the input operation calculated by the center calculation unit is displayed at the center of the display unit. 2. The input display device according to 2.
任意の縮尺率により表示可能な地図情報を記憶する記憶手段から前記地図情報を取得して表示手段に表示させる工程と、前記表示手段の表面における入力操作に応じた位置座標を検出する工程と、を含む入力表示方法において、
前記検出された入力操作の位置座標が、所定の軌跡を描いているか否かを判別する工程と、
前記入力操作の位置座標が所定の軌跡を描いていると判別された場合に、前記検出された入力操作の操作方向を検出する工程と、
前記検出された入力操作の操作方向に応じて、表示手段に表示されている地図情報を拡大又は縮小して表示手段に表示させる工程と、
を含むことを特徴とする入力表示方法。
A step of acquiring the map information from a storage unit that stores map information that can be displayed at an arbitrary scale, and displaying the map information on a display unit, and a step of detecting position coordinates according to an input operation on a surface of the display unit, In the input display method including
A step of determining whether or not the position coordinates of the detected input operation are drawing a predetermined trajectory;
A step of detecting an operation direction of the detected input operation when it is determined that the position coordinates of the input operation are drawing a predetermined trajectory;
According to the operation direction of the detected input operation, a step of enlarging or reducing the map information displayed on the display means and displaying the map information on the display means,
An input display method comprising:
JP2002182912A 2002-06-24 2002-06-24 Input display device and input display method Expired - Fee Related JP3893325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002182912A JP3893325B2 (en) 2002-06-24 2002-06-24 Input display device and input display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002182912A JP3893325B2 (en) 2002-06-24 2002-06-24 Input display device and input display method

Publications (2)

Publication Number Publication Date
JP2004028678A true JP2004028678A (en) 2004-01-29
JP3893325B2 JP3893325B2 (en) 2007-03-14

Family

ID=31179282

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002182912A Expired - Fee Related JP3893325B2 (en) 2002-06-24 2002-06-24 Input display device and input display method

Country Status (1)

Country Link
JP (1) JP3893325B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006220884A (en) * 2005-02-10 2006-08-24 Xanavi Informatics Corp Map display method and navigation system
JP2007279638A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Navigation device
JP2009237895A (en) * 2008-03-27 2009-10-15 Denso It Laboratory Inc Map display system, map display method, and program
JP2010136187A (en) * 2008-12-05 2010-06-17 Toshiba Corp Mobile terminal
JP2011039845A (en) * 2009-08-12 2011-02-24 Jvc Kenwood Holdings Inc Display, setting device, program and display method
WO2013027441A1 (en) * 2011-08-22 2013-02-28 楽天株式会社 Image display device, image display method, image display program, and computer-readable recording medium whereon program is recorded
JP2014102850A (en) * 2009-06-10 2014-06-05 Qualcomm Inc User interface methods providing continuous zoom functionality
US8941606B2 (en) 2009-09-17 2015-01-27 Lenovo Innovations Limited (Hong Kong) Electronic apparatus using touch panel and setting value modification method of same
US9836208B2 (en) 2007-08-21 2017-12-05 Volkswagen Ag Method for displaying information in a motor vehicle with a variable scale and display device
JP2021064100A (en) * 2019-10-11 2021-04-22 コニカミノルタ株式会社 Image processing apparatus

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4642497B2 (en) * 2005-02-10 2011-03-02 クラリオン株式会社 Navigation device
JP2006220884A (en) * 2005-02-10 2006-08-24 Xanavi Informatics Corp Map display method and navigation system
US7844395B2 (en) 2005-02-10 2010-11-30 Xanavi Informatics Corporation Map display having scaling factors on the display and selecting scaling factors by touch sense
JP2007279638A (en) * 2006-04-12 2007-10-25 Xanavi Informatics Corp Navigation device
US9836208B2 (en) 2007-08-21 2017-12-05 Volkswagen Ag Method for displaying information in a motor vehicle with a variable scale and display device
JP2009237895A (en) * 2008-03-27 2009-10-15 Denso It Laboratory Inc Map display system, map display method, and program
JP2010136187A (en) * 2008-12-05 2010-06-17 Toshiba Corp Mobile terminal
US8405682B2 (en) 2008-12-05 2013-03-26 Fujitsu Mobile Communications Limited Mobile communication device and method for scaling data up/down on touch screen
JP2014102850A (en) * 2009-06-10 2014-06-05 Qualcomm Inc User interface methods providing continuous zoom functionality
JP2011039845A (en) * 2009-08-12 2011-02-24 Jvc Kenwood Holdings Inc Display, setting device, program and display method
US8941606B2 (en) 2009-09-17 2015-01-27 Lenovo Innovations Limited (Hong Kong) Electronic apparatus using touch panel and setting value modification method of same
WO2013027441A1 (en) * 2011-08-22 2013-02-28 楽天株式会社 Image display device, image display method, image display program, and computer-readable recording medium whereon program is recorded
JP2013044802A (en) * 2011-08-22 2013-03-04 Rakuten Inc Image display unit, image display method, image display program and computer readable recording medium for recording program
US9389766B2 (en) 2011-08-22 2016-07-12 Rakuten, Inc. Image display device, image display method, image display program, and computer-readable recording medium for providing zoom functionality
JP2021064100A (en) * 2019-10-11 2021-04-22 コニカミノルタ株式会社 Image processing apparatus

Also Published As

Publication number Publication date
JP3893325B2 (en) 2007-03-14

Similar Documents

Publication Publication Date Title
US6006161A (en) Land vehicle navigation system with multi-screen mode selectivity
JPH08339162A (en) Map plotting method
JP2001021376A (en) On-vehicle navigation system
JP3798489B2 (en) Car navigation system
JP2004212255A (en) Navigation device
JP3893323B2 (en) Navigation input display device and navigation input display method
JP2006023712A (en) Navigation apparatus and its map-indication control program
JP2000146604A (en) Car navigation system and method therefor
JP5328280B2 (en) Navigation device
JP3893325B2 (en) Input display device and input display method
EP0510915A2 (en) Vehicular navigation apparatus
JP3824307B2 (en) Navigation device and display method thereof
JP3222616B2 (en) Car navigation system
JP2008139699A (en) Display device
JP4748778B2 (en) Navigation device
JP2002243468A (en) Navigation device and display method thereof
JP3171216B2 (en) Map display method for in-vehicle navigator
JP2005308661A (en) Navigation system
JPH02140788A (en) Map display method
JPH06273184A (en) Displaying method for route guiding apparatus of vehicle
JP3812634B2 (en) Road map display device
JP2004233219A (en) Vehicle-mounted navigation apparatus and map image display method
JP2006208293A (en) Navigation system, navigation method, and navigation program
JPH10197259A (en) Car navigation system
JP2002188929A (en) Automobile navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060328

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061211

R150 Certificate of patent or registration of utility model

Ref document number: 3893325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111215

Year of fee payment: 5

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121215

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131215

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees