JP7830195B2 - 情報表示装置およびプログラム - Google Patents

情報表示装置およびプログラム

Info

Publication number
JP7830195B2
JP7830195B2 JP2022060315A JP2022060315A JP7830195B2 JP 7830195 B2 JP7830195 B2 JP 7830195B2 JP 2022060315 A JP2022060315 A JP 2022060315A JP 2022060315 A JP2022060315 A JP 2022060315A JP 7830195 B2 JP7830195 B2 JP 7830195B2
Authority
JP
Japan
Prior art keywords
information
display
touch
display device
display mode
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022060315A
Other languages
English (en)
Other versions
JP2023150953A (ja
Inventor
拓真 塩口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Faurecia Clarion Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd, Faurecia Clarion Electronics Co Ltd filed Critical Clarion Co Ltd
Priority to JP2022060315A priority Critical patent/JP7830195B2/ja
Priority to US18/181,050 priority patent/US12511031B2/en
Publication of JP2023150953A publication Critical patent/JP2023150953A/ja
Application granted granted Critical
Publication of JP7830195B2 publication Critical patent/JP7830195B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional [3D], e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Digital Computer Display Output (AREA)

Description

本発明は、情報表示装置およびプログラムに関する。
特許文献1には、ナビゲーション装置に関し、「タッチパネルが設けられた表示モニタに表示された道路地図を押圧操作して設定された指定経路にしたがって経路誘導中の場合、道路地図には経路周辺に存在する施設の施設マークだけを表示する。制御回路において経路演算して設定した推奨経路にしたがって経路誘導中の場合、道路地図には乗員が選択した所定の施設の施設マークだけを表示する」と記載されている。
特開2007-17268号公報
特許文献1には、ユーザが地図上に表示させたいアイコンの施設種類を設定することで、設定した施設を示すアイコンを地図上に表示させる技術が開示されている。かかる設定にあたり、ユーザは、表示させたいアイコンの施設種類を選択入力する必要がある。また、異なる施設種類のアイコンを表示させたい場合、ユーザは、都度、施設種類を選択し直すことが必要となる。しかしながら、このような設定のための操作は、運転中の操作として煩雑であり好ましくない。
そこで、本発明は、直感的な操作により、表示させたいオブジェクトの情報をより見やすい表示形態で表示させることを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記の課題を解決する本発明の一態様に係る情報表示装置は、タッチパネルに対するタッチ操作を検知する操作検知部と、所定の検索範囲内にあるオブジェクトの情報を取得するオブジェクト情報取得部と、表示領域に表示する画面情報を生成する表示情報生成部と、を備え、前記表示情報生成部は、複数種類のオブジェクトの情報を自端末位置周辺に配置した第1の表示モードで表示するための画面情報を生成し、前記操作検知部により前記タッチパネルに対する所定のタッチ操作が検知された場合、前記オブジェクト情報取得部は、前記所定のタッチ操作に対応付けられた種類のオブジェクトである対象オブジェクトの情報を取得し、前記表示情報生成部は、前記対象オブジェクトの情報を自端末位置周辺に配置し、前記対象オブジェクト以外の前記オブジェクトの情報は非表示とする第2の表示モードで表示するための画面情報を生成する。
本発明によれば、直感的な操作により、表示させたいオブジェクトの情報をより見やすい表示形態で表示させることができる。
なお、上記以外の課題、構成および効果等は、以下の実施形態の説明により明らかにされる。
情報表示装置の概略構成の一例を示した図である。 タッチ位置およびスワイプ操作と、第2の表示モードで表示する対象オブジェクトの種類と、の関係を示した図である。 第1の表示モードの配色と、第2の表示モードの配色と、の比較例を示した図である。 情報表示処理の一例を示したフロー図である。 第1の表示モードから第2の表示モードに切り替わる際の画面遷移の一例を示した図である。 操作受付処理の一例を示したフロー図である。 第2の表示モードで表示されている画面情報へのタッチ操作に関する画面例を示した図である。 対象オブジェクトを経由地に設定する操作の一例を示した画面例である。 第1の変形例に係るタッチ位置およびスワイプ操作と、第2の表示モードで表示する対象オブジェクトの種類と、の関係を示した図である。 第2の変形例に係るタッチ位置およびスワイプ操作と、第2の表示モードで表示する対象オブジェクトの種類と、の関係を示した図である。 タッチ開始位置の検知領域と、対応する操作補助アイコンと、を示した図である。 第1の表示モードから第2の表示モードに遷移した際の画面情報の一例を示した図である。 スピードメータの液晶ディスプレイについて、第1の表示モードから第2の表示モードに遷移した際の画面情報の一例を示した図である。 情報表示装置のハードウェア構成の一例を示した図である。
以下、本発明の各実施形態について図面を用いて説明する。
<第一実施形態>
図1は、本実施形態に係る情報表示装置100の概略構成の一例を示した図である。情報表示装置100は、例えば地図の表示や地図情報121を用いた経路誘導などのナビゲーション機能あるいはオーディオ機能や電話機能を実現するためのアプリケーションソフトウェア(以下では、「アプリ」という場合がある)がインストールされた車載のディスプレイオーディオである。なお、情報表示装置100は、例えば推奨経路の探索および経路誘導あるいは道路交通情報の表示といったナビゲーション機能に特化したナビゲーション装置であっても良く、種々の機能を実行するためのアプリがインストールされたスマートフォンやタブレット端末であっても良い。
本実施形態に係る情報表示装置100は、地図や地図上の誘導経路を表示する際、ガソリンスタンドやコンビニエンスストアといった各種のオブジェクト(本実施形態では、主に施設や場所など)を示すアイコンを地図上に配置した通常の表示モード(以下、「第1の表示モード」という場合がある)の画面情報を表示する。また、情報表示装置100は、ディスプレイに搭載されているタッチパネルに対して所定のタッチ操作を検知した場合、タッチ操作に応じた種類のオブジェクト(以下、「対象オブジェクト」という場合がある)を示すアイコンを地図上の自端末位置周辺(自端末である情報表示装置100が搭載された自車位置の周辺または情報表示装置100であるスマートフォンを所持するユーザ位置の周辺)に配置した第2の表示モードの画面情報を表示する。
なお、第2の表示モードは、第1の表示モードで表示される複数種類のオブジェクトからタッチ操作に対応付けられている対象オブジェクト以外のオブジェクトの表示を制限(非表示)した表示モードである。すなわち、表示モードが通常の表示モードである第1の表示モードから第2の表示モードに遷移すると、第2の表示モードに表示される画面情報には、タッチ操作に対応する対象オブジェクトのアイコンが地図上に表示され、それ以外のオブジェクトを表すアイコンは表示されなくなる。
このように、情報表示装置100は、タッチ操作に応じて通常の表示モードである第1の表示モードと、対象オブジェクトの情報を表示する第2の表示モードと、をユーザのタッチ操作に応じて切り替え、該当する表示モードの画面情報を表示する。こうすることで、ユーザは、タッチパネルへのタッチ操作といった直感的な操作により、確認したいオブジェクトの情報を地図上に表示させることができる。そのため、情報表示装置100の操作性が向上し、安全運転の実現にも寄与することができる。
上記の処理を実行するために、情報表示装置100は、処理部110と、記憶部120と、通信部130と、を有している。
処理部110は、情報表示装置100が実行する様々な処理を行う機能部である。具体的には、処理部110は、入力受付部111と、操作検知部112と、オブジェクト情報取得部113と、表示情報生成部114と、経路探索部115と、を有している。
入力受付部111は、情報表示装置100が備える入力装置(本実施形態では、タッチパネルやハードスイッチあるいは車両のセンターコンソールに配置されているコントローラ)を介して、ユーザからの指示入力を受け付ける機能部である。
操作検知部112は、タッチパネルに対するタッチ操作を検知する機能部である。具体的には、操作検知部112は、タッチ状態を維持したまま指をスライド移動するスワイプ操作やドラッグ操作などタッチパネルに対する各種のタッチ操作を検知する。
また、操作検知部112は、タッチパネルの所定位置に対するタッチを検知した後に、かかるタッチ位置に対応する所定方向へのスワイプ操作を検知すると、記憶部120内の情報(後述のタッチ操作設定情報122)を用いて、当該タッチ位置およびスワイプ方向に対応する対象オブジェクトの種類を特定する。
図2は、タッチ位置およびスワイプ操作と、第2の表示モードで表示する対象オブジェクトの種類と、の関係を示した図である。操作検知部112は、ディスプレイのエスカッションより内側に設けられている表示領域において、四辺に沿った所定幅の領域(タッチ開始位置の検知領域)A~Dのいずれかに対するタッチを検知した後に、所定方向へのスワイプ操作がされたことを検知すると、当該タッチ位置およびスワイプ方向に対応する対象オブジェクトの種類を特定する。
具体的には、操作検知部112は、領域Aに対するタッチを検知した後に、対辺である領域Cの方向(右方向)へのスワイプ操作を検知すると、当該タッチ位置およびスワイプ方向に対応付けられている対象オブジェクトの種類(本実施形態では、「接触充電タイプ」の充電方式に対応する電気スタンド)を特定する。また、操作検知部112は、領域Bに対するタッチを検知した後に、対辺である領域Dの方向(下方向)へのスワイプ操作を検知すると、当該タッチ位置およびスワイプ方向に対応付けられている対象オブジェクトの種類(本実施形態では、「非接触充電タイプ」の充電方式に対応する電気スタンド)を特定する。
また、操作検知部112は、領域Cに対するタッチを検知した後に、対辺である領域Aの方向(左方向)へのスワイプ操作を検知すると、当該タッチ位置およびスワイプ方向に対応付けられている対象オブジェクトの種類(本実施形態では、「電池交換タイプ」の充電方式に対応する電気スタンド)を特定する。また、操作検知部112は、領域Dに対するタッチを検知した後に、対辺である領域Bの方向(上方向)へのスワイプ操作を検知すると、当該タッチ位置およびスワイプ方向に対応付けられている対象オブジェクトの種類(本実施形態では、全タイプの充電方式に対応する電気スタンド)を特定する。
図1に戻って説明する。オブジェクト情報取得部113は、操作検知部112により特定された種類の対象オブジェクトの中から、第2の表示モードで表示する対象オブジェクトの情報を取得する機能部である。具体的には、オブジェクト情報取得部113は、特定された種類の対象オブジェクトの中から、予め設定されている自車位置付近の検索範囲に含まれる対象オブジェクトの情報を取得する。
検索範囲の一例としては、車両が目的地などに向かって走行中の場合、車両の前方走行方向に設定される所定の中心角(例えば、45度~90度)を有する扇状の内側範囲である。また、車両が駐車中の場合、検索範囲は、自車位置を中心とした全方位である。なお、いずれの場合も、地図の表示縮尺率に応じてディスプレイの表示領域内に位置する対象オブジェクトが検索されれば良い。このような検索範囲の設定情報(図示せず)は、予め記憶部120に記憶されていれば良い。
また、オブジェクト情報取得部113は、検索範囲に含まれる対象オブジェクトの位置情報や施設情報を記憶部120内の情報(後述のオブジェクト情報123)から取得する。なお、オブジェクト情報取得部113は、通信部130を介して、外部装置400(例えば、情報配信サーバ)から対象オブジェクトの情報を取得しても良い。
表示情報生成部114は、ディスプレイに表示する画面情報(表示情報)を生成する機能部である。具体的には、表示情報生成部114は、通常の表示モードである第1の表示モードにおいて、ガソリンスタンドなど複数種類のオブジェクトを地図上に配置した画面情報を生成する。また、表示情報生成部114は、操作検知部112により所定のタッチ操作が検知された場合、タッチ位置およびスワイプ操作に対応する種類の対象オブジェクトを地図上に配置した第2の表示モードにより表示される画面情報を生成する。
また、表示情報生成部114は、記憶部120内の情報(後述の配色設定情報124)を用いて、生成した画面情報の配色を決定する。なお、第2の表示モードの画面情報には、第1の表示モードと異なる配色が施される。
図3は、第1の表示モードの配色と、第2の表示モードの配色と、の比較例を示した図である。図示するように、第2の表示モードで表示される地図は、対象オブジェクトがより強調される配色となっている。具体的には、第2の表示モードで表示される地図の背景色には、対象オブジェクトのアイコンが強調されるように、第1の表示モードに比べて暗い配色(図示する例では黒色)が適用されている。また、対象オブジェクトL~Mは、自車位置から近い順に異なる配色が施され、識別しやすい表示となっている。
経路探索部115は、例えばダイクストラ法といった所定の方法により、ユーザから受け付けた出発地から目的地までを結ぶ推奨経路を探索する機能部である。また、経路探索部115は、地図情報121および探索した推奨経路に基づき、目的地までの到達距離、到着予想時間、経由地が追加された場合の再経路探索、経由地を経た目的地までの到達距離、到着予想時間などを算出する。
次に、記憶部120について説明する。記憶部120は、様々な情報を記憶する機能部である。具体的には、記憶部120は、地図情報121と、タッチ操作設定情報122と、オブジェクト情報123と、配色設定情報124と、を記憶している。
地図情報121は、地図を細分化した所定領域ごとに道路の詳細情報を格納したリンク情報など、地図の構成に関する種々の情報を有している。
タッチ操作設定情報122は、タッチパネルに対するタッチ操作と、タッチ操作に応じて第2の表示モードで表示される対象オブジェクトの種類と、が対応付けられて登録されている情報である。具体的には、タッチ操作設定情報122では、タッチ位置およびスワイプ方向(例えば、タッチ位置=図2の領域A、スワイプ方向=右方向)と、対応する対象オブジェクトの種類(図2の例では、「接触充電タイプ」の充電方式に対応する電気スタンド)と、が対応付けられて登録されている。
オブジェクト情報123は、地図上に表示されるオブジェクトに関する情報である。具体的には、オブジェクト情報123には、例えばオブジェクトの位置情報や施設情報などが登録されている。
配色設定情報124は、ディスプレイに表示する画面情報の配色に関する設定情報である。具体的には、配色設定情報124には、地図の背景や道路、オブジェクトを示すアイコンなどの配色に関する設定が登録されている。
次に、通信部130について説明する。通信部130は、例えばインターネットなどの通信回線網Nを介して外部装置400との間で情報通信を行う機能部である。例えば、通信部130は、情報配信サーバなどからオブジェクトに関する情報を取得する。また、通信部130は、CAN(Controller Area Network)200を介してECU(Electronic Control Unit)や各種の車載装置から出力された情報を取得する。
以上、情報表示装置100の機能構成の一例について説明した。
[動作の説明]
次に、情報表示装置100で実行される情報表示処理について説明する。
図4は、情報表示処理の一例を示したフロー図である。図5は、第1の表示モードから第2の表示モードに切り替わる際の画面遷移の一例を示した図である。なお、情報表示処理は、例えば情報表示装置100の起動と共に開始される。
処理が開始されると、表示情報生成部114は、操作対象の機能(本実施形態では、例えば地図表示機能あるいは経路誘導機能)に関し、第1の表示モードの画面情報を表示する(ステップS001)。具体的には、表示情報生成部114は、地図上に各種のオブジェクトを示すアイコンを配置した第1の表示モードの画面情報を生成する。この時、表示情報生成部114は、配色設定情報124を用いて、第1の表示モードにおける地図の背景、道路およびオブジェクトを示すアイコンなどの配色を決定する。これにより、図5(a)に示す画面情報が表示される。
次に、操作検知部112は、所定のタッチ操作を検知したか否かを判定する(ステップS002)。具体的には、操作検知部112は、図2に示す領域A~Dのいずれかに対するタッチを検知した後に、所定方向へのスワイプ操作がされたことを検知したか否かを判定する。
そして、かかるタッチ操作を検知していないと判定した場合(ステップS002でNo)、操作検知部112は、再度ステップS002の処理を行う。一方で、かかるタッチ操作を検知したと判定した場合(ステップS002でYes)、操作検知部112は、処理をステップS003に移行する。
ステップS003では、操作検知部112は、タッチ操作設定情報122を用いて、検知したタッチ操作に対応する対象オブジェクトの種類を特定する。
次に、オブジェクト情報取得部113は、特定された種類の対象オブジェクトの中から、所定の検索範囲内にある対象オブジェクトの情報を取得する(ステップS004)。具体的には、オブジェクト情報取得部113は、通信部130を介してECUから取得した情報に基づき車両の走行状態(走行中または駐車中)を特定し、特定した走行状態に対応する検索範囲を特定する。また、オブジェクト情報取得部113は、地図情報121およびオブジェクト情報123を用いて、特定した検索範囲に含まれる対象オブジェクトを特定し、特定した対象オブジェクトの位置情報などを取得する。
次に、表示情報生成部114は、第2の表示モードで表示する画面情報を生成する(ステップS005)。具体的には、表示情報生成部114は、特定された対象オブジェクトのアイコンを地図上に配置した画面情報を生成する。この時、表示情報生成部114は、配色設定情報124を用いて、第2の表示モードにおける地図の背景、道路およびオブジェクトを示すアイコンなどの配色を決定する。
次に、操作検知部112は、スワイプ操作によるタッチ位置が更新されたか否かを判定する(ステップS006)。そして、タッチ位置が更新されていないと判定した場合(ステップS006でNo)、操作検知部112は、再度ステップS006の処理を行う。一方で、タッチ位置が更新されたと判定した場合(ステップS006でYes)、操作検知部112は、処理をステップS007に移行する。
ステップS007では、表示情報生成部114は、更新されたタッチ位置に応じて第2の表示モードによる画面情報の表示範囲を更新する。具体的には、図5(b)に示すように、スワイプ操作によるタッチ位置が移動した場合(図示する例では右方向への移動)、表示情報生成部114は、その移動量に応じて第2の表示モードによる画面情報の表示領域を拡大し、当該表示領域に第2の表示モードによる画面情報を表示する。
次に、表示情報生成部114は、第2の表示モードによる表示切替が完了したか否かを判定する(ステップS008)。具体的には、表示情報生成部114は、スワイプ操作によるタッチ位置の更新により、表示領域の表示全体が第2の表示モードによる画面情報になったか否かを判定する。
そして、表示切替が完了していないと判定した場合(ステップS008でNo)、表示情報生成部114は、処理をステップS006に戻す。一方で表示切替が完了したと判定した場合(ステップS008でYes)、表示情報生成部114は、本フローの処理を終了する。
これにより、図5(c)に示す第2の表示モードによる画面情報がディスプレイに表示されることになる。なお、かかる画面情報には、対象オブジェクトの検索範囲を示す検索範囲設定アイコン10が表示されている。
次に、情報表示装置100で実行される操作受付処理について説明する。
図6は、操作受付処理の一例を示したフロー図である。図7は、第2の表示モードで表示されている画面情報へのタッチ操作に関する画面例を示した図である。なお、操作受付処理は、例えば第2の表示モードによる表示切替が完了した後(情報表示処理の終了後)に開始される。
処理が開始されると、操作検知部112は、第2の表示モードによる画面情報に表示されている検索範囲設定アイコンへのタッチ操作を受け付けたか否かを判定する(ステップS010)。
そして、かかるタッチ操作を受け付けていないと判定した場合(ステップS010でNo)、操作検知部112は、処理をステップS014に移行する。一方で、操作検知部112により検索範囲設定アイコンへのタッチ操作を受け付けたと判定された場合(ステップS010でYes)、オブジェクト情報取得部113は、タッチ操作によって対象オブジェクトの検索範囲が変更されたと認識し、タッチ操作に応じて変更された範囲を検索範囲に設定する(ステップS011)。また、オブジェクト情報取得部113は、変更後の検索範囲に含まれる対象オブジェクトの情報を取得する(ステップS012)。
なお、図7(a)、(b)に示すように、ユーザは、第2の表示モードの画面情報に表示されている検索範囲設定アイコンをタッチ操作(例えば、ドラッグ操作)することで、扇状の検索範囲の中心角を変更することができる。この時、操作検知部112はタッチパネルへのタッチ操作を検知し、表示情報生成部114はタッチ操作に応じて検索範囲設定アイコンの表示を更新する。
なお、表示情報生成部114は、検索範囲内に対象オブジェクトが存在しない場合、検索範囲内に少なくとも1以上の対象オブジェクトが含まれるように地図の縮尺を変更しても良い。地図の縮尺を変更することで表示領域内における検索範囲を実質的に拡大するためである。
次に、表示情報生成部114は、変更された検索範囲に含まれる対象オブジェクトのアイコンを地図上に表示した画面情報を表示し(ステップS013)、処理をステップS010に戻す。
また、ステップS014では、操作検知部112は、車両の現在地を示すカーマークへのタッチ操作を受け付けたか否かを判定する。具体的には、操作検知部112は、第2の表示モードによる画面情報に表示されているカーマークへのタッチ操作が行われ、対象オブジェクトの検索範囲が変更されたか否かを判定する。
そして、かかるタッチ操作を受け付けていないと判定した場合(ステップS014でNo)、操作検知部112は、処理をステップS016に移行する。一方で、操作検知部112によりカーマークへのタッチ操作を受け付けたと判定された場合(ステップS014でYes)、オブジェクト情報取得部113は、検索範囲を車両の全方位に変更し(ステップS015)、変更後の検索範囲に含まれる対象オブジェクトの情報を取得する(ステップS012)。
なお、図7(c)に示すように、ユーザは、車両の現在地を示すカーマークへのタッチ操作(タップ操作)することで、検索範囲を車両の全方位に変更することができる。この時、操作検知部112はタッチパネルへのタッチ操作を検知し、表示情報生成部114はタッチ操作に応じて検索範囲設定アイコンの表示を非表示に変更する。
また、ステップS016では、操作検知部112は、対象オブジェクトのアイコンへのタッチ操作(タップ操作)を受け付けたか否かを判定する。そして、かかるタッチ操作を検知していないと判定した場合(ステップS016でNo)、操作検知部112は、処理をステップS010に戻す。一方で、操作検知部112によりタッチ操作を受け付けたと判定された場合(ステップS016でYes)、経路探索部115は、タッチされた対象オブジェクトを経由地に設定した場合の目的地への到着予想時間を計算する(ステップS017)。なお、経路探索部115は、電気スタンドでの充電時間を考慮した目的地への到着予想時間を算出する。
図8は、対象オブジェクトを経由地に設定する操作の一例を示した画面例である。図8(a)に示すように、対象オブジェクトのアイコンへのタッチ操作がされると、表示情報生成部114は、算出された目的地への到着予想時間を表示し、対象オブジェクトを経由地に追加するか否かを確認するアイコン20を表示する。
また、入力受付部111は、対象オブジェクトを経由地に追加する指示をユーザから受け付けたか否かを判定する(ステップS018)。そして、指示を受け付けていないと判定した場合(ステップS018でNo)、入力受付部111は、処理をステップS010に戻す。一方で、指示を受け付けたと判定した場合(ステップS018でYes)、経路探索部115は、タッチされた対象オブジェクトを経由地とする推奨経路を設定する(ステップS019)。また、表示情報生成部114は、第2の表示モードから第1の表示モードに切り替え、第1の表示モードによる画面情報を表示して(ステップS020)、処理を図4のステップS001に戻す。
図8(b)に示すように、タッチした対象オブジェクトを経由地として設定する指示を受け付けると、表示情報生成部114は、第1の表示モードによる画面情報を表示する。なお、かかる対象オブジェクトのアイコンLは、経由地として識別可能な表示形態で表示される。
以上、情報表示処理および操作受付処理について説明した。
このような情報表示装置100によれば、直感的な操作により、表示させたいオブジェクトの情報をより見やすい表示形態で表示させることができる。特に、情報表示装置100では、タッチ操作(スワイプ操作)に応じて所定種類の対象オブジェクトの情報が地図上に配置された第2の表示モードによる画面情報が表示される。そのため、ユーザは、タッチ操作という直感的な操作に基づき、表示させたいオブジェクトの情報が表示された画面情報を確認することができる。
また、情報表示装置100は、通常の第1の表示モードよりも対象オブジェクトがより強調される背景色で第2の表示モードの地図を表示する。これにより、ユーザは、表示された対象オブジェクトの情報をより認識しやすくなる。
また、情報表示装置100は、第2の表示モードで表示した対象オブジェクトをワンタッチで経由地に追加することができる。そのため、ユーザは、煩雑な操作を求められることなく、簡単な操作で対象オブジェクトを経由地に追加することができる。
また、情報表示装置100は、所定の検索範囲内に絞って対象オブジェクトの有無を検索ため、処理負担を著しく軽減することができる。
<第一実施形態の変形例>
前述の実施形態では、図2に示す各領域A~Dのいずれかに対するタッチを検知した後に、所定方向へのスワイプ操作がされたことを検知すると、3種類の充電方式に対応する電気スタンドまたは全タイプの充電方式に対応する電気スタンドが対象オブジェクトとして特定され、第2の表示モードで表示された。しかしながら、本発明はこれに限られるものではなく、タッチ位置およびスワイプ方向の組み合わせに対して様々な種類のオブジェクトを対象オブジェクトに割り当てることができる。
図9は、第1の変形例に係るタッチ位置およびスワイプ操作と、第2の表示モードで表示する対象オブジェクトの種類と、の関係を示した図である。図示するように、第1の変形例では、タッチ位置およぶスワイプ方向の組み合わせに対応する対象オブジェクトとして、例えば「充電施設付きガソリンスタンド」、「駐車場」、「コンビニエンスストア」および「駐車場付きレストラン」が割り当てられている。
そのため、例えば領域Bに対するタッチを検知した後に、対辺である領域Dの方向(下方向)へのスワイプ操作を検知すると、当該タッチ位置およびスワイプ方向に対応付けられている「駐車場」が対象オブジェクトの種類として特定され、第2の表示モードでは駐車場が地図上に配置された画面情報が表示される。
このような情報表示装置100によれば、様々な種類のオブジェクトをスワイプ操作で特定される対象オブジェクトに割り当てることができるため、ユーザビリティを向上させることができる。
また、スワイプ操作におけるタッチ開始位置の検知領域は図2に示す領域A~Dに限られるものではなく、表示領域の四辺に沿った所定幅の領域O、P、QおよびRと、四隅S、T、UおよびVの8つの領域であっても良い。
図10は、第2の変形例に係るタッチ位置およびスワイプ操作と、第2の表示モードで表示する対象オブジェクトの種類と、の関係を示した図である。図示するように、第2の変形例では、スワイプ操作におけるタッチ開始位置の検知領域としてO~Vが設定されている。
また、タッチ位置およぶスワイプ方向の組み合わせに対応する対象オブジェクトとして、例えば「充電施設付きガソリンスタンド」、「駐車場」、「コンビニエンスストア」、「駐車場付きレストラン」、「駐車場付きファーストフード」、「駐車場付きカフェ」、「公園」および「宿泊施設」が割り当てられている。
そのため、例えば領域Oに対するタッチを検知した後に、対辺である領域Qの方向(右方向)へのスワイプ操作が検知されると、当該タッチ位置およびスワイプ方向に対応付けられている「充電施設付きガソリンスタンド」が対象オブジェクトの種類として特定される。また、例えば領域Sに対するタッチを検知した後に、対角である領域Uの方向(右斜め下方向)へのスワイプ操作が検知されると、当該タッチ位置およびスワイプ方向に対応付けられている「駐車場付きファーストフード」が対象オブジェクトの種類として特定される。
なお、他のタッチ開始位置およびスワイプ方向の各組み合わせも同様に、タッチ開始位置に対して対辺または対角方向へのスワイプ操作が検知されると、当該タッチ位置およびスワイプ方向に対応付けられている対象オブジェクトの種類が特定される。
このような情報表示装置100によれば、より多くの種類のオブジェクトをスワイプ操作で特定される対象オブジェクトに割り当てることができるため、ユーザビリティを向上させることができる。
なお、上記の実施形態および変形例において、タッチ開始位置の検知領域に対するタッチ操作が検知された場合、当該タッチ開始位置に対応する種類の対象オブジェクトを示すアイコンを操作補助として表示するようにしても良い。
図11は、タッチ開始位置の検知領域と、対応する操作補助アイコンと、を示した図である。図示するように、例えばタッチ開始位置の検知領域Oに対するタッチ操作が行われた場合、当該タッチ開始位置に対応する「充電施設付きガソリンスタンド」を示す操作補助アイコン510がタッチ位置付近に表示される。また、同様に、タッチ開始位置の検知領域Uに対するタッチ操作が行われた場合、当該タッチ開始位置に対応する「公園」を示す操作補助アイコン520がタッチ位置付近に表示される。なお、他のタッチ開始位置の検知領域に対するタッチ操作が行われた場合も同様に、対応する種類の対象オブジェクトを示す操作補助アイコンが表示される。
このような情報表示装置100によれば、タッチ位置に対応する対象オブジェクトを示す操作補助アイコンが表示される。これにより、第2の表示モードで表示させたい対象オブジェクトの種類に対応するタッチ開始位置を覚えていなくても、対象オブジェクトを示す操作補助アイコンに基づき、所望の対象オブジェクトを表示させるためのスワイプ操作を行うことができる。
<第二実施形態>
第二実施形態に係る情報表示装置100は、自車位置を中心とした車両周囲の映像を様々な角度から表示することができる、いわゆる3D View(Three-Dimensional View)機能を有しているディスプレイオーディオなどの車載器である。具体的には、情報表示装置100は、車両に搭載されている複数の車載カメラから取得した映像(または画像)を用いて画像処理を行い、自車位置周辺の様子(障害物の有無などの様子)を映し出した3D View映像を生成および表示する。このような3D View映像は、3D View表示機能における通常の表示モードである第1の表示モードにより表示される。なお、3D View映像には、自車と共に、自端末位置周辺(自端末である情報表示装置100が搭載された自車位置の周辺)にある複数種類のオブジェクト(例えば、施設、車両、および、歩行者など)を示す情報も含まれている。
また、本実施形態に係る情報表示装置100は、車両に搭載されているLIDER(Light Detection and Ranging)センサからの出力情報を用いて、車両周囲の地形を特定する。また、情報表示装置100は、特定した地形の描画画像上に自車の3D画像と、施設や動体といった現在位置周辺にある対象オブジェクトと、を配置した地形情報映像を生成および表示する。このような、地形情報映像は、3D View表示機能における第2の表示モードにより表示される。なお、地形情報映像には、自車の3D画像と共に、自端末位置周辺(自端末である情報表示装置100が搭載された自車位置の周辺)の地形の描画画像と、対象オブジェクト(後述するように、タッチ操作に対応する施設、場所および動体など)と、が表示される。一方で、地形情報映像には、対象オブジェクト以外のオブジェクトを示す情報は表示されない。
なお、3D View映像や地形情報映像の生成に用いる車両周囲の映像やセンサ情報(測距情報)は、通信部130がCAN200を介して取得する。また、表示情報生成部114は、通信部130を介して取得したこれらの情報を用いて、3D View映像および地形情報映像を生成する。
なお、第1の表示モードから第2の表示モードへの切り替えは、第一実施形態と同様に、所定のタッチ操作(スワイプ操作)が検知されると実行される。それに伴い、3D View映像から地形情報映像にディスプレイの表示が切り替わる。なお、地形情報映像は、第1の表示モードにより表示されていた3D View映像と同一の視点から見た場合の映像が生成される。
また、第一実施形態と同様に、ディスプレイの表示領域にはタッチ開始位置の検知領域A~Dが設定され、タッチ位置およびスワイプ方向の組み合わせに対応する対象オブジェクトが割り当てられている。具体的には、例えばタッチ開始位置:領域A、スワイプ方向:右方向というタッチ操作の組み合わせに対応する対象オブジェクトには、例えば「コンビニエンスストア」が割り当てられている。また、タッチ開始位置:領域B、スワイプ方向:下方向というタッチ操作の組み合わせに対応する対象オブジェクトには、例えば「駐車場」が割り当てられている。
また、タッチ開始位置:領域C、スワイプ方向:左方向というタッチ操作の組み合わせに対応する対象オブジェクトには、例えば「駐車場付きレストラン」が割り当てられている。また、タッチ開始位置:領域D、スワイプ方向:上方向というタッチ操作の組み合わせに対応する対象オブジェクトには、例えば「動体」が割り当てられている。
このような場合、例えば領域Aに対するタッチを検知した後に、対辺の方向(右方向)へのスワイプ操作が検知されると、オブジェクト情報取得部113により、地図情報121およびオブジェクト情報123を用いて現在位置周辺にあるコンビニエンスストアの位置が特定される。なお、対象オブジェクトの検索範囲は、例えば自車の現在位置を中心とした所定範囲(例えば、半径50m~100mの範囲)に設定されれば良く、あるいは第一実施形態と同様の検索範囲が設定されても良い。また、地形情報映像における視点から見た範囲内に特定されたコンビニエンスストアがある場合、表示情報生成部114により、コンビニエンスストアを示すアイコンが自車位置周辺の該当する位置に配置された地形情報映像が生成および表示される。
また、例えば領域Dに対するタッチを検知した後に、対辺の方向(上方向)へのスワイプ操作が検知されると、例えばLIDERセンサや車載カメラにより検知された車両周辺の動体が対象オブジェクトとしてオブジェクト情報取得部113により特定される。なお、タッチ操作に対応付けられている対象オブジェクトが動体の場合、対象オブジェクトの検索範囲(検知範囲)は、LAIDERセンサの検知可能範囲(例えば、自車位置から10~100mの範囲)となる。また、地形情報映像における視点から見た範囲内に検知された動体がある場合、表示情報生成部114により、動体を示すアイコンが自車位置周辺の該当する位置に配置された地形情報映像が生成および表示される。
なお、タッチ開始位置の検知領域の設定位置や対応するスワイプ方向はこれに限定されるものではなく、第一実施形態で示した範囲内で適宜設定が可能である。
図12は、第1の表示モードから第2の表示モードに遷移した際の画面情報の一例を示した図である。図示するように、図12(a)に示す第1の表示モードでは、3D View映像が表示されている。また、所定のタッチ操作が検知されると、第2の表示モードに遷移し、車両周囲の地形の描画画像上600に自車の3D画像610と、タッチ操作に対応する対象オブジェクトのアイコン620を配置した地形情報映像が表示される。
なお、情報表示装置100がスピードメータの液晶ディスプレイについて表示制御を行う場合にも、本実施形態を適用することができる。
図13は、スピードメータの液晶ディスプレイについて、第1の表示モードから第2の表示モードに遷移した際の画面情報の一例を示した図である。図示するように、液晶ディスプレイ700には、車速701と、自車702および前方車両703と、が第1の表示モードにより表示されている。ここで、前述のタッチ操作が検知されると、第2の表示モードに遷移し、地形の描画画像710上に自車の3D画像702およびタッチ操作に対応する対象オブジェクト(施設や動体)のアイコン730が配置された地形情報映像が表示される。なお、図13では、対象オブジェクト(動体)として前方車両703が特定され、その前方車両703が対象オブジェクトとしてアイコン730により示されている。
このような情報表示装置100によれば、所定のタッチ操作に基づき第1の表示モードから第2の表示モードに切り替えることで対象オブジェクトをより確認しやすい地形情報映像を表示することができる。なお、地形情報映像は、車載カメラの映像から生成した3D View映像とは異なり、対象オブジェクトのアイコンが自車位置周辺の地形の描画画像上に配置された映像である。そのため、ユーザは、動体(例えば、歩行者、犬や猫などの動物、前方車両、対向車など)や施設といった自車位置の周辺にある対象オブジェクトの存在および位置をより容易に認識することができる。その結果、情報表示装置100は、安全運転に寄与することができる。
次に、情報表示装置100のハードウェア構成について説明する。
図14は、情報表示装置100のハードウェア構成の一例を示した図である。図示するように、情報表示装置100は、入力装置810と、出力装置820と、処理装置830と、主記憶装置840と、補助記憶装置850と、通信装置860と、これらの各装置を電気的に接続するバス870と、を有している。
入力装置810は、ユーザが情報表示装置100に情報や指示を入力するための装置である。入力装置810には、情報表示装置100を実現する装置の種類に応じて、タッチパネルあるいはハードスイッチといったポインティングデバイスやマイクロフォンのような音声入力装置がある。
出力装置820は、情報表示装置100により生成された画面情報(表示情報)や外部装置400から取得した情報を出力(表示)する装置である。出力装置820には、例えばディスプレイやスピーカなどがある。
処理装置830は、例えば演算処理を行うCPU(Central Prosessing Unit)である。主記憶装置840は、読み出した各種情報を一時的に格納するRAM(Random Access Memory)やCPUで実行されるプログラムやアプリおよびその他の様々な情報等を格納するROM(Read Only Memory)などのメモリ装置である。補助記憶装置850は、デジタル情報を記憶可能なHDD(Hard Disk Drive)やSSD(Solid State Drive)あるいはフラッシュメモリなどの不揮発性記憶装置である。
通信装置860は、CAN200やセンターコンソールのコントローラ300あるいはインターネット等の通信回線網Nを介して外部装置400との間で情報通信を行う装置である。また、バス870は、これらの装置を相互通信可能に接続する通信線である。
以上、情報表示装置100のハードウェア構成について説明した。
なお、情報表示装置100の処理部110は、処理装置830のCPUに処理を行わせるプログラムによって実現される。これらのプログラムは、例えば主記憶装置840あるいは補助記憶装置850に格納されており、実行にあたって主記憶装置840上にロードされ、CPUにより実行される。また、記憶部120は、主記憶装置840あるいは補助記憶装置850によって実現されても良く、これらの組み合わせによって実現されても良い。また、通信部130は、通信装置860によって実現される。
なお、情報表示装置100の各機能ブロックは、本実施形態において実現される各機能を理解容易にするために、主な処理内容に応じて分類したものである。したがって、各機能の分類の仕方やその名称によって、本発明が制限されることはない。また、情報表示装置100の各構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。
また、各機能部の全部または一部は、コンピュータに実装されるハードウェア(ASICといった集積回路など)により構築されてもよい。また、各機能部の処理が1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、本発明は、上記の実施形態や変形例などに限られるものではなく、これら以外にも様々な実施形態および変形例が含まれる。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態や変形例の構成に置き換えることが可能であり、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
100・・・情報表示装置、110・・・処理部、111・・・入力受付部、112・・・操作検知部、113・・・オブジェクト情報取得部、114・・・表示情報生成部、115・・・経路探索部、120・・・記憶部、121・・・地図情報、122・・・タッチ操作設定情報、123・・・オブジェクト情報、124・・・配色設定情報、130・・・通信部、200・・・CAN(Controller Area Network)、300・・・コントローラ、400・・・外部装置、810・・・入力装置、820・・・出力装置、830・・・処理装置、840・・・主記憶装置、850・・・補助記憶装置、860・・・通信装置、870・・・バス、N・・・通信回線網

Claims (8)

  1. タッチパネルに対するタッチ操作を検知する操作検知部と、
    所定の検索範囲内にあるオブジェクトの情報を取得するオブジェクト情報取得部と、
    表示領域に表示する画面情報を生成する表示情報生成部と、を備え、
    前記操作検知部は、前記表示領域の端部に設定されているタッチ開始位置検知領域をタッチしたまま前記表示領域の中央方向にスライドするスワイプ操作を検知し、
    前記表示情報生成部は、複数種類のオブジェクトの情報を地図上の自端末位置周辺に配置した第1の表示モードで表示するための画面情報を生成し、
    前記操作検知部により前記スワイプ操作が検知された場合、
    前記オブジェクト情報取得部は、前記スワイプ操作が行われた前記タッチ開始位置検知領域に対応付けられたオブジェクトの種類に対応する対象オブジェクトの情報を取得し、
    前記表示情報生成部は、前記対象オブジェクトの情報を前記地図上の自端末位置周辺に配置し、前記対象オブジェクト以外の前記オブジェクトの情報は非表示とする第2の表示モードで表示するための画面情報を生成し、前記表示領域のうち、前記スワイプ操作に対応する領域の表示を前記第1の表示モードから前記第2の表示モードに変更する
    ことを特徴とする情報表示装置。
  2. 請求項1に記載の情報表示装置であって、
    前記表示領域の端部には、複数の前記タッチ開始位置検知領域が設けられており、
    複数の前記タッチ開始位置検知領域には、前記オブジェクトの異なる種類が対応付けられている
    情報表示装置。
  3. 請求項1に記載の情報表示装置であって、
    前記タッチ開始位置検知領域と前記オブジェクトの前記種類との対応付けは変更可能である
    情報表示装置。
  4. 請求項1に記載の情報表示装置であって、
    前記表示情報生成部は、
    車載カメラから取得した映像を用いて自車位置周辺の様子を映し出した3D View(Three-Dimensional View)映像を前記第1の表示モードで表示するための画面情報を生成し、
    前記操作検知部により前記スワイプ操作が検知された場合、
    前記表示情報生成部は、前記対象オブジェクトが所定の視点から見た範囲内に存在する場合、当該対象オブジェクトの情報を前記視点における地形の描画画像上に配置した地形情報映像を前記第2の表示モードで表示するための画面情報として生成する
    ことを特徴とする情報表示装置。
  5. 請求項に記載の情報表示装置であって、
    前記表示情報生成部は、
    前記第2の表示モードで表示した前記地図の配色を当該地図上に配置した前記対象オブジェクトの情報が強調される配色で表示する
    ことを特徴とする情報表示装置。
  6. 請求項1に記載の情報表示装置であって、
    前記表示情報生成部は、
    前記タッチ開始位置検知領域への前記スワイプ操作が検知された場合、当該タッチ開始位置検知領域に対応付けられている前記対象オブジェクトの種類を示す操作補助アイコンをタッチ位置付近に表示する
    ことを特徴とする情報表示装置。
  7. 請求項2に記載の情報表示装置であって、
    前記表示情報生成部は、
    前記検索範囲に前記対象オブジェクトが存在しない場合、前記検索範囲内に少なくとも1つ以上の当該対象オブジェクトが含まれるように、前記表示領域に表示する前記地図の縮尺を変更する
    ことを特徴とする情報表示装置。
  8. コンピュータを、情報表示装置として機能させるプログラムであって、
    前記コンピュータを、
    タッチパネルに対するタッチ操作を検知する操作検知部と、
    所定の検索範囲内にあるオブジェクトの情報を取得するオブジェクト情報取得部と、
    表示領域に表示する画面情報を生成する表示情報生成部と、して機能させ、
    前記操作検知部は、前記表示領域の端部に設定されているタッチ開始位置検知領域をタッチしたまま前記表示領域の中央方向にスライドするスワイプ操作を検知し、
    前記表示情報生成部は、複数種類のオブジェクトの情報を地図上の自端末位置周辺に配置した第1の表示モードで表示するための画面情報を生成し、
    前記操作検知部により前記スワイプ操作が検知された場合、
    前記オブジェクト情報取得部は、前記スワイプ操作が行われた前記タッチ開始位置検知領域に対応付けられたオブジェクトの種類に対応する対象オブジェクトの情報を取得し、
    前記表示情報生成部は、前記対象オブジェクトの情報を前記地図上の自端末位置周辺に配置し、前記対象オブジェクト以外の前記オブジェクトの情報は非表示とする第2の表示モードで表示するための画面情報を生成し、前記表示領域のうち、前記スワイプ操作に対応する領域の表示を前記第1の表示モードから前記第2の表示モードに変更する
    ことを特徴とするプログラム。
JP2022060315A 2022-03-31 2022-03-31 情報表示装置およびプログラム Active JP7830195B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022060315A JP7830195B2 (ja) 2022-03-31 2022-03-31 情報表示装置およびプログラム
US18/181,050 US12511031B2 (en) 2022-03-31 2023-03-09 Information display device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022060315A JP7830195B2 (ja) 2022-03-31 2022-03-31 情報表示装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2023150953A JP2023150953A (ja) 2023-10-16
JP7830195B2 true JP7830195B2 (ja) 2026-03-16

Family

ID=88194229

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022060315A Active JP7830195B2 (ja) 2022-03-31 2022-03-31 情報表示装置およびプログラム

Country Status (2)

Country Link
US (1) US12511031B2 (ja)
JP (1) JP7830195B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017268A (ja) 2005-07-07 2007-01-25 Xanavi Informatics Corp ナビゲーション装置およびナビゲーション方法
US20110283223A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
WO2013175784A1 (ja) 2012-05-22 2013-11-28 株式会社ニコン 電子カメラ、画像表示装置および画像表示プログラム
JP2014174922A (ja) 2013-03-12 2014-09-22 Panasonic Corp 施設検索装置、施設検索システム
JP2016511854A (ja) 2013-01-02 2016-04-21 カノニカル・リミテッドCanonical Limited コンピュータデバイスのためのユーザインターフェイス
JP2016192111A (ja) 2015-03-31 2016-11-10 パイオニア株式会社 選択装置、選択方法及び選択装置用プログラム
JP2017016168A (ja) 2015-06-26 2017-01-19 株式会社デンソー 情報コード生成装置、情報コード生成プログラム
JP2017174157A (ja) 2016-03-24 2017-09-28 株式会社ゼンリンデータコム 地図表示装置、地図表示方法および地図表示プログラム
US20180005434A1 (en) 2014-12-22 2018-01-04 Robert Bosch Gmbh System and Methods for Interactive Hybrid-Dimension Map Visualization

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5305435A (en) * 1990-07-17 1994-04-19 Hewlett-Packard Company Computer windows management system and method for simulating off-screen document storage and retrieval
US5874958A (en) * 1997-03-31 1999-02-23 Sun Microsystems, Inc. Method and apparatus for accessing information and items across workspaces
US6542814B2 (en) * 2001-03-07 2003-04-01 Horizon Navigation, Inc. Methods and apparatus for dynamic point of interest display
US6850255B2 (en) * 2002-02-28 2005-02-01 James Edward Muschetto Method and apparatus for accessing information, computer programs and electronic communications across multiple computing devices using a graphical user interface
US20060020903A1 (en) * 2004-07-26 2006-01-26 Shih-Yang Wang Window split system and method
US20080306685A1 (en) * 2006-10-13 2008-12-11 Gianluca Bernardini Method, system and computer program for exploiting idle times of a navigation system
JP4632096B2 (ja) 2007-06-07 2011-02-16 ソニー株式会社 ナビゲーション装置及び最寄検索方法
US20100009662A1 (en) * 2008-06-20 2010-01-14 Microsoft Corporation Delaying interaction with points of interest discovered based on directional device information
US8078397B1 (en) * 2008-08-22 2011-12-13 Boadin Technology, LLC System, method, and computer program product for social networking utilizing a vehicular assembly
US8265862B1 (en) * 2008-08-22 2012-09-11 Boadin Technology, LLC System, method, and computer program product for communicating location-related information
US20100198917A1 (en) * 2009-02-02 2010-08-05 Kota Enterprises, Llc Crowd formation for mobile device users
US12235918B2 (en) * 2009-02-02 2025-02-25 Stripe, Inc. System and method for filtering and creating points-of-interest
US20100305842A1 (en) * 2009-05-27 2010-12-02 Alpine Electronics, Inc. METHOD AND APPARATUS TO FILTER AND DISPLAY ONLY POIs CLOSEST TO A ROUTE
US8464171B2 (en) * 2009-06-26 2013-06-11 Eppendorf Ag Device for displaying a function chart
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
US20130007089A1 (en) * 2011-06-29 2013-01-03 O'donnell Cornelius J Distributing points of interest
US9182233B2 (en) * 2012-05-17 2015-11-10 Robert Bosch Gmbh System and method for autocompletion and alignment of user gestures
US9146129B1 (en) * 2012-06-20 2015-09-29 Amazon Technologies, Inc. Suggesting points of interest on a mapped route using user interests
US10282088B2 (en) * 2012-12-06 2019-05-07 Samsung Electronics Co., Ltd. Configuration of application execution spaces and sub-spaces for sharing data on a mobile tough screen device
US9031783B2 (en) * 2013-02-28 2015-05-12 Blackberry Limited Repositionable graphical current location indicator
US10481769B2 (en) 2013-06-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing navigation and search functionalities
US20150006289A1 (en) * 2013-07-01 2015-01-01 Gabriel Jakobson Advertising content in regions within digital maps
WO2015013814A1 (en) * 2013-08-02 2015-02-05 Zag Holdings Inc. Systems and methods for presenting summary information associated with map elements
US10228258B2 (en) * 2014-12-03 2019-03-12 Strava, Inc. Determining top venues from aggregated user activity location data
US10309797B2 (en) * 2014-12-19 2019-06-04 Here Global B.V. User interface for displaying navigation information in a small display
CN106126514B (zh) * 2015-05-06 2020-11-20 可可株式会社 与搜索有关的消息服务器提供方法及服务器和用户终端
US10254123B2 (en) * 2016-05-24 2019-04-09 Telenav, Inc. Navigation system with vision augmentation mechanism and method of operation thereof
US11049199B2 (en) * 2017-11-06 2021-06-29 Microsoft Technology Licensing, Llc Contextual trip itinerary generator
US20220248180A1 (en) * 2021-01-30 2022-08-04 Apple Inc. Selective sharing of device location information
JP2025085472A (ja) * 2023-11-24 2025-06-05 フォルシアクラリオン・エレクトロニクス株式会社 情報処理装置および情報処理プログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007017268A (ja) 2005-07-07 2007-01-25 Xanavi Informatics Corp ナビゲーション装置およびナビゲーション方法
US20110283223A1 (en) 2010-05-16 2011-11-17 Nokia Corporation Method and apparatus for rendering user interface for location-based service having main view portion and preview portion
WO2013175784A1 (ja) 2012-05-22 2013-11-28 株式会社ニコン 電子カメラ、画像表示装置および画像表示プログラム
JP2016511854A (ja) 2013-01-02 2016-04-21 カノニカル・リミテッドCanonical Limited コンピュータデバイスのためのユーザインターフェイス
JP2014174922A (ja) 2013-03-12 2014-09-22 Panasonic Corp 施設検索装置、施設検索システム
US20180005434A1 (en) 2014-12-22 2018-01-04 Robert Bosch Gmbh System and Methods for Interactive Hybrid-Dimension Map Visualization
JP2016192111A (ja) 2015-03-31 2016-11-10 パイオニア株式会社 選択装置、選択方法及び選択装置用プログラム
JP2017016168A (ja) 2015-06-26 2017-01-19 株式会社デンソー 情報コード生成装置、情報コード生成プログラム
JP2017174157A (ja) 2016-03-24 2017-09-28 株式会社ゼンリンデータコム 地図表示装置、地図表示方法および地図表示プログラム

Also Published As

Publication number Publication date
US20230315280A1 (en) 2023-10-05
JP2023150953A (ja) 2023-10-16
US12511031B2 (en) 2025-12-30

Similar Documents

Publication Publication Date Title
CN100578150C (zh) 导航装置
US20240329792A1 (en) Navigation Application With Novel Declutter Mode
JP4683380B2 (ja) 車線変更案内装置
US9074909B2 (en) Navigation system, navigation method, and navigation program
CN108349503A (zh) 驾驶辅助装置
US20070115142A1 (en) Navigation system and landmark highlighting method
US7577518B2 (en) Navigation system
JP2010128619A (ja) 入力装置、車両周辺監視装置、アイコンスイッチ選択方法及びプログラム
JP2008196923A (ja) 車両用地図表示装置
JP2013032949A (ja) 車両用表示処理システムおよび車両用表示処理方法並びにプログラム
JP2014020852A (ja) 地図情報更新システム、地図情報更新装置、地図情報更新方法及びコンピュータプログラム
JP2008185452A (ja) ナビゲーション装置
JP7830195B2 (ja) 情報表示装置およびプログラム
JP2008051538A (ja) 車載地図表示装置
CN114383623A (zh) 导航装置
JP5098596B2 (ja) 車両用表示装置
WO2017208900A1 (ja) 地図表示システムおよび地図表示プログラム
JP7009640B2 (ja) 画像制御プログラム、画像制御装置及び画像制御方法
JP5780193B2 (ja) 画像表示装置、画像表示方法及びコンピュータプログラム
JP7051263B2 (ja) 運転計画変更指示装置および運転計画変更指示方法
JP2007199329A (ja) 地図表示装置およびナビゲーション装置
JP2008128928A (ja) 車載地図表示装置、ナビゲーション装置
JP5082519B2 (ja) カーナビゲーション装置
JP2011191541A (ja) 地図表示装置、地図表示方法及びプログラム
JP2008039813A (ja) ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20250204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20251016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20251028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20251216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20260210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20260304