JP2014225245A - 交通情報呈示システム、交通情報呈示方法および電子デバイス - Google Patents

交通情報呈示システム、交通情報呈示方法および電子デバイス Download PDF

Info

Publication number
JP2014225245A
JP2014225245A JP2014075084A JP2014075084A JP2014225245A JP 2014225245 A JP2014225245 A JP 2014225245A JP 2014075084 A JP2014075084 A JP 2014075084A JP 2014075084 A JP2014075084 A JP 2014075084A JP 2014225245 A JP2014225245 A JP 2014225245A
Authority
JP
Japan
Prior art keywords
touch
traffic information
user
presentation
tactile
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014075084A
Other languages
English (en)
Inventor
史雄 村松
Fumio Muramatsu
史雄 村松
亮 奥村
Ryo Okumura
亮 奥村
祐介 足立
Yusuke Adachi
祐介 足立
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014075084A priority Critical patent/JP2014225245A/ja
Priority to US14/250,859 priority patent/US9116547B2/en
Publication of JP2014225245A publication Critical patent/JP2014225245A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】ユーザのタッチ状態が、触覚による情報呈示を待つ状態なのか、タッチ入力操作をしている状態なのかを適切に区別する。【解決手段】ある実施形態に係る交通情報呈示システムは、交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システム10であって、ユーザがタッチする接触部120と、ユーザに触覚を呈示する触覚呈示部130と、交通情報を受信する入力部150と、受信した交通情報に基づいて触覚呈示部130を制御する制御部110とを備える。制御部110は、接触部120へのタッチ状態をモニターし、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付ける。制御部110は、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を触覚呈示部130に実行させる。【選択図】図7

Description

本開示は、ユーザに触覚を呈示するシステム、方法および電子デバイスに関する。
特許文献1は、車両のユーザに対して運転状況に応じた適切な振動を呈示する車両用操作装置を開示している。この車両用操作装置は、ユーザが車両の運転に集中しているか否かを車両の駆動状態に基づいて判断する制御部を備える。これにより、車両のユーザに対して運転状況に応じた適切な振動を呈示することができる。
特開2005−335629号公報
本開示は、ユーザのタッチ状態が、触覚による情報呈示を待つ状態なのか、タッチ入力操作をしている状態なのかを適切に区別することができるシステム、方法および電子デバイスを提供する。
本開示のある実施形態に係る交通情報呈示システムは、交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システムであって、ユーザがタッチする接触部と、ユーザに触覚を呈示する触覚呈示部と、交通情報を受信する入力部と、受信した交通情報に基づいて触覚呈示部を制御する制御部とを備え、制御部は、接触部へのタッチ状態をモニターし、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付け、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を触覚呈示部に実行させる。
本開示のある実施形態に係る電子デバイスは、交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システムに使用される電子デバイスであって、ユーザがタッチする接触部と、ユーザに触覚を呈示する触覚呈示部と、交通情報を受信する入力部と、受信した交通情報に基づいて触覚呈示部を制御する制御部とを備え、制御部は、接触部へのタッチ状態をモニターし、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付け、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を触覚呈示部に実行させる。
本開示のある実施形態に係る方法は、交通情報に基づいてユーザへ触覚を呈示する方法であって、交通情報を受信するステップと、ユーザがタッチする接触部へのタッチ状態をモニターするステップと、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付けるステップと、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を実行するステップとを含む。
本開示のある実施形態に係るコンピュータプログラムは、交通情報に基づいてユーザへ触覚を呈示する処理を電子デバイスに実行させるコンピュータプログラムであって、コンピュータプログラムは、交通情報を受信するステップと、ユーザがタッチする接触部へのタッチ状態をモニターするステップと、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付けるステップと、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を実行するステップとを電子デバイスのコンピュータに実行させる。
本開示のある実施形態によれば、ユーザのタッチ状態が、触覚による情報呈示を待つ状態なのか、タッチ入力操作している状態なのかを適切に区別することができる。
実施形態に係るタッチ入力装置の外観を示す概略図である。 実施形態に係る触覚呈示システムの構成を示す概略図である。 実施形態に係るタッチ入力装置の概略構成を示す断面図である。 実施形態に係る自動車が走行中の道路状況を示す概略図である。 実施形態に係る触覚によりユーザに情報を呈示する方法の一例を示す概略図である。 実施形態に係るユーザがフリック操作を行っている様子を示す概略図である。 実施形態に係るユーザがピンチ操作を行っている様子を示す概略図である。 実施形態に係るタッチ入力装置の処理を示すフローチャートである。 実施形態に係るタッチ入力装置の処理を示すフローチャートである。 実施形態に係る触覚呈示システムの構成を示す概略図である。 実施形態に係る触覚呈示システムの構成を示す概略図である。 実施形態に係る触覚呈示の一例を示す概略図である。
以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
[1.概略]
図1は、自動車内に設置されているタッチ入力装置100の外観を示す概略図である。タッチ入力装置100は、ユーザに触覚を呈示する電子デバイスの一例である。
この例では、タッチ入力装置100は、運転席と助手席の間、いわゆる、センターコンソール部に設置されている。
ユーザ1は、タッチ入力装置100を用いて、カーナビゲーション装置(以下、単にカーナビと称する場合がある。)200、カーオーディオ、エアーコンディショナーなどの車載用外部機器を操作することができる。
自動車内にはカーナビ200が設置されている。タッチ入力装置100は、カーナビ200と有線または無線により通信可能に接続されている。タッチ入力装置100は、ユーザ1の指によるタッチ操作を受け付ける。したがって、ユーザはタッチ入力装置100を用いてカーナビ200を操作し、目的地までナビゲーションをさせることができる。
以下、このようなタッチ入力装置100に関して詳細に説明する。
[2.構成]
図2は、実施形態1の触覚呈示システム10の構成を示す概略図である。図3は、タッチ入力装置100の概略構成を示す断面図である。
図2に示すように、本実施形態の触覚呈示システム10は、タッチ入力装置100と、カーナビ200とを備える。ここでは、触覚呈示システム10として、交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システムを例示する。
タッチ入力装置100は、電子デバイスの一例である。カーナビ200は、タッチ入力装置100と接続して情報の通信が可能な外部機器の一例である。カーナビ200は、GPS衛星300と通信することで、自車の位置を把握することができる。
図2に示すようにタッチ入力装置100は、制御部110と、タッチパッド120と、圧電素子130と、タイマー140と、第1入力部150と、第1出力部160とを備える。
タッチパッド120は、ユーザが指あるいはタッチペンなどの操作具でタッチパッド120に接触したことを検知するセンサーを有しており、タッチパッド120上の接触点の座標を検出することができる。タッチパッド120が有するセンサーは、例えば静電容量方式のセンサーである。なお、ユーザの接触を検知する方法としては、静電容量方式以外にも、感圧方式、光学式、表面弾性波方式などの公知の方法を採用してもよい。また、タッチパッド10は複数の接触点を同時に検出することができる。
タッチパッド120は、制御部110により制御される。制御部110は、タッチパッド120が検出したユーザのタッチ情報を、第1出力部160を介してカーナビ200へ送る。カーナビ200へ送られたタッチ情報は、第2入力部250を介してカーナビ200側の制御部210へ送られる。カーナビ200側の制御部210は、このタッチ情報に応じて各種処理を実行することができる。
制御部110は、タッチパッド120から受け取ったタッチ操作に関する情報や、このタッチ操作以外の情報に基づいて、圧電素子130を振動させることができる。タッチ操作以外の情報とは、例えば、カーナビ200から受信した情報である。ユーザは、タッチパッド120を介して、タッチ操作やカーナビ200からの情報に応じた振動を感じることができる。
制御部110がカーナビ200から受信する交通情報は、例えば、走行中の自動車の周囲の環境に関する情報、走行中の車線に関する情報、混雑状況に関する情報、道路の傾斜に関する情報、交通規制に関する情報、道路の幅に関する情報等である。
タイマー140は、時刻情報を有している。制御部110は、タイマー140の時刻情報に基づいて、ユーザがタッチパッド120にタッチしている時間を計測する。詳細は後述するが、制御部110は、計測された時間に応じて、圧電素子130を制御する。
第1入力部150および第1出力部160は、外部機器と接続して情報の通信が可能である。具体的には、第1入力部150および第1出力部160は、カーナビ200側の第2入力部250および第2出力部260とケーブルによる有線または無線などで接続され、情報のやりとりの経路となる。
カーナビ200は、制御部210と、地図画像や操作画面を表示する表示部220と、GPS衛星300と通信可能な受信機230と、地図情報や各種プログラムなどが格納された記録部240と、第2入力部250と、第2出力部260とを備える。
表示部220は、地図を自車の位置とともに表示したり、カーナビ200を操作するためのボタンなどを表示したりする。
受信機230は、GPS衛星300と通信することでカーナビ200が搭載された自動車の位置情報をカーナビ側の制御部210に送信する。
記録部240には、地図情報や各種プログラムなどが格納されている。記録部240は、制御部210からの指示に応じて、地図情報などを制御部210に送る。
制御部210は、受信機230から送られた位置情報や、記録部240から送られた地図情報に基づいて、表示部220に表示する表示情報を制御する。
また、制御部210は、地図情報、位置情報等の交通情報を、第2出力部260を介してタッチ入力装置100に送ることができる。
図3に示すように、タッチパッド120は、スペーサ170を介して車体50に固定されている。タッチパッド120は、ユーザ1がタッチ可能な場所に配置されており、樹脂、ガラス、金属、またはそれらの複合材など、一定の剛性を備えた材料で構成される。スペーサ170は、樹脂、金属、ゴム、ゲル、またはそれらの複合材など、一定の強度と弾性力を備えた材料で構成され、タッチパッド120を支えることができる剛性を備えている。
タッチパッド120および車体50とスペーサ170の固定方法は、ビスによる締結、接着剤による接着、両面テープによる貼り付けなど、一定の強度を備えた方法で固定されている。また、スペーサ170とタッチパッド120および車体50は、一体に成型されていてもよい。
なお、タッチパッド120は運転席と助手席の間に配置されていなくてもよい。例えば、タッチパッド120はダッシュボードに配置されていてもよいし、カーナビ200の画面上に配置されていてもよいし、ハンドル上に配置されていてもよい。
圧電素子130は、タッチパッド120の裏面に固定されている。例えば、複数の圧電素子130がタッチパッド120の裏面に固定されている。圧電素子130の動作は、制御部110に制御される。圧電素子130は、制御部110から送られる駆動信号に基づいてタッチパッド120を振動させることでユーザ1に触覚を呈示する。
[3.動作]
次に、タッチ入力装置100の動作について図4A〜図6を用いて説明する。
図4Aおよび図4Bは、本実施形態のタッチ入力装置100の具体的な動作の一例を説明する概略図である。図4Aは、自動車11が走行中の道路状況を示している。自動車11は片側3車線の道路を走行中である。左の車線は左折レーン、真ん中の車線は直進レーン、右の車線は右折レーンである。自動車11は、直進レーンを走行中である。
図4Bは、触覚によりユーザに情報を呈示する方法の一例を示している。ユーザがタッチパッド120に3本の指でタッチした時、それぞれの指の接触点のX座標に応じて、指Kを左折レーン、指Lを直進レーン、指Mを右折レーンに関連付ける。
カーナビ200は、ユーザが指定した目的地や道路の混雑情報などに基づき、ユーザに推奨する車線を決定する。推奨する車線が右折レーンの場合、図4Bに示すように、右折レーンに関連付けられた指Mにのみに触覚を呈示する。ユーザは、指Mにのみに触覚が呈示されることで、右折レーンを走行することが推奨されていることを知ることができる。タッチパッド120上の任意の位置を振動させる方法としては、例えば、振動の伝達関数を考慮して振動源の振動を調整する方法、振動の腹と節の位置を調整する方法等を用いることができる。
このように、ユーザはタッチパッド120に触れることで、タッチパッド120の振動を介して、カーナビ200から送られる情報の呈示を受けることができる。なお、この例では、ユーザがタッチパッド120にタッチする指の本数は3本であったが、タッチする指の本数は3本より多くてもよいし、2本以下でもよい。
図5および図6は、ユーザが装置に指示を送る操作であるタッチ入力操作の一例を示す概略図である。
図5は、ユーザがフリック操作を行っている様子を示している。フリック操作とは、ユーザがタッチパッド120に触れたまま指を一方向に動かす操作である。ユーザがタッチパッド120に触れたまま指を一方向に動かすと、動かした方向に応じて画面表示が変遷する。例えば、指をタッチパッド上で右方向に動かすとページの順送り、左に動かすとページの逆送り、とすることができる。
図6は、ピンチ操作を行っている様子を示している。ピンチ操作とは、ユーザが2本の指でタッチパッドに触れたまま2本の指を互いに近づける、または、離すように動かす操作である。ユーザが2本の指でタッチパッドに触れたまま2本の指を互いに動かすと、その動作に応じて画像の表示を変更する。例えば、2本の指を互いに広げるように動かすと画像の表示倍率を大きくし、2本の指を互いに狭めるように動かすと画像の表示倍率を小さくすることができる。
なお、図5および図6では、フリック操作およびピンチ操作を分かりやすく説明するために、表示部を備えた構成のタッチパッド120を例示している。このように、タッチパッド120は表示部を備えていてもよい。また、タッチパッド120は表示部を備えずに、画像はカーナビ200の表示部220に表示されてもよい。
このように、ユーザはタッチパッド120に触れることで、カーナビ200を操作することができる。
図7は、タッチ入力装置100の処理を示すフローチャートである。
タッチ入力装置100においては、図4Bに示すようなタッチパッド120からの触覚による情報呈示(応答動作と称する場合もある)を待つときも、図5および図6に示すようなタッチ入力操作をするときも、ユーザは、タッチパッド120に触れている。そのため、ユーザがタッチパッド120に触れている状態が、触覚による情報呈示を待つ状態なのか、タッチ入力操作をしている状態なのかを適切に区別する必要がある。本実施形態のタッチ入力装置100は、図7に示す処理を実行することで、この区別を適切に行う。
まず、制御部110は、ユーザがタッチパッド120に接触しているか否かのタッチ検出を行う(ステップS1)。ユーザがタッチパッド120に接触している場合(ステップS1でYes)は、その接触情報は制御部110に送られる。制御部110は、タッチパッド120に対する接触を検出した時の時刻情報をタイマー140から受け取る。そして制御部110は、接触時間の記録をスタートする(ステップS2)。一方、タッチパッド120への接触が検出されない場合(ステップS1でNo)は、制御部110は、接触の有無をモニターし続ける。
次に、制御部110は、ユーザの指がタッチパッド上で一定量以上動いたか否か(すなわち、タッチ位置の変化量が一定量以上になったか否か)を判定する(ステップS3)。ユーザの指がタッチパッド上で一定量以上動いた場合(ステップS3でYes)は、制御部110は、ユーザの操作がタッチ入力操作であると判断し、タッチ入力操作に対応したユーザからの指示を受け付ける(ステップS4)。例えば、図5および図6に示したようなフリック操作およびピンチ操作によるユーザからの指示に基づいて、表示内容の変更等の処理を行う。
その後、制御部110は、ユーザがタッチパッド120に接触しているか否かのタッチ検出を行う(ステップS5)。ユーザの接触を検出した場合(ステップS5でYes)は、制御部110は、ユーザのタッチ入力操作が続いていると判断し、タッチ入力操作に対応したユーザからの指示を受け付ける(ステップS4)。ユーザの接触が検出されなかった場合(ステップS5でNo)は、制御部110は、ユーザのタッチ入力操作が終わったと判断し、処理を終了する。
ステップS3において、ユーザの指がタッチパッド120上で一定量以上動いていない場合(ステップS3でNo)は、制御部110は、ユーザがタッチし続けている時間が一定時間(例えば0.5から1秒)を経過した否かを判断する(ステップS6)。ユーザのタッチし続けている時間が一定時間以上になった場合(ステップS6でYes)、制御部110は、ユーザがタッチパッド120からの触覚による情報呈示を待っていると判断する。そして、制御部110は、圧電素子130を駆動することで、ユーザの要求に応じた情報を触覚(振動)によって呈示する(ステップS7)。その後、制御部110は、ユーザがタッチパッド120に接触しているか否かのタッチ検出を行う(ステップS8)。ユーザの接触を検出した場合(ステップS8でYes)は、制御部110は、ユーザが触覚の呈示を待っている状態が続いていると判断し、触覚の呈示を行う(ステップS7)。ユーザの接触が検出されなかった場合(ステップS8でNo)は、制御部110は、ユーザが触覚の呈示を待っている状態が終わったと判断し、ユーザからの指示を受け付ける処理は行わずに、処理を終了する。
ステップS6において、ユーザのタッチしている時間が一定時間未満の場合(ステップS6でNo)、制御部110は、ユーザがタッチパッド120に接触しているか否かのタッチ検出を行う(ステップS9)。ユーザの接触を検出した場合(ステップS9でYes)は、制御部110は、ステップS3の処理に戻り、ユーザの指が一定量以上動いたか否かを判定する(ステップS3)。ユーザの接触が検出されなかった場合(ステップS9でNo)は、制御部110は、ユーザの操作がタップ操作であると判断し、そのタッチ入力操作に対応したユーザからの指示を受け付け(ステップS10)、ユーザからの指示に基づく動作を実行し、処理を終了する。
このような処理を実行することにより、タッチ入力装置100は、ユーザがタッチパッド120に触れている状態が、触覚呈示を待つ状態なのか、タッチ入力操作している状態なのかを適切に区別することができる。したがって、このような処理により、タッチ入力装置100の誤動作を防ぐことができる。例えば、触覚呈示を待つためにユーザがタッチパッド120を触っているにも関わらず、タッチ入力装置100がその接触をタッチ入力操作として誤って認識してしまうことを防ぐことができる。また、タッチ入力操作をするためにタッチパッド120を触っているにも関わらず、タッチ入力装置100が触覚呈示を行ってしまうことを防ぐことができる。
なお、図7に示す例では、ステップS8でユーザの接触が検出されなかった場合、処理を終了していたが、触覚の提示の後にタッチ入力操作が行われた場合は、そのタッチ入力操作に応じた処理を実行してもよい。図8は、そのような処理の一例を示すフローチャートである。図8に示すステップS8、S11、S12以外の処理は図7に示す処理と同じであるので、ここでは説明を省略する。
図8に示す処理において、ステップS8でユーザの接触が検出されなくなった後、制御部110は、ユーザによるタッチ入力操作の有無を一定時間モニターする(ステップS11)。タッチ入力操作を検出する方法としては、例えば、図7を用いて説明したようなタッチ入力操作を検出する方法を行ってもよい。
タッチ入力操作が検出されなかった場合(ステップS11でNo)は、処理を終了する。タッチ入力操作が検出された場合(ステップS11でYes)は、タッチ入力操作に対応したユーザからの指示を受け付け(ステップS12)、ユーザからの指示に基づく動作を実行し、処理を終了する。例えば、図4Bに示すように右折レーンに関連付けられた指Mに触覚を呈示した後、ユーザがタップ操作を行った場合は、制御部110は、右折レーンへの移動をユーザが了承したと判断し、自動車11の他の機器と連携して、車線変更のためのウィンカーを出す処理を行ってもよい。また、自動車11が自動運転を実行している場合は、自動車11を右折レーンへ移動させる処理を行ってもよい。
[4.効果等]
[4−1.触覚呈示方法]
以上のように、本実施形態における触覚呈示方法は、受信した情報に基づく触覚をユーザへ呈示する方法であって、以下のような処理の実行を含む。すなわち、タッチ操作に関する情報以外の情報(例えば交通情報)を受信する。タッチ操作をモニターする(ステップS1)。タッチ位置の変化量が一定量以上の場合(ステップS3でYes)、タッチ状態がタッチ入力操作であると判断してタッチ入力操作を受け付ける(ステップS4)。ユーザのタッチ位置の変化量が一定量未満(ステップS3でNo)で、かつ、タッチ時間が一定時間以上の場合(ステップS6でYes)、受信した情報に基づく触覚の呈示を実行する(ステップS7)。
このような処理により、ユーザがタッチパッド120に触れている状態が、触覚呈示を待つ状態なのか、タッチ入力操作をしている状態なのかを適切に区別することができる。その結果、ユーザの使い勝手が向上する。
また、この触覚呈示方法では、タッチ継続時間が一定時間未満の場合(ステップS6およびS9でNo)、タッチ状態がタップ操作であると判断してタッチ入力操作を受け付ける(ステップS10)。
このような処理により、さらにタップ操作も含めて適切に区別することができる。したがって、ユーザの使い勝手がさらに向上する。
また、この触覚呈示方法では、触覚の呈示を実行した後(ステップS7)、タッチ状態が継続している場合(ステップS8でYes)、受信した情報に基づく触覚の呈示を再度行う(ステップS7)。
このような処理により、ユーザがタッチパッド120に接触している間は、受信した情報に基づく触覚の呈示を行い続けることができる。したがって、ユーザは、より正確に情報を認識することができる。
また、この触覚呈示方法において、受信した情報とは、例えば、カーナビ200(外部機器の一例)から送信された交通情報である。したがって、ユーザは、カーナビ200から送信された交通情報を適切に認識できる。
[4−2.触覚呈示システム]
また、本実施形態における触覚呈示システム10は、ユーザへ触覚を呈示するシステムであって、次のような構成を含む。すなわち、触覚呈示システム10は、タッチパッド120(接触部の一例)と、圧電素子130(触覚呈示部の一例)と、制御部110とを備える。
タッチパッド120は、ユーザのタッチ操作を受け付ける。
圧電素子130は、ユーザに振動による触覚を呈示する。
制御部110は、タッチ情報以外の情報(例えば交通情報)を受信し、受信した情報に基づいて圧電素子130の振動を制御する。
そして、制御部110は、次のような処理を実行する。すなわち、タッチ操作をモニターする(ステップS1)。タッチ位置の変化量が一定量以上の場合(ステップS3でYes)、タッチ状態がタッチ入力操作であると判断してタッチ入力操作を受け付ける(ステップS4)。ユーザのタッチ位置の変化量が一定量未満(ステップS3でNo)で、かつ、タッチ時間が一定時間以上の場合(ステップS6でYes)、受信した情報に基づく触覚の呈示を実行する(ステップS7)。
これにより、ユーザがタッチパッド120に触れている状態が、触覚呈示を待つ状態なのか、タッチ入力操作をしている状態なのかを適切に区別することができる。したがって、ユーザの使い勝手が向上する。
また、制御部110は、タッチ継続時間が一定時間未満の場合(ステップS6およびS9でNo)、タッチ状態がタップ入力であると判断してタッチ入力操作を受け付ける(ステップS10)。
これにより、さらにタップ入力も含めて適切に区別することができる。したがって、ユーザの使い勝手がさらに向上する。
また、この触覚呈示システム10は、触覚の呈示を実行した後(ステップS7)、タッチ状態が継続している場合(ステップS8でYes)、受信した情報に基づく触覚の呈示を再度行う(ステップS7)。
これにより、ユーザがタッチパッド120に接触している間は、受信した情報に基づく触覚の呈示を行い続けることができる。したがって、ユーザは、より正確に情報を認識することができる。
また、触覚呈示システム10は、カーナビ200(外部機器)と接続して情報の通信が可能な第1入力部150および第1出力部160をさらに備える。第1入力部150は、接続されたカーナビ200から送信された情報を受信し、この受信した情報を制御部110に送信する。制御部110は、第1入力部150から送信された情報に基づいて圧電素子130の振動を制御する。したがって、ユーザは、カーナビ200から送信された情報を適切に認識できる。
[4−3.電子デバイス]
また、本実施形態におけるタッチ入力装置100(電子デバイスの一例)は、ユーザへ触覚を呈示するデバイスであって、次のような構成を含む。すなわち、タッチ入力装置100は、タッチパッド120(接触部の一例)と、圧電素子130(触覚呈示部の一例)と、制御部110とを備える。
タッチパッド120は、ユーザのタッチ操作を受け付ける。
圧電素子130は、ユーザに振動による触覚を呈示する。
制御部110は、タッチ情報以外の情報(例えば、交通情報)を受信し、受信した情報に基づいて圧電素子130の振動を制御する。
そして、制御部110は、次のような処理を実行する。すなわち、タッチ操作をモニターする(ステップS1)。タッチ位置の変化量が一定量以上の場合(ステップS3でYes)、タッチ状態がタッチ入力操作であると判断してタッチ入力操作を受け付ける(ステップS4)。ユーザのタッチ位置の変化量が一定量未満(ステップS3でNo)で、かつ、タッチ時間が一定時間以上の場合(ステップS6でYes)、受信した情報に基づく触覚の呈示を実行する(ステップS7)。
これにより、ユーザがタッチパッド120に触れている状態が、触覚呈示を待つ状態なのか、タッチ入力操作をしている状態なのかを適切に区別することができる。したがって、ユーザの使い勝手が向上する。
また、制御部110は、タッチ継続時間が一定時間未満の場合(ステップS6およびS9でNo)、タッチ状態がタップ入力であると判断してタッチ入力操作を受け付ける(ステップS10)。
これにより、さらにタップ入力も含めて適切に区別することができる。したがって、ユーザの使い勝手がさらに向上する。
また、このタッチ入力装置100は、触覚の呈示を実行した後(ステップS7)、タッチ状態が継続している場合(ステップS8でYes)、受信した情報に基づく触覚の呈示を再度行う(ステップS7)。
これにより、ユーザがタッチパッド120に接触している間は、受信した情報に基づく触覚の呈示を行い続けることができる。したがって、ユーザは、より正確に情報を認識することができる。
また、タッチ入力装置100は、カーナビ200(外部機器)と接続して情報の通信が可能な第1入力部150および第1出力部160をさらに備える。第1入力部150は、接続されたカーナビ200から送信された情報を受信し、この受信した情報を制御部110に送信する。制御部110は、第1入力部150から送信された情報に基づいて圧電素子130の振動を制御する。したがって、ユーザは、カーナビ200から送信された情報を適切に認識できる。
(実施形態2)
次に、図9を用いて、実施形態2を説明する。実施形態1では、タッチ入力装置100内の制御部110が、触覚呈示を待つ状態なのかタッチ入力操作をしている状態なのかの判定を行っていた。実施形態2では、カーナビサーバ側の制御部がこの処理を行っている点で、実施形態1とは異なる。以下、実施形態1と同じ機能および構成を有する部材には、実施形態1と同様の符号を付与し、再度の説明を省略する場合がある。
図9は、本実施形態の触覚呈示システム20の構成を示す概略図である。図9に示すように、触覚呈示システム20は、タッチ入力装置400と、カーナビ500と、サーバ600とを備える。タッチ入力装置400は、無線通信を介して、サーバ600と情報の通信を行うことができる。カーナビ500は、無線通信を介して、サーバ600と情報の通信を行うことができる。
タッチ入力装置400は、タッチパッド120と、圧電素子130と、タイマー140と、第1入力部150と、第1出力部160と、第1通信部420と、これらを制御する制御部410とを備える。第1通信部420は、サーバ600側の第3通信部630と無線通信を介して接続されている。制御部410は、タッチパッド120により検出されたタッチ操作に関する情報を、第1通信部420からサーバ600に送信する。
カーナビ500は、表示部220と、受信機230と、記録部240と、第2入力部250と、第2出力部260と、制御部510と、第2通信部520を備える。第2通信部520は、サーバ600側の第3通信部630と無線通信を介して接続されている。制御部510は、自動車の位置情報を第2通信部520からサーバ600に送信する。
サーバ600は、制御部610と、各種情報およびプログラムが格納された記録部620と、第3通信部630とを備える。第3通信部630は、第1通信部420から送信された情報を受信し、制御部610に送る。また、第3通信部630は、第2通信部520から送信された情報を受信し、制御部610に送る。
本実施形態では、図7のフローチャートで示した処理を、制御部610が実行する。そして、タッチ入力装置側の制御部410およびカーナビ側の制御部510は、制御部610からの指示に基づき、各構成要素の動作を制御する。例えば、タッチパッド120に対するユーザのタッチ状態を制御部610がモニターし、そのモニター結果に基づいて、制御部410は圧電素子130の振動を制御する。
このように、本実施形態の触覚呈示システム20では、図2に示した制御部110が行っていた処理を、複数の制御部で分担して行っている。なお、サーバ600の制御部610が、圧電素子130の振動の制御をさらに行ってもよい。このような構成により、触覚呈示システム20は、ユーザのタッチ状態が触覚呈示を待つ状態なのかタッチ入力操作している状態なのかの判定を適切に行うことができる。
(実施形態3)
以下、図10を用いて、実施形態3を説明する。実施形態1および2では、カーナビから送信された情報に基づいて触覚を呈示していた。実施形態3では、車載カメラシステム700から送信された情報に基づいて触覚を呈示している点で、実施形態1および2と異なる。以下、実施形態1および2と同じ機能および構成を有する部材には、実施形態1と同様の符号を付与し、再度の説明を省略する場合がある。
図10は、触覚呈示システム30の構成を示す概略図である。図10に示すように、触覚呈示システム30は、タッチ入力装置100と、車載カメラシステム700とを備える。タッチ入力装置100の構成は実施形態1と同じであるため説明を省略する。
車載カメラシステム700は、自動車の外の様子を撮影するシステムである。車載カメラシステム700は、車載カメラ制御部710と、カメラ720と、第2入力部730と、第2出力部740とを備える。
カメラ720は、自動車の周囲の様子を撮影可能な位置に、複数個設置されている。カメラ720が設置される場所は、例えば、自動車の左側の死角となる領域を撮影可能な場所、自動車の右側の死角となる領域を撮影可能な場所、自動車の後方の死角となる領域を撮影可能な場所等である。カメラ720が設置される場所は、ユーザにとっての死角となる場所であればどこに設置されてもよい。
それぞれのカメラ720で撮影された画像情報は、車載カメラ制御部710に送られる。車載カメラ制御部710は、それぞれのカメラ720で撮影された画像情報に基づいて、自動車の死角となる位置に、人が居たり物があったりしないか判断する。例えば、左側の死角を撮影するカメラ720および右側の死角を撮影するカメラ720には人や物は映っていないが、後方の死角を撮影するカメラ720に人の映像が映っていたとする。このようなとき、車載カメラ制御部710は、「左右は安全、後方は危険」という情報をタッチ入力装置100に送る。タッチ入力装置100は、この情報に基づく触覚を呈示する。
図11は、実施形態3における触覚呈示の一例を示す概略図である。図11に示すように、ユーザがタッチパッド120に3本の指でタッチした時、それぞれの指の接触点のX座標に応じて、指Kを左側の死角、指Lを後方の死角、指Mを右側の死角に関連付ける。そして、図11に示すように、後方の死角に関連付けられた指Lにのみ触覚を呈示する。ユーザは、指Lにのみに触覚が呈示されることで、自動車の後方が危険であることを認識することができる。
本実施形態のタッチ入力装置100は、実施形態1と同様に、図7に示す処理を実行することができる。従って、タッチ入力装置100は、ユーザのタッチ状態が触覚呈示を待つ状態なのかタッチ入力操作をしている状態なのかの判定を適切に行うことができる。また、本実施形態の触覚呈示システム30は、ユーザのタッチ状態が触覚呈示を待つ状態なのかタッチ入力操作をしている状態なのかの判定を適切に行うことができる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1〜3を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施形態にも適用可能である。また、上記実施形態1〜3で説明した各構成要素を組み合わせて、新たな実施形態とすることも可能である。
そこで、以下、他の実施形態を例示する。
実施形態1、2では、「タッチ操作に関する情報以外の情報」として、道路の車線に関する情報や道路の混雑状況を例に説明し、実施形態3では、「タッチ操作に関する情報以外の情報」として、車載カメラにより撮影された画像の情報を例にして説明した。しかし、「タッチ操作に関する情報以外の情報」はこれには限らない。例えば、タッチ入力装置がカーナビに用いられる場合、「タッチ操作に関する情報以外の情報」は、車のガソリンの残量や、車内の温度、タイヤの減り具合等に関する情報であってもよく、ユーザによるカーナビ6の「高速道路優先」、「一般道路優先」などの設定情報であってもよい。
実施形態1では、カーナビ200にタッチ入力装置100が接続される構成を例に説明したが、これには限らない。例えば、タッチ入力装置100がカーナビ200に含まれる構成であってもよい。また、タッチ入力装置100は、カーナビ以外の機器に接続または含まれてもよい。タッチ入力装置100がスマートフォンに含まれる場合、「タッチ操作に関する情報以外の情報」として、バッテリーの残量や電波の受信強度、スマートフォンの向きや傾き、メモリやHDDの残量の情報を用いてもよい。また、タッチ入力装置100がコンパクトカメラや交換レンズ式のカメラに含まれる場合、「タッチ操作に関する情報以外の情報」として、画角や絞り値などのレンズに関する情報や被写体の位置などの情報を用いてもよい。タッチ入力装置100がポータブルナビゲーションシステムに接続される場合、「タッチ操作に関する情報以外の情報」として、階段や段差、エスカレータの有無等の情報を用いてもよい。
また、上記実施形態では、振動を発生することで触覚を呈示したが、本開示の技術はこれに限られない。例えば、静電気による摩擦の変化や、電流による皮膚の刺激、液体による画面形状の変化などの他の方法と振動とを組み合わせて触覚を呈示してもよい。また、触覚の呈示だけでなく、画像表示、音、光、熱などを適宜組み合わせてもよい。
なお、本開示の実施形態に係る制御動作は、ハードウエアによって実現されてもよいしソフトウエアによって実現されてもよい。そのような制御動作を実行させるコンピュータプログラムは、例えばマイクロコンピュータの内蔵メモリやマイクロコンピュータとは別に設けられた記録媒体に記憶される。また、制御部がそのようなコンピュータプログラムを記憶していてもよい。また、そのようなコンピュータプログラムは、それが記憶された記録媒体(光ディスク、半導体メモリー等)から電子デバイスへインストールしてもよいし、インターネット等の電気通信回線を介してダウンロードしてもよい。
上記実施形態では、ユーザの指による接触を検出していたが、本開示の技術はこれには限られない。例えば、タッチペンによる接触を検出してもよい。
また、タッチパッド10が透明で、タッチパッド10の裏面にディスプレイが配置されていてもよい。すなわち、タッチパッド10は、透明なタッチパネルであってもよい。タッチパッド120の形状は、平面でなくてもよい。例えば、タッチパッド120は、曲面でもよく、球面でもよい。また、タッチパッド10は複数枚で構成されていてもよい。
(まとめ)
以上説明したように、本開示のある実施形態に係る交通情報呈示システムは、交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システム10であって、ユーザがタッチする接触部120と、ユーザに触覚を呈示する触覚呈示部130と、交通情報を受信する入力部150と、受信した交通情報に基づいて触覚呈示部130を制御する制御部110とを備え、制御部110は、接触部120へのタッチ状態をモニターし、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付け、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を触覚呈示部130に実行させる。
例えば、制御部110は、タッチ継続時間が一定時間未満の場合、タッチ入力操作に対応したユーザからの指示を受け付けてもよい。
例えば、制御部110は、触覚の呈示を実行した後、接触部120へのタッチが継続していることを検出した場合、交通情報に基づく触覚の呈示を触覚呈示部130に再度実行させてもよい。
例えば、制御部110は、触覚の呈示を実行した後、タッチ入力操作を検出した場合、タッチ入力操作に対応したユーザからの指示を受け付けてもよい。
例えば、入力部150は、外部機器から交通情報を受信してもよい。
例えば、交通情報呈示システム20は、制御部として、接触部120および触覚呈示部130を含む第1装置400に設けられた第1制御部410と、第1装置400とは別の第2装置600に設けられた第2制御部610とを備え、第1装置400と第2装置600とは無線通信を行い、第2制御部610は、接触部120へのタッチ状態をモニターし、第1制御部410は、第2制御部610のモニター結果に基づいて触覚呈示部130を制御してもよい。
本開示のある実施形態に係る電子デバイスは、交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システム10に使用される電子デバイス100であって、ユーザがタッチする接触部120と、ユーザに触覚を呈示する触覚呈示部130と、交通情報を受信する入力部150と、受信した交通情報に基づいて触覚呈示部130を制御する制御部110とを備え、制御部110は、接触部120へのタッチ状態をモニターし、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付け、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を触覚呈示部130に実行させる。
本開示のある実施形態に係る方法は、交通情報に基づいてユーザへ触覚を呈示する方法であって、交通情報を受信するステップと、ユーザがタッチする接触部120へのタッチ状態をモニターするステップと、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付けるステップと、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を実行するステップとを含む。
本開示のある実施形態に係るコンピュータプログラムは、交通情報に基づいてユーザへ触覚を呈示する処理を電子デバイス100に実行させるコンピュータプログラムであって、コンピュータプログラムは、交通情報を受信するステップと、ユーザがタッチする接触部120へのタッチ状態をモニターするステップと、タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応したユーザからの指示を受け付けるステップと、タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、交通情報に基づく触覚の呈示を実行するステップとを電子デバイス100のコンピュータに実行させる。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示の技術は、ユーザに触覚を呈示可能な電子機器に適用可能である。例えば、カーナビゲーション装置、デジタルスチルカメラ、ムービーカメラ、カメラ機能付き携帯電話機、スマートフォン、タブレットPCなどに、本開示の技術は適用可能である。
100、400 タッチ入力装置
110 制御部
120 タッチパッド
130 圧電素子
140 タイマー
150 第1入力部
160 第1出力部
170 スペーサ
200、500 カーナビ
210 制御部
220 表示部
230 受信機
240 記録部
250 第2入力部
260 第2出力部
300 GPS衛星
420 第1通信部
520 第2通信部
700 車載カメラシステム
710 制御部
720 カメラ
730 第2入力部
740 第2出力部

Claims (8)

  1. 交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システムであって、
    前記ユーザがタッチする接触部と、
    前記ユーザに触覚を呈示する触覚呈示部と、
    交通情報を受信する入力部と、
    前記受信した交通情報に基づいて前記触覚呈示部を制御する制御部と、
    を備え、
    前記制御部は、
    前記接触部へのタッチ状態をモニターし、
    タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応した前記ユーザからの指示を受け付け、
    タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、前記交通情報に基づく触覚の呈示を前記触覚呈示部に実行させる、交通情報呈示システム。
  2. 前記制御部は、タッチ継続時間が一定時間未満の場合、タッチ入力操作に対応した前記ユーザからの指示を受け付ける、請求項1に記載の交通情報呈示システム。
  3. 前記制御部は、触覚の呈示を実行した後、前記接触部へのタッチが継続していることを検出した場合、前記交通情報に基づく触覚の呈示を前記触覚呈示部に再度実行させる、請求項1に記載の交通情報呈示システム。
  4. 前記制御部は、触覚の呈示を実行した後、タッチ入力操作を検出した場合、前記タッチ入力操作に対応した前記ユーザからの指示を受け付ける、請求項1に記載の交通情報呈示システム。
  5. 前記入力部は、外部機器から前記交通情報を受信する、請求項1に記載の交通情報呈示システム。
  6. 前記交通情報呈示システムは、前記制御部として、前記接触部および前記触覚呈示部を含む第1装置に設けられた第1制御部と、前記第1装置とは別の第2装置に設けられた第2制御部とを備え、
    前記第1装置と前記第2装置とは無線通信を行い、
    前記第2制御部は、前記接触部へのタッチ状態をモニターし、
    前記第1制御部は、前記第2制御部の前記モニター結果に基づいて前記触覚呈示部を制御する、請求項1に記載の交通情報呈示システム。
  7. 交通情報に基づいてユーザへ触覚を呈示する交通情報呈示システムに使用される電子デバイスであって、
    前記ユーザがタッチする接触部と、
    前記ユーザに触覚を呈示する触覚呈示部と、
    交通情報を受信する入力部と、
    前記受信した交通情報に基づいて前記触覚呈示部を制御する制御部と、
    を備え、
    前記制御部は、
    前記接触部へのタッチ状態をモニターし、
    タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応した前記ユーザからの指示を受け付け、
    タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、前記交通情報に基づく触覚の呈示を前記触覚呈示部に実行させる、電子デバイス。
  8. 交通情報に基づいてユーザへ触覚を呈示する方法であって、
    交通情報を受信するステップと、
    前記ユーザがタッチする接触部へのタッチ状態をモニターするステップと、
    タッチ位置の変化量が一定量以上になったことを検出した場合、タッチ入力操作に対応した前記ユーザからの指示を受け付けるステップと、
    タッチ位置の変化量が一定量未満で、且つ、タッチ継続時間が一定時間以上になった場合、前記交通情報に基づく触覚の呈示を実行するステップと、
    を含む方法。
JP2014075084A 2013-04-25 2014-04-01 交通情報呈示システム、交通情報呈示方法および電子デバイス Pending JP2014225245A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014075084A JP2014225245A (ja) 2013-04-25 2014-04-01 交通情報呈示システム、交通情報呈示方法および電子デバイス
US14/250,859 US9116547B2 (en) 2013-04-25 2014-04-11 Traffic information presentation system, traffic information presentation method, and electronic device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013092359 2013-04-25
JP2013092359 2013-04-25
JP2014075084A JP2014225245A (ja) 2013-04-25 2014-04-01 交通情報呈示システム、交通情報呈示方法および電子デバイス

Publications (1)

Publication Number Publication Date
JP2014225245A true JP2014225245A (ja) 2014-12-04

Family

ID=51788836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014075084A Pending JP2014225245A (ja) 2013-04-25 2014-04-01 交通情報呈示システム、交通情報呈示方法および電子デバイス

Country Status (2)

Country Link
US (1) US9116547B2 (ja)
JP (1) JP2014225245A (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057857A (ja) * 2014-09-10 2016-04-21 三菱電機株式会社 触感制御システムおよび触感制御方法
JP5945999B1 (ja) * 2015-07-31 2016-07-05 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
WO2016170785A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
WO2016170773A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援プログラム
JP2016216024A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP2017030727A (ja) * 2016-05-18 2017-02-09 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP2019003708A (ja) * 2018-10-15 2019-01-10 日本電信電話株式会社 電子装置および皮膚覚提示システム
JP2019023062A (ja) * 2017-06-01 2019-02-14 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH システムの操縦または挙動を自動で実行するためのシステムおよび方法
WO2019087646A1 (ja) * 2017-11-01 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2019116687A1 (ja) * 2017-12-15 2019-06-20 株式会社デンソー 道路地図生成システム及び道路地図生成方法
JP2021099561A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置、入力装置、およびプログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102406504B1 (ko) * 2016-12-14 2022-06-10 현대자동차주식회사 차량의 자동 주차 제어 장치, 그를 포함한 시스템 및 그 방법
FR3073796B1 (fr) * 2017-11-21 2021-04-02 Renault Sas Systeme de communication pour vehicule automobile comprenant un dispositif tactile
US11760377B2 (en) * 2019-02-26 2023-09-19 Harman International Industries, Incorporated Shape-shifting control surface for an autonomous vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010118A (ja) * 2003-06-23 2005-01-13 Sony Corp 電子地図表示装置及び電子地図表示方法
JP2005201697A (ja) * 2004-01-14 2005-07-28 Alpine Electronics Inc ナビゲーション装置
JP2007155602A (ja) * 2005-12-07 2007-06-21 Denso Corp カーナビゲーションシステム
JP2008191086A (ja) * 2007-02-07 2008-08-21 Matsushita Electric Ind Co Ltd ナビゲーション装置
WO2010071187A1 (ja) * 2008-12-18 2010-06-24 日本電気株式会社 スライドバー表示制御装置及びスライドバー表示制御方法
JP2011170901A (ja) * 2011-06-09 2011-09-01 Sony Corp ポインタ表示装置、ポインタ表示検出方法及び情報機器
JP2013012122A (ja) * 2011-06-30 2013-01-17 Jvc Kenwood Corp 情報提供装置及び情報提供方法
JP2013020420A (ja) * 2011-07-11 2013-01-31 Kddi Corp 指を接触させたままで種々の操作が実行可能なユーザインタフェース装置、入力操作判定方法及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5880411A (en) 1992-06-08 1999-03-09 Synaptics, Incorporated Object position detector with edge motion feature and gesture recognition
US6882287B2 (en) * 2001-07-31 2005-04-19 Donnelly Corporation Automotive lane change aid
US7526103B2 (en) * 2004-04-15 2009-04-28 Donnelly Corporation Imaging system for vehicle
JP2005335629A (ja) 2004-05-28 2005-12-08 Tokai Rika Co Ltd 車両用操作装置
JP2010157039A (ja) 2008-12-26 2010-07-15 Toshiba Corp 電子機器、入力制御方法
US8972879B2 (en) 2010-07-30 2015-03-03 Apple Inc. Device, method, and graphical user interface for reordering the front-to-back positions of objects
CA2797883C (en) 2010-09-24 2016-02-09 Research In Motion Limited Portable electronic device and method of controlling same
US9330379B2 (en) * 2012-09-14 2016-05-03 Intel Corporation Providing notifications of messages for consumption

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005010118A (ja) * 2003-06-23 2005-01-13 Sony Corp 電子地図表示装置及び電子地図表示方法
JP2005201697A (ja) * 2004-01-14 2005-07-28 Alpine Electronics Inc ナビゲーション装置
JP2007155602A (ja) * 2005-12-07 2007-06-21 Denso Corp カーナビゲーションシステム
JP2008191086A (ja) * 2007-02-07 2008-08-21 Matsushita Electric Ind Co Ltd ナビゲーション装置
WO2010071187A1 (ja) * 2008-12-18 2010-06-24 日本電気株式会社 スライドバー表示制御装置及びスライドバー表示制御方法
JP2011170901A (ja) * 2011-06-09 2011-09-01 Sony Corp ポインタ表示装置、ポインタ表示検出方法及び情報機器
JP2013012122A (ja) * 2011-06-30 2013-01-17 Jvc Kenwood Corp 情報提供装置及び情報提供方法
JP2013020420A (ja) * 2011-07-11 2013-01-31 Kddi Corp 指を接触させたままで種々の操作が実行可能なユーザインタフェース装置、入力操作判定方法及びプログラム

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057857A (ja) * 2014-09-10 2016-04-21 三菱電機株式会社 触感制御システムおよび触感制御方法
JP2016216025A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
WO2016170785A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
WO2016170773A1 (ja) * 2015-04-21 2016-10-27 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、運転支援プログラム
JP2016216024A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP2016216029A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、自動運転制御装置、車両、プログラム
JP2016216026A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP2016216023A (ja) * 2015-04-21 2016-12-22 パナソニックIpマネジメント株式会社 運転支援方法およびそれを利用した運転支援装置、運転制御装置、車両、運転支援プログラム
JP6052530B1 (ja) * 2015-04-21 2016-12-27 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
JP2017138953A (ja) * 2015-04-21 2017-08-10 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
US10604158B2 (en) 2015-07-31 2020-03-31 Panasonic Intellectual Property Management Co., Ltd. Driving support device, driving support system and driving support method
JP5945999B1 (ja) * 2015-07-31 2016-07-05 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP2017030572A (ja) * 2015-07-31 2017-02-09 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
US9944298B2 (en) 2015-07-31 2018-04-17 Panasonic Intellectual Property Management Co., Ltd. Driving support device, driving support system and driving support method
JP2017030727A (ja) * 2016-05-18 2017-02-09 パナソニックIpマネジメント株式会社 運転支援装置、運転支援システム、運転支援方法、運転支援プログラム及び自動運転車両
JP2019023062A (ja) * 2017-06-01 2019-02-14 ホンダ リサーチ インスティテュート ヨーロッパ ゲーエムベーハーHonda Research Institute Europe GmbH システムの操縦または挙動を自動で実行するためのシステムおよび方法
WO2019087646A1 (ja) * 2017-11-01 2019-05-09 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2019087646A1 (ja) * 2017-11-01 2020-12-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7226330B2 (ja) 2017-11-01 2023-02-21 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
WO2019116687A1 (ja) * 2017-12-15 2019-06-20 株式会社デンソー 道路地図生成システム及び道路地図生成方法
JP2019109293A (ja) * 2017-12-15 2019-07-04 株式会社デンソー 道路地図生成システム及び道路地図生成方法
JP2019003708A (ja) * 2018-10-15 2019-01-10 日本電信電話株式会社 電子装置および皮膚覚提示システム
JP2021099561A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置、入力装置、およびプログラム

Also Published As

Publication number Publication date
US9116547B2 (en) 2015-08-25
US20140320432A1 (en) 2014-10-30

Similar Documents

Publication Publication Date Title
JP2014225245A (ja) 交通情報呈示システム、交通情報呈示方法および電子デバイス
EP3165994B1 (en) Information processing device
US10120567B2 (en) System, apparatus and method for vehicle command and control
EP2914475B1 (en) System and method for using gestures in autonomous parking
US9489500B2 (en) Manipulation apparatus
US10642381B2 (en) Vehicular control unit and control method thereof
RU2583754C2 (ru) Устройство управления
KR101632009B1 (ko) 전자기기 및 그것의 제어방법
WO2015102069A1 (ja) 操作装置
JP2007106353A (ja) 車両用情報表示装置及び車両用情報表示システム
WO2021082483A1 (en) Method and apparatus for controlling vehicle
JP6323960B2 (ja) 入力装置
US9298306B2 (en) Control apparatus and computer program product for processing touchpad signals
WO2016189734A1 (ja) タッチパネル制御装置及び車載情報機器
JP4848997B2 (ja) 車載機器の誤操作防止装置および誤操作防止方法
JP7338184B2 (ja) 情報処理装置、情報処理システム、移動体、情報処理方法、及びプログラム
JP6125310B2 (ja) 入力装置及びコンピュータプログラム
WO2014171096A1 (ja) 車載機器の制御装置、車載機器
JP2009163436A (ja) 情報端末装置、コンピュータプログラム及び表示方法
JP2015033991A (ja) インターフェースデバイス、インターフェースデバイス制御方法、及びインターフェースデバイス制御プログラム
US20210129673A1 (en) Input device
JP4849193B2 (ja) 車載機器の誤操作防止装置および誤操作防止方法
CN111638786B (zh) 车载后排投影显示系统的显示控制方法、装置、设备及存储介质
JP2013187874A (ja) 入力装置、入力装置の設定方法、入力装置用プログラム、および、記録媒体
JP5870689B2 (ja) 操作入力システム

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141001

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160216

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161213

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170613