JPWO2014141954A1 - 表示装置 - Google Patents

表示装置 Download PDF

Info

Publication number
JPWO2014141954A1
JPWO2014141954A1 JP2015505413A JP2015505413A JPWO2014141954A1 JP WO2014141954 A1 JPWO2014141954 A1 JP WO2014141954A1 JP 2015505413 A JP2015505413 A JP 2015505413A JP 2015505413 A JP2015505413 A JP 2015505413A JP WO2014141954 A1 JPWO2014141954 A1 JP WO2014141954A1
Authority
JP
Japan
Prior art keywords
information
touch
operation information
display device
vehicle device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015505413A
Other languages
English (en)
Other versions
JP6317326B2 (ja
Inventor
憲和 奈良
憲和 奈良
克己 佐野
克己 佐野
祐介 松本
祐介 松本
克哉 松雪
克哉 松雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Publication of JPWO2014141954A1 publication Critical patent/JPWO2014141954A1/ja
Application granted granted Critical
Publication of JP6317326B2 publication Critical patent/JP6317326B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0231Cordless keyboards
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0383Remote input, i.e. interface arrangements in which the signals generated by a pointing device are transmitted to a PC at a remote location, e.g. to a PC in a LAN
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0384Wireless input, i.e. hardware and software details of wireless interface arrangements for pointing devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Navigation (AREA)
  • Telephone Function (AREA)

Abstract

情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、タッチ操作に応じた操作情報を情報端末へ送信する送信部とを備える。送信部は、タッチ操作が連続して行われた場合に、操作情報を遅延させて送信する。

Description

本発明は、表示装置に関する。
従来、携帯電話の表示画面と共に、携帯電話の各操作キーに対応する複数のタッチスイッチを車載装置のディスプレイに表示し、いずれかのタッチスイッチが操作されると、そのタッチスイッチに対応する操作キーの操作コマンドを車載装置から携帯電話に供給することで携帯電話を操作可能とした技術が知られている(特許文献1参照)。
日本国特開2003−244343号公報
近年、操作キーを用いて操作を行う従来の携帯電話の他に、タッチパネルを用いることで直感的な操作を可能としたスマートフォンも広く利用されている。こうしたスマートフォンの場合、特許文献1の従来技術を利用して車載装置からの操作を実現することはできない。このように従来では、スマートフォンのようなタッチパネル操作を適用した情報端末の表示画面を表示装置で表示したときに、表示装置から情報端末を操作するための技術は提案されていなかった。
本発明の第1の態様によると、情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、タッチ操作に応じた操作情報を情報端末へ送信する送信部とを備える。送信部は、タッチ操作が連続して行われた場合に、操作情報を遅延させて送信する。
本発明の第2の態様によると、第1の態様の表示装置において、送信部は、タッチ操作によりタッチ位置が指定されると、カーソルを所定の基準位置からタッチ位置まで移動させるための第1の操作情報を送信し、第1の操作情報を送信した後にタッチ位置の指定が解除されると、カーソルをタッチ位置から基準位置まで戻すための第2の操作情報を送信し、第2の操作情報を送信した後、所定のインターバル時間以内に次のタッチ操作が行われると、次回の第1の操作情報を遅延させて送信することが好ましい。
本発明の第3の態様によると、第2の態様の表示装置において、操作情報は、カーソルの移動量を示す移動量情報を含み、送信部は、基準位置からタッチ位置までの距離に応じた移動量情報を第1の操作情報として送信し、基準位置に応じた所定の移動量情報を第2の操作情報として送信することが好ましい。
本発明の第4の態様によると、第2または第3の態様の表示装置において、送信部は、タッチ操作によりタッチ位置が指定されると、第1の操作情報を送信した後に、所定のボタン操作を示す第3の操作情報を送信し、第3の操作情報を送信した後にタッチ位置の指定が解除されると、ボタン操作の解除を示す第4の操作情報を送信した後に、第2の操作情報を送信することが好ましい。
本発明の第5の態様によると、第4の態様の表示装置において、送信部は、第3の操作情報および第4の操作情報において、カーソルの移動量を0とすることが好ましい。
本発明の第6の態様によると、第2または第3の態様の表示装置において、送信部は、タッチ操作中にタッチ位置が移動されると、第1の操作情報を送信した後に、所定のボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報を送信してもよい。
本発明の第7の態様によると、第4または第5の態様の表示装置において、送信部は、タッチ操作中にタッチ位置が移動されると、第1の操作情報および第3の操作情報を送信した後に、ボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報を送信してもよい。
本発明の第8の態様によると、第2乃至第7のいずれか一態様の表示装置は、情報端末からインターバル時間に関するインターバル時間情報を取得するインターバル時間情報取得部をさらに備えてもよい。この表示装置において、送信部は、インターバル時間情報取得部により取得されたインターバル時間情報に基づいて、操作情報を遅延させて送信するか否かを判断することが好ましい。
本発明の第9の態様によると、第8の態様の表示装置において、インターバル時間情報は、所定のサーバ装置から情報端末に配信されるポリシーファイルに基づいて、情報端末から送信されることが好ましい。
本発明の第10の態様によると、第1乃至9のいずれか一態様の表示装置において、送信部は、ブルートゥースまたはUSBにおけるマウス用の通信フォーマットを利用して、操作情報を送信してよい。
本発明の第11の態様によると、情報端末と接続される表示装置は、情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、画像受信部により受信された画像情報に基づいて画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、タッチ操作に応じた操作情報を情報端末へ送信する送信部とを備える。送信部は、タッチ操作中にタッチ位置が移動されると、所定のボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する。
本発明によれば、タッチパネル操作を適用した情報端末の表示画面を表示装置で表示したときに、表示装置から情報端末を操作することができる。
本発明の一実施の形態による車載情報システムの構成を示す図である。 車載装置および携帯端末の構成を示すブロック図である。 携帯端末におけるソフトウェアの概略構成を示す図である。 車載装置においてタッチ操作が行われたときの車載装置と携帯端末の動作を説明する図である。 タッチ操作に関する車載装置、携帯端末およびサーバ装置間の情報の流れを示すシーケンス図である。 携帯端末に配信されるポリシーファイルにおいて記録されている情報の例を示す図である。 車載装置において実行されるタッチ操作に関する処理のフローチャートである。 車載装置においてフリック操作が行われたときの車載装置と携帯端末の動作を説明する図である。 フリック操作に関する車載装置、携帯端末およびサーバ装置間の情報の流れを示すシーケンス図である。 車載装置において実行されるフリック操作に関する処理のフローチャートである。
−第1の実施形態−
図1は、本発明の一実施の形態による車載情報システムの構成を示す図である。図1に示す車載情報システムは、車両に搭載されて使用されるものであり、車載装置1と携帯端末2が近距離無線通信および映像・音声ケーブル3を介した有線通信で互いに接続されることによって実現される。車載装置1は、車両内に固定されており、たとえば車両のインストルメントパネル内などに設置されている。携帯端末2は、ユーザが持ち運び可能な携帯型の情報端末であり、たとえば携帯電話やスマートフォンなどである。なお、車載装置1と携帯端末2の間で行われる近距離無線通信には、たとえばBluetooth(ブルートゥース)(登録商標)などを用いることができる。また、映像・音声ケーブル3を介した有線通信には、たとえばHDMI(登録商標)などを用いることができる。
車載装置1には、表示部11が設けられている。表示部11は、各種の画像や映像を表示可能なタッチパネルであり、たとえば抵抗膜方式のタッチパネルスイッチと液晶ディスプレイとを組み合わせて構成される。ユーザは、表示部11において任意の位置を指等でタッチ操作してその位置に表示されたアイコンや操作ボタン等を指定することで、所望の機能を携帯端末2に実行させることができる。なお、表示部11に加えて、さらに所定の操作に対応する操作スイッチを車載装置1に設けてもよい。
携帯端末2には、表示部21が設けられている。表示部21は、各種の画像や映像を表示可能なタッチパネルであり、たとえば静電容量方式のタッチパネルスイッチと液晶ディスプレイとを組み合わせて構成される。ユーザは、表示部21に表示される画像や映像の内容に応じて、表示部21上で任意の位置を指等でタッチすることで、所望の機能を携帯端末2に実行させることができる。なお、ここでは表示部21をタッチパネルとした例を説明したが、タッチパネルではない通常の表示モニタとしてもよい。その場合、携帯端末2が実行する処理の内容に応じた各種の操作スイッチを携帯端末2に設けることが好ましい。あるいは、表示部21をタッチパネル式の表示モニタとし、さらに所定の操作に対応する操作スイッチを携帯端末2に設けてもよい。
図2は、車載装置1および携帯端末2の構成を示すブロック図である。図2に示すように車載装置1は、制御部10、表示部11、操作部12、音声出力部13、メモリ部14、近距離無線通信インタフェース部15および映像・音声信号入力部16を有する。一方、携帯端末2は、制御部20、表示部21、操作部22、音声出力部23、メモリ部24、近距離無線通信インタフェース部25、映像・音声信号出力部26、無線通信部27およびGPS(Global Positioning System)受信部28を有する。
車載装置1において、制御部10は、マイクロプロセッサや各種周辺回路、RAM、ROM等によって構成されており、メモリ部14に記録されている制御プログラムに基づいて各種の処理を実行する。この制御部10が行う処理により、各種の画像表示処理や音声出力処理などが実行される。
さらに制御部10は、車両から出力される車速信号およびパーキング信号を取得する。この車速信号およびパーキング信号に基づいて、制御部10は、車両の走行状態が走行中または停車中のいずれであるかを判断する。なお、車両から制御部10への車速信号およびパーキング信号の出力は、たとえば、車両内に設けられた通信ネットワークである不図示のCAN(Controller Area Network)を経由して、車両に搭載された車速センサから車速パルスが出力されることにより行われる。
表示部11は、図1を用いて前述したように、液晶ディスプレイ等によって構成される表示モニタである。操作部12は、表示部11に対するユーザのタッチ操作を検出するための部分であり、前述のタッチパネルスイッチに相当する。なお、図2では表示部11と操作部12を別々に示しているが、実際にはこれらが一体化されて一つのタッチパネルを構成している。また、前述のようにタッチパネル以外の操作スイッチを車載装置1に設けた場合は、その操作スイッチも操作部12に含まれる。操作部12に対して行われたユーザの入力操作内容は制御部10へ出力され、制御部10が行う処理に反映される。
音声出力部13は、アンプ、スピーカ等を有しており、制御部10の制御によって各種の音声を出力することができる。たとえば、携帯端末2または不図示の記録媒体から読み出された音楽データを再生した音楽や、車両を目的地まで誘導するための誘導音声などが音声出力部13から出力される。
メモリ部14は、不揮発性のデータ格納装置であり、たとえばHDD(ハードディスクドライブ)やフラッシュメモリ等によって実現される。メモリ部14には、たとえば制御部10において用いられる前述の制御プログラムなど、各種のデータが記憶されている。メモリ部14におけるデータの読み出しおよび書き込みは、制御部10の制御により必要に応じて行われる。
近距離無線通信インタフェース部15は、制御部10の制御により、携帯端末2との間で近距離無線通信を行う際に必要な無線インタフェース処理を行う。たとえば、制御部10から出力された情報を所定の無線信号形式に変換して携帯端末2へ送信したり、携帯端末2から所定の無線信号形式で出力された情報を受信して制御部10へ出力したりする。近距離無線通信インタフェース部15によるインタフェース処理は、Bluetooth等の所定の通信規格に従って行われる。
映像・音声信号入力部16は、映像・音声ケーブル3を介して携帯端末2から入力される映像信号と音声信号を受け、これらの信号を画面表示用の画像(映像)データと音声出力用の音声データにそれぞれ変換して制御部10へ出力する。映像・音声信号入力部16から制御部10へ画像データと音声データが出力されると、制御部10は、表示部11を制御してその画像データに基づく画像を表示部11に画面表示させると共に、音声出力部13を制御してその音声データに基づく音声を音声出力部13に出力させる。
一方、携帯端末2において、制御部20は、車載装置1の制御部10と同様にマイクロプロセッサや各種周辺回路、RAM、ROM等によって構成されており、メモリ部24に記録されている制御プログラムに基づいて各種の処理を実行する。
表示部21は、前述したようなタッチパネル式の表示モニタである。操作部22は、ユーザの入力操作を検出するための部分である。なお、図2では表示部21と操作部22を別々の構成として示しているが、実際には前述の表示部11と同様に、表示部21と操作部22が一体化されて一つのタッチパネルを構成している。また、前述のようにタッチパネル以外の操作スイッチを携帯端末2に設けた場合は、その操作スイッチも操作部22に含まれる。操作部22に対して行われたユーザの入力操作内容は制御部20へ出力され、制御部20が行う処理に反映される。
音声出力部23は、アンプ、スピーカ等を有しており、制御部20の制御によって各種の音声を出力することができる。たとえば、携帯端末2を用いて通話を行ったときには、通話相手の音声が音声出力部23から出力される。
メモリ部24は、車載装置1のメモリ部14と同様の不揮発性のデータ格納装置であり、制御部20の処理において利用するための各種のデータが記憶されている。このメモリ部24には、ユーザが予め入手した様々なアプリケーションプログラム(以下、単にアプリケーションと称する)が記憶されている。ユーザは、メモリ部24に記憶された各種アプリケーションの中からいずれかを選択して制御部20に実行させることにより、様々な機能を携帯端末2において実現することができる。
近距離無線通信インタフェース部25は、車載装置1の近距離無線通信インタフェース部15と同様に、所定の通信規格に基づいた無線インタフェース処理を行う。すなわち、車載装置1と携帯端末2との間の情報通信は、近距離無線通信インタフェース部15と近距離無線通信インタフェース部25とが互いに無線通信で情報を授受することにより実現される。
映像・音声信号出力部26は、制御部20により生成された画像(映像)と音声を、たとえばHDMI等の所定の通信規格に応じた映像信号と音声信号にそれぞれ変換し、映像・音声ケーブル3を介して車載装置1へ出力する。この映像信号と音声信号が車載装置1において映像・音声信号入力部16に入力されると、携帯端末2において表示部21に表示されるのと同一の画像(画面)が車載装置1の表示部11にも表示される。また、携帯端末2において音声出力部23から出力されるのと同一の音声が車載装置1の音声出力部13からも出力される。こうした機能はビデオミラーリングと呼ばれている。
無線通信部27は、不図示の無線通信回線網を介して携帯端末2を他の携帯端末やサーバに接続するための無線通信を行う。携帯端末2は、無線通信部27が行う無線通信により、他の携帯端末との間で通話を行ったり、サーバから任意のアプリケーションをダウンロードしたりすることができる。なお、無線通信部27が行う無線通信では、たとえば携帯電話回線網や、無線LANを介したインターネット回線網などを無線通信回線網として利用することができる。
GPS受信部28は、GPS衛星から送信されるGPS信号を受信して制御部20へ出力する。GPS信号には、携帯端末2の現在位置と現在時刻を求めるための情報として、そのGPS信号を送信したGPS衛星の位置と送信時刻に関する情報が含まれている。したがって、所定数以上のGPS衛星からGPS信号を受信することにより、これらの情報に基づいて現在位置と現在時刻を制御部20において算出することができる。
次に、本車載情報システムにおける車載装置1と携帯端末2との連携機能について説明する。本車載情報システムは、車載装置1と携帯端末2との連携機能を有している。この連携機能を用いることで、車載装置1と携帯端末2とが互いに接続された状態で携帯端末2において様々なアプリケーションを実行すると、車載装置1において当該アプリケーションに応じた画像表示や音声出力を行うことができる。また、車載装置1に対して行われたユーザの操作内容を、携帯端末2において実行されているアプリケーションの動作に反映させることができる。
たとえば、携帯端末2においてナビゲーション用のアプリケーションを実行することにより、車両を目的地まで誘導するためのナビゲーション処理を行うことができる。このナビゲーション処理では、携帯端末2において現在位置付近の地図を描画した地図画面を作成し、その地図画面を表す画像情報を、前述の映像信号により、映像・音声信号出力部26から映像・音声ケーブル3を介して映像・音声信号入力部16へ出力する。これにより、携帯端末2から車載装置1へ地図画面を送信し、車載装置1の表示部11において現在位置付近の地図画面を表示できるようにする。また、車載装置1の操作部12または携帯端末2の操作部22を操作してユーザが目的地を設定すると、車両の現在位置を出発地として、そこから設定された目的地までの推奨経路を携帯端末2において探索する。そして、推奨経路上の誘導地点に車両が近づくと、その誘導地点における車両の進行方向に応じた誘導音声を携帯端末2から車載装置1へ送信する。これにより、車載装置1の音声出力部13から誘導音声を出力できるようにする。なお、このとき携帯端末2から車載装置1に対して、誘導音声出力の開始と終了のタイミングに応じてそれぞれ所定の信号を出力してもよい。このようにすれば、車載装置1においてラジオ放送や再生中のCD等による音声が出力されている場合であっても、その音声のボリュームを誘導音声の出力中には低下させ、ユーザが誘導音声を聞き取りやすくすることができる。以上説明したように、表示部11に地図画像を表示したり、音声出力部13から誘導音声を出力したりすることで、車載装置1は、ユーザが迷わずに車両を目的地まで運転できるようにするための報知をユーザに対して行う。
なお、携帯端末2がナビゲーション用のアプリケーションを実行するために必要な地図データ等の各種データは、携帯端末2のメモリ部24において予め記憶されたものを使用してもよい。あるいは、メモリ部24には必要最小限のデータのみを記憶しておき、携帯端末2がナビゲーション用のアプリケーションを実行したときには、無線通信部27を用いて所定のサーバに接続し、必要なデータをその都度取得するようにしてもよい。
携帯端末2では、上記のようなナビゲーション用のアプリケーションを含む複数のアプリケーションのうち、ユーザに選択されたアプリケーションを実行する。ユーザは、携帯端末2の表示部21に表示されるメニュー画面において、操作部22を操作して所望のアプリケーションを選択することにより、携帯端末2に実行させるアプリケーションの選択を行うことができる。このメニュー画面には、たとえば、連携機能を利用可能な各アプリケーションのアイコンが並べて表示されている。ユーザがメニュー画面上でいずれかのアイコンをタッチパネル操作等により選択すると、そのアイコンに対応するアプリケーションが携帯端末2において実行される。
さらに携帯端末2は、映像・音声信号出力部26からの映像信号によりメニュー画面を車載装置1へ送信する。車載装置1は、携帯端末2から送信された映像信号に基づいて、表示部11にメニュー画面を表示する。このメニュー画面において、ユーザがタッチパネルの一部である操作部12のタッチ操作により所望のアプリケーションを選択すると、そのタッチ操作に応じた操作情報が近距離無線通信インタフェース部15により車載装置1から携帯端末2へ送信される。
車載装置1から送信された操作情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、制御部20へ出力される。こうして受信された操作情報に基づいて、制御部20は、車載装置1においてどのアプリケーションがユーザに選択されたかを認識し、当該アプリケーションを実行する。これによりユーザは、携帯端末2の表示部21に表示されるメニュー画面を用いた場合と同様に、所望のアプリケーションを車載装置1において選択し、携帯端末2に実行させることができる。
なお、制御部20は、各アプリケーションをフォアグランドまたはバックグランドで実行することができる。フォアグランドで実行した場合、そのアプリケーションは車載装置1および携帯端末2において画像表示や操作入力の対象とされる。一方、バックグランドで実行した場合、そのアプリケーションに応じた処理が制御部20により実行されるが、そのアプリケーションは車載装置1および携帯端末2において画像表示や操作入力の対象とはされない。ただし、音声についてはバックグランド実行中のアプリケーションから出力してもよい。
車載装置1と携帯端末2とを互いに接続して前述のような連携機能を実現するために、携帯端末2には、アプリケーションマネージャと呼ばれるアプリケーションが予めインストールされてメモリ部24に記憶されている。すなわち、メモリ部24には、アプリケーションマネージャを含む複数のアプリケーションが記憶されている。車載装置1に携帯端末2が接続されると、このアプリケーションマネージャがメモリ部24から読み出され、制御部20において実行される。
図3は、携帯端末2におけるソフトウェアの概略構成を示す図である。図3において、アプリケーションマネージャ201は、サブアプリケーションMaと、サブアプリケーションMsとを有している。
サブアプリケーションMaは、アプリケーションマネージャ201以外のアプリケーションを起動するためのランチャ機能と、車載装置1と携帯端末2の連携動作に必要な各種情報が記録されたポリシーファイルを取得するためのポリシーファイル取得機能とを有している。制御部20は、サブアプリケーションMaをフォアグランドで実行することにより、これらの機能を利用することができる。たとえば、ランチャ機能を用いて、他のアプリケーションを呼び出し、サブアプリケーションMaに代えてそのアプリケーションを制御部20にフォアグランドで実行させることができる。また、ポリシーファイル取得機能を用いて、外部のサーバ装置等からポリシーファイルと呼ばれるデータファイルを取得することができる。このポリシーファイルには、各アプリケーションに対する車両走行中の動作規制の内容を示す規制情報や、表示部21の解像度情報、後述するインターバル時間情報などが記録されている。取得したポリシーファイルは、メモリ部24に記憶される。
サブアプリケーションMsは、携帯端末2を車載装置1に接続するための通信機能と、車両走行中の動作規制を行うための動作規制機能とを有している。制御部20は、サブアプリケーションMsをバックグランドで実行することにより、これらの機能を利用することができる。たとえば、通信機能を用いて、メモリ部24に記憶されているポリシーファイルを参照し、携帯端末2と車載装置1との間で連携時に必要な各種の通信情報をやり取りすることができる。また、動作規制機能を用いて、メモリ部24に記憶されているポリシーファイルに示された規制情報を参照して、フォアグランドで実行中のアプリケーションに対する車両走行中の動作規制の内容を判断することができる。この判断結果は、上記の通信機能により、携帯端末2から車載装置1への通信情報として送信され、車載装置1において車両走行中の動作制限を行う際に利用される。
以上説明したように、アプリケーションマネージャ201は、制御部20においてフォアグランドで実行されるサブアプリケーションMaと、制御部20においてバックグランドで実行されるサブアプリケーションMsとに分けて構成されている。このようにすることで、アプリケーションマネージャ201の機能分担を最適化し、フォアグランドとバックグランドでそれぞれ実行するのに適した機能分担とすることができる。
アプリケーションマネージャ201は、サブアプリケーションMaのランチャ機能により、アプリケーション202に含まれる各アプリケーションのいずれかを呼び出す。すると、制御部20により、このアプリケーションがサブアプリケーションMaに代えてフォアグランドで実行される。なお、図3に対する以下の説明では、アプリケーションAが実行されているものとして説明する。
OS(オペレーティングシステム)203は、携帯端末2の全体的な動作を管理するためのソフトウェアである。携帯端末2を車載装置1に接続した場合、OS203は、制御部20においてバックグランドで実行されるサブアプリケーションMsと、SPPプロファイル204およびHIDプロファイル205との間で入出力される情報の仲介を行う。SPPプロファイル204およびHIDプロファイル205は、車載装置1と携帯端末2の間で行われる近距離無線通信において利用されるドライバであり、Bluetoothで用いられる規格の一部として標準化されている。
SPPプロファイル204は、サブアプリケーションMsの通信機能により携帯端末2と車載装置1の間で入出力される通信情報の送受信処理を行う。携帯端末2から車載装置1へ送信される通信情報には、サブアプリケーションMsの動作規制機能による動作規制内容の判断結果を示した情報や、取得済みのポリシーファイルに示された表示部21の解像度情報やインターバル時間情報などが含まれる。車載装置1から携帯端末2へ送信される通信情報には、車両の走行状態に応じた走行情報などが含まれる。一方、HIDプロファイル205は、車載装置1におけるユーザの操作内容に応じて車載装置1から出力される操作情報を受信するための処理を行う。SPPプロファイル204およびHIDプロファイル205により受信された各情報の内容は、OS203を介してサブアプリケーションMsに出力され、サブアプリケーションMsの通信機能により実行中のアプリケーションへと受け渡される。なお、これらの各情報の送受信は、車載装置1の近距離無線通信インタフェース部15と携帯端末2の近距離無線通信インタフェース部25との間で無線通信により行われる。
制御部20においてサブアプリケーションMaをフォアグランドで実行中の場合、サブアプリケーションMaは、前述のランチャ機能により、ユーザに実行するアプリケーションを選択させるためのメニュー画面の画像を生成する。また、制御部20においてアプリケーションAをフォアグランドで実行中の場合、アプリケーションAは、サブアプリケーションMsから受け渡された走行情報や操作情報を必要に応じて利用し、所定の画像や音声を生成する。これらの画像や音声は、音声・画像メモリ206に一時的に記憶された後、HDMIドライバ207へ出力される。
HDMIドライバ207は、HDMIで定められた方式に従って、サブアプリケーションMaやアプリケーションAにより生成された画像や音声を映像信号や音声信号に変換する処理を行う。この映像信号や音声信号は、映像・音声信号出力部26により、映像・音声ケーブル3を介して車載装置1へ出力される。
携帯端末2は、以上説明したようなソフトウェア構成を有している。なお、こうしたソフトウェア構成は、たとえばAndroid(登録商標)を用いて実現することができる。この場合、たとえばサブアプリケーションMaを「Activity」と呼ばれるスレッドで実行し、サブアプリケーションMsを「Service」と呼ばれるスレッドで実行することにより、制御部20においてサブアプリケーションMaをフォアグランドで実行しつつ、サブアプリケーションMsをバックグランドで実行することができる。
次に、ユーザが車載装置1においてタッチ操作を行った場合の動作について詳しく説明する。前述のように、車載装置1の表示部11に表示された画面上でユーザがタッチ操作を行うと、そのタッチ操作で指定されたタッチ位置に応じた操作情報が車載装置1から携帯端末2へ送信される。このとき車載装置1は、HIDパケットと呼ばれるマウス用の通信フォーマットを利用して、携帯端末2へ操作情報を送信する。
なお、Bluetoothにおけるマウス用の通信フォーマットであるHIDパケットは、一般的には、携帯端末2の入力デバイスとしてマウスを使用したときに利用される。マウスを使用した場合、HIDパケットでは、所定のデータフォーマットにより、マウスの動きに応じた移動量情報と、クリック操作等の各種ボタン操作に応じたボタン操作情報とを、所定時間ごとにマウスから携帯端末2へ送信することができる。HIDパケットによりマウスから送信されたこれらの情報を受信すると、携帯端末2は、図3に示したHIDプロファイル205により受信処理を行った後、OS203により解読することでマウスの動きを検出し、その動きに応じて画面上のカーソルを移動させる。さらに、クリック操作等のボタン操作が行われると、そのときのカーソル位置に対応する画面内容とボタン操作の内容から、ユーザが画面上で行った操作内容を解読する。制御部20では、このようにしてOS203により解読されたマウスの操作内容に応じて、メニュー画面上で指定されたアイコンに対応するアプリケーションを起動したり、実行中のアプリケーション画面で指定された操作に応じた処理を実行したりする。
本実施形態による車載情報システムでは、上記のようなHIDパケットを利用して、車載装置1でのタッチ操作に応じた操作情報を車載装置1から携帯端末2へ送信する。これにより、携帯端末2において、マウス使用時と同様にOS203によりタッチ操作内容を認識できるようにしている。
図4は、車載装置1においてタッチ操作が行われたときの車載装置1と携帯端末2の動作を説明する図である。図4(a)は、タッチ操作前の様子を示している。図4(a)において、表示部11と表示部21の外周部分のうち右下端にそれぞれ表示されている矢印形状のカーソル40は、その矢印の先端部分に当たるカーソル40の左上端を指示点としている。すなわち、タッチ操作前において画面上のカーソル40は、車載装置1では表示部11の右下端に当たる基準位置41を指示しており、携帯端末2では表示部21の右下端に当たる基準位置42を指示している。なお、このときカーソル40の大部分は、表示部11、21の各画面表示の範囲外に位置しており、実際には表示されない。そのため、図4(a)ではカーソル40の表示位置を破線で示している。
タッチ操作前において、携帯端末2は、基準位置42に表示されたカーソル40を含む画面を表示部21に表示すると共に、この画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。携帯端末2から画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(a)に示すように、基準位置41に表示されたカーソル40を含む画面が表示部11において表示される。
ここで図4(a)に示すように、表示部11のX方向(横方向)に対する解像度(画素数)をXv、Y方向(縦方向)に対する解像度(画素数)をYvとそれぞれ表す。また、表示部21のX方向(横方向)に対する解像度(画素数)をXs、Y方向(縦方向)に対する解像度(画素数)をYsとそれぞれ表す。これらの解像度の情報は、車載装置1と携帯端末2において、メモリ部14、24にそれぞれ予め記憶されている。
図4(b)は、タッチ操作が行われたときの様子を示している。図4(b)に示すように、ユーザが表示部11を指で触れることにより車載装置1に対してタッチ操作を行い、タッチ位置43を指定したとする。このタッチ操作を検出すると、車載装置1は、タッチ操作前にカーソル40が指示していた右下端の基準位置41からタッチ位置43までの移動量として、X方向の移動量PxおよびY方向の移動量Pyを算出する。この移動量Px、Pyは、たとえば、基準位置41からタッチ位置43までの間にある画素の数をX方向とY方向についてそれぞれ求めることにより算出される。ここで、図中に示すように、表示部11の左上端を起点とし、右方向をXの正方向、下方向をYの正方向と定めた場合、基準位置41からタッチ位置43までの移動量Px、Pyは、いずれも負の値として求められる。
上記のようにしてX方向の移動量PxおよびY方向の移動量Pyを算出したら、続いて車載装置1は、この移動量Px、Pyを携帯端末2の表示部21上の移動量Qx、Qyに変換する。この移動量の変換は、前述の解像度Xv、YvおよびXs、Ysを基に、下記の式(1)を用いて行われる。
Qx=Px×(Xs/Xv)、Qy=Py×(Ys/Yv) ・・・(1)
上記の式(1)において、Xs/XvおよびYs/Yvは、移動量Px、Pyを移動量Qx、Qyにそれぞれ変換する際の変換係数である。車載装置1は、表示部21の解像度Xs、Ysを携帯端末2から事前に取得することで、これらの変換係数を求めることができる。
変換後の移動量Qx、Qyを算出したら、車載装置1は、タッチ操作に応じた一つ目の操作情報として、これらの移動量Qx、Qyを示す移動量情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Move」と称する。
車載装置1から上記の操作情報「Move」を受信すると、これに基づいて携帯端末2は、移動量Qx、QyをOS203により解読する。そして、図4(b)に示すように、カーソル40を右下端の基準位置42から移動量Qx、Qyだけ移動させて表示部21に表示すると共に、この移動後のカーソル40を含む画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。
携帯端末2から移動後のカーソル40を含む画面の画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(b)に示すように、カーソル40がタッチ位置43を指示している画面が表示部11において表示される。
操作情報「Move」を送信した後、車載装置1は、タッチ操作に応じた二つ目の操作情報として、所定のボタン操作、たとえば左クリック操作が行われたことを示すボタン操作情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Tap」と称する。なお、操作情報「Tap」では、ボタン操作情報と合わせて、カーソル40の移動量が0であることを示す移動量情報も送信される。
車載装置1から上記の操作情報「Tap」を受信すると、これに基づいて携帯端末2は、当該ボタン操作の内容をOS203により解読する。そして、操作情報「Move」で指定された移動後のカーソル40の表示位置、すなわちタッチ位置43に表示されている画面内容と、操作情報「Tap」で指定されたボタン操作内容とに応じて、たとえば、タッチ位置43のアイコンに対応するアプリケーションの起動などを行う。
ユーザが表示部11から指を離すリリース操作を行ってタッチ操作を終了すると、車載装置1は、タッチ操作に応じた三つ目の操作情報として、操作情報「Tap」で指定されたボタン操作が解除されたことを示すボタン操作情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Untap」と称する。なお、操作情報「Untap」では、前述の操作情報「Tap」と同様に、ボタン操作情報と合わせて、カーソル40の移動量が0であることを示す移動量情報も送信される。
操作情報「Untap」を送信した後、車載装置1は、タッチ操作に応じた四つ目の操作情報として、カーソル40の表示位置をタッチ位置43から基準位置41へ戻すための操作情報をHIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Move_Reset」と称する。
車載装置1は、上記の操作情報「Move_Reset」として、タッチ位置43から基準位置41までの移動量、またはそれ以上の移動量を示す移動量情報を携帯端末2へ送信することが好ましい。たとえば、前述のように表示部11の右方向をXの正方向、下方向をYの正方向と定めた場合、基準位置41に対応する移動量として、X方向、Y方向のそれぞれについて、表示部11の解像度(画素数)以上の任意の移動量(たとえば、移動量情報において表現可能な最大移動量)を予め設定しておく。この移動量に応じた移動量情報を送信することで、操作情報「Move_Reset」を送信することができる。あるいは、前述の式(1)で計算した移動量Qx、Qyに基づいて、これらの符号をそれぞれ反転した移動量−Qx、−Qyを示す移動量情報を操作情報「Move_Reset」として送信してもよい。これ以外にも、タッチ位置43から基準位置41までの移動量以上あれば、任意の移動量を示す移動量情報を操作情報「Move_Reset」として送信することができる。
車載装置1から操作情報「Move_Reset」として上記のような移動量情報を受信すると、これに基づいて携帯端末2は、当該移動量情報が表す移動量をOS203により解読する。そして、カーソル40を右下端の基準位置42へ移動させて表示部21に表示すると共に、この移動後のカーソル40を含む画面の画像情報を、前述の映像信号を用いて、映像・音声ケーブル3を介して車載装置1へ出力する。
携帯端末2から移動後のカーソル40を含む画面の画像情報を受信すると、車載装置1は、その画像情報に基づいて、携帯端末2の表示部21に表示されているのと同じ画面を表示部11に表示する。これにより、図4(a)に示すような画面が表示部11において再び表示される。
以上説明したように、車載装置1に対してユーザがタッチ操作を行うと、そのタッチ操作に応じて、「Move」、「Tap」、「Untap」、「Move_Reset」の各操作情報が車載装置1から携帯端末2へ順次送信される。これにより、携帯端末2においてユーザのタッチ操作を認識し、適切な処理を実行することができる。
次に、車載装置1における連続タッチ操作時の誤動作防止について説明する。HIDパケットを利用して行われるマウス操作の場合、一定距離以上の移動量を示す操作情報が所定時間以内に連続して入力されると、加速度処理と呼ばれる処理が実行されることが知られている。この加速度処理は、実際に入力された移動量よりも多くの移動量を加算してカーソルを移動させることで、少ないマウス操作でカーソルを所望の位置に移動できるようにするためのものである。
しかし、本実施形態による車載情報システムでは、タッチ操作に応じた操作情報をHIDパケットを利用して車載装置1から携帯端末2へ送信することで、上記のようなタッチ操作を実現している。そのため、加速度処理が携帯端末2において実行されると、実際のタッチ位置とは異なる場所にカーソルが移動してしまい、その結果、携帯端末2において正しくタッチ操作を認識できなくなってしまう。
そこで、ユーザが短時間に連続してタッチ操作を行った場合、車載装置1は、2回目以降のタッチ操作に応じた操作情報を直ちには送信せずに、所定のインターバル時間だけ遅延させて送信する。これにより、車載装置1からの操作情報がインターバル時間内に複数回連続して携帯端末2に入力されるのを防いで、携帯端末2において加速度処理が実行されないようにすることができる。
なお、多数のタッチ操作がインターバル時間内に続けて行われると、2回目以降の各タッチ操作に応じた操作情報が順次遅延されて蓄積されるため、その遅延時間の合計が膨大になってしまうことがある。したがって、こうした不都合を避けるために、操作情報の送信を遅延するタッチ操作の回数を所定数、たとえば5回までに制限し、これを超過したタッチ操作については破棄して操作情報を送信しないようにすることが好ましい。あるいは、遅延時間に上限を設け、この上限を超えて入力されたタッチ操作については破棄して操作情報を送信しないようにしてもよい。
また、上記の処理において、加速度処理の実行を防ぐために必要なインターバル時間は必ずしも一定ではなく、携帯端末2に搭載されているOS203の種類やバージョンによって異なる場合がある。したがって、車載装置1は、インターバル時間の情報を携帯端末2から事前に取得しておき、この情報に基づいて最適なインターバル時間を設定することが好ましい。たとえば、様々な種類やバージョンのOSについて、それぞれに対応するインターバル時間を所定のサーバ装置に予め記録しておく。このサーバ装置から携帯端末2に対して、OS203に対応するインターバル時間の情報を配信する。携帯端末2は、サーバ装置から配信された情報に基づいて、車載装置1へインターバル時間を通知する。このようにすることで、携帯端末2に搭載されているOS203に対して最適なインターバル時間を車載装置1において取得することができる。
図5は、以上説明したタッチ操作に関する車載装置1、携帯端末2およびサーバ装置間の情報の流れを示すシーケンス図である。
車載装置1と携帯端末2が接続されると、車載装置1は、携帯端末2において実行されている図3のアプリケーションマネージャ201に対して、符号50に示すセッション開始要求を出力する。このセッション開始要求を受けると、携帯端末2は、アプリケーションマネージャ201のサブアプリケーションMaにより、無線通信部27を用いて、携帯電話回線網やインターネット回線網などの無線通信回線網を介してサーバ装置に接続する。そして、サーバ装置に対して、符号51に示すようにポリシーファイルの配信要求を行う。このときサブアプリケーションMaは、ポリシーファイルを特定するために必要な情報として、たとえば、メモリ部24に記憶されている各アプリケーションに関する情報や、携帯端末2の機種情報や、携帯端末2に搭載されているOS203の種類やバージョンに関する情報などをサーバ装置に通知する。
携帯端末2のサブアプリケーションMaからポリシーファイルの配信要求を受けると、サーバ装置は、予め記憶された各種のポリシーファイルの中から携帯端末2に適したポリシーファイルを選択し、符号52に示すように携帯端末2へ配信する。なお、サーバ装置には、様々な情報端末に対して、そのOSの種類やバージョンごとのインターバル時間情報や、機種ごとの解像度情報、各種のアプリケーションに対する規制情報などが、ポリシーファイルとして個別に記録されている。サーバ装置は、この中から携帯端末2にとって最適なポリシーファイルを選択し、電話回線網やインターネット回線網などの無線通信回線網を介して携帯端末2へ配信する。
図6は、携帯端末2に配信されるポリシーファイルにおいて記録されている情報の例を示す図である。図6に示すように、ポリシーファイルには、携帯端末2に対する規制情報、解像度情報およびインターバル時間情報が記録されている。規制情報は、携帯端末2に記憶されている各アプリケーションの車両走行中における動作規制の内容を表しており、図6の例では、アプリケーションAに対しては画像表示とユーザの操作入力を両方とも許可し、アプリケーションBに対しては画像表示を許可して操作入力を禁止し、アプリケーションCに対しては画像表示と操作入力を両方とも禁止することを示している。解像度情報は、表示部21の横方向(X方向)および縦方向(Y方向)の画面の解像度を表しており、図6の例では、横方向の解像度が1280画素であり、縦方向の解像度が640画素であることを示している。インターバル時間情報は、OS203において必要なインターバル時間を表しており、図6の例では、インターバル時間が100msであることを示している。
サーバ装置から配信されたポリシーファイルを受信すると、携帯端末2は、アプリケーションマネージャ201のサブアプリケーションMaにより、そのポリシーファイルをメモリ24に記憶させる。そして、サブアプリケーションMsにより、メモリ24からポリシーファイルを読み出し、近距離無線通信インタフェース部25を用いて、符号53に示すように、車載装置1に対して解像度およびインターバル時間の通知を行う。ここでは、受信したポリシーファイルに示された解像度情報やインターバル時間情報を車載装置1へ送信することにより、これらの内容を車載装置1に通知する。
携帯端末2から解像度およびインターバル時間の通知を受けると、車載装置1は、通知された解像度に基づいて、前述の式(1)で用いられる変換係数を算出する。また、通知されたインターバル時間に基づいて、加速度処理の実行を防ぐためのインターバル時間の設定を行う。
ユーザが車載装置1に対してタッチ操作を行うと、車載装置1は、上記の変換係数を用いてタッチ位置に応じた変換後の移動量を算出し、符号54に示すように、一つ目の操作情報「Move」を携帯端末2のOS203へ送信する。その後、符号55に示すように、二つ目の操作情報「Tap」を送信する。
操作情報「Tap」を送信した後、ユーザがタッチ操作を終了するリリース操作を行うと、車載装置1は、符号56に示すように、三つ目の操作情報「Untap」を送信する。その後、タッチ位置に移動されたカーソルを元の位置に戻すため、符号57に示すように四つ目の操作情報「Move_Reset」を送信する。
リリース操作後、インターバル時間内にユーザがタッチ操作を続けて行うと、車載装置1は、タッチ位置に応じた変換後の移動量を算出した後に待機する。このときの待機時間は、前回のタッチ操作に対するリリース操作に応じて操作情報「Move_Reset」を送信してからインターバル時間を経過するまでの時間である。インターバル時間が経過したら、車載装置1は、符号58、59にそれぞれ示すように、操作情報「Move」および「Tap」を携帯端末2のOS203へ続けて送信する。その後、ユーザがリリース操作を行ってタッチ操作を終了すると、車載装置1は、符号60、61にそれぞれ示すように、操作情報「Untap」および「Move_Reset」をOS203へ続けて送信する。以降は、同様の動作が繰り返される。
以上説明したように、ユーザがタッチ操作とリリース操作を行う度に、車載装置1から携帯端末2へ各操作情報が所定の順序で続けて送信される。また、インターバル時間内にタッチ操作が連続して行われた場合は、後のタッチ操作の操作情報を遅延させて送信することで、タッチ操作間でインターバル時間以上の操作情報の送信間隔が確保される。携帯端末2は、車載装置1からの各操作情報をOS203において解読することにより、ユーザが車載装置1に対して行ったタッチ操作の内容を認識することができる。
図7は、車載装置1において実行されるタッチ操作に関する処理のフローチャートである。このフローチャートに示す処理は、車載装置1と携帯端末2の間で通信が確立されると、制御部10により実行されるものである。
ステップS10において、制御部10は、近距離無線通信インタフェース部15を用いて、携帯端末2から送信される表示部21の解像度情報とインターバル時間情報を受信する。ここでは前述のように、表示部21のX方向に対する解像度Xsと、Y方向に対する解像度Ysとを、解像度情報として携帯端末2から受信する。また、OS203において加速度処理の実行を防ぐために必要な時間の長さ、たとえば100msのインターバル時間を示す情報を、インターバル時間情報として携帯端末2から受信する。
ステップS20において、制御部10は、ステップS10で携帯端末2から受信した表示部21の解像度情報と、メモリ部14に予め記憶されている表示部11の解像度とに基づいて、表示部11に対する表示部21の解像度比に応じた変換係数を算出する。ここでは前述の式(1)に示したように、ステップS10で受信した解像度情報が表す表示部21の解像度Xs、Ysを、表示部11のX方向に対する解像度XvとY方向に対する解像度Yvでそれぞれ割ることで、X方向に対する変換係数Xs/Xvと、Y方向に対する変換係数Ys/Yvとを算出する。
ステップS30において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからタッチ操作が行われたか否かを判定する。タッチ操作が行われた場合は、そのタッチ操作を検出してステップS40へ進む。
ステップS40において、制御部10は、ステップS30でタッチ操作を検出したときのカーソルの表示位置から、そのタッチ操作で指定されたタッチ位置までの移動量を算出する。ここでは前述のように、右下端の基準位置41からタッチ位置43までの移動量として、X方向の移動量PxおよびY方向の移動量Pyを算出する。
ステップS50において、制御部10は、ステップS40で算出した移動量を携帯端末2の表示部21上の移動量に変換する。ここでは、ステップS20で算出したX方向の変換係数Xs/XvおよびY方向の変換係数Ys/Yvを用いて、前述の式(1)により、表示部11に対して算出されたX方向の移動量PxおよびY方向の移動量Pyを、表示部21上のX方向の移動量QxおよびY方向の移動量Qyにそれぞれ変換する。
ステップS60において、制御部10は、前回の操作情報「Move_Reset」の送信からインターバル時間以上経過したか否かを判定する。ここでは、前回のタッチ操作に応じて実行された後述のステップS120において操作情報「Move_Reset」が送信されてからの経過時間と、ステップS10で受信したインターバル時間情報に基づいて設定されたインターバル時間とを比較する。その結果、経過時間がインターバル時間未満である場合はステップS70へ進み、インターバル時間以上である場合はステップS80へ進む。
ステップS70において、制御部10は、前回の操作情報「Move_Reset」の送信からの経過時間がインターバル時間となるまで待機する。これにより、次のステップS80の処理の実行を遅らせて、操作情報「Move」の送信を遅延させる。インターバル時間を経過したら、ステップS80へ進む。
ステップS80において、制御部10は、操作情報「Move」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、ステップS50で変換した移動量を示す移動量情報を、操作情報「Move」として携帯端末2へ送信する。これにより、タッチ操作時のカーソルの表示位置から検出されたタッチ位置までの距離に応じた移動量情報が、車載装置1から携帯端末2へ送信される。この移動量情報の送信は、前述のように、マウス用の通信フォーマットであるHIDパケットを利用して行われる。こうして車載装置1から送信された移動量情報は、携帯端末2において近距離無線通信インタフェース部25により受信され、OS203により解読される。その結果、携帯端末2において画面上のカーソル位置が移動され、移動後のカーソルを含む画像情報が携帯端末2から車載装置1へと送信されて表示部11に表示される。
ステップS90において、制御部10は、操作情報「Tap」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、X方向、Y方向のいずれについても移動量が0であることを示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、操作情報「Tap」として携帯端末2へ送信する。
ステップS100において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからリリース操作が行われたか否かを判定する。リリース操作が行われた場合、すなわちステップS30で検出したタッチ操作が終了された場合は、ステップS110へ進む。
ステップS110において、制御部10は、操作情報「Untap」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、X方向、Y方向のいずれについても移動量が0であることを示す移動量情報と、ボタン操作が解除されたことを示すボタン操作情報とを、操作情報「Untap」として携帯端末2へ送信する。
ステップS120において、制御部10は、操作情報「Move_Reset」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、基準位置までの移動量に応じて予め設定された前述のような移動量情報を、操作情報「Move_Reset」として携帯端末2へ送信する。
ステップS120を実行したら、制御部10はステップS30へ戻り、ユーザからのタッチ操作に応じて前述のような処理を繰り返し実行する。
以上説明した本発明の一実施の形態によれば、次のような作用効果を奏する。
(1)車載装置1は、映像・音声信号入力部16により、携帯端末2からカーソル40を含む画面の画像情報を受信し、その画像情報に基づいて当該画面をタッチパネルである表示部11に表示する。そして、表示部11と共にタッチパネルを構成している操作部12により、ユーザからのタッチ操作により指定されたタッチ位置を検出し、制御部10の処理により、近距離無線通信インタフェース部15を用いて、そのタッチ操作に応じた操作情報を携帯端末2へ送信する(ステップS80〜S120)。このときにタッチ操作が連続して行われた場合は、インターバル時間を経過するまで待機することにより(ステップS70)、操作情報を遅延させて送信する。このようにしたので、加速度処理が携帯端末2において実行されるのを防止することができる。したがって、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1から携帯端末2を操作することができる。
(2)制御部10は、ユーザのタッチ操作によりタッチ位置43が指定されると、ステップS80において、カーソル40を基準位置41からタッチ位置43まで移動させるための操作情報「Move」を送信する。また、操作情報「Move」を送信した後にタッチ位置43の指定が解除されると、ステップS120において、カーソル40をタッチ位置43から基準位置41まで戻すための操作情報「Move_Reset」を送信する。この操作情報「Move_Reset」を送信した後、所定のインターバル時間以内に次のタッチ操作が行われると、制御部10は、ステップS70においてインターバル時間を経過するまで待機し、その後にステップS80を実行することで、操作情報「Move」を遅延させて送信する。このようにしたので、インターバル時間以内にタッチ操作が連続して行われた場合に、加速度処理が携帯端末2において実行されるのを確実に防止することができる。
(3)制御部10は、ステップS80では、基準位置41からタッチ位置43までの距離に応じた移動量情報を操作情報「Move」として送信し、ステップS120では、基準位置41に応じた所定の移動量情報を操作情報「Move_Reset」として送信する。このようにしたので、タッチ操作の終了後には、カーソル40の表示位置を毎回必ず元の基準位置41に戻すことができる。これにより、タッチパネル操作を適用した携帯端末2の表示画面を車載装置1で表示したときに、車載装置1の表示部11と携帯端末2の表示部21との間で解像度が異なることで移動後のカーソル位置に誤差が生じるような場合であっても、その誤差を累積させずに、車載装置1から携帯端末2を適切に操作することができる。
(4)制御部10は、ユーザのタッチ操作によりタッチ位置43が指定されると、ステップS80で操作情報「Move」を送信した後に、ステップS90において、所定のボタン操作を示す操作情報「Tap」を送信する。また、この操作情報「Tap」を送信した後にタッチ位置43の指定が解除されると、ステップS110において、当該ボタン操作の解除を示す操作情報「Untap」を送信する。その後に、ステップS120で操作情報「Move_Reset」を送信する。このようにしたので、携帯端末2において、ユーザが車載装置1に対して行ったタッチ操作の内容を確実に認識することができる。
(5)制御部10は、上記の操作情報「Tap」および「Untap」において、カーソル40の移動量を0とする。これにより、携帯端末2において、ユーザのタッチ操作で指定されたタッチ位置43に対応するアイコン等を確実に選択し、その選択結果に応じて適切な処理を実行することができる。
(6)車載装置1は、制御部10の処理により、近距離無線通信インタフェース部15を用いて、携帯端末2からインターバル時間に関するインターバル時間情報を取得する(ステップS10)。このインターバル時間情報に基づいてステップS60の判定処理を行うことで、制御部10は、ステップS70を実行するか否かを判断する。これにより、次のステップS80で操作情報「Move」を遅延させて送信するか否かを判断する。このようにしたので、携帯端末2に搭載されているOS203に対して適切なインターバル時間を設定し、操作情報を遅延させて送信するか否かの判断を行うことができる。
(7)ステップS10において、上記のインターバル時間情報は、所定のサーバ装置から携帯端末2に配信されるポリシーファイルに基づいて、携帯端末2から送信される。したがって、携帯端末2に搭載されているOS203の種類やバージョンの違いに応じて、最適なインターバル時間を携帯端末2から車載装置1へ通知し、車載装置1においてインターバル時間を設定することができる。
(8)制御部10は、ステップS80、S90、S110およびS120において、近距離無線通信インタフェース部15により、ブルートゥースにおけるマウス用の通信フォーマットであるHIDパケットを利用して各操作情報を送信するようにした。このようにしたので、既存の通信フォーマットを利用して、移動量情報の送信を容易かつ確実に実現することができる。
−第2の実施形態−
次に、本発明の第2の実施形態について説明する。前述の第1の実施形態では、ユーザが車載装置1に対して画面上の任意の位置を指定するタッチ操作を行うと、そのタッチ操作に応じた操作情報をHIDパケットにより車載装置1から携帯端末2へと送信することで、車載装置1から携帯端末2を操作する例を説明した。これに対して、第2の実施形態では、さらにフリック操作と呼ばれる、タッチ操作中にタッチ位置を所定方向に弾くように素早く移動させるタッチ操作の例について説明する。
図8は、車載装置1においてフリック操作が行われたときの車載装置1と携帯端末2の動作を説明する図である。図8に示すように、ユーザが表示部11を指で触れることにより車載装置1に対してタッチ位置43を指定した後、指を矢印70の方向に素早く動かしてタッチ位置を移動させるフリック操作を行ったとする。このようなフリック操作を検出すると、車載装置1は、まずは前述の第1の実施形態と同様に、最初に指定されたタッチ位置43に応じて、操作情報「Move」および「Tap」を送信する。
続いて車載装置1は、最初のタッチ位置43から矢印70の方向に沿って所定時間後に指定された次のタッチ位置44を検出する。そして、タッチ位置43からタッチ位置44までの移動量として、X方向の移動量Px1およびY方向の移動量Py1を算出する。
上記のようにしてタッチ位置43からタッチ位置44までの移動量Px1、Py1を算出したら、続いて車載装置1は、前述の式(1)を用いて、これらの移動量Px1、Py1を携帯端末2の表示部21上の移動量Qx1、Qy1にそれぞれ変換する。そして、第1の実施形態で説明した四種類の操作情報とは異なる五つ目の操作情報として、操作情報「Tap」と同様のボタン操作情報と、変換後の移動量Qx1、Qy1を示す移動量情報とを、HIDパケットにより携帯端末2へ送信する。以下の説明では、この操作情報を「Flick」と称する。
ユーザからのフリック操作の入力中に、車載装置1は、上記と同様の処理を所定時間ごとに実行する。その結果、矢印70の方向に沿って、タッチ位置44からタッチ位置45までの移動量Px2、Py2に応じた変換後の移動量Qx2、Qy2を示す移動量情報と、タッチ位置45からタッチ位置46までの移動量Px3、Py3に応じた変換後の移動量Qx3、Qy3を示す移動量情報とが、ボタン操作情報と共に、操作情報「Flick」として、車載装置1から携帯端末2へ所定時間ごとに送信される。
以上説明したように、車載装置1は、フリック操作において矢印70の方向に沿って連続的に指定されたタッチ位置の中から、所定時間ごとのタッチ位置43〜46を検出する。そして、各タッチ位置間のX方向移動量Px1〜Px3およびY方向移動量Py1〜Py3をそれぞれ算出し、これらに応じた変換後のX方向移動量Qx1〜Qx3およびY方向移動量Qy1〜Qy3を示す移動量情報とボタン操作情報とを含む操作情報「Flick」を、携帯端末2へ所定時間ごとに送信する。この操作情報「Flick」を受信することで、携帯端末2は、フリック操作において指定された車載装置1の表示部11上でのタッチ位置43〜46にそれぞれ対応する表示部21上での位置73〜76について、各位置間のX方向の移動量Qx1〜Qx3およびY方向の移動量Qy1〜Qy3を取得することができる。
なお、車載装置1において、表示部11に対して行われたタッチ操作の検出結果は、表示部11と共にタッチパネルを構成する操作部12から制御部10へ所定の出力周期ごとに出力される。この操作部12からのタッチ操作の検出結果の出力周期は、一般的に、操作情報「Flick」の送信に用いられるHIDパケットの送信周期よりも短い。したがって、制御部10は、操作部12より所定周期ごとに入力されるタッチ操作の検出結果の中から、HIDパケットの送信周期に対応するものを抽出し、これに基づいて操作情報「Flick」を生成および送信することが好ましい。ここで、操作部12の機能の一部を、制御部10で実行されるドライバソフトウェアにより実現してもよい。
車載装置1から上記の操作情報「Flick」を受信すると、これに基づいて携帯端末2は、当該フリック操作の内容をOS203により解読する。そして、操作情報「Flick」で指定されたフリック操作内容に応じて、たとえば、メニュー画面の切り替え表示や、実行中のアプリケーションにおいて対応する処理などを行う。
その後、ユーザがタッチ位置46において表示部11から指を離すリリース操作を行ってフリック操作を終了すると、車載装置1は、第1の実施形態と同様に、操作情報「Untap」および「Move_Reset」をHIDパケットにより携帯端末2へそれぞれ送信する。
以上説明したように、車載装置1に対してユーザがフリック操作を行うと、そのフリック操作に応じて、「Move」、「Tap」、「Flick」、「Untap」、「Move_Reset」の各操作情報が車載装置1から携帯端末2へ順次送信される。これにより、携帯端末2においてユーザのフリック操作を認識し、適切な処理を実行することができる。
図9は、フリック操作に関する車載装置1、携帯端末2およびサーバ装置間の情報の流れを示すシーケンス図である。
車載装置1と携帯端末2が接続されると、車載装置1、携帯端末2およびサーバ装置は、第1の実施形態における図5のシーケンス図と同様に、符号50〜53に示した動作をそれぞれ行う。すなわち、車載装置1がセッション開始要求を出力すると、携帯端末2は、サーバ装置に対してポリシーファイルの配信を要求し、サーバ装置は、携帯端末2に適したポリシーファイルを選択して携帯端末2へ配信する。このポリシーファイルを受信すると、携帯端末2は、車載装置1に対して解像度およびインターバル時間の通知を行う。こうして通知された解像度およびインターバル時間にそれぞれ基づいて、車載装置1は、前述の式(1)における変換係数の算出およびインターバル時間の設定を行う。
ユーザが車載装置1に対してフリック操作を行うと、車載装置1は、最初に第1の実施形態で説明したタッチ操作の場合と同様に、フリック操作開始時のタッチ位置に応じた変換後の移動量を算出する。そして、符号54、55に示すように、操作情報「Move」、「Tap」を順に送信する。その後、車載装置1は符号80に示すように、フリック操作におけるタッチ位置の移動量に応じた操作情報「Flick」を携帯端末2へ所定時間ごとに送信する。この操作情報「Flick」の送信は、フリック操作が入力されている間、連続して行われる。
ユーザがフリック操作を終了してリリース操作を行うと、車載装置1は、第1の実施形態と同様に、符号56、57にそれぞれ示すように、操作情報「Untap」、「Move_Reset」を順に送信する。
なお、操作情報「Move_Reset」の送信後、所定のインターバル時間内にユーザがタッチ操作を続けて行うと、車載装置1は、第1の実施形態と同様に、インターバル時間を経過するまで待機する。インターバル時間が経過したら、車載装置1は、上記と同様の動作を繰り返す。
以上説明したように、ユーザが車載装置1に対してフリック操作を行うと、車載装置1から携帯端末2に対して、操作情報「Move」、「Tap」の送信後に、所定のボタン操作情報と、当該フリック操作におけるタッチ位置の移動量に応じた移動量情報とを含む操作情報「Flick」が、所定時間ごとに送信される。携帯端末2は、車載装置1からの操作情報「Flick」をOS203において解読することにより、ユーザが車載装置1に対して行ったフリック操作を認識することができる。
図10は、車載装置1において実行されるフリック操作に関する処理のフローチャートである。このフローチャートに示す処理は、車載装置1と携帯端末2の間で通信が確立されると、制御部10により実行されるものである。なお、図10において、第1の実施形態で説明した図7のフローチャートと同じ処理内容の部分には、図7と同一のステップ番号を付している。以下では、この図7と同一ステップ番号の処理については、特に必要のない限りは説明を省略する。
ステップS90で操作情報「Tap」を携帯端末2へ送信した後、ステップS91において、制御部10は、表示部11と一体的に構成されたタッチパネルスイッチである操作部12に対してユーザからフリック操作が行われたか否かを判定する。ここでは、ステップS30でタッチ操作を検出したときの位置からタッチ位置が変化したか否かを判定することで、フリック操作の有無を判定する。図8で説明したように、ユーザが指を任意の方向に素早く動かすことでフリック操作を行うと、これに伴ってタッチ位置が変化する。そのため、タッチ位置の変化を検出した場合は、フリック操作が行われたと判定して次のステップS92へ進み、検出しなかった場合は、フリック操作なしと判定してステップS100へ進む。
ステップS92において、制御部10は、前回のタッチ位置からの移動量を算出する。ここでは前述のように、フリック操作中に連続的に変化するタッチ位置を所定時間ごとに検出し、その中で前回検出したタッチ位置から今回のタッチ位置までのX方向およびY方向の移動量を算出する。
ステップS93において、制御部10は、ステップS92で算出した移動量を携帯端末2の表示部21上の移動量に変換する。ここでは、ステップS50と同様に、ステップS20で算出したX方向の変換係数Xs/XvおよびY方向の変換係数Ys/Yvを用いて、前述の式(1)により、X方向の移動量とY方向の移動量をそれぞれ変換する。
ステップS94において、制御部10は、操作情報「Flick」を携帯端末2へ送信する。このとき制御部10は、近距離無線通信インタフェース部15を用いて、ステップS93で変換した移動量を示す移動量情報と、左クリック操作等の所定のボタン操作が行われたことを示すボタン操作情報とを、操作情報「Flick」として携帯端末2へ送信する。
ステップS94を実行したら、制御部10はステップS100に進み、ユーザからのリリース操作の有無を判定する。その結果、リリース操作が行われた場合、すなわちステップS91で検出したフリック操作が終了された場合はステップS110へ進み、そうでない場合はステップS91へ戻って前述の処理を繰り返す。
以上説明したように、ステップS91でフリック操作が検出されてからステップS100でリリース操作が検出されるまでの間に、ステップS92〜S94の処理が所定時間ごとに繰り返し実行される。これにより、図8で説明したように、フリック操作におけるタッチ位置43〜46が所定時間ごとに検出され、各タッチ位置間のX方向移動量Px1〜Px3およびY方向移動量Py1〜Py3がそれぞれ算出される。そして、これらに対応する変換後のX方向移動量Qx1〜Qx3およびY方向移動量Qy1〜Qy3がそれぞれ算出され、各変換後の移動量に応じた移動量情報がボタン操作情報と共に操作情報「Flick」として、車載装置1から携帯端末2へ所定時間ごとに送信される。
以上説明した本発明の第2の実施形態によれば、第1の実施形態で説明した(1)〜(8)に加えて、さらに次の(9)のような作用効果を奏する。
(9)制御部10は、ユーザのタッチ操作中にタッチ位置が移動されることでフリック操作が行われると、ステップS80で操作情報「Move」を送信し、ステップS90で操作情報「Tap」を送信した後に、ステップS94において、所定のボタン操作を示すボタン操作情報とタッチ位置の移動量に応じた移動量情報とを含む操作情報「Flick」を送信する。このようにしたので、携帯端末2において、ユーザが車載装置1に対して行ったフリック操作の内容を確実に認識することができる。
なお、以上説明した各実施の形態では、映像・音声ケーブル3を介して車載装置1と携帯端末2を互いに接続することで、携帯端末2から車載装置1へ映像信号と音声信号を送信する例を説明した。また、Bluetooth等の所定の通信規格に従って行われる近距離無線通信により、車載装置1と携帯端末2との間で通信を行う例を説明した。しかし、他の通信方式や信号伝送方式を用いても本発明は実現可能である。たとえば、携帯端末2から車載装置1への映像信号や音声信号を無線通信で送信してもよい。また、車載装置1と携帯端末2との間の通信をUSB等の有線通信を用いて行うこともできる。この場合、図7のステップS80、S90、S110およびS120では、前述のHIDパケットの代わりに、USBにおけるマウス用の通信フォーマット等を利用して、車載装置1から携帯端末2へ操作情報を送信することができる。車載装置1と携帯端末2との間で必要な信号や情報を送受信可能なものである限り、どのような通信方式を採用してもよい。
以上説明した各実施の形態において、車速信号やパーキング信号以外にも、車両から出力される様々な車両情報を車載装置1において取得するようにしてもよい。このとき取得された車両情報は、車載装置1が実行する処理において利用してもよいし、あるいは、車載装置1から携帯端末2へ出力し、携帯端末2が実行する処理において利用してもよい。一例として、車両情報に応じた起動条件をアプリケーションごとに予め設定しておき、その起動条件を満たす車両情報が車両から出力されたときに、当該アプリケーションを携帯端末2において自動的に起動するようにすることができる。この場合、各アプリケーションの起動条件を示す情報を携帯端末2から車載装置1へ送信し、車載装置1において起動条件を満たすか否かを車両情報に基づいて判定してもよい。あるいは、車載装置1から携帯端末2へ車両情報を送信し、その車両情報に基づいて起動条件を満たすか否かを携帯端末2において判定してもよい。これにより、たとえば、燃料残量が所定値未満まで減ってきたという車両情報が車両から出力されたときに、現在位置周辺のガソリンスタンドを検索するためのアプリケーションを携帯端末2において自動的に起動することができる。
以上説明した各実施の形態では、車載装置1の表示部11をタッチパネルとし、この表示部11に携帯端末2から受信した画像を表示する場合の例を説明した。しかし、本発明の適用範囲はこれに限定されるものではない。情報端末と接続され、その情報端末から受信した画像をタッチパネルに表示するものである限り、どのような表示装置においても本発明を適用することができる。
以上説明した各実施の形態や各種の変形例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されるものではない。また、上記実施の形態と変形例とを任意に組み合わせて用いてもよい。
次の優先権基礎出願の開示内容は引用文としてここに組み込まれる。
日本国特許出願2013年第50791号(2013年3月13日出願)
1:車載装置、2:携帯端末、3:映像・音声ケーブル、10:制御部、11:表示部、12:操作部、13:音声出力部、14:メモリ部、15:近距離無線通信インタフェース部、16:映像・音声信号入力部、20:制御部、21:表示部、22:操作部、23:音声出力部、24:メモリ部、25:近距離無線通信インタフェース部、26:映像・音声信号出力部、27:無線通信部、28:GPS受信部

Claims (11)

  1. 情報端末と接続される表示装置であって、
    前記情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、
    前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
    前記タッチ操作に応じた操作情報を前記情報端末へ送信する送信部とを備え、
    前記送信部は、前記タッチ操作が連続して行われた場合に、前記操作情報を遅延させて送信する表示装置。
  2. 請求項1に記載の表示装置において、
    前記送信部は、
    前記タッチ操作により前記タッチ位置が指定されると、前記カーソルを所定の基準位置から前記タッチ位置まで移動させるための第1の操作情報を送信し、
    前記第1の操作情報を送信した後に前記タッチ位置の指定が解除されると、前記カーソルを前記タッチ位置から前記基準位置まで戻すための第2の操作情報を送信し、
    前記第2の操作情報を送信した後、所定のインターバル時間以内に次のタッチ操作が行われると、次回の前記第1の操作情報を遅延させて送信する表示装置。
  3. 請求項2に記載の表示装置において、
    前記操作情報は、前記カーソルの移動量を示す移動量情報を含み、
    前記送信部は、前記基準位置から前記タッチ位置までの距離に応じた移動量情報を前記第1の操作情報として送信し、前記基準位置に応じた所定の移動量情報を前記第2の操作情報として送信する表示装置。
  4. 請求項2または3に記載の表示装置において、
    前記送信部は、
    前記タッチ操作により前記タッチ位置が指定されると、前記第1の操作情報を送信した後に、所定のボタン操作を示す第3の操作情報を送信し、
    前記第3の操作情報を送信した後に前記タッチ位置の指定が解除されると、前記ボタン操作の解除を示す第4の操作情報を送信した後に、前記第2の操作情報を送信する表示装置。
  5. 請求項4に記載の表示装置において、
    前記送信部は、前記第3の操作情報および前記第4の操作情報において、前記カーソルの移動量を0とする表示装置。
  6. 請求項2または3に記載の表示装置において、
    前記送信部は、前記タッチ操作中に前記タッチ位置が移動されると、前記第1の操作情報を送信した後に、所定のボタン操作を示すボタン操作情報と前記タッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する表示装置。
  7. 請求項4または5に記載の表示装置において、
    前記送信部は、前記タッチ操作中に前記タッチ位置が移動されると、前記第1の操作情報および前記第3の操作情報を送信した後に、前記ボタン操作を示すボタン操作情報と前記タッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する表示装置。
  8. 請求項2乃至7のいずれか一項に記載の表示装置において、
    前記情報端末から前記インターバル時間に関するインターバル時間情報を取得するインターバル時間情報取得部をさらに備え、
    前記送信部は、前記インターバル時間情報取得部により取得されたインターバル時間情報に基づいて、前記操作情報を遅延させて送信するか否かを判断する表示装置。
  9. 請求項8に記載の表示装置において、
    前記インターバル時間情報は、所定のサーバ装置から前記情報端末に配信されるポリシーファイルに基づいて、前記情報端末から送信される表示装置。
  10. 請求項1乃至9のいずれか一項に記載の表示装置において、
    前記送信部は、ブルートゥースまたはUSBにおけるマウス用の通信フォーマットを利用して、前記操作情報を送信する表示装置。
  11. 情報端末と接続される表示装置であって、
    前記情報端末からカーソルを含む画面の画像情報を受信する画像受信部と、
    前記画像受信部により受信された画像情報に基づいて前記画面を表示し、タッチ操作により指定されたタッチ位置を検出するタッチパネルと、
    前記タッチ操作に応じた操作情報を前記情報端末へ送信する送信部とを備え、
    前記送信部は、前記タッチ操作中に前記タッチ位置が移動されると、所定のボタン操作を示すボタン操作情報と前記タッチ位置の移動量に応じた移動量情報とを含む操作情報を送信する表示装置。
JP2015505413A 2013-03-13 2014-03-04 表示装置 Active JP6317326B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013050791 2013-03-13
JP2013050791 2013-03-13
PCT/JP2014/055485 WO2014141954A1 (ja) 2013-03-13 2014-03-04 表示装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018063928A Division JP6559825B2 (ja) 2013-03-13 2018-03-29 表示装置、情報端末操作方法

Publications (2)

Publication Number Publication Date
JPWO2014141954A1 true JPWO2014141954A1 (ja) 2017-02-16
JP6317326B2 JP6317326B2 (ja) 2018-04-25

Family

ID=51536620

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015505413A Active JP6317326B2 (ja) 2013-03-13 2014-03-04 表示装置
JP2018063928A Active JP6559825B2 (ja) 2013-03-13 2018-03-29 表示装置、情報端末操作方法

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2018063928A Active JP6559825B2 (ja) 2013-03-13 2018-03-29 表示装置、情報端末操作方法

Country Status (5)

Country Link
US (2) US9846506B2 (ja)
EP (1) EP2975829B1 (ja)
JP (2) JP6317326B2 (ja)
CN (2) CN109240633B (ja)
WO (1) WO2014141954A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104679469B (zh) * 2014-12-29 2019-02-26 合肥杰发科技有限公司 车载终端及其获取手持终端的屏幕分辨率的方法
JP6724463B2 (ja) * 2016-03-24 2020-07-15 株式会社Ihi 電子機器、対象システムの操作方法、および操作プログラム
US10476963B2 (en) * 2016-05-09 2019-11-12 Honda Motor Co., Ltd. System and method for contacting vehicle for tandem parking
US9817511B1 (en) * 2016-09-16 2017-11-14 International Business Machines Corporation Reaching any touch screen portion with one hand
KR102372803B1 (ko) * 2017-07-12 2022-03-10 미래나노텍(주) 양방향 터치스크린 장치 및 이를 이용한 정보 표시 방법
CN107747949A (zh) * 2017-09-28 2018-03-02 惠州Tcl移动通信有限公司 导航时车载终端画面投射的方法、移动终端及存储介质
IL259518B2 (en) 2018-05-22 2023-04-01 Lumus Ltd Optical system and method for improving light field uniformity
GB2577067B (en) * 2018-09-12 2021-01-13 Avecto Ltd Controlling applications by an application control system in a computer device
JP6778735B2 (ja) * 2018-12-26 2020-11-04 本田技研工業株式会社 表示装置、表示方法、およびプログラム
CN112463086A (zh) * 2019-09-06 2021-03-09 华为技术有限公司 一种显示控制方法及电子设备
CN111045590B (zh) * 2019-12-04 2021-06-04 广州小鹏汽车科技有限公司 一种车载模拟按键的方法、系统、存储介质及车辆
CN111645521B (zh) * 2020-05-29 2022-01-18 阿波罗智联(北京)科技有限公司 用于智能后视镜的控制方法、装置、电子设备和存储介质
CN112799557B (zh) * 2021-01-28 2022-03-22 青岛海信移动通信技术股份有限公司 一种水墨屏显示控制方法、终端及计算机可读存储介质

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036141A (ja) * 2001-07-25 2003-02-07 Sony Corp 入力装置
JP2003121157A (ja) * 2001-10-09 2003-04-23 Fujitsu Ten Ltd ナビゲーションシステム、およびナビゲーション装置、並びに携帯電話機
JP2010086216A (ja) * 2008-09-30 2010-04-15 Fujitsu Ten Ltd 情報処理装置、方法、プログラム、及び情報配信システム
JP2010108212A (ja) * 2008-10-30 2010-05-13 Kyocera Corp コンテンツ処理システム、端末装置及びコンテンツ処理方法
JP2010127781A (ja) * 2008-11-27 2010-06-10 Fujitsu Ten Ltd 車載装置および同装置を有する車載システム
JP2010130669A (ja) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd 車載装置および無線通信システム
JP2010130553A (ja) * 2008-11-28 2010-06-10 Fujitsu Ten Ltd 車載装置
JP2010130670A (ja) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd 車載システム
JP2010288195A (ja) * 2009-06-15 2010-12-24 Alpine Electronics Inc 車載用通信装置
JP2011033460A (ja) * 2009-07-31 2011-02-17 Fujitsu Ten Ltd ナビゲーションシステム、車載機、ナビゲーション方法及びプログラム
WO2012065020A1 (en) * 2010-11-12 2012-05-18 Apple Inc. Device, method, and graphical user interface for navigating a list of identifiers
US20120144323A1 (en) * 2010-10-01 2012-06-07 Imerj, Llc Desktop Reveal By Moving a Logical Display Stack With Gestures
JP2012257156A (ja) * 2011-06-10 2012-12-27 Kyocera Corp 通信端末

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244343A (ja) 2002-02-21 2003-08-29 Toyota Motor Corp 表示装置、携帯端末及び情報表示システム
JP4765729B2 (ja) 2006-03-31 2011-09-07 カシオ計算機株式会社 コンピュータシステムのクライアント装置およびその制御プログラム、サーバ装置およびその制御プログラム
WO2009073806A2 (en) * 2007-12-05 2009-06-11 Johnson Controls Technology Company Vehicle user interface systems and methods
US9258402B2 (en) * 2009-04-14 2016-02-09 Qualcomm Incorporated System and method for controlling mobile devices
JP5667984B2 (ja) * 2010-01-26 2015-02-12 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示制御装置、表示制御方法、プログラムおよび集積回路
US8265928B2 (en) * 2010-04-14 2012-09-11 Google Inc. Geotagged environmental audio for enhanced speech recognition accuracy
JP5494318B2 (ja) * 2010-07-20 2014-05-14 株式会社デンソー 携帯端末および通信システム
JP5628612B2 (ja) * 2010-09-17 2014-11-19 クラリオン株式会社 車載情報システム、車載装置、情報端末
JP5613005B2 (ja) * 2010-10-18 2014-10-22 オリンパスイメージング株式会社 カメラ
JP5633341B2 (ja) 2010-11-30 2014-12-03 カシオ計算機株式会社 サーバベース・コンピューティング・システムのクライアント装置、サーバ装置、およびプログラム
JP5429198B2 (ja) * 2011-01-12 2014-02-26 コニカミノルタ株式会社 画像処理装置、画像形成システム、および制御プログラム
JP5472256B2 (ja) * 2011-05-06 2014-04-16 株式会社デンソー 車両用表示装置および情報表示システム
KR20130053185A (ko) * 2011-11-15 2013-05-23 삼성전자주식회사 전자기기들 간의 상호 제어 방법 및 시스템
JP5999452B2 (ja) * 2012-01-26 2016-09-28 パナソニックIpマネジメント株式会社 携帯端末及び機器連携方法
JP6124169B2 (ja) 2012-06-08 2017-05-10 クラリオン株式会社 表示装置
JP6032286B2 (ja) * 2012-08-27 2016-11-24 日本電気株式会社 車載機、携帯端末制御方法およびプログラム
JP5866027B2 (ja) * 2012-10-19 2016-02-17 三菱電機株式会社 情報処理装置、情報端末、情報処理システムおよびキャリブレーション方法
US9430067B2 (en) * 2013-01-11 2016-08-30 Sony Corporation Device and method for touch detection on a display panel
CN103631866B (zh) * 2013-11-01 2017-01-18 北京奇虎科技有限公司 网页的显示方法和浏览器

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003036141A (ja) * 2001-07-25 2003-02-07 Sony Corp 入力装置
JP2003121157A (ja) * 2001-10-09 2003-04-23 Fujitsu Ten Ltd ナビゲーションシステム、およびナビゲーション装置、並びに携帯電話機
JP2010086216A (ja) * 2008-09-30 2010-04-15 Fujitsu Ten Ltd 情報処理装置、方法、プログラム、及び情報配信システム
JP2010108212A (ja) * 2008-10-30 2010-05-13 Kyocera Corp コンテンツ処理システム、端末装置及びコンテンツ処理方法
JP2010127781A (ja) * 2008-11-27 2010-06-10 Fujitsu Ten Ltd 車載装置および同装置を有する車載システム
JP2010130553A (ja) * 2008-11-28 2010-06-10 Fujitsu Ten Ltd 車載装置
JP2010130669A (ja) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd 車載装置および無線通信システム
JP2010130670A (ja) * 2008-12-01 2010-06-10 Fujitsu Ten Ltd 車載システム
JP2010288195A (ja) * 2009-06-15 2010-12-24 Alpine Electronics Inc 車載用通信装置
JP2011033460A (ja) * 2009-07-31 2011-02-17 Fujitsu Ten Ltd ナビゲーションシステム、車載機、ナビゲーション方法及びプログラム
US20120144323A1 (en) * 2010-10-01 2012-06-07 Imerj, Llc Desktop Reveal By Moving a Logical Display Stack With Gestures
JP2014500992A (ja) * 2010-10-01 2014-01-16 ゼット124 ジェスチャで論理的表示スタックを移動することによるデスクトップの明示
WO2012065020A1 (en) * 2010-11-12 2012-05-18 Apple Inc. Device, method, and graphical user interface for navigating a list of identifiers
JP2014501006A (ja) * 2010-11-12 2014-01-16 アップル インコーポレイテッド 識別子のリストのナビゲート用のデバイス、方法及びグラフィカルユーザインタフェース
JP2012257156A (ja) * 2011-06-10 2012-12-27 Kyocera Corp 通信端末

Also Published As

Publication number Publication date
JP2018110039A (ja) 2018-07-12
CN105190522A (zh) 2015-12-23
US9846506B2 (en) 2017-12-19
CN109240633A (zh) 2019-01-18
WO2014141954A1 (ja) 2014-09-18
JP6317326B2 (ja) 2018-04-25
CN105190522B (zh) 2018-10-23
EP2975829A1 (en) 2016-01-20
US20180136779A1 (en) 2018-05-17
CN109240633B (zh) 2021-10-22
EP2975829B1 (en) 2022-02-09
EP2975829A4 (en) 2016-12-28
JP6559825B2 (ja) 2019-08-14
US20160018943A1 (en) 2016-01-21

Similar Documents

Publication Publication Date Title
JP6559825B2 (ja) 表示装置、情報端末操作方法
JP6124169B2 (ja) 表示装置
JP6103620B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
JP6058654B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法
JP6074150B2 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
KR20170099903A (ko) 장치들에 걸쳐 디지털 개인 비서 에이전트를 스케일링하기 위한 기법
JP6362875B2 (ja) 車載装置、車載情報システム
CN108055635B (zh) 位置信息的获取方法、装置、存储介质及终端
WO2013180279A1 (ja) 車載情報システム、情報端末、アプリケーション実行方法、プログラム
JP6397530B2 (ja) 表示装置
KR20150044417A (ko) 복수의 단말 간 사용자인터페이스 통합 방법 및 이를 수행하는 단말
WO2022160612A1 (zh) 与车辆的车载系统交互方法、存储介质和移动终端
JP2012063249A (ja) 車載情報システム、車載装置、情報端末
US20160127441A1 (en) Application level audio connection and streaming
KR102088459B1 (ko) 사용자 제스처를 이용한 복수의 단말 간 사용자인터페이스 통합 방법 및 이를 수행하는 단말
JP7193904B2 (ja) 電子装置および電子システム
JP2015118483A (ja) 表示装置、表示連携システム、表示装置の制御方法、プログラム
EP2962188B1 (en) User interface transfer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170127

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170127

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180329

R150 Certificate of patent or registration of utility model

Ref document number: 6317326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150