JP2018169757A - タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム - Google Patents

タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム Download PDF

Info

Publication number
JP2018169757A
JP2018169757A JP2017065953A JP2017065953A JP2018169757A JP 2018169757 A JP2018169757 A JP 2018169757A JP 2017065953 A JP2017065953 A JP 2017065953A JP 2017065953 A JP2017065953 A JP 2017065953A JP 2018169757 A JP2018169757 A JP 2018169757A
Authority
JP
Japan
Prior art keywords
information
touch
gesture
dimensional shape
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017065953A
Other languages
English (en)
Other versions
JP6744834B2 (ja
Inventor
祐介 北川
Yusuke Kitagawa
祐介 北川
宇佐美 由久
Yoshihisa Usami
由久 宇佐美
直樹 塚本
Naoki Tsukamoto
直樹 塚本
岡部 雄生
Takeo Okabe
雄生 岡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017065953A priority Critical patent/JP6744834B2/ja
Priority to EP18775809.9A priority patent/EP3605302A4/en
Priority to PCT/JP2018/005041 priority patent/WO2018179943A1/ja
Priority to TW107110216A priority patent/TW201841113A/zh
Publication of JP2018169757A publication Critical patent/JP2018169757A/ja
Priority to US16/583,088 priority patent/US20200019253A1/en
Application granted granted Critical
Publication of JP6744834B2 publication Critical patent/JP6744834B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1446Touch switches
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/774Instrument locations other than the dashboard on or in the centre console

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】三次元の立体形状を有するタッチ式操作装置において、複数のアプリケーションプログラムとの適応を容易にすることで、汎用性を確保することができるタッチ式操作装置、方法およびプログラム、並びにタッチ式操作装置を用いた情報処理システムを提供する。
【解決手段】タッチパネル制御部32は、立体領域22を有するタッチパネル21を制御する。ジェスチャ判定部32Aは、立体形状情報テーブル71から立体形状情報を取得して、立体形状情報に基づいてタッチパネル21に対するジェスチャ操作の内容を特定し、ジェスチャ特定情報を生成する。APインタフェース部33は、ジェスチャ特定情報をAP実行部41に送信し、AP実行部41からの応答情報を受信する。表示制御部32Bは、受信した応答情報に基づいてタッチパネル21の表示を制御する。
【選択図】図15

Description

本発明は、タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システムに関するものである。
タッチパネルディスプレイなど、タッチセンサを備え、ディスプレイに表示される操作画面を操作するタッチ式操作装置が知られている(特許文献1参照)。
タッチパネルディスプレイの表示パネルやタッチセンサの形状は、平面パネルが一般的であるが、特許文献1に記載されているように、可撓性を有する平面パネルを使用して、一部を湾曲させた形状のものが開発されている。また、特許文献1のように平面を湾曲させるだけでなく、タッチセンサや表示パネルの形状を円筒形などの三次元の立体形状にしたタッチパネルディスプレイも提案されている(特許文献2)。
特表2014−535086号公報 特開2015−228118号公報
特許文献1や特許文献2のような様々な形状のタッチ式操作装置を考えた場合、形状そのものを人間工学に基づき設計することで、ユーザに快適な操作感を与えたり、作業効率を向上することも可能となる。特に、タッチセンサや表示パネルの形状が、特許文献1のような単純に平面を湾曲させただけの形状に比べ、特許文献2のように形状が複雑になるほど、立体形状の特性を活かした操作感を付与することが可能となったり、立体形状の特性を活かした活用法も考えられるようになる。
このような立体形状のタッチ式操作装置の開発に当たっては、平面パネルと異なる新たな問題が生じる。平面パネルに対して操作入力を行うジェスチャ操作の種類としては、操作画面のアイコンをタップするタップ操作、画面やページを切り替えるためのスワイプ操作、拡大縮小を行うピンチ操作などがある。平面パネルにおいて一般的なこうしたジェスチャ操作の種類を特定するには、タッチセンサや表示パネルの形状が2次元平面であるため、平面内の座標情報があれば十分であった。
ところが、特許文献2に記載されているような三次元の立体形状となると、外周面が複数の面で構成されることになるため、単純に各平面内の座標情報のみでは、ジェスチャ操作の種類を特定できず、ジェスチャ操作の種類に対応した操作コマンドの判定もできない。このように三次元の立体形状を有するタッチ式操作装置は、ジェスチャ操作の特定方法が複雑になる。そのため、三次元の立体形状を有するタッチ式操作装置と、このタッチ式操作装置に適応するアプリケーションプログラムの開発は、両者の一体開発が進み、汎用性が犠牲になりがちになる。ここで汎用性とは、1つのタッチ式操作装置を複数のアプリケーションプログラムで使用したり、反対に、1つのアプリケーションプログラムを複数のタッチ式操作装置で使用することを意味する。
今後、インターネットと接続可能なコネクテッドカーやIOT(Internet of Things)の開発の進展により、様々なものがインターネットに接続され、用途が異なる多種多様なアプリケーションプログラムが1つのタッチ式操作装置を用いて使用されることになると予想される。また、多様化はアプリケーションプログラムだけでなく、タッチ式操作装置の立体形状も多種多様化すると予想され、ひとつのアプリケーションプログラムが多種多様なタッチ式操作装置で使用されることが予想される。こうした多種多様なアプリケーションプログラムやタッチ式操作装置を組み合わせて有効に活用するためには、汎用性を確保する仕組みが重要である。
本発明は、三次元の立体形状を有するタッチ式操作装置において、複数のアプリケーションプログラムとの適応を容易にすることで、汎用性を確保することができるタッチ式操作装置、その作動方法および作動プログラム、並びにタッチ式操作装置を用いた情報処理システムを提供することを目的とする。
上記課題を解決するために、本発明のタッチ式操作装置は、タッチセンサと、立体形状情報取得部と、ジェスチャ特定情報生成部と、アプリケーションプログラムインタフェース部と、表示制御部とを備える。タッチセンサは、三次元の立体形状を有する。立体形状情報取得部は、タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして立体形状情報を取得する。ジェスチャ特定情報生成部は、立体形状情報に基づいて、タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成する。アプリケーションプログラムインタフェース部は、ジェスチャ特定情報に基づいて、タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、アプリケーション実行部からの応答情報を受信する。表示制御部は、受信した応答情報に基づいて、ディスプレイの表示を制御する。
アプリケーション実行部は、外部と通信して取得したアプリケーションプログラムを実行するか、あるいはサーバからアプリケーションサービスとして提供されるアプリケーションプログラムを実行することが好ましい。
アプリケーションプログラムインタフェース部は、ジェスチャ特定情報をアプリケーション実行部に送信することが好ましい。
ディスプレイは、タッチセンサと一体化され、タッチセンサと同じ立体形状を備えており、表示制御部は、アプリケーション実行部から受信した応答情報を、ディスプレイの立体形状に応じた変換処理を行って、表示制御を行うことが好ましい。
立体形状情報は、立体形状を識別する形状ID、立体形状を構成する複数の外周面を識別する面ID、立体形状を平面に展開した際の平面座標情報、および立体形状の三次元座標情報の少なくとも1つを含み、応答情報は、アプリケーション実行部がジェスチャ特定情報に基づいて実行する処理の処理結果として表示される応答画面の情報と、応答画面の表示位置に関する表示位置情報とを含むことが好ましい。
立体形状情報には、さらに、外周面が平面であるか湾曲であるかを表す外周面属性情報が含まれることが好ましい。
アプリケーションプログラムインタフェース部は、ジェスチャ特定情報と立体形状情報に基づいて、アプリケーションプログラムに対する操作コマンドを判定し、操作コマンドをアプリケーション実行部に送信することが好ましい。
ディスプレイは、タッチセンサと一体化され、タッチセンサと同じ立体形状を備えており、表示制御部は、アプリケーション実行部から受信した応答情報を、ディスプレイの立体形状に応じた変換処理を行って、表示制御を行うことが好ましい。
立体形状情報は、立体形状を識別する形状ID、立体形状を構成する複数の外周面を識別する面ID、立体形状を平面に展開した際の平面座標情報、および立体形状の三次元座標情報の少なくとも1つを含み、応答情報は、アプリケーション実行部が操作コマンドに基づいて実行する処理の処理結果として表示される応答画面の情報と、応答画面の表示位置に関する表示位置情報とを含むことが好ましい。
立体形状情報には、さらに、外周面が平面であるか湾曲面であるかを表す外周面属性情報が含まれることが好ましい。
本発明のタッチ式操作装置を用いた情報処理システムは、タッチ式操作装置と、タッチ式操作装置を入力装置として使用するアプリケーションプログラムを実行するアプリケーションプログラム実行部とを備えた情報処理システムにおいて、タッチ式操作装置は、タッチセンサと、立体形状情報取得部と、ジェスチャ特定情報生成部と、アプリケーションプログラムインタフェース部と、表示制御部とを備える。タッチセンサは、三次元の立体形状を有する。立体形状情報取得部は、タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして立体形状情報を取得する。ジェスチャ特定情報生成部は、立体形状情報に基づいて、タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成する。アプリケーションプログラムインタフェース部は、ジェスチャ特定情報に基づいて、タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、アプリケーション実行部からの応答情報を受信する。表示制御部は、受信した応答情報に基づいて、ディスプレイの表示を制御する。
アプリケーションプログラムを配信するサーバ、またはアプリケーションプログラムをアプリケーションサービスとして提供するサーバにアクセスして、アプリケーションプログラムまたはアプリケーションプログラムに関する情報を取得するアプリケーション情報取得部を備えていることが好ましい。
立体形状情報は、立体形状を識別する形状ID、立体形状を構成する複数の外周面を識別する面ID、立体形状を平面に展開した際の平面座標情報、および立体形状の三次元座標情報の少なくとも1つを含み、応答情報は、アプリケーション実行部が操作コマンドに基づいて実行する処理の処理結果として表示される応答画面の情報と、応答画面の表示位置に関する表示位置情報とを含むことが好ましい。
アプリケーションプログラムを開発する開発者向けのアプリケーションプログラムインタフェース情報を公開するAPI公開サーバに対して、立体形状情報を提供するAPI情報提供部を備えていることが好ましい。
本発明のタッチ式操作装置の作動方法は、三次元の立体形状を有するタッチセンサを備えたタッチ式操作装置の作動方法において、タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして立体形状情報を取得する立体形状情報取得ステップと、立体形状情報に基づいて、タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成ステップと、ジェスチャ特定情報に基づいて、タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、アプリケーション実行部からの応答情報を受信する通信ステップと、受信した応答情報に基づいて、ディスプレイの表示を制御する表示制御ステップとを、備えている。
本発明のタッチ式操作装置の作動プログラムは、三次元の立体形状を有するタッチセンサを備えたタッチ式操作装置の作動プログラムにおいて、タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして立体形状情報を取得する立体形状情報取得ステップと、立体形状情報に基づいて、タッチセンサに対して行われた操作ジェスチャの内容を特定し、特定したジェスチャ特定情報を生成するジェスチャ特定情報生成ステップと、ジェスチャ特定情報に基づいて、タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、アプリケーション実行部からの応答情報を受信する通信ステップと、受信した応答情報に基づいて、ディスプレイの表示を制御する表示制御ステップとを、備えている。
本発明によれば、タッチ式操作装置において、立体形状に応じたジェスチャ特定情報に基づいて、アプリケーション実行部と通信するアプリケーションプログラムインタフェース部を備えたため、1つのタッチ式操作装置を複数のアプリケーションプログラムに適応させたり、反対に、1つのアプリケーションプログラムを複数のタッチ式操作装置に適応させることが容易になり、汎用性を確保することができる。
タッチ式操作装置を備えたコンソールシステムの全体構成を示す概略図である。 タッチパネルに表示される地図表示画面の説明図である。 地図表示画面に表示されるメニュー画面の説明図である。 地図表示画面において音量調節が行われている状態の説明図である。 地図表示画面における現在地表示機能の説明図である。 第1実施形態の立体領域の外観斜視図である。 凹凸立体形状領域の段差の説明図である。 立体領域の平面図である。 立体領域の製造方法の説明図である。 立体形状のタッチセンサとディスプレイを組み合わせる説明図である。 立体領域に対するタップ操作の説明図である。 立体領域に対する回転操作の説明図である。 立体領域に対する横ストローク操作の説明図である。 立体領域に対する縦ピンチ操作の説明図である。 タッチパネル制御部の概略構成を示すブロック図である。 シングルタップのジェスチャ特定情報の例を示す説明図である。 回転操作のジェスチャ特定情報の例を示す説明図である。 角錐台のジェスチャ特定情報の例を示す説明図である。 角錐台に対するスライドのジェスチャ特定情報の例を示す説明図である。 平面パネルに円環の画像を表示した状態の説明図である。 図20と同じ画像を立体領域22に表示した状態の説明図である。 タッチパネル制御部のフローチャートである。 AP実行部のフローチャートである。 第2実施形態のタッチ式操作装置の概略構成図である。 第2実施形態のタッチパッド制御部等の概略構成を示すブロック図である。 第3実施形態のタッチパネル制御部等の概略構成を示すブロック図である。 第3実施形態のタッチパネル制御部のフローチャートである。 第3実施形態のAP実行部のフローチャートである。 第4実施形態のタッチパッド制御部等の概略構成を示すブロック図である。 第5実施形態の情報処理システムの説明図である。 第6実施形態の情報処理システムの説明図である。 複数の凹部を有するタッチパネルの説明図である。 図32のタッチパネルの平面図である。 メニュー項目に関するAPI情報の説明図である。
「第1実施形態」
図1において、コンソールシステム10には、本発明に係るタッチ式操作装置が用いられる。コンソールシステム10は、自動車のインストルメントパネル11に用いられる。コンソールシステム10は、走行経路を案内するナビゲーションシステム、音楽や映像を再生するAV(Audio-Visual)システム、車内の空調機器25を制御する空調システムなどの各種の車載のアプリケーションプログラム(AP:Application Program)を制御するシステムである。
インストルメントパネル11は、例えば、ハンドル13が配置される運転席14側から助手席15側に略水平方向に延びるダッシュボード16と、運転席14と助手席15の間に配置されるセンターコンソール17とが含まれる。
センターコンソール17は、運転席14と助手席15のそれぞれの座面の間に配置される下方部分17Bと、下方部分から上方に向けて立ち上がる上方部分17Aとを備えている。上方部分17Aは、上端部においてダッシュボード16と接続される。センターコンソール17の上方部分17Aと下方部分17Bには、例えば、両部分17A、17Bを滑らかに接続する化粧板が設けられており、各部分17A、17Bの表面17Cは段差の無い連続した面である。
コンソールシステム10は、タッチパネルディスプレイ(以下、単にタッチパネルと呼ぶ)21、スピーカ23、コンソールデバイス制御部24、及び主制御装置26で構成される。コンソールシステム10には、これらの他、メカニカルスイッチで構成される操作部(図示しない)も接続される。タッチパネル21とコンソールデバイス制御部24は、本発明に係るタッチ式操作装置を構成する。
タッチパネル21は、周知のように、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどの薄型のディスプレイとディスプレイの画面上に配置されるタッチセンサとで構成され、ディスプレイに表示される操作画面を通じてタッチ操作で操作指示の入力が可能なデバイスである。タッチパネル21は、表示領域がセンターコンソール17の全面に及んでおり、センターコンソール17の上方部分17Aから下方部分17Bに至る大きさおよび形状を有している。つまり、センターコンソール17の表面17Cはすべて、タッチセンサとしても、ディスプレイとしても機能する。
タッチパネル21は、図1に示すように、三次元の立体形状をしており、表面17Cは、平面、緩やかに湾曲した段差の無い湾曲面、段差の有る凸部領域や凹部領域などで構成される。タッチパネル21は、凸部領域として、下方部分17Bに円錐台型の立体領域22を備えている。立体領域22もディスプレイとタッチセンサを備えており、タッチパネルとして機能する。
タッチパネル21には、例えば、ナビゲーションシステムの地図を表示する地図表示画面の他、AVシステムなど各種のAPを操作するための操作画面が表示される。また、タッチパネル21には、テレビや映画などのコンテンツ映像が再生表示されたり、装飾的な演出効果のある映像なども表示される。地図表示画面や主要な操作画面は、上方部分17Aに設けられたメイン表示領域21Aに表示される。
スピーカ23は、ナビゲーションシステムのガイダンス、AVシステムが再生する音楽、各APの操作案内などの各種の音声を出力する。操作案内には、操作を受け付けたことを表す効果音、選択されたメニュー項目の名称を読み上げる音声などが含まれる。
コンソールデバイス制御部24は、タッチパネル制御部32、APインタフェース部33、メモリ34を備えている。
タッチパネル制御部32は、タッチパネル21の表示を制御し、かつ、タッチパネル21に対するタッチ操作を通じた操作指示の入力を受け付ける。タッチパネル制御部32は、受け付けた操作指示を表す操作信号を、APインタフェース部33に入力する。また、タッチパネル制御部32は、APインタフェース部33から操作指示に応じた処理結果などの応答情報を受け取り、応答情報に応じてタッチパネル21の表示を制御する。このように、APは、タッチパネル21を操作信号の入力装置として使用する。
APインタフェース部33は、タッチパネル制御部32から入力される操作信号に基づいて、主制御装置26のAP実行部41と通信し、AP実行部41からの応答情報を受信する。APインタフェース部33は、受信した応答情報を、タッチパネル制御部32やスピーカ23に送信する。APインタフェース部33は、AP実行部41から受信した応答情報が画面情報であればタッチパネル制御部32に送信し、音声情報であればスピーカ23に送信する。つまり、APインタフェース部33は、タッチパネル制御部32とAP実行部41との間で、APの処理に必要な情報を受け渡すインタフェースである。
メモリ34には、タッチパネル制御部32およびAPインタフェース部33がアクセス可能に接続されている。メモリ34は、後述するように、各部32、33が処理を実行するに当たって参照する情報を格納する。
主制御装置26は、コンソールシステム10を含めて、自動車の各部を統括的に制御する。主制御装置26は、AP実行部41、メモリ42、AP情報取得部43を備えている。AP実行部41は、CPU(Central Processing Unit)45を用いて実現される。CPU45は、ナビゲーションシステム、AVシステム、空調システムなどの各種のAPをロードして実行することで各APの実行部41として機能する。また、タッチパネル21とコンソールデバイス制御部24で構成されるタッチ式操作装置と、AP実行部41を含む主制御装置26は、本発明に係る情報処理システムを構成する。
AP実行部41は、APインタフェース部33とコネクタを介して通信可能に接続されている。AP実行部41は、各APを操作するための操作画面をタッチパネル21に表示するために、APインタフェース部33に送信する。AP実行部41は、タッチパネル21や立体領域22を用いた操作画面の操作を通じて入力される操作信号を、APインタフェース部33から受信して、受信した操作信号に応じた処理を実行する。
各APの処理の内容は、例えば次のとおりである。AP実行部41は、ナビゲーションシステムが起動されると、次のようなナビゲーション処理を実行する。ナビゲーション処理としては、まず、自動車の現在地を表示する現在地表示処理を実行する。現在地表示処理において、AP実行部41は、図示しないGPS(Global Positioning System)装置が取得するGPS信号に基づいて自動車の現在地を判定し、現在地に応じた地図表示画面をAPインタフェース部33に送信する。
また、AP実行部41は、ナビゲーション処理としては、目的地設定機能を実現する目的地設定処理を行う。目的地設定処理において、AP実行部41は、APインタフェース部33から、ナビゲーションシステムの操作信号として、現在地から目的地までの経路探索処理の実行要求を受信した場合は、地図データベースなどを参照して経路探索処理を実行する。探索結果は、応答情報としてAPインタフェース部33に送信される。AP実行部41は、経路が選択されて目的地が設定された場合は、自動車を経路に従って誘導する案内処理を開始する。案内処理においては、AP実行部41は、APインタフェース部33に対して、自動車の現在地に応じた案内表示画面や音声ガイダンスなどの案内情報を随時送信する。
また、AP実行部41は、ナビゲーションシステムの処理として施設検索機能を実現する施設検索処理を実行する。AP実行部41は、操作信号として、現在地付近の施設(例えばガソリンスタンド、コンビニエンスストア、ホテルなど)の検索要求を受信した場合には、施設情報データベースなどを参照して施設検索処理を実行し、検索結果を応答情報としてAPインタフェース部33に送信する。
また、AP実行部41は、AVシステムを起動して、次のようなAV処理を実行する。AV処理としては、テレビ放送やラジオ放送を受信して、受信した放送を再生する再生処理や、CD(Compact Disc)やDVD(Digital Versatile Disc)などの記録メディアに収録された音楽や映像を再生する再生処理がある。また、コンソールシステム10は、ポータブル音楽プレーヤーなどの外部機器を接続する端子であるAUX(Auxiliary)端子を備えており、外部機器で再生される音楽をスピーカ23から出力する処理を行うことも可能である。
AP実行部41は、テレビ放送やラジオ放送の映像や音声、記録メディアや外部機器の映像や音声などを、タッチパネル21やスピーカ23から出力するための再生情報として、APインタフェース部33に送信する。AP実行部41は、APインタフェース部33から、テレビ放送やラジオ放送のチャンネルの選局要求を受信した場合には、要求されたチャンネルに切り替える。また、AP実行部41は、APインタフェース部33から音量の変更要求を受信した場合には、APインタフェース部33を通じて、スピーカ23の音量を指定された音量に調節する。
AP実行部41は、空調システムを起動して、車内の空調機器25を制御する空調処理を実行する。AP実行部41は、APインタフェース部33から風量や温度を調節する調節要求を受信した場合には、空調機器25に対して制御信号を送信して風量や温度を調節する処理を実行する。
また、AP実行部41は、AV処理における選局や音量調節、空調処理における風量調節や温度調節の操作が行われた場合に、タッチパネル21の画面を切り替えたり、表示内容を変更する処理を行う。具体的には、AP実行部41は、表示する画面情報を、APインタフェース部33に対して応答情報として送信する。
AP実行部41は、マルチタスクに対応しており、複数のAPを同時並行で実行することが可能である。例えば、自動車のイグニッションスイッチなどのメインスイッチがオンされて主制御装置26が起動すると、ナビゲーションシステムが起動する。そして、操作指示に基づいてAVシステムおよび空調システムが起動されて、各APは同時並行で実行される。主制御装置26のメモリ42には、AP実行部41にロードされるAPのプログラムデータや、AP実行部41がAP実行に際して参照する参照情報などが格納されている。
また、AP実行部41は、予めインストールされたAP以外にも、外部から取得したAPを実行することが可能である。主制御装置26は、インターネット46に接続する通信機能を備えており、インターネット46に接続されたAP配信サーバ47から、種々のAPをダウンロードすることが可能である。
APのダウンロードに際しては、AP実行部41は、APインタフェース部33を通じて、タッチパネル21に対して操作画面としてAP選択画面を表示し、ダウンロードするAPのユーザからの選択要求を受信する。AP実行部41は、受信した選択要求をAP情報取得部43に送信する。AP情報取得部43は、アンテナや伝送制御回路などで構成される無線通信部44を介してインターネット46に接続し、AP配信サーバ47にアクセスしてAP配信サーバ47からAPを取得する。AP情報取得部43も、CPU45が主制御装置26として機能する作動プログラムをロードして実行することで実現される。
図2〜図5は、タッチパネル21に表示される各APの操作画面の例を示す。これらの画面は、主としてメイン表示領域21Aに表示される。図2において、ナビゲーションシステムの地図を表示する地図表示画面51は、操作画面の初期画面であり、例えば自動車のメインスイッチがオンされると表示される。地図表示画面51は、自動車の現在地に応じてその周辺の地図を表示する。地図表示画面51は、標準の状態では、現在地が画面のほぼ中心に位置するように表示される。
地図表示画面51においては、自動車の現在地を表示する現在地マーク51A、設定した目的地までの経路51B、目的地までの距離51C、目的地設定ボタン51Dなどが表示される。
タッチパネル21において、目的地設定ボタン51Dをタップするタッチ操作が行われると、地図表示画面51から目的地設定画面(図示せず)に画面が遷移する。目的設定画面においては、目的地の入力ボックスや、目的地を、電話番号、住所、施設名称などから設定するためのキーボードなどが表示される。目的地が設定されると、ナビゲーションシステムが経路探索を行って、探索した経路51Bが地図表示画面51に表示される。
図3は、地図表示画面51に表示されるメニュー画面52を示す。メニュー画面52は、図2に示す状態でタッチパネル21の画面がタップされると、地図表示画面51の上部に挿入表示される。メニュー画面52は、例えば、横方向に細長いストライプ状をしている。メニュー画面52内には、ナビゲーションシステム、AVシステム、および空調システムなどの各APにおいて操作が可能な各種の機能に応じたメニュー項目が表示される。メニュー項目は操作ボタンとして表示される。
AVメニューボタン52Aは、AVシステムの全機能を操作可能なメインメニューを呼び出す操作ボタンである。音量調節ボタン52Bは、スピーカ23の音量を調節するための操作ボタンであり、選曲ボタン52Cは、AVシステムにおいて、再生中の曲を前後に切り替えるなど、再生する曲を選択する選曲を行うための操作ボタンである。音量調節や選曲は、AVシステムの機能のうち、使用される頻度が高い機能である。音量調節や選曲は、メインメニューからでも操作可能であるが、音量調節ボタン52Bおよび選曲ボタン52Cは、使用頻度が高い機能の操作を簡便化するために設けられた専用ボタンである。
また、A/C(Air Conditioner)メニューボタン52Dは、空調システムの全機能を操作可能なメインメニューを呼び出す操作ボタンである。温度調節ボタン52Eは、目標温度を調節するための操作ボタンである。温度調節ボタン52Eは、AVシステムの音量調節ボタン52B等と同様に、使用頻度が高い機能であるために設けられた専用ボタンである。なお、図示しないが、空調システムの専用ボタンには、風量を調節する風量調節ボタンなどがある。
また、図示しないが、メニュー画面52には、メインメニューボタンがあり、メインメニューボタンを操作すると、ナビゲーションシステム、AVシステム、空調システムの全機能の設定や操作を行うためのメインメニュー(図示せず)が表示される。メインメニューが表示される場合には、例えば、地図表示画面51から画面が遷移する。
図4に示すように、メニュー画面52において、例えば、音量調節ボタン52Bがタップされると、音量調節ボタン52Bの下方に音量調節バー53がプルダウン表示される。音量調節バー53をタッチ操作してカーソルを所望の音量位置にスライドさせると、音量が調節される。他の操作ボタンの操作も基本的に同様である。
また、図5に示すように、地図表示画面51において、現在地が中心に位置する標準状態の表示から、場所を移動して表示した場合、画面の右下には復帰ボタン51Eが表示される。復帰ボタン51Eには、機能を表す「現在地に戻る」といった文字が表示されている。復帰ボタン51Eがタップされると、現在地が画面の中心に位置する標準状態の現在地表示(図2参照)に復帰する。
このように、コンソールシステム10の操作画面は、操作画面が表示されるタッチパネル21に対するタッチ操作を通じて操作が行われる。上述のとおり、こうした操作画面は、主としてメイン表示領域21Aに表示されるが、コンソールシステム10においては、メイン表示領域21Aに対するタッチ操作に加えて、上述した立体領域22に対するタッチ操作を通じて操作を行うことができる。
図6に示すように、立体領域22は、円錐台部22Aとその周囲の平面部22Bとを備えている。図6に示す立体領域22は、タッチパネル21から円錐台部22Aとその周囲の平面部22Bを切り取って示したものであり、実際には、平面部22Bは、タッチパネル21の他の領域と連続している。
円錐台部22Aは、上述したとおり、凸部領域であり、凹凸型立体形状領域に含まれる。ここで、凹凸型立体形状領域とは、隣接する領域との境界の少なくとも一部が段差で画定される凸部領域または凹部領域をいう。段差は、手で触れることで境界を知覚できる(触知できる)程度の段差をいい、具体的には指の厚み(約10mm)以上の高さを有することが好ましい。
図7および図8に示すように、円錐台部22Aは、その全周が隣接する領域である平面部22Bの平面領域との境界であり、この境界は、円錐台部22Aと平面部22Bとの間に生じる段差61で画定されている。円錐台部22Aは、隣接する領域に対して凸形状となる凸部領域であり、段差61は手HDの指の厚み以上の高さTHを有している。凹凸型立体形状領域は、段差の無い湾曲面領域と区別される。湾曲面領域は、平面パネルを湾曲させた程度の曲面で形成される領域である。
円錐台部22Aのような凹凸型立体形状領域を備えた立体領域22の場合、操作者は、視覚を用いずに手HDの触覚を通じて円錐台部22Aの場所を認識したり、円錐台部22Aのどの部分に触れているかを認識することができる。この立体領域22は、後述するように様々なジェスチャ操作を通じて操作指示の入力を受け付けることが可能となっている。そのため、立体領域22を用いることで、例えば、運転席14に座るドライバが運転中に、視覚を用いずにAPを操作することも可能となっている。
立体領域22を含めてタッチパネル21は、例えば、操作領域における複数のタッチ位置を同時に検出する多点検出が可能な静電容量方式のタッチセンサを備えている。立体領域22のような凹凸型立体形状領域を有する三次元の立体形状のタッチセンサは、例えば、特開2016−213435号公報に記載された製造方法を使用して製造することができる。材料や製造方法の詳細は、上記公報に記載されているとおりであるが、簡単に概略を図9に示す。
図9Aに示すように、まず、表面と裏面の2つの主面を持つ平板な基板66上に、被めっき層67が形成される。被めっき層67は、透明電極を構成する金属めっきの下地として形成される。金属めっきは、タッチ位置を検出するための信号線を形成する金属層を構成する。被めっき層67は、基板66の表面にストライプ状に形成される。図示しないが、被めっき層67は、基板66の裏面にも、表面と直交する方向にストライプ状に形成される。これにより、被めっき層67は、表面と裏面を合わせてマトリックス状に形成される。
被めっき層67は、めっき触媒等と相互作用する官能基等を有する化合物であり、例えば、カルボン酸基、シアノ基などである。基板66は、三次元形状に成形可能な基板であり、例えば、PET(ポリエチレンテレフタレート)などの透明な樹脂製である。被めっき層67は、基板66に、例えばスクリーン印刷などの印刷方法で形成される。
図9Bに示すように、被めっき層67が形成された後、基板66が、三次元の立体形状に成形される。成形方法は、例えば、真空成形、ブロー成形などの公知の加熱加工方法が用いられる。
図9Cに示すように、基板66が三次元の立体形状に変形された後、金属めっき処理が施される。金属めっき処理では、変形後の基板66がめっき液に浸漬される。めっき液で被めっき層67上に金属層が形成されて、これが透明電極を構成する信号線68となる。金属めっき処理が施されると、三次元の立体形状を備えたタッチセンサ69が完成する。このタッチセンサ69に対して、表面保護層の形成などの種々の加工が施されることに加えて、信号処理IC(Integrated Circuit)などの部品が取り付けられる。
図9に示す製造方法の特徴は、被めっき層67を形成した基板66を所望の三次元の立体形状に変形させた後、金属めっき処理を施してパターン状の金属層を形成している点である。一般的に、金属層は破断伸度が小さく、基板66に金属層を設けた後に三次元の立体形状に基板66を変形させると、基板66の伸びに金属層が追従できずに破断する場合が多い。より具体的には、金属層が形成された状態の平面シートを緩く湾曲させる程度であれば、金属層の破断は問題にならないが、凹凸型立体形状領域のような段差を含む立体形状を形成するために、金属層を形成後の平面シートを屈曲させると、金属層の変形量が大きくなるため、金属層が破断する場合が多い。
図9に示す製造方法は、被めっき層67が形成された基板66を変形させた後に、金属めっき処理で金属層を形成するため、金属層の破断が防止される。そのため、図9に示す製造方法は、凹凸型立体形状領域を有する三次元の立体形状のタッチセンサを形成する場合に有効である。
周知のとおり、静電容量式のタッチセンサでは、初期状態において、マトリックス状に形成された信号線68に微小な電圧が印加される。手HDの指がタッチセンサに接触すると、タッチ位置において静電容量が変化し、この静電容量変化に応じた電圧変化が検知されて、電圧変化を生じた信号線68が特定される。信号線68は、マトリックス状に配置されているため、タッチ位置において交差するX方向の信号線68とY方向の信号線68が特定されて、タッチ位置が検出される。
また、図9において説明したとおり、基板66には透明な樹脂が用いられ信号線68も透明電極として形成される。そのため、図10に示すように、タッチセンサ69と、タッチセンサ69と同形状に成形されたLCDや有機ELディスプレイなどのディスプレイ70とを組み合わせて、一体化することで、三次元の立体形状を備えたタッチパネルとして機能する立体領域22が完成する。
なお、図9および図10においては、説明を簡略化するために、立体領域22の部分のみで説明したが、センターコンソール17の全面に及ぶタッチパネル21を一体的に製造してもよい。もちろん、タッチパネル21を複数の部分に分割して製造してもよい。また、図9において、説明の便宜上、信号線68の幅を比較的太く示したが、信号線68の幅は、実際には非常に細い。例えば、基板66を、表示機能を備えたタッチパネルとして利用する場合を考えると、信号線68は、タッチパネルの表示画素の開口率が90%程度になるような微細な配線である。
図11〜図14は、立体領域22に対するジェスチャ操作の例を示す。図11は、立体領域22の円錐台部22Aの表面を、手HDでたたくジェスチャ操作であるタップ操作を示す。タップ操作としては、例えば、1回たたくシングルタップと、2回連続してたたくダブルタップがある。
ダブルタップは、例えば、メニュー画面52を呼び出す操作や現在地表示の操作に割り当てられる。例えば、図2に示すように地図表示画面51が表示されている状態で、立体領域22に対してダブルタップが行われると、メニュー画面52が表示される。また、図5に示すように、地図表示画面51の表示が標準状態から変更されている場合にダブルタップが行われると、現在地表示に復帰する。
シングルタップは、例えば、メニュー項目の選択を確定する機能に割り当てられる。メニュー画面52において、いずれかの機能のメニュー項目が選択された状態でシングルタップが行われると、メニュー項目の選択が確定する。
図12は、円錐台部22Aを上方から手HDの人差し指と親指を含む2本以上の指で掴むようにタッチし、その状態で円錐台部22Aの外周に沿って手HDを左右に回転させるジェスチャ操作である。図12に示すジェスチャ操作を、ここでは回転操作と呼ぶ。
回転操作は、例えば、メニュー画面52において、メニュー項目の選択操作に割り当てられる。メニュー画面52が表示されると、いずれかのメニュー項目の位置にカーソルが表示される。回転操作を行うとカーソルが順次移動してメニュー項目の選択が行われる。
図13は、円錐台部22Aの外周面を人差し指を含む1本以上の指でタッチして、その状態で、手HDを左右に振るようにして円錐台部22Aの外周面を撫でるジェスチャ操作を示す。このジェスチャ操作は、手HDを、図12Aに示す状態と図12Bに示す状態との間で横方向に往復させるジェスチャであるので、ここでは、横ストロークと呼ぶ。
横ストロークは、例えば、空調システムの風量調節や温度調節の操作、AVシステムの音量調節や選曲の操作に割り当てられる。メニュー画面52において、温度調節や音量調節などのメニュー項目の選択が確定された後、横ストロークが行われると、温度や音量が変更される。
図14は、図14Aに示すように、手HDの人差し指と親指を含む2本以上の指で円錐台部22Aを掴むようにタッチした状態から、図14Bに示すように、円錐台部22Aの外周面を手HDで摘み上げるようにして手HDを縦方向にスライドさせるジェスチャ操作を示す。図14に示すジェスチャ操作を、ここでは、縦ピンチと呼ぶ。
縦ピンチは、例えば、メニュー画面52を閉じる操作に割り当てられる。地図表示画面51にメニュー画面52が表示された状態で、縦ピンチが行われると、メニュー画面52の表示が終了してメニュー画面52が閉じられる。
本例における、立体領域22に対するジェスチャ操作の種類や、各ジェスチャ操作に対する機能の割り当ては、一例であり、もちろん、上述した以外の種類や割り当てが考えられる。例えば、円錐台部22Aではなく、平面部22Bに対するタップ操作、スライド操作などを、円錐台部22Aに対するジェスチャ操作と区別して設定してもよい。
図15は、タッチパネル制御部32の概略構成を示すブロック図である。タッチパネル制御部32は、ジェスチャ判定部32A、表示制御部32Bを備えている。ジェスチャ判定部32Aは、立体領域22に対してタッチ操作であるジェスチャ操作が行われた場合に、そのジェスチャ操作がどのようなジェスチャであるかを判定する。
図16において、説明を簡略化するために、タッチパネル21のうち、本発明の特徴部分である、立体領域22を通じて受け付けるタッチ操作の処理を例に説明する。実際には、タッチパネル制御部32は、立体領域22を含めてタッチパネル21全体を制御するが、タッチパネル21のうち、立体領域22以外の平面領域や湾曲面領域を通じて受け付けるタッチ操作の処理は、通常の平面パネルのタッチパネルの処理と同様であるため、説明を省略する。
ジェスチャ判定部32Aには、立体領域22に対してタッチ操作がされた場合に、タッチされたタッチ位置に対応する検知信号が入力される。検知信号は、立体領域22の操作領域に張り巡らされた、X方向およびY方向の各信号線68で構成されるマトリックス配線からの出力である。検知信号は、タッチ位置に対応する、X方向およびY方向の各信号線68の交点の座標を表す。そのため、ジェスチャ判定部32Aは、検知信号から、立体領域22内におけるタッチ位置がどこかを特定することができる。
記憶部であるメモリ34には、立体形状情報テーブル71が格納されている。立体形状情報テーブル71には、立体領域22の立体形状に応じて、タッチ位置と立体形状の各部との対応関係が記録されている。ジェスチャ判定部32Aは、メモリ34にアクセスして立体形状情報テーブル71を参照して、立体形状情報を読み出す。ジェスチャ判定部32Aは、記憶部であるメモリ34にアクセスして、タッチセンサの立体形状に関する立体形状情報を取得する立体形状情報取得部として機能する。
ジェスチャ判定部32Aは、検知信号に基づいて、立体形状情報テーブル71を参照して、ジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成部として機能する。
立体形状情報には、まず、形状ID(ID:Identification Data)が含まれる。形状IDは、立体領域22に含まれる立体形状を識別する情報である。立体領域22の立体形状は円錐台であり、円錐台を表す形状IDとして「01」が割り当てられている。
また、立体形状情報テーブル71には、タッチ位置として、検知信号に基づいて特定される、立体領域22のマトリックス配線における座標が記録される。なお、図15においては、簡略化のために、タッチ位置を「1〜100」といった識別番号で表しているが、実際のデータは、X方向とY方向の各信号線68が接続される信号処理ICの端子番号などに基づいて特定される座標情報である。立体形状情報テーブル71には、このタッチ位置の識別番号と、立体形状の面IDとが関連付けて記憶されている。
面IDは、例えば、立体形状の外周面が複数の面で構成される場合において、各面を識別する情報である。立体領域22は、円錐台部22Aの外周面には上面と側面、および平面部22Bに対応する面の3つの面を有する。本例では、円錐台部22Aの上面の面IDには「001」が、側面の面IDには「002」が、平面部22Bの面IDには「003」がそれぞれ割り当てられている。
また、立体形状情報テーブル71には、面IDに加えて、外周面属性情報(以下、単に面属性情報と呼ぶ)が記録されている。面属性情報は、外周面を構成する各面が、例えば、円錐台の上面か側面かといった情報である。また、面属性情報には、各面が、平面であるか曲面であるかを表す情報も含まれる。また、円錐台の側面のように加工によって曲率が大きな曲面もあれば、平面部22Bを緩やかに湾曲させることで曲率が小さな湾曲面が形成される場合もある。面属性情報には、各面が、平面であるか、平面を緩やかに湾曲させた湾曲面であるかといった情報も含まれる。曲面や湾曲面といった情報を使用する場合には、曲率の情報を付加することが好ましい。画像を曲面や湾曲面に適切に表示するためには、曲率に応じた座標変換などの画像補正処理を施した方がよい場合もある。そのため、面属性情報として、曲面を表す情報を使用する場合は曲率を含めることが好ましい。
ジェスチャ判定部32Aは、タッチ位置の識別番号(座標情報)、形状ID、面IDおよび面属性情報に基づいて、どのような立体形状のどの面に対してタッチ操作が行われたかを特定することができる。なお、本例では、1つの面に対しては1つのIDを割り当てているが、1つの面内を複数のブロックに分割して、各ブロックにIDを付与してもよい。こうすれば、タッチ位置が1つの面内のどのブロックに属するかを特定することも可能である。
図12に示す回転操作や、図13に示す横ストロークなどのジェスチャ操作が行われると、複数の位置が連続的にタッチされる。この場合、タッチ位置を表す検知信号は、ジェスチャ判定部32Aに対して連続的に入力される。ジェスチャ判定部32Aは、連続的に入力される検知信号に基づいて、タッチ位置の軌跡を記録し、記録した軌跡から、回転操作であるか横ストロークであるかといったジェスチャ操作の内容を特定する。
また、図11に示すようなタップ操作の場合は、1箇所の局所的な検知信号が入力される。所定時間内に2回同じ場所からの検知信号が入力された場合には、ダブルタップと判定される。
ジェスチャ判定部32Aは、上述のとおり、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成する。ジェスチャ特定情報には、立体領域22の形状ID、面ID、面属性情報、ジェスチャ操作の種類、タッチ位置の座標などが含まれる。
図16〜図19は、ジェスチャ特定情報の例を示す。図16に示すように、立体領域22が円錐台部22Aで、ジェスチャ操作が、上面に対するシングルタップの場合は、形状IDは、円錐台部22Aを表す「01」、面IDは上面を表す「001」、面属性情報は「上面」でかつ「平面」ジェスチャ操作の種類はシングルタップ、タッチ位置の座標は、上面のタッチ位置に対応する座標の値、例えば「(200、300)」といった内容になる。
タッチ位置については、図16〜図19においては、図15において簡略的に示した識別番号ではなく、具体的な座標の値で表されている。ここで、タッチ位置の座標は、各種の定義の仕方が考えられるが、どのような定義の座標を使用してもよい。例えば、図15に識別番号で示した座標は、信号線68の交点に対応する座標である。この座標とは別に、立体形状においてタッチ位置の座標の表し方としては、例えば、立体形状を平面に展開した場合の2次元座標を表す平面座標情報がある。あるいは、タッチ位置を、立体形状を三次元空間に配置した場合の三次元座標情報で表す方法も考えられる。さらに、立体形状の各面に対してそれぞれ座標系を定義して、各面の面内座標情報で表す方法も考えられる。面内座標情報は、例えば、円錐台であれば、上面の面内座標情報と側面の面内座標情報が含まれる。タッチ位置の座標としては、こうした座標のいずれを使用してもよい。
図17に示すように、立体領域22が円錐台部22Aで、ジェスチャ操作が側面に対する回転操作の場合は、形状IDが「01」、面IDは側面を表す「002」、面属性は「側面」でかつ「曲面」、ジェスチャ操作の種類は回転操作、タッチ位置の座標はタッチ位置に対応する座標の値となる。回転操作の場合は、タッチ位置の座標は、タッチ位置の軌跡を表す座標となる。
また、図18および図19は、立体領域が、本例の円錐台部22Aではなく、角錐台部81Aと平面部81Bを有する立体領域81である場合のジェスチャ特定情報の例である。図18は、角錐台部81Aに対するシングルタップがされた場合のジェスチャ特定情報を示す。この場合、形状IDは、角錐台を表す「02」、面属性情報は「上面」でかつ「平面」、ジャスチャの種類はシングルタップ、タッチ位置の座標は、タッチ位置に対応する座標となる。
図19は、角錐台部81Aに対して上面を撫でるようなスライド操作がされた場合のジェスチャ特定情報を示す。この場合、形状IDは、角錐台を表す「02」、面属性情報は「上面」でかつ「平面」、ジャスチャの種類はスライド、タッチ位置の座標は、スライドに応じたタッチ位置の軌跡を表す座標の値となる。
ジェスチャ判定部32Aは、このようなジェスチャ特定情報を、APインタフェース部33に送信する。
図15において、APインタフェース部33は、ジェスチャ特定情報に基づいて、AP実行部41と通信し、アプリケーション実行部41からの応答情報を受信する。本例においては、APインタフェース部33は、ジェスチャ判定部32Aから受信したジェスチャ特定情報をそのまま、AP実行部41に対して送信する。また、APインタフェース部33は、AP実行部41からの応答情報を表示制御部32Bに送信する。応答情報には、タッチパネル21に表示する応答画面の情報が含まれる。
表示制御部32Bは、APインタフェース部33から受信した応答情報に基づいて、立体領域22を含むタッチパネル21の表示を制御する。
AP実行部41は、コマンド判定部41Aと応答部41Aとを備えている。コマンド判定部41Aは、APインタフェース部33から受信したジェスチャ特定情報に基づいて、操作コマンドを判定する。操作コマンドは、ジェスチャ操作の内容に基づいて、各種のジェスチャ操作に割り当てられた、APに対する操作信号である。
主制御装置26のメモリ42には、コマンド判定テーブル72(72A、72B、72C・・・)が格納されている。コマンド判定テーブル72は、「シングルタップ」、「ダブルタップ」、「回転操作」といったジェスチャ操作と、操作コマンドとの対応関係を記録したテーブルデータである。操作コマンドとしては、「メニュー呼び出し/現在地表示」、「メニュー選択」、AVシステムに対する「選曲」や「音量」の調節、空調システムに対する「風量」や「温度」等の調節といった操作コマンドがある。
例えば、「ダブルタップ」のジェスチャ操作には、AP実行部41に対して「メニュー呼び出し」や「現在地表示」を指令する操作コマンドが割り当てられている。また、「回転操作」のジェスチャ操作には、「メニュー選択」の操作コマンドが割り当てられており、「横ストローク」のジェスチャ操作には、メニュー項目の選択状態に応じて、「選曲」、「音量」、「風量」、「温度」の調節を指令する操作コマンドが割り当てられている。
本例では、ダブルタップや回転操作といったジェスチャ操作の種類毎に操作コマンドが割り当てられているが、同じ種類のジェスチャ操作であっても、タッチ操作が行われる面毎に異なる操作コマンドを割り当ててもよい。この場合、例えば、上面に対するタップ操作と側面に対するタップ操作のそれぞれに対して異なる操作コマンドが割り当てられる。
また、図15において示すように、コマンド判定テーブル72には、立体領域22の形状毎に複数のコマンド判定テーブル72A、72B、72Cが含まれる。コマンド判定テーブル72Aは、タッチパネル21が、形状IDが「01」の円錐台部22Aを含む立体領域22を有する場合に用いられるテーブルである。コマンド判定テーブル72Bは、図18および図19に例示した角錐台部81Aを有する立体領域81の場合に用いられるテーブルであり、コマンド判定テーブル72Cは、図示しない半球部を有する立体領域の場合に用いられるテーブルである。
タッチパネル21の形状が三次元の立体形状の場合、平面パネルに対するジェスチャ操作と異なり、タッチ位置やジェスチャ操作の種類を含むジェスチャ操作の内容が複雑化し、また、立体形状が異なるとジェスチャ操作の内容も変化する。そのため、タッチパネル21の立体形状に応じてコマンド判定テーブル72が複数用意される。このように、立体形状に応じた各コマンド判定テーブル72A、72B、72Cは、立体形状毎に異なる情報であるため、立体形状情報に含まれる。
メモリ42には、タッチパネル21の立体形状を表す形状IDがプリセット情報76として記録されている。プリセット情報76は、例えば、自動車の製造時において、タッチパネル21を主制御装置26に装着する際にセットされる。AP実行部41は、プリセット情報76を参照して、タッチパネル21の立体形状を認識する。
コマンド判定部41Aは、ジェスチャ判定部32Aから入力されたジェスチャ操作の内容に基づいて、コマンド判定テーブル72を参照して、操作コマンドを判定する。AP実行部41は、コマンド判定部41Aが判定した操作コマンドに応じて、ナビゲーションシステム、AVシステム、空調システムの各APにおける各処理を実行する。
応答部41Aは、コマンド判定テーブル72を参照して、操作コマンドに対する応答情報を生成する。コマンド判定テーブル72には、操作コマンドに対する応答情報として、応答画面の情報が含まれている。コマンド判定テーブル72に格納される応答情報は、例えば、応答画面の画像データの格納先へのリンク情報である。応答情報は、タッチパネル21の立体形状に応じて用意されている。
コマンド判定テーブル72Aには、円錐台部22Aに対応した円錐台用の応答画面の情報が記録されており、コマンド判定テーブル72Bには、角錐台部81Aに対応した角錐台用の応答画面の情報が記録されており、コマンド判定テーブル72Cには、半球部に対応した半球用の応答画面の情報が記録されている。
平面パネルの場合は、タッチパネルが違っても表示する画面サイズが異なる程度であるため、同じ画像データを使用して拡大や縮小処理を施して各タッチパネルの画面サイズに合わせるといった処理が可能である。そのため、応答画面のデータも1つで済む場合が多い。
しかし、例えば、図20および図21に示すように、立体形状が異なると、同じ内容の応答画面を表示する場合でも、拡大や縮小といったサイズ変更だけでは、適切に表示されない場合がある。図20に示すように、平面パネル85に表示された円環86を、図21に示す立体領域22に表示する場合は、例えば、円環86を複数の領域に分割して、一部を円錐台部22Aの上面に表示し、一部を平面部22Bに表示する処理が必要になる場合がある。このような場合は、単に画像の拡大や縮小をしただけでは適切に表示することができない。
そこで、コンソールシステム10においては、立体形状に応じた応答画面が用意されている。応答情報には、立体形状毎の応答画面の情報に加えて、例えば、立体形状に応じて、応答画面の画像をどのように分割し、立体形状のどの面に応答画面のどの部分を表示するかといった応答画面の表示位置に関する表示位置情報が含まれている。
図15において、応答部41Aは、プリセット情報76に基づいて、タッチパネル21の立体形状に応じたコマンド判定テーブル72を選択する。本例において、プリセット情報76は、円錐台部22Aを表す形状ID「01」であるため、応答部41Aは、コマンド判定テーブル72Aを選択する。そして、選択したテーブル72Aを参照して、操作コマンドに応じた応答情報であって、円錐台用の応答情報を、APインタフェース部33に送信する。コンソールデバイス制御部24は、受信した応答情報に基づいて各部を制御する。表示制御部32Bは、応答情報に含まれる円錐台用の応答画面に基づいて、立体領域22の表示内容を変更する。
また、表示制御部32Bは、立体領域22の平面部22Bを構成する面が、平面であるか緩やかに湾曲した湾曲面であるかといった面属性情報に基づいて、応答画面の表示位置などを微調整する。これにより面の属性に応じた適切な表示が可能となる。
また、コンソールデバイス制御部24は、応答情報に含まれる音声情報に基づいてスピーカ23から音声を出力させるといった制御を行う。
メモリ42には、AP実行部41が実行可能なAPが複数格納されている。各APのデータには、立体形状に応じたコマンド判定テーブル72の内容、具体的には、ジェスチャ操作と操作コマンドとの対応関係や、操作コマンドに対する応答画面を含むユーザインタフェース(UI:User Interface)の情報が含まれている。UIの情報は、例えば、通常の平面パネルの場合のUI1、円錐台用のUI2、角錐台用のUI3、半球用のUI4などである。
立体形状に応じたコマンド判定テーブル72の情報は、例えば、予めインストールされるAPに予め組み込まれる。APの開発者は、各メーカーが製造するタッチパネルの立体領域の立体形状の仕様に基づいて、それぞれに適合したUI等を開発する。そのUI等のデータが予めAPに組み込まれる。そして、各コマンド判定テーブル72A、72B、72C・・・は、APが主制御装置26にインストールされる際にメモリ42上に展開される。これにより、1つのAPを複数の立体形状のタッチパネル21に適応させることが可能となる。
なお、メモリ42には、複数のAP1、AP2・・・が格納されている。図示は省略するが、いずれのAPも複数の立体形状に応じたコマンド判定テーブル72を備えている。
以下、上記構成の作用について、図22および図23に示すフローチャートを参照しながら説明する。
コンソールシステム10が搭載される自動車において、イグニッションスイッチなどのメインスイッチが操作されると、コンソールシステム10の電源がオンされる。電源がオンされると、図23に示すように、AP実行部41を含む主制御装置26の電源がオン(ステップ(S)200)して、図22に示すようにタッチパネル制御部32の電源もオンする(S100)。
図23に示すように、電源がオンされると、AP実行部41は、APを起動する(S210)。AP実行部41は、プリセットされた形状IDを読み込む(S220)。そして、形状IDに応じてAPのUIを設定する(S230)。本例では、円錐台部22Aに対応する形状ID「01」が読み込まれて、円錐台用のUIを含むコマンド判定テーブル72Aがメモリ42に展開される。この後、APの起動が完了された旨を表すAP起動完了信号がタッチパネル制御部32に送信される(S240)。送信後、AP実行部41は、タッチパネル制御部32からの操作信号を待機する(S250)。
図22に示すように、タッチパネル制御部32は、電源がオンされた後、AP起動完了信号を待機する(S110)。タッチパネル制御部32は、AP起動完了信号を受信すると(S110でY)、S120に進み、タッチ操作の受け付けを開始する。立体領域22に対してタッチ操作がされると(S130でY)、タッチパネル制御部32のジェスチャ判定部32Aは、立体形状情報テーブル71を参照して、参照した立体形状情報に基づいて、ジェスチャ操作の内容を特定する(S140)。そして、ジェスチャ判定部32Aは、図16および図17に示すようなジェスチャ特定情報を生成する(S150)。APインタフェース部33は、ジェスチャ判定部32Aから受信したジェスチャ特定情報を、AP実行部41に送信する(S160)。
図23において、AP実行部41では、ジェスチャ特定情報が操作信号として受信されると(S250でY)、S260に進む。S260において、コマンド判定部41Aは、形状IDに応じて選択したコマンド判定テーブル72を参照して、受信したジェスチャ特定情報に基づいて操作コマンドを判定する。
AP実行部41は、判定された操作コマンドに応じた処理を実行する(S270)。応答部41Aは、コマンド判定テーブル72を参照して、立体形状に応じた応答画面であって、かつ、操作コマンドに応じた応答画面をAPインタフェース部33に送信する(S280)。本例では、応答部41Aは、円錐台用の応答画面を送信する。
図22において、タッチパネル制御部32が応答画面を受信すると(S170でY)、表示制御部32Bは、立体領域22に応答画面を表示する制御を行う(S180)。こうした処理が、電源がオフ(S290、S190でY)されるまで繰り返される。
このように、タッチパネル制御部32は、タッチパネル21の立体形状情報に基づいて、ジェスチャ操作の内容を特定し、その内容を表すジェスチャ特定情報を生成し、生成したジェスチャ特定情報に基づいて、AP実行部41と通信する。そして、AP実行部41からの応答情報に基づいてタッチパネル21の表示を制御する。タッチパネル制御部32は、AP実行部41に対して、立体形状に応じて生成されたジェスチャ特定情報を送信するAPインタフェース部33を備えているため、AP実行部41は、立体形状に応じて適切な処理を行うことができる。そのため、AP実行部41が実行する複数のAPとの適応が容易になる。
また、タッチパネル制御部32が立体形状に応じたジェスチャ特定情報を出力するAPインタフェース部33を備えていれば、タッチパネル制御部32などのデバイス側と、AP実行部41との間で通信される情報が明確になる。そのため、APを開発する開発者にとっても、各種のタッチパネルの立体形状に合わせたAPの開発がしやすい。
このように、タッチ式操作装置がAPインタフェース部33を備えることで、1つのタッチ式操作装置を複数のAPに適応させたり、反対に、1つのAPを複数のタッチ式操作装置に適応させることが容易になり、汎用性を確保することができる。
上述のとおり、本例のAP実行部41は、予めインストールされたAP以外にも、外部と通信して取得したAPを実行することが可能である。この場合、多種多様なAPと、多種多様な立体形状のタッチパネルとが組み合わされて使用されることになる。本例のようなタッチ式操作装置は、このような場合に、特に有効である。
なお、本例において、AP実行部41は、AP情報取得部43を通じてAP配信サーバ47からダウンロードしたAPを実行することができる。こうした形態以外でも、例えば、AP配信サーバ47として、インターネット46経由でアプリケーションサービスを提供するASP(Application Service Provider)サーバを使用し、AP情報取得部43がASPサーバにアクセスして、アプリケーションサービスとして提供されるAPをAP実行部41が実行してもよい。つまり、AP情報取得部43およびAP実行部41は、いわゆるクラウド型のサービスを利用できるようにしてもよい。
この場合は、AP情報取得部43は、APのデータすべてをダウンロードして、主制御装置26にインストールするのではなく、AP実行部41の処理に際して、リアルタイムでASPサーバと通信して、必要なAPに関するデータを逐次取得する。AP実行部41は、逐次取得されたAPに関するデータに基づいて処理を実行する。この場合、AP情報取得部43およびAP実行部41は、APを実行するためのプラットホームとして、例えば、WEBブラウザを使用して、WEBブラウザを使用してASPサーバのアプリケーションサービスの提供を受ける。
また、AP情報取得部43は、立体形状に応じてAPを取得してもよい。この場合、AP情報取得部43は、プリセットされた形状IDをAP配信サーバ47に送信する。AP配信サーバ47は、形状IDに基づいてAPを抽出してAP情報取得部43に配信する。これによれば、AP情報取得部43は、タッチパネル21の立体形状に応じたAPをダウンロードすることができる。また、ASPサーバからアプリケーションサービスの提供を受ける場合も同様に、AP情報取得部43が立体形状をASPサーバに送信することで、主制御装置26は、立体形状に応じたアプリケーションサービスの提供を受けることができる。
また、APのインストールはインターネット46経由ではなく、例えば、USB(Universal Serial Bus)メモリなどのリムーバブルメディアを通じて主制御装置26にインストールしたり、スマートフォンと近距離無線通信を行ってインストールできるようにしてもよい。こうしたUSBメモリや近距離無線通信も外部との通信に含まれる。
また、本例では、立体形状情報として、立体形状を識別する形状ID、立体形状を構成する外周面を識別する面ID、外周面の属性を表す面属性情報、マトリックス状の信号線68の配線に基づくタッチ位置の座標などを例に説明している。しかし、立体形状情報としては、これ以外でもよく、立体形状を有するタッチセンサに対するジェスチャ操作の内容を特定できる情報であれば、どのようなものでもよい。例えば、立体形状を平面に展開した際の平面座標情報、および立体形状の三次元座標情報などを使用してもよい。また、ジェスチャ操作の内容を特定できる情報であれば、これらの立体形状情報のすべてを有している必要はなく、少なくとも1つが含まれていればよい。
「第2実施形態」
図24および図25に示す第2実施形態のコンソールシステム90は、三次元の立体形状を有するタッチセンサとは別に、ディスプレイとしてタッチパネル91が設けられる形態である。図24に示すように、第2実施形態のコンソールシステム90においては、タッチセンサを備えたタッチパッド92には、表示機能はなく、表示は平面型のタッチパネル91で行われる。その他の点は、第1実施形態と同様であるので、以下においては相違点を中心に説明し、同一部分には同一符号を示し説明を適宜省略する。
図25に示すように、コンソールデバイス制御部24には、第1実施形態のタッチパネル制御部32の代わりに、タッチパッド制御部94が設けられている。また、タッチパッド制御部94とは別に、タッチパネル91を制御するタッチパネル制御部93を備えている。タッチパネル91は平面パネルであるため、タッチパネル制御部93は従来のタッチパネル制御部と同様である。タッチパネル制御部93は、表示制御部に相当する。
図25において、タッチパッド制御部94は、第1実施形態と同様に、ジェスチャ判定部32Aを備えている。立体形状情報テーブル71についても第1実施形態と同様である。また、主制御装置26は、第1実施形態とほぼ同様である。相違点としては、タッチパネル91が立体形状ではなく、平面となるため、プリセット情報76としては、ディスプレイが平面であることを表す情報が追加される。また、コマンド判定テーブル72Aは、第1実施形態においては応答情報が円錐台用であったが、本例においては、応答情報が平面用に変更されている。その他の構成は第1実施形態と同様である。
ジェスチャ判定部32Aは、円錐台形の立体形状を有するタッチパッド92から検知信号を受信すると、立体形状情報テーブル71を参照して、ジェスチャ操作の内容を特定する。そして、ジェスチャ特定情報を生成する。ジェスチャ特定情報は、APインタフェース部33からAP実行部41に送信される。AP実行部41は、ジェスチャ特定情報を操作信号として受信すると、コマンド判定テーブル72を参照して、操作コマンドを判定する。そして、AP実行部41は、操作コマンドに応じた応答情報をAPインタフェース部33に送信する。この応答情報には、タッチパネル91が平面パネルであるため、平面用の応答画面の情報が含まれる。タッチパネル制御部93は、受信した応答情報に基づいてタッチパネル91の表示を制御する。
なお、タッチパネル91として平面パネルを使用する場合でも、平面パネルを湾曲させて画面が湾曲面になっている場合もある。その場合には、上述したように、湾曲面で適切な表示が行われるように、平面用の応答画面の情報を微調整することが好ましい。
「第3実施形態」
図26〜図28に示す第3実施形態は、第1実施形態の変形例である。第1実施形態においては、APインタフェース部33から受信したジェスチャ特定情報に基づいて、AP実行部41が操作コマンドを判定している。これに対して、第3実施形態においては、操作コマンドの判定は、AP実行部41ではなく、APインタフェース部33が行う。以下、相違点を中心に説明する。
APインタフェース部33には、コマンド判定部33Aが設けられる。そして、コマンド判定テーブル72は、主制御装置26のメモリ42ではなく、立体領域22を含むデバイス側のメモリ34に格納される。コマンド判定テーブル72としては、立体領域22の形状に対応した円錐台型のコマンド判定テーブル72Aのみが格納される。
主制御装置26には、平面用のUI0のみを有するAPがインストールされる。メモリ42には、操作コマンドと応答情報との対応関係を記憶したコマンド/応答情報対応テーブル96が格納される。テーブル96には、平面用の応答情報が記録されている。第3実施形態においては、AP実行部41は、立体領域22の形状を認識せず、立体領域22の形状に関わらず、立体領域22が通常の平面パネルのタッチパネルであるものとして処理を実行する。
図27および図28に示す第3実施形態のフローチャートにおいて、図28のS200、S210、S240、S250は、第1実施形態の図23のステップと同じである。第3実施形態においては、APは平面用の応答情報のみを有するため、図28において、第1実施形態のS220およびS230に相当するステップは無い。また、図27のS100〜S150は、第1実施形態の図22のステップと同じである。
図27のS151において、APインタフェース部33は、ジェスチャ判定部32Aからジェスチャ特定情報を受信する。そして、コマンド判定部33Aは、受信したジェスチャ特定情報に基づいて、コマンド判定テーブル72Aを参照して、操作コマンドを判定する。コマンド判定テーブル72Aは立体形状情報に相当するので、APインタフェース部33のコマンド判定部33Aは、ジェスチャ特定情報と立体形状情報とに基づいて、APに対する操作コマンドを判定している。APインタフェース部33は、判定した操作コマンドを、AP実行部41に送信する(S152)。このように、第3実施形態では、APインタフェース部33は、第1実施形態のようにジェスチャ特定情報を送信するのではなく、コマンド判定部33Aでコマンド判定を行って、判定した操作コマンドをAP実行部41に送信する。
図28のS250において、AP実行部41は、操作信号として操作コマンドを受信する(S250でY)。AP実行部41は、第1実施形態のようにコマンド判定を行うことなく、操作コマンドに応じた処理を実行する(S270)。応答部41Aは、操作コマンドに応じた応答情報として、平面用の応答画面をAPインタフェース部33に送信する(S281)。
図27のS170において、タッチパネル制御部32が平面用の応答画面を受信すると(S170でY)、表示制御部32Bは、平面用の応答画面を立体領域22の立体形状に応じた応答画面に変換する画面変換処理を実行する(S171)。表示制御部32Bは、コマンド判定テーブル72Aを参照して、操作コマンドに対応する円錐台用の応答画面の情報を読み出す。読み出した円錐台用の応答画面に基づいて、立体領域22の表示を制御する(S180)。電源がオフ(S290、S190でY)されるまで上記の処理が繰り返される。
立体形状に応じた応答画面は、立体形状情報の1つである。上述したとおり、タッチパネル21の立体領域22は、タッチセンサ69と一体化され、タッチセンサ69の立体形状と同じ立体形状のディスプレイ70を備えている。そのため、第3実施形態においては、表示制御部32Bは、タッチセンサ69と一体化されたディスプレイ70の立体形状に応じた画面変換処理を行って、表示制御を行う。画面変換処理は、例えば、図20および図21で示したように、平面パネルで表示される画像を、立体形状の表示領域に適切に表示するための変換処理である。
このように、第3実施形態においては、タッチパネル21およびタッチパネル制御部32を備えるデバイス側で、タッチパネル21の立体形状に応じたコマンド判定と画面変換を行っている。AP実行部41は、タッチパネル21の立体形状を認識せずに済む。そのため、APの開発をタッチパネル21の立体形状を考慮せずに行うことができる。また、タッチパネル21がどのような立体形状を有していても、既存のAPをそのまま使用することが可能である。第1実施形態と同様に、第3実施形態においても、1つのタッチ式操作装置を複数のAPに適応させたり、反対に、1つのAPを複数のタッチ式操作装置に適応させることが容易になり、汎用性を確保することができる。
「第4実施形態」
図29に示す第4実施形態は、第2実施形態に第3実施形態の構成を適用した形態である。つまり、第3実施形態との相違点は、立体領域22の代わりに、タッチセンサを備えたタッチパッド92を備えており、タッチパッド92とは別に平面型のタッチパネル91を有している点である。第4実施形態では、第3実施形態と異なり、平面型のタッチパネル91であるので、タッチパネル91において画面変換処理は行われない。そのため、コマンド判定テーブル72Aには、立体形状に応じた応答情報も不要である。第4実施形態のその他の構成は、第3実施形態と同様である。
「第5実施形態」
図30示す第5実施形態は、上述の各実施形態のタッチ式操作装置と主制御装置26で構成される情報処理システムの変形例であり、情報処理システムが搭載された自動車がカーシェアリングに利用される場合の応用例である。
カーシェアリングを利用するユーザ101は、ユーザ101が日常的に使用するスマートフォン102のAPを、カーシェアリングで使用する自動車で使用できれば便利である。第5実施形態のAP情報取得部43は、自動車においてユーザ認証が行われた場合に、ユーザ101のスマートフォン102と通信して、スマートフォン102で使用されているAPをダウンロードする機能を備えている。
カーシェアリングを利用するユーザ101は、カーシェア管理サーバ104が提供する予約サイトにおいて、スマートフォン102を通じてカーシェアリングの予約をし、認証情報を取得する。ユーザ101は、取得した認証情報を使用して自動車のロックを解除して自動車に乗車する。この際にAP情報取得部43は、ユーザ101の同意の下、スマートフォン102にアクセスして認証情報を参照して、ユーザ101がカーシェアリングの予約をしたユーザ101であると確認する。そして、AP情報取得部43は、スマートフォン102の端末IDを取得して、スマートフォン102にインストールされたAPの情報を管理する端末管理サーバ103にアクセスして、インストールされた登録AP情報を取得する。AP情報取得部43は、AP配信サーバ47にアクセスして、取得した登録AP情報と同じAPをダウンロードする。
こうすれば、ユーザ101は、日常的に使用しているAPをカーシェアリングで使用する自動車でも使用することが可能となる。なお、スマートフォン102で使用しているすべてのAPを自動車で使用できるとは限らない。そのため、プリセット情報76に基づいて、立体形状情報をAP情報取得部43からAP配信サーバ47に送信して、AP配信サーバ47において、立体形状情報で使用可能なAPを抽出できるようにするとよい。
「第6実施形態」
図31に示す第6実施形態の情報処理システムは、AP開発者がコンソールシステム10で使用できるAPを開発しやすいようにするための構成として、主制御装置26にAPI(Application Programming Interface)情報提供部105を設けた形態である。API情報提供部105は、立体領域22の立体形状に応じた立体形状情報をAPI公開サーバ106にインターネット46を通じてアップロードする。API公開サーバ106は、アップロードされた立体形状情報をAPI情報としてAP開発者に公開する。こうした仕組みを用いると、AP開発者は、各種のタッチパネル21の立体形状に応じたAPの開発がしやすい。もちろん、API公開サーバ106は、タッチ式操作装置を製造するメーカーや自動車メーカーなどのデバイスメーカからAPI情報の提供を受けられるようにしてもよい。
(立体形状情報に含める仕様情報)
API情報として立体形状情報を提供する場合には、立体形状情報に、図32〜図34において説明する仕様情報を含めることが好ましい。
図32および図33に示すように、タッチパネル21に立体領域110がある場合を考える。立体領域110は、円錐台部110A、平面部110B、および複数の凹部110Cを備えている。凹部110Cのように、タッチセンサの凹凸型立体形状領域としては、凸部領域だけでなく、凹部領域も含まれる。凹部110Cに対するタッチ操作としては、操作者の手HDの指を各凹部110Cに押し込むようなタッチ操作が考えられる。
図34に示すように、各凹部110Cには、例えば、AVシステムのメニュー項目である、音量調節機能、選曲機能、プレイリスト変更機構が割り当てられる。このような立体領域110の場合において、メニュー項目を割り当てる操作領域が3つあるという仕様情報を、API情報として提供することが好ましい。AP開発者としては、タッチセンサの立体形状がどのような形状か不明である場合でも、メニュー項目を割り当てる操作領域の数だけでも把握できれば、それに合わせてAPを作り込むことができ便利である。例えば、メニュー項目を割り当てる操作領域の数を把握できれば、頻繁に使用するメニュー項目の操作領域として使用するなど、使いやすいAPの開発に資する情報となるからである。
こうした仕様情報は、第3実施形態や第4実施形態のように、タッチセンサの立体形状をAPが認識しない場合においても有効である。円錐台や角錐台や半球というように立体形状が異なっても、メニュー項目を割り当てる操作領域の数が同じであれば、それらに適したAPを開発することも可能となるためである。
上記例において、タッチ式操作装置を自動車に搭載した例で説明したが、タッチ式操作装置が搭載される機器は自動車でなくてもよい。例えば、冷蔵庫などの家電製品に適用してもよい。冷蔵庫の操作パネルに三次元の立体形状を有するタッチセンサやタッチパネルを使用する場合も考えられる。
冷蔵庫などの家電製品において、APをAP配信サーバ47からダウンロードする場合は、次のようにしてもよい。例えば、AP配信サーバ47において、冷蔵庫の型番とAPとの対応関係を記憶してAPが登録されている。冷蔵庫に搭載されるAP情報取得部43は、APをダウンロードする際に冷蔵庫の型番をAP配信サーバ47に送信する。AP配信サーバ47は、受信した型番に基づいて冷蔵庫で使用可能なAPを抽出して、AP情報取得部43に配信する。こうすれば冷蔵庫の操作パネルの立体形状に応じたAPをダウンロードすることができる。また、スマートフォンの近距離無線通信機能を使用して冷蔵庫の型番を読み取り、スマートフォンから冷蔵庫の型番をAP配信サーバ47に送信して、APをダウンロードし、このAPをスマートフォンから冷蔵庫に転送してもよい。
上記各実施形態において、例えば、コンソールデバイス制御部24、タッチパネル制御部32、ジェスチャ判定部32A、コマンド判定部41A、表示制御部32B、APインタフェース部33といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。
各種のプロセッサには、CPU(Central Processing Unit)、プログラマブルロジックデバイス(Programmable Logic Device:PLD)、専用電気回路などが含まれる。CPUは、周知のとおりソフトウエア(作動プログラム)を実行して各種の処理部として機能する汎用的なプロセッサである。PLDは、FPGA (Field Programmable Gate Array) などの製造後に回路構成を変更可能なプロセッサである。専用電気回路は、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合せ(例えば、複数のFPGAや、CPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、1つ以上のCPUとソフトウエアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。
上記記載から、以下の付記項に記載のタッチ式操作装置を把握することができる。
「付記項1」
三次元の立体形状を有するタッチセンサと、
前記タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして前記立体形状情報を取得する立体形状情報取得プロセッサと、
前記立体形状情報に基づいて、前記タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成プロセッサと、
前記ジェスチャ特定情報に基づいて、前記タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、前記アプリケーション実行部からの応答情報を受信するアプリケーションプログラムインタフェースプロセッサと、
前記受信した前記応答情報に基づいて、ディスプレイの表示を制御する表示制御プロセッサとを備えた、タッチ式操作装置。
「付記項2」
タッチ式操作装置と、前記タッチ式操作装置を入力装置として使用するアプリケーションプログラムを実行するアプリケーションプログラム実行プロセッサとを備えた情報処理システムにおいて、
前記タッチ式操作装置は、
三次元の立体形状を有するタッチセンサと、
前記タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして前記立体形状情報を取得する立体形状情報取得プロセッサと、
前記立体形状情報に基づいて、前記タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成プロセッサと、
前記ジェスチャ特定情報に基づいて、前記タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、前記アプリケーション実行部からの応答情報を受信するアプリケーションプログラムインタフェースプロセッサと、
前記受信した前記応答情報に基づいて、ディスプレイの表示を制御する表示制御プロセッサとを、備えている、タッチ式操作装置を用いた情報処理システム。
本発明は、上記各実施形態に限らず、本発明の要旨を逸脱しない限り種々の構成を採り得ることはもちろんである。また、上述の種々の実施形態や種々の変形例を適宜組み合わせることも可能である。また、本発明は、プログラムに加えて、プログラムを記憶する記憶媒体にもおよぶ。
10 コンソールシステム
11 インストルメントパネル
13 ハンドル
14 運転席
15 助手席
16 ダッシュボード
17 センターコンソール
17A 上方部分
17B 下方部分
17C 表面
21 タッチパネルディスプレイ
22 立体領域
22A 円錐台部
22B 平面部
23 スピーカ
24 コンソールデバイス制御部
25 空調機器
26 主制御装置
32 タッチパネル制御部
32A ジェスチャ判定部(立体形状情報取得部、ジェスチャ特定情報生成部)
32B 表示制御部
33 APインタフェース部
33A、41A コマンド判定部
34 メモリ
41 AP実行部
41B 応答部
42 メモリ
43 AP情報取得部
44 無線通信部
45 CPU
46 インターネット
47 AP配信サーバ
51 地図表示画面
51A 現在地マーク
51B 経路
51C 距離
51D 目的地設定ボタン
51E 復帰ボタン
52 メニュー画面
52A メニューボタン
52B 音量調節ボタン
52C 選曲ボタン
52E 温度調節ボタン
53 音量調節バー
61 段差
66 基板
67 被めっき層
68 信号線
69 タッチセンサ
70 ディスプレイ
71 立体形状情報テーブル
72、72A、72B、72C コマンド判定テーブル
76 プリセット情報
81 立体領域
81A 角錐台部
81B 平面部
85 平面パネル
86 円環
91 タッチパネル
92 タッチパッド
93 タッチパネル制御部
94 タッチパッド制御部
96 テーブル
101 ユーザ
102 スマートフォン
103 端末管理サーバ
104 カーシェア管理サーバ
105 API情報提供部
106 API公開サーバ
110 立体領域
110A 円錐台部
110B 平面部
110C 凹部

Claims (16)

  1. 三次元の立体形状を有するタッチセンサと、
    前記タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして前記立体形状情報を取得する立体形状情報取得部と、
    前記立体形状情報に基づいて、前記タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成部と、
    前記ジェスチャ特定情報に基づいて、前記タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、前記アプリケーション実行部からの応答情報を受信するアプリケーションプログラムインタフェース部と、
    前記受信した前記応答情報に基づいて、ディスプレイの表示を制御する表示制御部とを備えたタッチ式操作装置。
  2. 前記アプリケーション実行部は、外部と通信して取得したアプリケーションプログラムを実行するか、あるいはサーバからアプリケーションサービスとして提供されるアプリケーションプログラムを実行する請求項1に記載のタッチ式操作装置。
  3. 前記アプリケーションプログラムインタフェース部は、前記ジェスチャ特定情報を前記アプリケーション実行部に送信する請求項1または2に記載のタッチ式操作装置。
  4. 前記ディスプレイは、前記タッチセンサと一体化され、前記タッチセンサと同じ立体形状を備えており、
    前記表示制御部は、前記アプリケーション実行部から受信した前記応答情報を、前記ディスプレイの前記立体形状に応じた変換処理を行って、表示制御を行う請求項3に記載のタッチ式操作装置。
  5. 前記立体形状情報は、前記立体形状を識別する形状ID、前記立体形状を構成する複数の外周面を識別する面ID、前記立体形状を平面に展開した際の平面座標情報、および前記立体形状の三次元座標情報の少なくとも1つを含み、
    前記応答情報は、前記アプリケーション実行部が前記ジェスチャ特定情報に基づいて実行する処理の処理結果として表示される応答画面の情報と、前記応答画面の表示位置に関する表示位置情報とを含む請求項3または4に記載のタッチ式操作装置。
  6. 前記立体形状情報には、さらに、前記外周面が平面であるか湾曲面であるかを表す外周面属性情報が含まれる請求項5に記載のタッチ式操作装置。
  7. 前記アプリケーションプログラムインタフェース部は、前記ジェスチャ特定情報と前記立体形状情報に基づいて、前記アプリケーションプログラムに対する操作コマンドを判定し、前記操作コマンドを前記アプリケーション実行部に送信する請求項1または2に記載のタッチ式操作装置。
  8. 前記ディスプレイは、前記タッチセンサと一体化され、前記タッチセンサと同じ立体形状を備えており、
    前記表示制御部は、前記アプリケーション実行部から受信した前記応答情報を、前記ディスプレイの前記立体形状に応じた変換処理を行って、表示制御を行う請求項7に記載のタッチ式操作装置。
  9. 前記立体形状情報は、前記立体形状を識別する形状ID、前記立体形状を構成する複数の外周面を識別する面ID、前記立体形状を平面に展開した際の平面座標情報、および前記立体形状の三次元座標情報の少なくとも1つを含み、
    前記応答情報は、前記アプリケーション実行部が前記操作コマンドに基づいて実行する処理の処理結果として表示される応答画面の情報と、前記応答画面の表示位置に関する表示位置情報とを含む請求項7または8に記載のタッチ式操作装置。
  10. 前記立体形状情報には、さらに、前記外周面が平面であるか湾曲面であるかを表す外周面属性情報が含まれる請求項9に記載のタッチ式操作装置。
  11. タッチ式操作装置と、前記タッチ式操作装置を入力装置として使用するアプリケーションプログラムを実行するアプリケーションプログラム実行部とを備えた情報処理システムにおいて、
    前記タッチ式操作装置は、
    三次元の立体形状を有するタッチセンサと、
    前記タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして前記立体形状情報を取得する立体形状情報取得部と、
    前記立体形状情報に基づいて、前記タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成部と、
    前記ジェスチャ特定情報に基づいて、前記タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、前記アプリケーション実行部からの応答情報を受信するアプリケーションプログラムインタフェース部と、
    前記受信した前記応答情報に基づいて、ディスプレイの表示を制御する表示制御部とを、備えている、タッチ式操作装置を用いた情報処理システム。
  12. 前記アプリケーションプログラムを配信するサーバ、または前記アプリケーションプログラムをアプリケーションサービスとして提供するサーバにアクセスして、前記アプリケーションプログラムまたは前記アプリケーションプログラムに関する情報を取得するアプリケーション情報取得部を備えている、請求項11に記載のタッチ式操作装置を用いた情報処理システム。
  13. 前記立体形状情報は、前記立体形状を識別する形状ID、前記立体形状を構成する複数の外周面を識別する面ID、前記立体形状を平面に展開した際の平面座標情報、および前記立体形状の三次元座標情報の少なくとも1つを含み、
    前記応答情報は、前記アプリケーション実行部が操作コマンドに基づいて実行する処理の処理結果として表示される応答画面の情報と、前記応答画面の表示位置に関する表示位置情報とを含む請求項11または12に記載のタッチ式操作装置を用いた情報処理システム。
  14. アプリケーションプログラムを開発する開発者向けのアプリケーションプログラムインタフェース情報を公開するAPI公開サーバに対して、
    前記立体形状情報を提供するAPI情報提供部を備えている請求項13に記載のタッチ式操作装置を用いた情報処理システム。
  15. 三次元の立体形状を有するタッチセンサを備えたタッチ式操作装置の作動方法において、
    前記タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして前記立体形状情報を取得する立体形状情報取得ステップと、
    前記立体形状情報に基づいて、前記タッチセンサに対して行われたジェスチャ操作の内容を特定し、特定したジェスチャ操作の内容を表すジェスチャ特定情報を生成するジェスチャ特定情報生成ステップと、
    前記ジェスチャ特定情報に基づいて、前記タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、前記アプリケーション実行部からの応答情報を受信する通信ステップと、
    前記受信した前記応答情報に基づいて、ディスプレイの表示を制御する表示制御ステップとを、備えたタッチ式操作装置の作動方法。
  16. 三次元の立体形状を有するタッチセンサを備えたタッチ式操作装置の作動プログラムにおいて、
    前記タッチセンサの立体形状に関する立体形状情報が格納される記憶部にアクセスして前記立体形状情報を取得する立体形状情報取得ステップと、
    前記立体形状情報に基づいて、前記タッチセンサに対して行われた操作ジェスチャの内容を特定し、特定したジェスチャ特定情報を生成するジェスチャ特定情報生成ステップと、
    前記ジェスチャ特定情報に基づいて、前記タッチセンサを入力装置として使用するアプリケーションプログラムを実行するアプリケーション実行部と通信し、前記アプリケーション実行部からの応答情報を受信する通信ステップと、
    前記受信した前記応答情報に基づいて、ディスプレイの表示を制御する表示制御ステップとを、備えたタッチ式操作装置の作動プログラム。
JP2017065953A 2017-03-29 2017-03-29 タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム Active JP6744834B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017065953A JP6744834B2 (ja) 2017-03-29 2017-03-29 タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム
EP18775809.9A EP3605302A4 (en) 2017-03-29 2018-02-14 TOUCH-OPERATED DEVICE, OPERATING METHOD, AND OPERATING PROGRAM THEREOF AND INFORMATION PROCESSING SYSTEM USING A TOUCH-OPERATED DEVICE
PCT/JP2018/005041 WO2018179943A1 (ja) 2017-03-29 2018-02-14 タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム
TW107110216A TW201841113A (zh) 2017-03-29 2018-03-26 觸控式操作裝置及其作動方法、以及使用觸控式操作裝置之資訊處理系統
US16/583,088 US20200019253A1 (en) 2017-03-29 2019-09-25 Touch type operation apparatus, operation method of same, and information processing system using touch type operation apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017065953A JP6744834B2 (ja) 2017-03-29 2017-03-29 タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム

Publications (2)

Publication Number Publication Date
JP2018169757A true JP2018169757A (ja) 2018-11-01
JP6744834B2 JP6744834B2 (ja) 2020-08-19

Family

ID=63675094

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017065953A Active JP6744834B2 (ja) 2017-03-29 2017-03-29 タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム

Country Status (5)

Country Link
US (1) US20200019253A1 (ja)
EP (1) EP3605302A4 (ja)
JP (1) JP6744834B2 (ja)
TW (1) TW201841113A (ja)
WO (1) WO2018179943A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102308901B1 (ko) * 2021-03-29 2021-10-05 (주)복서 투명전도성필름이 구비된 대시보드를 이용하여 차량을 제어하는 방법, 장치 및 시스템

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202022102542U1 (de) * 2021-05-10 2022-06-22 Leonardo S.P.A. Vorrichtung zum Steuern eines Zeigers einer grafischen Anwenderschnittstelle einer Flugeinheit
USD1002649S1 (en) 2021-10-13 2023-10-24 Waymo Llc Display screen or portion thereof with graphical user interface
USD1002647S1 (en) 2021-10-13 2023-10-24 Waymo Llc Display screen or portion thereof with graphical user interface
USD1002648S1 (en) 2021-10-13 2023-10-24 Waymo Llc Display screen or portion thereof with graphical user interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111185A1 (ja) * 2012-01-25 2013-08-01 三菱電機株式会社 移動体用情報機器
JP2015111417A (ja) * 2013-11-14 2015-06-18 イマージョン コーポレーションImmersion Corporation ハプティック空間化システム
WO2016181824A1 (ja) * 2015-05-11 2016-11-17 富士フイルム株式会社 導電性積層体の製造方法、導電性積層体、被めっき層前駆体層付き基板、被めっき層付き基板、タッチセンサー

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007099733A1 (ja) * 2006-03-01 2007-09-07 Sharp Kabushiki Kaisha タッチパネルを用いた入力装置
US8723824B2 (en) 2011-09-27 2014-05-13 Apple Inc. Electronic devices with sidewall displays
CA2836137C (en) * 2012-12-05 2020-12-01 Braeburn Systems Llc Climate control panel with non-planar display
JP2015228118A (ja) 2014-05-30 2015-12-17 トヨタ自動車株式会社 操作装置
JP6340378B2 (ja) 2015-05-11 2018-06-06 富士フイルム株式会社 導電性積層体の製造方法、導電性積層体、タッチセンサー
KR102343990B1 (ko) * 2015-06-15 2021-12-28 삼성전자주식회사 디스플레이의 서로 다른 영역을 독립적으로 제어하는 전자 장치 및 방법
KR101696596B1 (ko) * 2015-07-10 2017-01-16 현대자동차주식회사 차량, 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111185A1 (ja) * 2012-01-25 2013-08-01 三菱電機株式会社 移動体用情報機器
JP2015111417A (ja) * 2013-11-14 2015-06-18 イマージョン コーポレーションImmersion Corporation ハプティック空間化システム
WO2016181824A1 (ja) * 2015-05-11 2016-11-17 富士フイルム株式会社 導電性積層体の製造方法、導電性積層体、被めっき層前駆体層付き基板、被めっき層付き基板、タッチセンサー

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
太田寛: ""Windows 7 センサ&ロケーションプラットフォーム"", 計装, vol. 第54巻, 第1号, JPN6018016620, 1 January 2011 (2011-01-01), JP, pages 67 - 71, ISSN: 0004204207 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102308901B1 (ko) * 2021-03-29 2021-10-05 (주)복서 투명전도성필름이 구비된 대시보드를 이용하여 차량을 제어하는 방법, 장치 및 시스템

Also Published As

Publication number Publication date
US20200019253A1 (en) 2020-01-16
JP6744834B2 (ja) 2020-08-19
WO2018179943A1 (ja) 2018-10-04
TW201841113A (zh) 2018-11-16
EP3605302A4 (en) 2020-04-15
EP3605302A1 (en) 2020-02-05

Similar Documents

Publication Publication Date Title
WO2018179943A1 (ja) タッチ式操作装置、その作動方法及び作動プログラム、並びにタッチ式操作装置を用いた情報処理システム
JP6664346B2 (ja) タッチ式操作装置、その作動方法及び作動プログラム
EP3287884B1 (en) Display device and method of controlling the same
CN104765584A (zh) 用户终端装置及其控制方法
US10019155B2 (en) Touch control panel for vehicle control system
US20150169195A1 (en) Multi-operating system and method using touch pad of operating system of vehicle
AU2013356799B2 (en) Display device and method of controlling the same
JP2017507828A (ja) 車両におけるオーディオビジュアルコンテンツの提示及びこれとの相互作用
US20140173155A1 (en) Mobile device dock
JP2017507399A (ja) 車両におけるオーディオビジュアルコンテンツの提示及びこれとの相互作用
US10967737B2 (en) Input device for vehicle and input method
JP5633460B2 (ja) 制御装置
US9552671B2 (en) Method for operating three-dimensional handler and terminal supporting the same
JP2018036967A (ja) 情報端末用プログラム及び情報端末
JP2018018205A (ja) 表示手段の画面上の位置を決定する入力システム、検知装置、制御装置、プログラム及び方法
JP2017173989A (ja) 画像表示装置
US20130201126A1 (en) Input device
US10416848B2 (en) User terminal, electronic device, and control method thereof
US20230009427A1 (en) Display control system using knobs
CN116323284A (zh) 在车辆仪表板中的独立显示装置上呈现内容
US20150234488A1 (en) System for integrating smart device with vehicle
JP2017016664A (ja) 多機能操作装置及び多機能操作装置を操作する方法
JP2022100096A (ja) 情報処理装置及び表示制御方法
WO2020092398A2 (en) Method, device, and system for providing an interface based on an interaction with a terminal
JP2020086883A (ja) 表示制御装置、機器操作システム、方法、及びguiプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200714

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200731

R150 Certificate of patent or registration of utility model

Ref document number: 6744834

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250