JP6271858B2 - 表示装置及びその制御方法 - Google Patents

表示装置及びその制御方法 Download PDF

Info

Publication number
JP6271858B2
JP6271858B2 JP2013090165A JP2013090165A JP6271858B2 JP 6271858 B2 JP6271858 B2 JP 6271858B2 JP 2013090165 A JP2013090165 A JP 2013090165A JP 2013090165 A JP2013090165 A JP 2013090165A JP 6271858 B2 JP6271858 B2 JP 6271858B2
Authority
JP
Japan
Prior art keywords
touch operation
display
component
touch
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013090165A
Other languages
English (en)
Other versions
JP2014029673A (ja
Inventor
西田 竜之
竜之 西田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013090165A priority Critical patent/JP6271858B2/ja
Priority to US13/928,548 priority patent/US9519371B2/en
Publication of JP2014029673A publication Critical patent/JP2014029673A/ja
Application granted granted Critical
Publication of JP6271858B2 publication Critical patent/JP6271858B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/018Input/output arrangements for oriental characters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、前面及び背面の両側からタッチ操作可能な透明ディスプレイを用いた表示装置及びその制御方法に関するものである。
透明ディスプレイを用いた機器が実用化されている。このような機器では、透明基板上に有機EL等の発光素子を設け、画像を非表示にする際には透明になり、表示時には半透明での表示を行う。また、透明度の制御については、液晶シャッター層を重ね合わせて、シャッターの開閉の階調により行うことが提案されている(特許文献1参照)。
一方、携帯端末の表示装置のユーザインタフェース(UI)として、タッチ操作インタフェースが一般的になっている。また、前面を見ながら、背面からタッチ操作する方法が提案されている。透明ディスプレイを用いれば、背面側からの操作が見えるため、背面からのタッチ操作が容易になる。透明ディスプレイを用いた携帯端末では背面タッチ操作が普及すると考えられる(特許文献2参照)。
また、あるアイコンを押下した場合に、そのアイコンに関連する別のアイコンを近傍に表示する技術が開示されている(特許文献3参照)。
特開2008−083510号公報 特開2007−334827号公報 特開2003−209719号公報
しかしながら、透明ディスプレイを用いた表示装置のユーザインターフェースにおいて、背面側と前面側のどちら側からタッチすべきか分かりにくく、特に片手にホールドした状態で操作しにくくなる場合があった。
そこで、本発明は、透明ディスプレイを有し前面と背面の両面からタッチ操作することが可能な表示装置において、タッチ操作の操作性を向上させることを目的とする。
本発明は、前面及び背面の両面からタッチ操作を行うことが可能な透明ディスプレイパネルを備えた表示装置であって、
前面のタッチ操作及び背面のタッチ操作を検出する検出手段と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御手段と、
を備え、
前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
前記制御手段は、まず第1の部品のみを画面に表示させ、第1の部品に対するタッチ操作に応じて第2の部品の内容を決定し、前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる表示装置である。
本発明は、前面及び背面の両面からタッチ操作を行うことが可能な透明ディスプレイパネルを備えた表示装置の制御方法であって、
前面のタッチ操作及び背面のタッチ操作を検出する検出工程と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御工程と、
を有し、
前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
前記制御工程は、
まず第1の部品のみを画面に表示させる工程と、
第1の部品に対するタッチ操作に応じて第2の部品の内容を決定する工程と、
前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる工程と、
を有する表示装置の制御方法である。
本発明は、前面及び背面の両面からタッチ操作を行うことが可能な表示装置であって、
前面のタッチ操作及び背面のタッチ操作を検出する検出手段と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御手段と、
を備え、
前記制御手段は、画面においてオブジェクトが表示されている箇所を前面及び背面においてスライドさせるタッチ操作が同時に行われた場合、前面及び背面のタッチされた箇所のそれぞれに対応するオブジェクト上の点でオブジェクトを仮想的に保持してスライド方向に応じてオブジェクトを移動又は回転させる表示制御を行う表示装置である。
本発明によれば、透明ディスプレイを有し前面と背面の両面からタッチ操作することが可能な表示装置において、タッチ操作の操作性を向上させることができる。
実施例1、実施例2、実施例3の携帯端末表示装置の構成を示すブロック図 実施例1、実施例2、実施例3の携帯端末表示装置の実装形態を示す構成図 実施例1のユーザインターフェース表示とタッチ操作を示す概念図 実施例1のユーザインターフェース表示とタッチ操作処理のフローチャート 実施例2のユーザインターフェース表示とタッチ操作を示す概念図 実施例2のユーザインターフェース表示とタッチ操作処理のフローチャート 実施例3のユーザインターフェース表示とタッチ操作を示す概念図 実施例3のユーザインターフェース表示とタッチ操作処理のフローチャート 実施例4のユーザインターフェース表示とタッチ操作を示す概念図 実施例4の地球儀モードにおける表示変更操作の一覧 実施例4の地球儀モードにおける回転操作及び移動操作を示す概念図 実施例4の拡大縮小操作を示す概念図 実施例4の2Dマップモードにおける表示変更操作の一覧 実施例4の2Dマップモードにおける移動操作を示す概念図 実施例4の3Dマップモードにおける表示変更操作の一覧 実施例4の3Dマップモードにおけるユーザ視点移動を示す概念図 実施例4の3Dマップモードにおけるユーザ位置移動を示す概念図 実施例4のユーザインターフェース表示とタッチ操作のフローチャート 実施例5のユーザインターフェース表示とタッチ操作を示す概念図 実施例5の3Dオブジェクトを指で掴むタッチ操作を示す概念図 実施例5の3Dオブジェクトに対するタッチ操作一覧表 実施例5の3Dオブジェクトの回転操作を示す概念図 実施例5の3DオブジェクトのZ軸回転操作を示す概念図 実施例5の3DオブジェクトのXY平面上の移動操作を示す概念図 実施例5の3Dオブジェクトの移動操作を示す概念図 実施例5の3Dオブジェクトの表示変更操作の一覧 実施例5の3Dオブジェクトのφ方向、θ方向の回転操作を示す概念図 実施例5の3Dオブジェクトの片面タッチ操作で行う移動操作を示す図 実施例5において大画面の場合のタッチ操作用の子画面を示す概念図
(実施例1)
図1は、本発明の一実施例である携帯端末の表示装置のブロック図である。本実施例の表示装置は両面タッチ操作対応の透明ディスプレイ101と制御システム部117で構成されている。
透明ディスプレイ101は、前面と背面の双方の面からタッチ操作が可能な透明ディスプレイパネルである。背面タッチパネル102、液晶シャッター103、透明発光パネル104、前面タッチパネル105により構成されている。
前面タッチパネル105は、透明なパネル表面にタッチセンサが設けられており、端末前面からのタッチ操作の検知を行う。タッチ操作の検知は、ユーザが画面に接触したことを検知し、接触した画面の座標位置を検出することで行う。背面タッチパネル102も同様に透明なパネル表面にタッチセンサが設けられており、端末背面からのタッチ操作の検知を行う。
液晶シャッター103は、画素毎の透過率の変更を実行する液晶パネルである。液晶シャッター103には、画素毎に液晶セルが設けられており、ONからOFFまでの階調にしたがって液晶シャッターの透過率が変化する。これにより画素毎の透明度の階調が制御される。
透明発光パネル104は、透明基板上に複数の自発光素子を設けた画像表示パネルである。透明発光パネル104には、画素毎にRGBそれぞれの発光素子が並べて配置されている。透明発光パネル104は、非発光時(非表示状態)では透明となり、発光時(表示状態)では指定されたRGB情報に基づく色で発光する。
制御システム部117は、透明ディスプレイ101の制御を行い、表示出力制御、タッチ操作入力制御及びこれらの入出力の連携動作制御を行う。制御システム部117は、CPU106、RAM107、システムバス108、表示制御部110、タッチ操作入力部114で構成されている。
CPU106、RAM107、システムバス108は、主にソフトウェアによる制御を実現する。RAM107にはプログラムやユーザインターフェース用のグラフィックスデータ、制御データ等の各種データが格納されている。CPU106はRAM107からデータを読み取り、それに応じて、制御コマンドをシステムバス108に送出する。システムバス108はCPU106、RAM107、表示制御部110、タッチ操作入力部114間を接続するバスである。各制御ブロック間でのデータ、コマンドの送受信は、システムバス108を経由して行われる。なお、CPU106と表示制御部110とが一体となった構成、CPU106とUI制御部113が一体となった構成、CPU106と表示制御部110とUI制御部113が一体となった構成であってもよい。
表示制御部110は、表示データ生成部109、透明度制御部111と発光層制御部112により構成されている。表示データ生成部109は、CPU106からの制御に従って、表示データを生成する。表示データとは、RAM107に格納されているユーザインターフェース用のグラフィックスデータや画像データから構築され生成される、表示画像に対応するデータである。ユーザインターフェース用のグラフィックスデータは、ユーザからの操作を受け付けるGUI(グラフィカルユーザインターフェース)を構成するメニュー、アイコン、選択ボタン等の画像のデータを含む。
表示データには、表示画面座標に対応した画素毎のRGB情報とともに、画素毎の透明度情報が含まれる。このようなデータフォーマットの表示データにより、全画素について画素毎に個別の透明度が設定される。
透明度制御部111は、液晶シャッター103の透明度の制御データの生成と送出、データの更新を行う。発光層制御部112は、透明発光パネル104に表示するRGBデータの生成と送出、データの更新を行う。
タッチ操作入力部114は、背面タッチパネル102と前面タッチパネル105からタッチセンサの検出情報を受け取ってタッチ操作情報の処理を行う。
背面タッチ操作入力部115は、背面タッチパネル102からの背面側タッチ操作検出情報を取得し、前面タッチ操作入力部116は、前面タッチパネル105からの前面側タッチ操作検出情報を取得し、それぞれタッチ操作座標情報を生成する処理を行う。
UI制御部113ではタッチ操作座標情報を受け取り、タッチ操作に応じて端末の動作制御を行い、タッチ操作のユーザインターフェースを実現するユーザインターフェース制御を行う。
次に図2に本透明ディスプレイを用いた両面タッチ操作対応携帯端末の実装概略図について説明する。前面タッチパネル202、透明発光パネル203、液晶シャッター204、背面タッチパネル205が順に積層された構成である。これが図1中の透明ディスプレイ101に相当する。これらの積層構成の透明ディスプレイの部材が前面側ベゼル201と背面側ベゼル207で挟み込まれて固定、支持される。図1の制御システム部117を実現する基板、各種デバイス、電源、充電池等は、ベゼル内のシステム実装領域206に実装される。
次に、本実施例の表示装置の動作を、図3(A)及び図3(B)に示す表示画面例と操作イメージを用いて説明する。図3(A)は、透明ディスプレイ携帯端末301に、日本語入力ユーザインターフェース表示を行った例を示す図である。入力文字表示領域302には、入力中の文字が表示される。タッチ入力領域303は、画面右部に表示されている。本例では、右手で端末を保持して操作する形態を想定し、タッチ入力領域303は右手に保持した際に自然にタッチ操作できる領域となっている。
タッチ入力領域303には、さらに背面タッチ入力領域304と前面タッチ入力領域305が含まれる。前面タッチ入力領域305には、前面からタッチするアイコンが配置されている。ユーザは、子音「あ」「か」…「わ」を前面タッチ操作により指定する。背面タッチ入力領域304には、背面からタッチするアイコンが配置される。これらは、親指で前面タッチした子音の行の、母音「i」「u」「e」「o」に対応する文字が配置される。背面タッチ入力領域304の表示内容は前面タッチ入力領域305にて指定された子音に応じて変更される。前面からの子音のタッチ指定と、背面からの母音のタッチ指定により一意に日本語入力のひらがな1文字が決定される。決定された文字は、入力文字表示領域302に表示され、ユーザが入力文字の確認を行うことができる。なお、図3(A)では背面タッチ入力領域304に表示されるアイコンについては図示していない。
図3(B)は、ユーザが右手で画面をホールドして日本語入力の操作している状態を示す図である。親指タッチ入力領域307は図3(A)の前面タッチ入力領域305に対応し、四指タッチ入力領域306は図3(A)の背面タッチ入力領域304に対応する。親指タッチ入力領域307には、前面からのタッチ操作が想定されるGUI部品である第1の部品が表示される。四指タッチ入力領域306には、背面からのタッチ操作が想定されるGUI部品である第2の部品が表示される。
通常、ユーザが本実施例のような表示装置をホールドする際には、親指がディスプレイの前面、他の人差し指、中指、薬指、小指の四指が背面にくる持ち方になる。従って、前面タッチ入力領域305に表示される子音のアイコンに対するタッチ操作を親指で行い、背面タッチ入力領域304に表示される母音のアイコンに対するタッチ操作を残りの四指で行うことで、ユーザは表示装置をホールドしながら自然にタッチ操作できる。この場合、人差し指、中指、薬指、小指によってそれぞれ「i」、「u」、「e」、「o」のタッチ操作を行うことができる。画面を親指と他四指で挟み込む形でタッチして子音と母音を指定することで、ユーザは任意の文字を入力することができる。
このとき、本実施例では、背面タッチ入力領域304と前面タッチ入力領域305の色を異ならせて表示する。これにより、背面からのタッチ操作を促すアイコンであるか、前面からのタッチ操作を促すアイコンであるかをユーザが判別しやすくなる。
また、本実施例では、表示領域については、背面タッチ入力領域304と前面タッチ入力領域305のアイコン群の表示位置を異ならせる。具体的には、前面タッチ入力領域305は、携帯端末の端部に近い側(図3(A)では右側端に近い側)に配置される。背面タッチ入力領域304は、前面タッチ入力領域305より携帯端末の端部から遠ざかる側(図3(A)では前面タッチ入力領域305の左側)に配置される。これにより、図3(B)に示すように、端末を右手でホールドした状態で画面の前面と背面における指の位置に近い位置に各タッチ入力領域が配置されるので、タッチ操作性が向上する。
なお、本実施例では、右手でホールドして右手で操作する場合を例示したが、左手でホールドして左手で操作する場合、背面タッチ入力領域及び前面タッチ入力領域が端末の左側端に近い側に配置されるようにする。具体的には、親指でタッチ操作するアイコンが配置される前面タッチ入力領域が左側端に近い側に配置され、残りの四指でタッチ操作するアイコンが配置される背面タッチ入力領域が前面タッチ入力領域より右側に配置されるようにする。
次に、メニューの変更順序とタッチ操作による決定を行う動作タイミングについて述べる。図3(B)に示すように、前面タッチ操作が行われる親指タッチ入力領域307への入力(タッチ操作)の結果に応じて(連動して)、背面タッチ操作が行われる四指タッチ
入力領域306にアイコンが表示される。すなわち、前面タッチ操作のためのGUIをメニューの第一階層とし、それに対する前面タッチ操作に連動して、背面タッチ操作のためのGUIをメニューの第二階層として表示する。すなわち、前面タッチ操作用のメニューと背面タッチ操作用のメニューとで階層を構成し、背面タッチ操作用のメニュー表示を前面タッチ操作用のメニューに対する操作内容に連携させる。このように、本実施例では、片手で前面及び背面の両面からタッチ操作できることから、すばやくメニュー内のアイコン選択の決定操作を行うことができる。
前面及び背面の両面からタッチ操作を受け付ける場合に、それぞれの面のタッチ操作を有効にするタイミングについては、まず前面タッチ入力領域305の表示及び操作が有効にする。前面タッチ操作用メニューにおいてユーザによるタッチ操作により選択項目が決定された後、背面タッチ入力領域304の表示及び操作を有効にする。続けてタッチ操作を受け付ける場合には、この動作が繰り返される。すなわち、ユーザは前面タッチ操作と背面タッチ操作を交互に行うことになる。
なお、背面タッチ操作メニューを第一階層とし、前面タッチ操作メニューを第二階層メニューとしてもよい。すなわち、まず背面タッチ入力領域304の表示及び操作を有効にし、背面タッチ操作用メニューにおけるユーザによる選択項目の決定後、前面タッチ入力領域305の表示及び操作を有効にしてもよい。この場合、背面タッチ入力領域304に表示される背面からのタッチ操作が想定されるGUI部品が第1の部品、前面タッチ入力領域305に表示される前面からのタッチ操作が想定されるGUI部品が第2の部品となる。
図3(A)及び図3(B)に示す片手でタッチ操作する際のメニュー、アイコン表示、タッチ操作の処理フローと表示動作について、図4のフローチャートと図1の構成図を用いて述べる。
CPU106がユーザインターフェースの表示開始の命令を受け取り、ユーザインターフェースの表示を開始すると、ステップS401にて、CPU106は、RAM107に格納されているユーザインターフェース表示用情報を取得する。ユーザインターフェース表示用情報には、表示用のアイコン、メニュー等のグラフィック部品、タッチ操作時の動作情報が含まれる。
続いて、CPU106は、ユーザインターフェース表示用情報の中から前面タッチ入力領域用のタッチ操作メニューを抽出して、表示制御部110に送出する。続いて、S402に進み、表示制御部110内の表示データ生成部109にて前面タッチ操作用メニューの表示情報を決定する。ここで決定する情報とは、表示位置や、表示色である。表示データ生成部109は、表示位置を、右手操作用メニューであれば右手親指タッチ操作可能領域に表示することを決定し、左手操作用メニューであれば左手親指タッチ操作可能領域に表示することを決定する。表示色は、あらかじめ前面タッチ操作用に指定された表示色とする。表示データ生成部109は、決定した前面タッチ操作用メニュー表示情報と、他のグラフィック部品、背景、画像とを組み合わせて、表示画像を構成し、表示データを生成する。
ステップS403にて、表示制御部110は、前面タッチ操作用メニューの表示を行う。表示データ生成部109により構成された表示データは、透明度制御部111、発光層制御部112に送出され、それぞれにおいて透明度データ、画像データが生成され、透明ディスプレイ101に送出される。液晶シャッター103が透明度データに基づき画素毎の透過率を調節し、透明発光パネル104が画像データに従って画像を表示する。
次にステップS404にてユーザの前面タッチ操作待ちとなる。ユーザが前面タッチ操作するとステップS405に進む。タッチ操作されたと判定されるまでステップS404で待ち状態となる。このとき、UI制御部113は前面タッチ操作入力部116からの入力を有効にし、背面タッチ操作入力部115の入力を無効にすることで、前面タッチ操作を受け付ける状態とする。
ユーザが前面タッチ操作すると、ステップS405に進む。CPU106は、前面タッチ操作の情報に従って、背面タッチ操作用メニューを更新するための指示を表示データ生成部109に送出する。
続いて、ステップS406にて表示データ生成部109は、背面タッチ操作用メニューの表示情報を決定する。このとき、表示データ生成部109は、ステップS402で決定した前面タッチ操作用メニューの表示色と異なる色で背面タッチ操作用メニューを表示するように決定する。表示領域は、前面タッチ操作用メニューの近傍、画面中央寄りに配置する。これにより、表示装置を片手でホールドした状態での前面及び背面のタッチ操作が可能となる。表示データ生成部109は、決定した背面タッチ操作用メニュー表示情報と、他のグラフィック部品、背景、画像とを組み合わせて、表示画像を構成し、表示データを生成する。
ステップS407にて、表示制御部110は、背面タッチ操作用メニューの表示を行う。表示データ生成部109により構成された表示データは、透明度制御部111、発光層制御部112に送出され、それぞれにおいて透明度データ、画像データが生成され、透明ディスプレイ101に送出される。液晶シャッター103が透明度データに基づき画素毎の透過率を調節し、透明発光パネル104が画像データに従って画像を表示する。
次にステップS408にてユーザの背面タッチ操作待ちとなる。このときに、UI制御部113は、背面タッチ操作入力部115からの入力を有効にする。ユーザが背面タッチ操作すると、ステップS404にて入力された前面タッチ操作の情報と組み合わせて、ユーザのタッチ操作による入力指示内容が決定される。
ステップS409に進み、タッチ操作を継続するのであれば、ステップS401に戻り、上述したタッチ操作による指示入力の処理が繰り返される。一方、完了メニューが選択される等により、タッチ操作の終了が指示された場合、タッチ操作による指示入力の処理を終了する。
以上のフローにより、表示装置を片手でホールドした状態で最適な両面タッチ操作が実現される。
(実施例2)
本実施例での表示装置の動作を、図5(A)〜図5(D)の表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。
図5(A)に、ユーザが透明ディスプレイ携帯端末501を親指と人差し指で挟み込む形でホールドしている状態を示す。表示オブジェクト502は、表示上、2次元平面となっているが、端末内部のデータとしては、3次元データで構成されている。すなわち、x、y、z方向にデータを持ち、ユーザの操作により、仮想的な3次元空間内で回転させた状態を表示させることができるとする。このとき、前面タッチスライド方向504は、親指でタッチした状態で上方向にスライドさせる操作を示している。背面タッチスライド方向503は、人差し指でタッチした状態で下方向にスライドさせる操作を示している。このとき、前面と背面のタッチ操作が同一領域において行われることで、タッチ操作は親指と人差し指を透明ディスプレイを挟んで上下にこすり合わせるような動作となる。本実施例では、上方向と下方向でスライドさせるタッチ操作を例示したが、逆方向のスライド操作であれば、方向は上下方向に限られない。
図5(B)に、上記のタッチ操作が行われた際の表示オブジェクト502の表示変化を、x軸回転後表示オブジェクト505として示す。図5(B)では、前面と背面のタッチ領域を通り、前面と背面のスライド方向と垂直の軸を中心に仮想的な3次元空間内で表示オブジェクト502を回転させた状態を表示している。本実施例では回転中心軸506で示すx方向に沿った仮想的な軸を中心に画面に対して垂直方向に回転した状態が表示される。
親指と人差し指を用いて前面と背面から透明ディスプレイを挟み込み、両指のスライド方向が逆方向になるようにスライドさせる操作は、直感的には、両指で挟んだ軸を回転させる操作と同じである。本実施例の表示装置では、この操作が検出された場合に、表示オブジェクトを当該軸に対応する仮想的な軸の周りに回転させた表示を行う。これにより、
ユーザは、画面に平行の軸周りに表示オブジェクトを回転させるという複雑な表示指示を簡単な操作で入力することが可能となる。
次に図5(C)に、背面タッチスライド方向507と前面タッチスライド方向508が同一の方向である操作を示す。本実施例では、この操作により、仮想的な3次元空間内の移動指示軸509の両端のうちタッチ操作している端部とは反対側の端部を中心としてxy平面(仮想的な3次元空間内において画面に平行な平面)上で表示オブジェクトを回転させる指示が入力される。図5(D)にxy平面内回転移動後表示オブジェクト510を示す。
一般的なタッチ操作ディスプレイでは、タッチ及びスライド操作は、xy平面上で表示オブジェクトを並行移動させる指示を入力するための操作である。従来、ユーザが、ある回転中心の周りにxy平面内で表示オブジェクトを回転させるという複雑な指示を入力することは、特に片手タッチ操作では難しかった。本実施例では、前面と背面の両面から透明ディスプレイを挟んで同一方向へスライドさせる操作により、ユーザは、ある回転中心の周りにxy平面内で表示オブジェクトを回転させるという複雑な指示を片手タッチ操作で容易に入力することが可能となる。
上述したタッチ操作入力処理のフローと表示動作について、図6のフローチャートと図1の構成図を用いて述べる。
まずステップS601にて前面タッチ操作入力部116は前面タッチスライド操作の検出を行う。同時に、ステップS602にて背面タッチ操作入力部115は背面タッチスライド操作の検出を行う。検出結果はUI制御部113に送出される。
前面及び背面のタッチ操作が検出されると、続いてステップS603に進み、UI制御部113は前面及び背面のタッチ操作が同一の領域で行われているかを判定する。ここでは、UI制御部113は、前面におけるタッチ操作が行われている領域と背面におけるタッチ操作が行われている領域とが所定の閾値を超えて離れていない場合に前面及び背面の同一の領域でタッチ操作が行われていると判断する。すなわち、UI制御部113は、前面のタッチ操作が行われている領域と背面のタッチ操作が行われている領域とが、ともに、同一領域とみなすためのある一定の範囲内にある場合に前面及び背面の同一領域内でタッチ操作が行われていると判断する。前面及び背面の同一の領域でタッチ操作が行われていない場合、表示オブジェクトに対して、表示状態の変更は行われずに処理が終了する。同一領域での操作と判定された場合、次に、ステップS604にてUI制御部113は前面タッチ操作と背面タッチ操作のスライド操作方向が逆方向であるかを判定する。判定した結果、Yesであれば、UI制御部113は、前面と背面のタッチ操作及びスライド操作情報をCPU106に送出し、処理はステップS606に進む。ステップS606にて、CPU106は、スライド操作情報から、垂直回転移動を行うための仮想的な回転軸を
設定する。垂直回転移動とは、図5(B)で説明したような、xy平面に平行な軸周りに表示オブジェクトを回転させるものである。この回転軸を垂直回転軸という。表示オブジェクト情報及び設定した回転軸の情報は、表示データ生成部109に送られる。次に、ステップS607にて表示データ生成部109は、垂直回転軸を中心に、スライド操作量に応じて、表示オブジェクトを回転移動させた画像を生成する。これにより画面に対して垂直方向に表示オブジェクトを回転させる指示を表示装置に入力するための操作が完了する。
ステップS604にて、判定結果がNoの場合、処理はステップS605に進む。ステップS605にて、UI制御部113は前面と背面のスライド操作方向は同一かを判定する。判定した結果、Yesであれば、UI制御部113は、前面と背面のタッチ操作及びスライド操作情報をCPU106に送出し、処理はステップS608に進む。ステップS605での判定結果がNoであれば、表示オブジェクトに対して、表示状態の変更は行われずに処理が終了する。
ステップS608にて、CPU106は、スライド操作情報及び表示オブジェクトの表示位置の関係から、水平回転移動を行うための仮想的な回転軸を設定する。水平回転移動とは、図5(D)で説明したような、ある点を中心としてxy平面内で表示オブジェクトを回転させるものである。表示オブジェクト情報及び設定した回転軸の情報は、表示データ生成部109に送られる。次に、ステップS609にて表示データ生成部109は、水平回転軸を中心に、スライド操作量の分だけ、表示オブジェクトを回転移動させた画像を生成する。これにより画面に対して水平に表示オブジェクトを回転移動させる指示を表示装置に入力するための操作が完了する。ただし、前面と背面とでスライド操作方向が同じ場合の表示オブジェクトの移動は、水平回転移動に限らず、水平面において指の移動方向に沿った移動でもよい。
回転移動を完了した表示オブジェクトは、表示データ生成部109で他の画像部品、背景と合成されて表示データが生成される。
上記フローにより、前面のタッチ操作と背面のタッチ操作とを連携させることで、表示オブジェクトの回転移動という複雑な指示を、直感的かつ簡単に入力することが可能となる。
(実施例3)
本実施例での表示装置の動作を、図7(A)及び図7(B)に示す表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。
図7(A)は、透明ディスプレイ携帯端末701が誤動作防止、及び消費電力低減のためにタッチ操作を受け付けないスリープ状態になっている場合を示す図である。スリープ状態の解除は、特殊な操作を行うことによってのみ行われるようにすることが好ましい。
本実施例では、スリープ解除メニュー702に対して背面と前面の両面から同時にタッチ操作がされたときのみスリープ状態が解除されるように構成された表示装置について説明する。スリープ解除メニュー702は、背面及び前面の両面からのタッチ操作が想定さ
れる第3の部品である。図7(B)は、ユーザが片手の親指と人差し指で挟み込むようにスリープ解除メニュー702をタッチすることでスリープ解除操作703を実行している様子を示す図である。
図7の特殊な操作を行う際のタッチ操作の処理フローと表示動作について、図8のフローチャートと図1の構成図を用いて述べる。
まずステップS801において、前面タッチ操作入力部116が前面タッチ操作の検出を行う。同様に、ステップS802において、背面タッチ操作入力部115が前面タッチ操作の検出を行う。
両面からのタッチ操作が検出されるとステップS803に進む。UI制御部113はタッチ操作検出結果がともに所定のユーザインターフェースに対してなされたものかを判定する。判定した結果Yesであれば、ステップS804に進む。結果がNoであれば、最初に戻り、再度タッチ操作の検出を繰り返す。
ステップS804にてUI制御部113が両面のタッチ操作が同時に行われたものかを判定する。UI制御部113は、ある時間内に前面と背面のタッチ操作が両方とも検出されたかを判定することにより、両面のタッチ操作が同時に行われたものか判定する。判定の結果がNoであれば、最初に戻り、再度タッチ操作の検出を繰り返す。
判定の結果がYesであれば、ステップS805にてUI制御部113は特殊操作(ここではスリープ解除)の実行を指示する入力がなされたと判断し、その結果をCPU106に送出して、本フローの処理を完了する。CPU106は、受け取った判定の結果に基づきスリープ解除を実行する。
本実施例のように、両面から同時にタッチ操作されたときのみある動作(例えばスリープ解除動作)が実行されるように構成することによって、意図しないタッチ操作によってその動作が誤って実行されてしまうことを防ぐことができる。また、親指と人差し指で挟み込むタッチ操作は、携帯端末をホールドした状態では自然に行える操作であるため、ユーザが意図的にスリープ解除を行う場合には、その実行指示を簡単な操作で入力することができる。従って、意図しない誤作動の抑制と、ユーザが意図したときの簡単な操作性と、を両立させることができる。
(実施例4)
本実施例での表示装置の動作を図9(A)〜図9(C)の表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。図9(A)〜図9(C)は、透明ディスプレイ携帯端末901に、地図アプリケーションを表示した例を示す。
本実施例の説明で用いる地図アプリケーションは、最遠端の視点は、地球全体を見渡す視点であり、これを図9(A)に示す。図9(A)には、ユーザが端末を保持して操作している様子も合わせて示す。以降、図9(A)のような表示時の動作モードを地球儀モードと呼ぶ。
地図アプリケーションは、地球上のある地点を拡大するにつれて、その地点の詳細な地図情報を表示する。このときの表示例を図9(B)に示す。図9(B)に示す表示例は、通常の2次元地図を表示する動作モードでの地図アプリケーションの表示例であり、以降、この動作モードを2Dマップモードと呼ぶ。
さらに拡大を続けると、地図アプリケーションは、実際にユーザがその地点に立った場合に見える風景を仮想的に示す表示を行う。このときの表示例を図9(C)に示す。図9(C)に示す表示例は、3次元地図を表示する動作モードであり、以降、この動作モードを3Dマップモードと呼ぶ。
地図アプリケーションを使用する際に、ユーザは表示される地図に対して、拡大、縮小、移動、回転といった表示変更操作を施し、所望の地図表示状態にした上で、地図情報を閲覧する。このときの表示変更操作は、それぞれの動作モードにおいて直感的に理解し易い操作体系であり、かつ、端末をホールドしたままの状態で容易に行えることが望ましい。
地球儀モードにおける両面タッチ操作による表示変更操作の一覧を図10(A)の表に示す。操作対象は球体であり、3次元の表示操作が必要となる。本実施例で用いる3次元の座標系と回転方向を図10(B)に示す。座標軸をX,Y,Zとする。X軸は画面に平行な平面内で左から右へ横方向に向かう軸であり、Y軸は画面に平行な平面内で下から上へ縦方向に向かう軸であり、Z軸は画面に平行な平面に垂直で画面向こうから手前に向かう軸である。X軸、Y軸、Z軸を中心軸として回転する方向をそれぞれα、β、γとする
。以下、X軸を中心軸とする回転をX軸回転と呼ぶ。Y軸、Z軸についても同様とする。3次元の表示変更操作の分類には、回転と移動があり、図10(A)の表では、操作分類毎の操作内容で表示変更操作をカテゴリー分けしている。回転には、X軸,Y軸,Z軸それぞれを中心とした回転がある。移動には、X方向,Y方向,Z方向のそれぞれに関する移動がある。すなわち、3次元の表示変更操作には合計6種類の方向があり、これを図10(A)の「操作軸・操作方向」の列に示す。移動、回転の方向には、それぞれ正の方向とその反対方向の2種類があり、これらを図10(A)の「操作内容の詳細」の列に示す。図10(A)に示すように、本実施例では、これら3次元の表示変更操作における合計12種類の方向のそれぞれに対応させて、前面タッチ操作と背面タッチ操作の組み合わせを割り当てている。タッチ操作を行う指、スライドさせる方向、前面タッチ操作する指と背面タッチ操作する指の位置関係によって、操作内容が決定される。
なお、図10(A)に示す背面タッチ操作の指は、人差し指と中指を想定しているが、背面にある薬指や小指で操作をするとしてもよい。
次に、図10(A)に示すタッチ操作方法について、図を用いて説明する。
図11(A)は、X軸中心の回転操作の方法を示す図である。前面のタッチ位置とスライド操作を実線矢印1101、背面のタッチ位置とスライド操作を破線矢印1102にて示す。図11(A)では、画面中央付近において前面を親指で下から上へタッチしながらスライドさせ、背面の同じ領域で人差し指で上から下へタッチしてスライドさせるタッチ操作が行われている。このタッチ操作は、直感的には、両指でX軸を挟んで回転させる操作と同じである。表示装置は、このタッチ操作を検出すると、表示オブジェクトである地球を、X軸回転の回転軸1103を中心に、αと逆方向に回転させる表示制御を行う。また、前面タッチ操作が下方向、背面タッチ操作が上方向の場合は、表示装置は、表示オブジェクトである地球をα方向に回転させる表示制御を行う。
図11(B)は、Y軸中心の回転操作の方法を示す図である。図11(B)では、前面タッチ操作として左から右へスライドさせる右方向の操作が行われ、背面タッチ操作として同じ領域で右から左へスライドさせる左方向の操作が行われている。表示装置は、このタッチ操作を検出すると、表示オブジェクトである地球をY軸回転の回転軸1104を中心に、β方向に回転させる表示制御を行う。また、前面タッチ操作が左方向、背面タッチ操作が右方向の場合は、表示装置は、表示オブジェクトである地球をβと逆方向に回転させる表示制御を行う。
図11(A)、図11(B)では、画面中央付近をタッチ領域としているが、タッチ領域の位置はこれに限られない。例えば、画面端をタッチ領域としてもよい。タッチ領域の位置によらず、表示装置は、表示オブジェクトである地球の中心を通る軸を回転軸として回転させる表示制御を行う。
また、図11(A)、図11(B)では、上下又は左右方向にスライドさせるタッチ操作が行われた場合の表示制御を説明したが、表示オブジェクトを回転させるためのタッチ操作のスライド方向はこれに限らず、例えば斜め方向のスライドであってもよい。その場合、表示装置は、タッチ操作のスライド方向をX軸方向とY軸方向に分解し、X軸回転とY軸回転を同時に行う表示制御を行う。これにより、任意のスライド方向に対応して表示オブジェクトの回転操作が行われる。
図11(C)は、Z軸中心の回転操作の方法を示す図である。図11(C)では、前面
タッチ操作として反時計回りのスライド操作が行われ、背面タッチ操作として前面タッチ操作の領域から離れた領域で反時計回りのスライド操作が行われる。表示装置は、この操作を検出すると、表示オブジェクトである地球を、Z軸回転の回転方向1105に示すように、地球の中心を回転中心として、γ方向に回転させる表示制御を行う。前面タッチ操作が時計回りのスライド操作、背面タッチ操作が前面タッチ操作の領域から離れた領域での時計回りのスライド操作である場合は、表示装置は、表示オブジェクトである地球をγと逆方向に回転させる表示制御を行う。
次に、表示オブジェクトである地球を画面上で並行移動させる操作について説明する。本実施例では、この表示変更操作は、片面のタッチ操作で行われる。図11(D)は、右斜め上方向にスライドさせる前面タッチ操作が行われた場合の表示変更操作を示す図である。このタッチ操作により、図10(A)に示すX方向+側への移動操作とY方向+側への移動操作とが同時に行われ、図11(D)に示すように、表示オブジェクトである地球がスライド操作に従って並行移動する表示変更操作が行われる。なお、前面タッチ操作で表示オブジェクトの並行移動操作を行う例を示したが、背面タッチ操作で表示オブジェクトの並行移動操作を行うようにすることもできる。
次に、Z方向の移動について説明する。表示オブジェクトのZ方向の移動は、表示オブジェクトがユーザに近づく又は遠ざかることを意味し、対応する表示変更操作は拡大/縮小となる。本実施例では、背面から所望の箇所を2回連続でタッチする操作により、表示オブジェクトのその箇所を奥側から手前側に向かって移動させる操作が行われ、その箇所を拡大する表示制御が行われる。一方、前面から、所望の箇所を2回連続でタッチする操作により、表示オブジェクトのその箇所を手前側から奥側に向かって移動させる操作が行われ、その箇所を縮小する表示制御が行われる。
前面又は背面を2回連続でタッチする操作により拡大/縮小の表示変更操作が可能であるが、1回のタッチ操作による拡大率/縮小率(表示オブジェクトのZ方向の移動量)は一定であり、微調整はできない。拡大率/縮小率の微調整は、表示オブジェクトの2点を同時にタッチして、その2点間を任意のサイズに調整するタッチ操作により行うことができる。しかしながら、片手で表示装置をホールドした状態では、このタッチ操作を前面だけで行うことはできない。このタッチ操作を背面で行う場合は、例えば、人差し指と中指を使うことで、2点を同時にタッチして、指定した2点間を任意のサイズに調整するタッチ操作が可能であるが、必ずしも容易な操作とはいえない。
スライド操作を用いた拡大/縮小の表示変更操作についてを、図12(A)及び図12(B)を用いて説明する。拡大の表示変更操作により図12(A)から図12(B)へ表示が変更され、縮小の表示変更操作により図12(B)から図12(A)へ表示が変更される。拡大操作のためのタッチ操作は、図12(A)の前面タッチ箇所1201を親指でタッチしたまま固定とするとともに、図12(A)の2指の背面タッチスライド操作1202に示すように、背面を人差し指と中指で同時に下方向にスライドさせる操作である。このようなタッチ操作により、地図上の親指でタッチした箇所の表示を画面内に保ったまま、その周辺の地図が拡大される表示制御が行われ、結果として図12(B)に示すような表示が得られる。一方、縮小操作のためのタッチ操作は、図12(A)の前面タッチ箇所1201を親指でタッチしたまま固定するとともに、図12(B)の2指の背面タッチスライド操作1202に示すように、背面を人差し指と中指で同時に上方向にスライドさせる操作である。このようなタッチ操作により、地図上の親指でタッチした箇所の表示を画面内に保ったまま、その周辺の地図が縮小される表示制御が行われ、結果として図12(A)に示すような表示が得られる。以上のタッチ操作により、拡大/縮小の表示変更操作、すなわち、Z方向の移動の表示変更操作を行うことができる。
2本指によるスライド操作は、特殊なスライド操作であり、ユーザにマウスのホイールを回転させる操作を想起させる操作といえる。なお、本実施例では、一方の面をタッチしたまま固定して他方の面を2指でスライドさせるタッチ操作を拡大/縮小の表示変更操作に対応するタッチ操作とした。この理由は、拡大/縮小の表示変更操作に対して、2指でのスライド操作という特殊なタッチ操作を割り当てることで、他の表示変更操作のためのタッチ操作との区別がユーザにとって容易となり、直感的な操作を行えるからである。図13、図14を用いて後述するように、一方の面をタッチしたまま固定して、他方の面を1本の指でスライドさせるタッチ操作は、回転の表示変更操作に割り当てられる。
次に、2Dマップモードにおける両面タッチ操作による表示変更操作について説明する。2Dマップモードにおけるタッチ操作の操作体系は、図10(A)に示す地球儀モードと同じ操作体系とする。
ただし、2Dマップモードでは、図10(A)に示す表示オブジェクトの回転操作に対応するタッチ操作は、表示オブジェクトの移動操作と同等の表示結果となる。例えば、X軸を中心にαと逆方向に回転させる表示変更操作を行った場合の表示結果は、Y方向+側に移動させる表示変更操作を行った場合の表示結果と同等となる。すなわち、表示オブジェクトの回転操作に対応するタッチ操作が行われた場合にも、表示オブジェクトの移動操作に対応するタッチ操作が行われた場合にも、同様に、表示オブジェクトに対し移動の表示変更操作が行われる。従って、以下の2Dマップモードについての説明では、回転操作による表示オブジェクトの回転量(回転速度)と移動操作による表示オブジェクトの移動量(移動速度)は、ともに同等の表示遷移量(表示遷移速度)を意味するものとする。
2Dマップモードでは、図10(A)に示す表示オブジェクトの回転操作に対応するタッチ操作を応用してより効果的な移動操作を行うことができる。その例を図13の表と図14(A)〜図14(D)の表示画面例を用いて説明する。
図10(A)では、表示オブジェクトに対しX軸回転とY軸回転の表示変更操作を行う場合、前面と背面とで逆方向のスライド操作を行うが、この操作において、一方の指をタッチしたまま固定とする応用操作を考える。この場合、スライド操作を行う面が片方のみとなるので、両方の面でスライド操作を行う場合と比べて、表示オブジェクトの回転量(移動量)が少なくなり、回転速度(移動速度)が遅くなるような表示変更操作が行われると、直感的で分かりやすい。すなわち、図10(A)の表示オブジェクトの回転操作に対応するタッチ操作において、前面のスライド操作又は背面のスライド操作の一方を行わずタッチしたまま固定とした場合には、両面でスライド操作を行った場合よりも回転速度(移動速度)を遅くする。又は回転量(移動量)を少なくする。これにより移動の表示変更操作における微調整操作が可能になる。
一方、より高速に回転(移動)を行いたい場合もある。そこで、図10(A)の表示オ
ブジェクトの回転操作に対応するタッチ操作において、背面のスライド操作を、背面の指1本ではなく背面の4指全てによるスライド操作とする応用操作を考える。この場合、背面のスライド操作を指1本で行う場合と比べて、表示オブジェクトの回転量(移動量)が増加し、回転速度(移動速度)を加速させるような表示変更操作が行われるようにすると、直感的で分かりやすい。
図13は、回転の表示変更操作に対応するタッチ操作と回転速度(移動速度、表示遷移速度)の関係を示す。図13に示すタッチ操作を行う際の画面例を図14(A)〜図14(D)に示す。
図14(A)では、前面タッチ操作として、前面タッチスライド操作1101に示すように、左方向にスライドさせ、背面タッチ操作として、背面タッチ箇所1401をタッチしたまま固定とする。このようなタッチ操作が行われた場合の表示遷移速度は、矢印1404で模式的に示すように、低速となる。ここで、表示遷移速度を示す矢印は、長いほど速度が速いことを意味するものとする。なお、前面タッチ操作として前面をタッチしたまま固定とし、背面タッチ操作として右方向にスライド操作させるタッチ操作を行った場合も、図14(A)のタッチ操作を行った場合と同じ速度で遷移する。
図14(B)では、前面タッチスライド操作1101と背面タッチスライド操作1102に示すように、前面と背面で互いに逆方向にスライドさせる。このようなタッチ操作が行われた場合の表示遷移速度は、矢印1405で模式的に示すように、通常速度となる。
図14(C)では、前面タッチ操作として、前面タッチ箇所1402をタッチしたまま固定とし、背面タッチ操作として、4指の背面タッチスライド操作1403に示すように、背面のスライド操作を4指で行う。このようなタッチ操作が行われた場合の表示遷移速度は、矢印1406で模式的に示すように、高速となる。
図14(D)では、前面タッチ操作として、前面タッチスライド操作1101に示すように、左方向にスライドさせ、背面タッチ操作として、4指の背面タッチスライド操作1403に示すように、背面のスライド操作を4指で行う。このように、前面のスライド操作と背面4指のスライド操作を合わせて行うタッチ操作が行われた場合の表示遷移速度は、矢印1407で模式的に示すように、最も速くなる。
以上により、直感的な操作で、容易に移動速度(表示遷移速度)を変更することができる。なお、図14では、左右方向の移動の例を示したが、本実施例で説明する移動速度を変更するためのタッチ操作は、左右方向の移動(表示遷移)に限らず、上下左右の任意の方向の移動(表示遷移)に適用できる。
次に、3Dマップモードにおける両面タッチ操作による表示変更操作について説明する。図15は、3Dマップモードにおける表示変更操作の一覧を示す表である。3Dマップモードにおける表示変更操作では、操作分類として、ユーザ視点移動、ユーザ位置移動、拡大/縮小がある。
ユーザ視点移動の表示変更操作と表示内容について図16(A)〜図16(E)を用いて説明する。ここでは、説明のための簡単な例として、仮想的な3次元空間内におけるユーザの位置(視点)の前方に立方体形状のオブジェクトがある場合の例である。
図16(A)は、始点となる初期状態を表し、仮想的な3次元空間内においてユーザの視点から正面に立方体が見えている状態である。
ユーザ視点を上に向ける回転移動のためのタッチ操作として、本実施例では、上方向にスライドさせる前面タッチ操作と、下方向にスライドさせる背面タッチ操作とを組み合わせたタッチ操作を用いる。このタッチ操作と、初期状態に対し視点を上に向ける回転移動が行われた状態の表示内容を図16(B)に示す。
ユーザ視点を下に向ける回転移動のタッチ操作は、上に向ける回転操作のタッチ操作と逆方向の操作とする。このタッチ操作と、初期状態に対し視点を下に向ける回転移動が行われた状態の表示内容を図16(C)に示す。
ユーザ視点を右に向ける回転移動のためのタッチ操作として、本実施例では、左方向にスライドさせる前面タッチ操作と、右方向にスライドさせる背面タッチ操作とを組み合わせたタッチ操作を用いる。このタッチ操作と、初期状態に対し視点を右に向ける回転移動が行われた表示内容を図16(D)に示す。
ユーザ視点を左に向ける回転移動のタッチ操作は、右に向ける回転操作のタッチ操作と逆方向の操作とする。このタッチ操作と、初期状態に対し視点を左に向ける回転移動が行われた状態の表示内容を図16(E)に示す。
タッチ操作のスライド量とユーザ視点移動量は相関している。すなわち、スライド量が多いとユーザ視点の移動量も多くなり、スライド量が少ないとユーザ視点の移動量も少なくなる。また、ユーザ視点の回転移動のためのタッチ操作は、例示した上下方向のスライド操作や左右方向のスライド操作に限られず、任意の方向のスライド操作でユーザ視点の回転移動が可能である。任意の方向のスライド操作に対し、本実施例では、スライド方向をX方向とY方向に分解し、X方向のスライド操作及びY方向のスライド操作それぞれに対応するユーザ視点の回転操作を行うことで任意の方向のスライド操作に対応するユーザ視点の回転移動を行う。なお、図16(A)〜図16(E)の例では、タッチ操作が画面の中央付近で行われる様子を例示したが、ユーザ視点の回転移動は、タッチ操作が行われる画面内の位置によらない。すなわち、タッチ操作内容が同等であれば画面内のどの位置で操作を行っても、同等のユーザ視点の回転移動が行われる。
図16(A)〜図16(E)に示す表示変更操作は、ユーザ視点位置を中心に表示オブジェクトをX軸回転又はY軸回転させる操作である。本実施例によれば、ユーザは、表示オブジェクトに対しこのような複雑な回転操作を行わせるための指示を、上述したような直感的なタッチ操作により、表示装置に入力することが可能となる。
次に、ユーザ位置移動の表示変更操作と表示内容について図17(A)〜図17(E)を用いて説明する。図16と同様に、仮想的な3次元空間内におけるユーザの位置(視点)の前方に立方体形状のオブジェクトがある場合の例で説明する。
図17(A)は、始点となる初期状態を表し、仮想的な3次元空間内においてユーザの視点から正面に立方体が見えている状態である。
ユーザ位置を前後方向(手前、奥行き方向)に移動させるためのタッチ操作として、本実施例では、上方向又は下方向にスライドさせる前面タッチ操作を用いる。このタッチ操作と、初期状態に対しユーザ位置の前後方向の移動操作が行われた状態の表示内容を図17(B)、図17(C)に示す。
ユーザ位置を左右方向に移動させるためのタッチ操作は、左方向又は右方向にスライドさせる前面タッチ操作とする。このタッチ操作と、初期状態に対しユーザ位置の左右方向の移動操作が行われた状態の表示内容を図17(D)、図17(E)に示す。
このように、本実施例によれば、ユーザは、簡単かつ直感的なタッチ操作で、ユーザ位置移動の表示変更操作を行うことができる。なお、図17(A)〜図17(E)では、ユーザ位置移動のために前面タッチ操作を行う例を示したが、ユーザ位置移動のためのタッチ操作はこれに限られず、背面タッチ操作により同様のユーザ位置移動を行えるようにしても良い。
3Dマップモードにおける拡大/縮小の表示変更操作のためのタッチ操作については、図12を用いて説明した内容と同様であるため、説明を省略する。
上述したタッチ操作入力処理のフローと表示動作について、図18のフローチャートと図1の構成図を用いて述べる。まず、ステップS1801にて、CPU106はRAM107に保持されたプログラムのユーザインターフェース情報を取得する。ユーザインターフェース情報とは、ユーザがタッチ操作により表示装置へコマンドを入力するユーザインターフェースを構成するための情報である。本実施例では、地球儀モード、2Dマップモード、3Dマップモードのモード情報や、各モードに応じた表示変更操作とタッチ操作との対応関係の情報(図10(A)、図13、及び図15の表で示す)を含む。
次にステップS1802にて、端末をホールドするために背面に接触している指のタッチ検出結果を除外する処理を行う。この処理は、UI制御部113が背面タッチ操作入力部115からの検出結果に対して、一定時間以上の接触が継続していることを示す検出結果や、機器をホールドしている際のパターンに一致する検出結果の部分をマスクすることで行われる。
ステップS1803にてUI制御部113は、前面又は背面にタッチ操作が発生しているかを判定する。この処理は、背面タッチ操作入力部115と前面タッチ操作入力部116から受けた検出結果に、ステップS1802にてマスクした検出結果以外のタッチ操作が含まれているかを判定することで行う。処理はステップS1804とステップS1807に分岐する。
ステップS1804にて、UI制御部113は前面タッチ操作入力部116からの検出結果に基づき前面タッチ操作があったかを判定する。前面タッチ操作があれば処理はステップS1805に進み、なければ処理はステップS1811に進む。ステップS1805では、UI制御部113は、前面タッチ操作が発生した座標と変位方向(スライドの方向)、変位量(スライド量)を取得する。この処理は、UI制御部113が前回の検出結果との差分を算出することで行う。UI制御部113は、算出結果を、システムバス108を介してCPU106へ送出する。
次に、ステップS1806では、CPU106は、前面タッチ操作検出結果を、3次元図形としての表示オブジェクトが定義された3次元空間内の座標(以下、内部座標ともいう)や方向の情報に変換(マッピング)する。画面では2次元図形として描かれている表示オブジェクトは、表示装置内部では3次元図形データ(内部データともいう)として処理されている。CPU106は、表示オブジェクトの3次元形状を表す情報や、3次元空間内の観察者の情報(視点座標、視線方向、視野角など)に基づき、3次元空間内の3次元図形の情報を、2次元の画像に変換する。一方、CPU106は、2次元の画面上で行われた2次元平面内のタッチ操作情報を、内部の3次元空間内の座標や方向の情報に変換(マッピング)する。
ステップS1807にて、UI制御部113は背面タッチ操作入力部115からの検出結果に基づき背面タッチ操作があったかを判定する。背面タッチ操作があれば処理はステップS1808に進み、なければ処理はステップS1811に進む。ステップS1808では、UI制御部113は、背面タッチ操作が発生した座標と変位方向(スライドの方向)、変位量(スライド量)を取得する。この処理は、UI制御部113が前回の検出結果との差分を算出することで行う。UI制御部113は、算出結果を、システムバス108を介してCPU106へ送出する。
次に、ステップS1809では、CPU106は、背面タッチ操作検出結果を、3次元図形としての表示オブジェクトが定義された3次元空間内の座標や方向のデータに変換(マッピング)する。この処理はステップS1806で行った処理と同様である。
続いてステップS1810にて、UI制御部113は、有効な背面タッチ操作(S1802で除外されない背面タッチ操作)を行っている全ての指について、上記S1808及びS1809の処理が完了したかを判定する。完了していなければ、処理はステップS1808に戻り、背面に有効なタッチ操作をしている全ての指について完了するまで繰り返される。完了すれば、処理はステップS1811に進む。
ステップS1811にて、CPU106は、表示オブジェクトの3次元情報が定義された3次元空間内にマッピングされたタッチ操作の情報から、3次元空間内にいてタッチ操作による操作の対象とされたオブジェクトを判定する。CPU106は、タッチ操作が行われた領域(座標)は、オブジェクト上か、その他の領域であるかを判定する。
次に、ステップS1812にて、CPU106は、ステップS1806とステップS1809にて取得したタッチ操作検出結果と、ステップS1801にて取得したユーザインターフェース情報に基づき、表示変更操作の操作指示を決定する。操作指示とは、回転、移動等の操作分類、対象オブジェクトの座標と視点座標の遷移(移動)の方向、遷移量(
移動量)などの表示変更操作に必要な一群の情報である。CPU106は、タッチ操作検出結果に基づき、図10(A)や図15のテーブルから検出されたタッチ操作に対応する表示変更操作を決定する。
ステップS1813にて、CPU106は決定した操作指示に応じて内部データ及び視点情報を更新する。ステップS1814にて、表示データ生成部109は更新後の内部データと視点情報から、表示データを生成し、生成した表示データを透明度制御部111及び発光層制御部112に送出する。これにより、タッチ操作に応じて表示変更操作がなされた表示オブジェクトの2次元画像が両面タッチ操作対応透明ディスプレイ101に表示される。
次に、処理はステップS1815に進み、CPU106は、アプリケーションを終了するかを判定し、Yesであれば、CPU106はアプリケーションを終了する。Noであれば、処理はステップS1816に進む。ステップS1816では、CPU106は、アプリケーションの動作モードに変更があるかを判定し、Yesであれば、ステップS1801まで戻り、再度ユーザインターフェース情報を取得する。Noであれば、CPU106は、ステップS1802に戻り、タッチ操作検出から表示までの一連の処理を繰り返す。
上記フローにより、透明ディスプレイを有しタッチ操作により表示変更操作の指示を入力可能な表示装置において、地図アプリケーションのような複雑なタッチ操作が必要となるアプリケーションを用いる場合の操作性が向上する。すなわち、前面タッチ操作と背面タッチ操作を組み合わせることで、移動、回転、拡大/縮小、視点変更、表示変更(表示遷移)の速度変更といった多種多様な表示変更操作のためのタッチ操作体系を、直感的で、簡単かつ互いに区別しやすく構成される。
(実施例5)
本実施例での表示装置の動作を図19の表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。図19は、透明ディスプレイ携帯端末1901に、3Dオブジェクトを表示した例を示す。図19の表示例では、四角錐型の3Dオブジェクト表示A1902と、立方体の3Dオブジェクト表示B1903の2個のオブジェクトが表示されている。図19には、ユーザが透明ディスプレイ端末1901を保持しながら、上記2つの3Dオブジェクトに対して、前面と背面の両面からタッチ操作を行っている様子も示す。
3Dオブジェクトが表示されている画面に対して、前面と背面の両面からタッチ操作を行うことは、直感的には、操作対象となっている3Dオブジェクトを仮想的に両面から指で掴むことをユーザに想起させる。図20は、3Dオブジェクトを指で掴むような感覚で行えるように構成したタッチ操作の概念を説明する図である。図20に示すタッチ操作では、前面タッチポイント2001に前面から親指でタッチするとともに、背面タッチポイント2002に背面から背面側の4指のいずれか(例えば人差し指)でタッチする。
内部オブジェクト情報2003は、3Dオブジェクト表示A1902に対応する、3Dオブジェクトの3次元形状の情報(内部データともいう)である。実際には、内部オブジェクト情報2003は、端末内のデータとしてのみ存在し、物理的・立体的な実在として端末の外部には存在しない。しかし、図20では、2次元画像として表示される3Dオブジェクトとそれに対応する3次元形状との対応関係の概念を説明するために図示してある。3Dオブジェクトの3次元形状における前面保持ポイント2004は、前面タッチポイント2001に対応している。すなわち、2次元平面である画面上での前面保持ポイント2004の位置情報(座標)を、3次元空間内の3Dオブジェクトにおける位置情報(座標)に変換(マッピング)したものが前面タッチポイント2004である。また、背面保持ポイント2005は、背面タッチポイント2002に対応している。表示された3Dオブジェクトを前面と背面からタッチすると、その3Dオブジェクトが操作対象オブジェクトとして選択される。それとともに、内部データが定義された3次元空間内において、上述した保持ポイントで3次元形状としての当該3Dオブジェクトを仮想的に掴んで保持する表示変更操作が行われる。
画面内に複数の3Dオブジェクトが表示されている場合、ユーザは各3Dオブジェクトに対して独立に移動及び回転の表示変更操作を行い、さらに、表示画像全体(3Dオブジェクトが存在する3次元空間全体)に対して移動及び回転の表示変更操作を行えると良い。またさらに、観察視点、視線方向、視野角の操作も行えることが望ましい。3次元的な移動及び回転の操作を指示するには、それぞれ3つの方向の操作を指示する必要があるため、操作は複雑になる。そのため、これらの表示変更操作の指示を表示装置に入力するためのタッチ操作体系は、直感的に理解し易く、かつ、端末をホールドしたままの状態で容易に行えることが望ましい。
3Dオブジェクトに対する表示変更操作とタッチ操作との対応関係の一例を図21に示す。座標軸(X、Y、Z)及び回転方向(α、β、γ)の記号の意味は、図10(B)と同じである。操作分類、オブジェクトに対する操作については、実施例4にて図10(A)を用いて説明した内容と同様である。図21は、オブジェクト毎に表示変更操作を行う動作モードでのタッチ操作体系を示すもので、この動作モードでは、操作対象として選択された対象オブジェクトについてのみ、タッチ操作に対応する表示変更操作が行われる。この動作モードは、後述する、表示画像全体に対する表示変更操作(視点位置を変更する操作)を行う動作モードとは異なる動作モードである。本実施例では、表示変更操作をどちらの動作モードとするかは、タッチ箇所がオブジェクト上か否かによって判断する。図21の「タッチ箇所」の列は、オブジェクト毎の表示変更操作を行う動作モードとなるためのタッチ操作条件を示す。なお、画面内に3Dオブジェクトが複数ある場合、タッチ箇所によって、そのうちの一つが表示変更操作対象の3Dオブジェクトとして選択されるようにすることができる。
なお、図21では背面タッチ操作の指は、人差し指と中指を想定しているが、背面にある薬指や小指で操作をするとしてもよい。
次に、図21に示すタッチ操作による表示変更操作の具体例について、図を用いて説明する。図22(A),図22(B)にXY平面内に存在する回転軸の回りに、3Dオブジ
ェクトを回転移動させる表示変更操作を行った場合の表示例を示す。図22(A)、図22(B)の例では、X軸中心の回転とY軸中心の回転の両方が行われている。図22(A)が回転前の表示状態で、図22(B)が回転後の表示状態である。図22(A)は、ユーザが、前面タッチスライド操作2201に示すように、親指で左斜め上にスライド操作し、背面タッチスライド操作2202に示すように、人差し指で右斜め下にスライド操作する例を示している。
まず、回転移動に対応するタッチ操作開始時のタッチ箇所は、四角錐型3Dオブジェクト1902上にあるため、この3Dオブジェクト1902が表示変更操作の対象オブジェクトとして選択される。次に、前面タッチ箇所と背面タッチ箇所がスライドタッチ操作により徐々に移動するにつれて、X軸中心の回転とY軸中心の回転が同時に起こり、最終的に図22(B)に示す表示結果となる。このときの回転中心は、親指のタッチ箇所に対応する3次元空間内の点と人差し指のタッチ箇所に対応する3次元空間内の点との間の点である。そのため、あたかも、前面と背面から2指で挟んだ箇所に3Dオブジェクトが物理的に存在し、その3Dオブジェクトを2指で掴んで回したかのような表示変更結果が得られる。3Dオブジェクトが回転する方向は、前面と背面のタッチ操作で指をスライドさせる方向に従って変化する。
なお、ここでは、3Dオブジェクトを2指で挟んで回転させる表示変更操作のためのタッチ操作として、前面の親指と背面の人差し指を互いに逆方向にスライドさせるタッチ操作を例示したが、当該表示変更操作のためのタッチ操作はこれに限られない。例えば、一方の指をタッチしたまま固定とするタッチ操作でもよい。このタッチ操作を行った場合において、前面と背面のうちタッチしたまま固定する指と、3Dオブジェクトの回転中心と、の関係を図22(C)に示す。背面の人差し指をタッチしたまま固定とすると、回転中心は人差し指によるタッチ箇所となる。前面の親指をタッチしたまま固定とすると、回転中心は親指によるタッチ箇所となる。こうすることで、前面又は背面の指をタッチしたまま固定とした場合でも、対象オブジェクトを掴んで回す表示変更操作指示を直感的なタッチ操作で入力することができる。
図23(A)、図23(B)を用いて、Z軸回転操作について説明する。図23(A)が回転前の表示状態で、図23(B)が回転後の表示状態である。Z軸回転のためのタッチ操作では、まず、親指は前面で対象オブジェクト上にタッチしたまま固定とし、人差し指も背面で対象オブジェクト上にタッチしまま固定とする。前面と背面のタッチ箇所に対応する3次元空間内の2点を結ぶ直線が回転軸となる。この回転軸をZ軸回転軸2301として示す。前面と背面のタッチ箇所が同じ(2次元平面としての画面上での位置が同じ
)であれば、回転軸はZ軸と平行であり、前面と背面のタッチ箇所が同じでなければ、回転軸はZ軸から傾いた直線となる。次に、タッチ固定箇所を中心にして、背面の中指で円を描くように反時計まわりに回転させるスライド操作をする。このタッチ操作によって、四角錐型3Dオブジェクト1902が、中指のスライド操作に従ってZ軸回転軸2301の回りに反時計まわりに回転する表示変更操作が行われる。中指でのスライド操作の回転の方向が時計回りであれば、3Dオブジェクトの表示変更操作の回転の方向も時計回りとなる。
図24(A)、図24(B)を用いて、XY平面に平行な移動操作について説明する。図24(A)が移動前の表示状態で、図24(B)が移動後の表示状態である。XY平面に平行な移動操作のためのタッチ操作では、前面から、親指で移動操作対象のオブジェクトの位置にタッチした後、前面タッチスライド操作2201で示す方向にスライド操作を行う。背面からは、人差し指で移動操作対象のオブジェクトの位置にタッチした後、背面タッチスライド操作2202で示す方向にスライド操作を行う。このタッチ操作により、四角錐型3Dオブジェクト1902は、X方向移動とY方向移動が同時に起こり、左斜め上に並行移動し、図24(B)に示す表示状態となる。このタッチ操作によれば、オブジェクトをXY平面に平行に移動させる表示変更操作の指示入力を、画面に表示されたオブジェクトを前面と背面から掴んで移動させるような直感的なタッチ操作で行うことができる。
図25(A)、図25(B)を用いて、Z方向の移動操作について説明する。図25(A)が移動前の表示状態で、図25(B)が移動後の表示状態である。実施例4と同様、Z軸方向の移動は、拡大/縮小の表示変更操作に対応し、本実施例では、この表示変更操作のためのタッチ操作として特殊なスライド操作を割り当てる。すなわち、Z軸方向の移動のためのタッチ操作では、前面から、親指で対象オブジェクトの位置にタッチした後、タッチしたまま固定とする。また、背面から、人差し指と中指の2指で同時に、2指の背面タッチスライド操作2501に示すように、スライド操作を行う。このタッチ操作は、マウスのホイール回転の操作を模擬した操作である。これにより、親指にて選択している四角錐型3Dオブジェクト1902が手前側に移動し、図25(B)に示すように四角錐型3Dオブジェクト1902が拡大された表示状態となる。
なお、背面からスライド操作を2指で行う用にしている理由は、1指のスライド操作では、図22(A)〜図22(C)を用いて説明した回転のためのタッチ操作と区別がつかないからである。Z軸移動(拡大/縮小)のためのタッチ操作に2指のスライド操作を用いることで、ユーザは、Z軸移動(拡大/縮小)と回転とを明確に区別することができ、操作の混同を防ぐことができる。
以上の両面タッチ操作により、オブジェクトに対する表示変更操作の指示入力を、画面に表示されたオブジェクトを前面と背面から掴んで操作するような直感的なタッチ操作で行うことができる。
次に、画面全体に対する表示変更操作について説明する。図26(A)の表に表示変更操作と対応するタッチ操作の一覧を示す。座標軸、回転方向を図26(B)に示す。画面全体に対する表示変更操作では、3Dオブジェクトが定義された内部3次元空間に存在する3Dオブジェクトの全体(内部データの全体)に対して一括して表示状態が変更される。例えば、図19では、3Dオブジェクト表示A1902と3Dオブジェクト表示B1903の表示が一括して変更される。画面全体の表示変更操作は、ユーザの視点を移動させる操作とも言える。以下、画面全体に対する表示変更操作を、視点変更操作ともいう。
視点変更操作は、図21から図25(B)を用いて説明したオブジェクト毎の表示変更操作を内部3次元空間内のオブジェクト全体に適用したものと考えれば、オブジェクト毎の表示変更操作のためのタッチ操作と同様のタッチ操作を適用できる。以下、オブジェクト毎の表示変更操作との相違点を中心に視点変更操作のためのタッチ操作について図を用いて説明する。
視点変更操作のためのタッチ操作では、タッチ箇所は、オブジェクトが表示されている以外の箇所、例えば背景の箇所とし、一旦、オブジェクト以外の箇所をタッチした後、スライド操作を開始する。ただし、片面のタッチ操作による回転、移動については、オブジェクト毎の表示変更操作に含まれないため、画面内の任意の箇所をタッチしてスライド操作を開始することとしても、オブジェクト毎の表示変更操作と混同はしない。
X軸、Y軸、Z軸を中心とする画面回転操作(視線方向変更操作)に対応するタッチ操作は、図22(A)〜図22(C)、図23(A)、図23(B)で説明したタッチ操作と同様であり、回転する対象が画面全体となる点がオブジェクト毎の回転操作と異なる。
画面回転操作(視線方向を変更する操作)について、図27(A)、図27(B)を用いて説明する。図26(B)に回転方向であるφ方向、θ方向を示す。画面回転操作(視線方向変更操作)は、座標軸の原点を中心とし、原点から最初にタッチした点までの距離を半径とする仮想的な球面を回転させる操作として構成され、そのためのタッチ操作としてスライド操作を用いる。図27(A)が画面回転前の表示状態であり、図27(B)が画面回転後の表示状態である。画面回転操作のためのタッチ操作では、例えば、前面から、親指でオブジェクトにタッチした後、前面タッチスライド操作2201に示すようにスライド操作を行う。背面からは、タッチ操作をしない。このタッチ操作により、画面全体は、画面中央にある固定の回転中心2701を中心とする球面が回転するように回転する。このとき、θ方向の回転とφ方向の回転が同時に発生し、結果としてそれらが合成された回転が行われ、図27(B)に示す表示となる。このようなタッチ操作により、画面表示全体を、画面中央を中心に回転させる表示変更操作(視線方向変更操作)の指示入力を、球面を回転させるような直感的なタッチ操作により行うことができる。
なお、ここでは、前面タッチスライド操作により、画面全体の回転操作を行う例を説明したが、背面タッチスライド操作によって画面全体の回転操作を行うようにしてもよい。どちらの場合でも、画面全体の回転操作は片面タッチ操作であり、オブジェクト毎の回転操作は両面タッチ操作であるため、画面全体の回転操作のためのタッチ操作は、任意の点をタッチして開始することができる。すなわち、オブジェクト上をタッチしてタッチ操作を開始しても、オブジェクト毎の回転操作のためのタッチ操作とはならない。
本実施例では、画面全体のX方向、Y方向の移動操作(視点位置移動操作)のためのタッチ操作としては、両面タッチ操作で行う場合と、片面タッチ操作で行う場合の2通りを割り当てる。両面タッチ操作で視点位置移動操作を行う場合は、タッチ操作は図24を用いて説明したタッチ操作と同様であるが、移動する対象が画面全体となる点が異なる。片面タッチ操作で行う画面全体の移動操作について、図28(A)、図28(B)を用いて説明する。図28(A)、図28(B)は、画面全体を左斜め上に移動させる例を示す。図28(A)が移動前の表示状態で、図28(B)が移動後の表示状態である。画面全体の移動操作(視点位置移動操作)のための片面タッチ操作では、背面から、2指の背面タッチスライド操作2501で示すように、左斜め上方向にスライドさせる。前面からは、タッチ操作をしない。このタッチ操作により、画面全体は、左斜め上に並行移動する。このとき、X方向の移動とY方向の移動が同時に発生し、結果としてそれらが合成された移動が行われ、図28(B)に示す表示となる。
両面タッチ操作では、表示画面を指で挟んで移動させるタッチ操作となるため、画面の全域にわたるような大きな移動距離をスライドさせることが難しい。片面タッチ操作であれば、大きな移動距離をスライド操作することが容易である。しかしながら、1指での片面スライド操作では、図27(A)、図27(B)に示す画面中央を回転中心とした回転操作のためのタッチ操作と混同が生じる。また、Z方向の移動である拡大/縮小のためのタッチ操作は、背面を2本の指でスライドする操作である。従って、画面全体移動操作(視点位置移動操作)を片面タッチ操作により行う場合に、背面を2本指でスライド操作することとすれば、2本指でのスライド操作から移動操作が連想できるようにタッチ操作体系が構成される。これにより、ユーザは操作体系を理解し易くなり、操作性が向上する。
画面全体の拡大/縮小(視点位置のZ軸方向移動)のためのタッチ操作については、実施例4にて図12(A)、図12(B)を用いて説明した拡大/縮小のためのタッチ操作と同様とし、説明を省略する。
上述したタッチ操作による表示変更操作の指示入力処理のフローと表示動作について、説明する。実施例の処理を表すフローチャートは実施例4で説明した図18のフローチャ
ートとほぼ同様である。ここでは、実施例4にて説明した内容との相違点を主として説明する。
まずステップS1801では、CPU106は、ユーザインターフェース情報として、図21、図22、図26に示す表示変更操作とタッチ操作との対応関係の情報を取得する。以降、ステップS1811まで実施例4と同様の処理が行われる。ステップS1811では、CPU106は、オブジェクト毎の表示変更操作であるか、画面全体の表示変更操作(視点位置変更操作)であるかを判定する。この判定は、タッチ箇所がオブジェクトであるかそれ以外の箇所(背景など)であるかによって行われる。続いて、ステップS1812では、CPU106は、ステップS1811にて判定した結果に従って、ユーザインターフェース情報を選択する。具体的には、CPU106は、オブジェクト上で両面タッチ操作が開始されている場合は、図21の操作体系を選択し、それ以外の場合は、図26の操作体系を選択する。
以降の処理は実施例4で説明した内容と同様である。
本実施例によれば、3次元空間内の3Dオブジェクトの表示状態を変更するという複雑な表示変更操作の指示を、前面タッチ操作と背面タッチ操作とを組み合わせた直感的で簡単な操作体系で、表示装置に入力することが可能になる。
なお、図19では、表示変更操作の対象となるオブジェクトが、表示装置をホールドした手の指が届く範囲内に表示されている例を示したが、より大画面になった場合、ホールドした手の指が届く範囲は限られてくる。これを改善する方法を図29を用いて説明する。図29の表示例では、表示装置をホールドした手の指が届く範囲に、タッチ操作用の子画面を設けた画面構成とする。図29では、タッチ操作用の子画面として、左手用3Dオブジェクト操作領域2901及び右手用3Dオブジェクト操作領域2902が表示されている。子画面上のオブジェクトに対しタッチ操作を行うことにより、メイン画面に表示されたオブジェクト1902,1903の表示変更操作を行うことができる。なお、メイン画面におけるオブジェクト1902,1903の表示位置においてタッチ操作を行っても、子画面においてタッチ操作を行った場合と同様にオブジェクト1902,1903の表示変更操作を行うことができる。また、子画面に表示させるオブジェクトの選択は、例えば、メイン画面に表示されたオブジェクトをタッチすることにより行う。
101:透明ディスプレイ、102:背面タッチパネル、103:液晶シャッター、104:透明発光パネル、105:前面タッチパネル、106:CPU、109:表示データ生成部、110:表示制御部、113:UI制御部、114:タッチ操作入力部

Claims (14)

  1. 前面及び背面の両面からタッチ操作を行うことが可能な透明ディスプレイパネルを備えた表示装置であって、
    前面のタッチ操作及び背面のタッチ操作を検出する検出手段と、
    タッチ操作のためのグラフィックスデータの表示制御を行う制御手段と、
    を備え、
    前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
    前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
    前記制御手段は、まず第1の部品のみを画面に表示させ、第1の部品に対するタッチ操作に応じて第2の部品の内容を決定し、前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる表示装置。
  2. 前記制御手段は、第1の部品の表示色と第2の部品の表示色とを異ならせる請求項1に記載の表示装置。
  3. 前記制御手段は、第1の部品の表示領域と第2の部品の表示領域とを異ならせる請求項1又は2に記載の表示装置。
  4. 前記グラフィックスデータは、ユーザが表示装置を保持する一方の手でタッチ操作するためのグラフィックスデータであり、
    前記制御手段は、前記第1の部品及び前記第2の部品のうち前面からのタッチ操作を想定した部品の位置が、背面からのタッチ操作を想定した部品の位置よりも、表示装置の端部に近い位置になるように、第1の部品及び第2の部品の表示制御を行う請求項1〜3のいずれか1項に記載の表示装置。
  5. 前記前面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の親指による操作を想定した部品であり、
    前記背面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の残りの指による操作を想定した部品である請求項4に記載の表示装置。
  6. 前記グラフィックスデータは、ユーザが文字入力を行うためのユーザインターフェースのグラフィックスデータであり、前記第1の部品に対するタッチ操作に応じて表示される前記第2の部品にタッチ操作することにより入力される文字が決定される請求項1〜5のいずれか1項に記載の表示装置。
  7. 前記第2の部品の表示領域は、前記第1の部品の表示領域よりも前記表示装置の画面の中央寄りに配置される請求項1〜6のいずれか1項に記載の表示装置。
  8. 前面及び背面の両面からタッチ操作を行うことが可能な透明ディスプレイパネルを備えた表示装置の制御方法であって、
    前面のタッチ操作及び背面のタッチ操作を検出する検出工程と、
    タッチ操作のためのグラフィックスデータの表示制御を行う制御工程と、
    を有し、
    前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
    前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
    前記制御工程は、
    まず第1の部品のみを画面に表示させる工程と、
    第1の部品に対するタッチ操作に応じて第2の部品の内容を決定する工程と、
    前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる工程と、
    を有する表示装置の制御方法。
  9. 前記制御工程では、第1の部品の表示色と第2の部品の表示色とを異ならせる請求項に記載の表示装置の制御方法。
  10. 前記制御工程では、第1の部品の表示領域と第2の部品の表示領域とを異ならせる請求項又はに記載の表示装置の制御方法。
  11. 前記グラフィックスデータは、ユーザが表示装置を保持する一方の手でタッチ操作するためのグラフィックスデータであり、
    前記制御工程では、前記第1の部品及び前記第2の部品のうち前面からのタッチ操作を想定した部品の位置が、背面からのタッチ操作を想定した部品の位置よりも、表示装置の端部に近い位置になるように、第1の部品及び第2の部品の表示制御を行う請求項10のいずれか1項に記載の表示装置の制御方法。
  12. 前記前面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の親指による操作を想定した部品であり、
    前記背面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の残りの指による操作を想定した部品である請求項11に記載の表示装置の制御方法。
  13. 前記グラフィックスデータは、ユーザが文字入力を行うためのユーザインターフェースのグラフィックスデータであり、前記第1の部品に対するタッチ操作に応じて表示される前記第2の部品にタッチ操作することにより入力される文字が決定される請求項8〜12のいずれか1項に記載の表示装置の制御方法。
  14. 前記第2の部品の表示領域は、前記第1の部品の表示領域よりも前記表示装置の画面の中央寄りに配置される請求項8〜13のいずれか1項に記載の表示装置の制御方法。
JP2013090165A 2012-07-04 2013-04-23 表示装置及びその制御方法 Expired - Fee Related JP6271858B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013090165A JP6271858B2 (ja) 2012-07-04 2013-04-23 表示装置及びその制御方法
US13/928,548 US9519371B2 (en) 2012-07-04 2013-06-27 Display device and control method therefor

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012150514 2012-07-04
JP2012150514 2012-07-04
JP2013090165A JP6271858B2 (ja) 2012-07-04 2013-04-23 表示装置及びその制御方法

Publications (2)

Publication Number Publication Date
JP2014029673A JP2014029673A (ja) 2014-02-13
JP6271858B2 true JP6271858B2 (ja) 2018-01-31

Family

ID=49878156

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013090165A Expired - Fee Related JP6271858B2 (ja) 2012-07-04 2013-04-23 表示装置及びその制御方法

Country Status (2)

Country Link
US (1) US9519371B2 (ja)
JP (1) JP6271858B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150146452A (ko) * 2014-06-23 2015-12-31 후지필름 가부시키가이샤 전자 기기 및 전자 기기의 작동 방법

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9791943B2 (en) * 2011-09-30 2017-10-17 Intel Corporation Convertible computing device
EP2648086A3 (en) * 2012-04-07 2018-04-11 Samsung Electronics Co., Ltd Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
US9733667B2 (en) * 2012-10-01 2017-08-15 Nec Corporation Information processing device, information processing method and recording medium
WO2014132680A1 (ja) * 2013-02-28 2014-09-04 アイシン精機株式会社 車両の制御装置、及びプログラム
US9329750B2 (en) * 2013-09-10 2016-05-03 Google Inc. Three-dimensional tilt and pan navigation using a single gesture
US9189614B2 (en) * 2013-09-23 2015-11-17 GlobalFoundries, Inc. Password entry for double sided multi-touch display
TWI696103B (zh) 2013-11-29 2020-06-11 日商半導體能源研究所股份有限公司 資料處理裝置及資料處理裝置的驅動方法
CN104793839B (zh) * 2014-01-20 2019-08-06 中兴通讯股份有限公司 一种触摸屏界面的显示控制方法和系统
JP5985125B2 (ja) * 2014-06-11 2016-09-06 三菱電機株式会社 表示制御システムおよび表示制御方法
US9671828B2 (en) * 2014-09-19 2017-06-06 Lg Electronics Inc. Mobile terminal with dual touch sensors located on different sides of terminal body and method of controlling the same
KR20160114413A (ko) * 2015-03-24 2016-10-05 엘지전자 주식회사 이동 단말기 및 그것의 제어방법
US9436369B2 (en) * 2014-09-26 2016-09-06 Disney Enterprises, Inc. Touch interface for precise rotation of an object
US9910518B2 (en) * 2014-10-01 2018-03-06 Rockwell Automation Technologies, Inc. Transparency augmented industrial automation display
KR101667727B1 (ko) 2014-10-31 2016-10-28 엘지전자 주식회사 이동 단말기 및 이의 제어방법
JP6507626B2 (ja) * 2014-12-19 2019-05-08 アイシン精機株式会社 車両周辺監視装置
WO2016104922A1 (ko) 2014-12-24 2016-06-30 전자부품연구원 웨어러블 전자기기
US10297229B2 (en) 2014-12-25 2019-05-21 Sharp Kabushiki Kaisha Display device and control method therefor
KR102180404B1 (ko) 2015-06-02 2020-11-18 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
TWI708169B (zh) 2015-06-02 2020-10-21 南韓商三星電子股份有限公司 使用者終端裝置及其控制方法
WO2017006783A1 (ja) * 2015-07-03 2017-01-12 シャープ株式会社 表示装置および表示方法
KR20170008640A (ko) * 2015-07-14 2017-01-24 엘지전자 주식회사 투명 디스플레이 장치 및 그의 동작 방법
JP6174646B2 (ja) * 2015-09-24 2017-08-02 株式会社コロプラ 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
US10739968B2 (en) * 2015-11-23 2020-08-11 Samsung Electronics Co., Ltd. Apparatus and method for rotating 3D objects on a mobile device screen
KR102168648B1 (ko) 2016-01-07 2020-10-21 삼성전자주식회사 사용자 단말 장치 및 그 제어 방법
JP6458750B2 (ja) * 2016-03-02 2019-01-30 京セラドキュメントソリューションズ株式会社 表示操作装置およびプログラム
JP2017157079A (ja) * 2016-03-03 2017-09-07 富士通株式会社 情報処理装置、表示制御方法、及び表示制御プログラム
KR102511247B1 (ko) * 2016-03-14 2023-03-20 삼성전자 주식회사 다면 디스플레이 장치와 그의 운영 방법
TWI579826B (zh) * 2016-03-30 2017-04-21 佳世達科技股份有限公司 顯示裝置及其運作方法
CN106028101A (zh) * 2016-05-19 2016-10-12 广州视源电子科技股份有限公司 按键功能图标的屏幕显示方法及其系统
CN106250091B (zh) * 2016-07-20 2020-10-13 珠海市魅族科技有限公司 一种信息显示方法及移动终端
CN106354306A (zh) * 2016-08-26 2017-01-25 青岛海信电器股份有限公司 触控操作的响应方法及装置
JP6837309B2 (ja) * 2016-10-03 2021-03-03 株式会社東海理化電機製作所 操作装置
US10712836B2 (en) * 2016-10-04 2020-07-14 Hewlett-Packard Development Company, L.P. Three-dimensional input device
US10627911B2 (en) 2017-04-25 2020-04-21 International Business Machines Corporation Remote interaction with content of a transparent display
CN109471575A (zh) * 2017-09-07 2019-03-15 中兴通讯股份有限公司 双屏移动终端的操作方法、装置及双屏移动终端
JP6419278B1 (ja) * 2017-09-19 2018-11-07 キヤノン株式会社 制御装置、制御方法、及びプログラム
US11126258B2 (en) 2017-10-14 2021-09-21 Qualcomm Incorporated Managing and mapping multi-sided touch
KR20190054397A (ko) * 2017-11-13 2019-05-22 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN108989675B (zh) * 2018-07-26 2020-09-18 维沃移动通信有限公司 一种对焦方法及终端
JP6613512B1 (ja) * 2018-08-31 2019-12-04 レノボ・シンガポール・プライベート・リミテッド 電子機器
US20200150779A1 (en) * 2018-11-14 2020-05-14 Nimisha Jain Keyboard
JP7363096B2 (ja) * 2019-05-23 2023-10-18 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
WO2020250352A1 (ja) * 2019-06-12 2020-12-17 日本電信電話株式会社 タッチパネル型情報端末装置およびその情報入力処理方法
CN110633043A (zh) * 2019-08-26 2019-12-31 华为技术有限公司 一种分屏处理方法及终端设备
JP2021068206A (ja) 2019-10-24 2021-04-30 株式会社ジャパンディスプレイ 表示装置
CN111372028B (zh) * 2020-02-13 2021-08-20 广州视源电子科技股份有限公司 画面旋转控制方法、装置、画面旋转控制终端及存储介质
KR102408864B1 (ko) * 2020-11-19 2022-06-15 엠에스웨이 주식회사 시인성이 개선된 투명 디스플레이

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003209719A (ja) 2002-01-16 2003-07-25 Toshiba Corp デジタルスチルカメラ
JP3852368B2 (ja) * 2002-05-16 2006-11-29 ソニー株式会社 入力方法及びデータ処理装置
JP2007334827A (ja) 2006-06-19 2007-12-27 Sony Corp 携帯端末装置
JP2008083510A (ja) 2006-09-28 2008-04-10 Toppan Printing Co Ltd 表示装置及び表示方法
JP4762262B2 (ja) * 2008-03-13 2011-08-31 シャープ株式会社 情報表示装置及び情報表示方法
JP2010146506A (ja) * 2008-12-22 2010-07-01 Sharp Corp 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置
KR101544364B1 (ko) * 2009-01-23 2015-08-17 삼성전자주식회사 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
US8493364B2 (en) * 2009-04-30 2013-07-23 Motorola Mobility Llc Dual sided transparent display module and portable electronic device incorporating the same
JP2011070609A (ja) * 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
JP5363259B2 (ja) * 2009-09-29 2013-12-11 富士フイルム株式会社 画像表示装置、画像表示方法およびプログラム
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
KR101799270B1 (ko) * 2010-12-29 2017-11-21 엘지전자 주식회사 이동 단말기 및 이것의 터치 인식 방법
JP5917805B2 (ja) * 2011-01-05 2016-05-18 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5784960B2 (ja) * 2011-04-26 2015-09-24 京セラ株式会社 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法
JP5155427B2 (ja) * 2011-06-08 2013-03-06 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム
JP2013117885A (ja) * 2011-12-02 2013-06-13 Nintendo Co Ltd 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
EP2648086A3 (en) * 2012-04-07 2018-04-11 Samsung Electronics Co., Ltd Object control method performed in device including transparent display, the device, and computer readable recording medium thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150146452A (ko) * 2014-06-23 2015-12-31 후지필름 가부시키가이샤 전자 기기 및 전자 기기의 작동 방법
KR102336329B1 (ko) 2014-06-23 2021-12-08 후지필름 가부시키가이샤 전자 기기 및 전자 기기의 작동 방법

Also Published As

Publication number Publication date
US20140009415A1 (en) 2014-01-09
JP2014029673A (ja) 2014-02-13
US9519371B2 (en) 2016-12-13

Similar Documents

Publication Publication Date Title
JP6271858B2 (ja) 表示装置及びその制御方法
KR102219912B1 (ko) 원격 호버 터치 시스템 및 방법
US11221730B2 (en) Input device for VR/AR applications
Wigdor et al. Lucid touch: a see-through mobile device
US20130307796A1 (en) Touchscreen Device Integrated Computing System And Method
US20150067603A1 (en) Display control device
KR20100041006A (ko) 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
JP5780438B2 (ja) 電子機器、位置指定方法及びプログラム
EP2669781B1 (en) A user interface for navigating in a three-dimensional environment
KR101981158B1 (ko) 사용자 인터페이스를 위한 인터랙션 방법
US20120242576A1 (en) Information processing apparatus, information processing method, and program
KR20150094967A (ko) 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법
JP7245167B2 (ja) 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス
JP5790578B2 (ja) 表示システム、表示装置、及び操作装置
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
KR100746009B1 (ko) 3차원 그래픽 유저 인터페이스를 위한 네비게이션 장치
CN110121690B (zh) 包括接近传感器和深度变化的界面元素的多层显示器和/或相关联的方法
KR101467144B1 (ko) 원형 터치 입력에 의한 3차원 페이지화면 전환 방법
JP6130583B1 (ja) 仮想空間内のオブジェクトを制御するコンピュータ・プログラムおよびコンピュータ実装方法
JP5767378B1 (ja) 仮想空間内のオブジェクトを制御するコンピュータ・プログラムおよびコンピュータ実装方法
JP2014149815A (ja) 情報処理装置、システムおよび方法
WO2015122259A1 (ja) 入力方法、及び入力装置
JP2016016319A (ja) 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム
JP2005332231A (ja) ポインティング方法およびポインティング装置、ならびにポインティングプログラム
JP6130550B2 (ja) コンピュータ・プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171228

R151 Written notification of patent or utility model registration

Ref document number: 6271858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees