JP6271858B2 - 表示装置及びその制御方法 - Google Patents
表示装置及びその制御方法 Download PDFInfo
- Publication number
- JP6271858B2 JP6271858B2 JP2013090165A JP2013090165A JP6271858B2 JP 6271858 B2 JP6271858 B2 JP 6271858B2 JP 2013090165 A JP2013090165 A JP 2013090165A JP 2013090165 A JP2013090165 A JP 2013090165A JP 6271858 B2 JP6271858 B2 JP 6271858B2
- Authority
- JP
- Japan
- Prior art keywords
- touch operation
- display
- component
- touch
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/018—Input/output arrangements for oriental characters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
Description
前面のタッチ操作及び背面のタッチ操作を検出する検出手段と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御手段と、
を備え、
前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
前記制御手段は、まず第1の部品のみを画面に表示させ、第1の部品に対するタッチ操作に応じて第2の部品の内容を決定し、前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる表示装置である。
前面のタッチ操作及び背面のタッチ操作を検出する検出工程と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御工程と、
を有し、
前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
前記制御工程は、
まず第1の部品のみを画面に表示させる工程と、
第1の部品に対するタッチ操作に応じて第2の部品の内容を決定する工程と、
前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる工程と、
を有する表示装置の制御方法である。
前面のタッチ操作及び背面のタッチ操作を検出する検出手段と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御手段と、
を備え、
前記制御手段は、画面においてオブジェクトが表示されている箇所を前面及び背面においてスライドさせるタッチ操作が同時に行われた場合、前面及び背面のタッチされた箇所のそれぞれに対応するオブジェクト上の点でオブジェクトを仮想的に保持してスライド方向に応じてオブジェクトを移動又は回転させる表示制御を行う表示装置である。
図1は、本発明の一実施例である携帯端末の表示装置のブロック図である。本実施例の表示装置は両面タッチ操作対応の透明ディスプレイ101と制御システム部117で構成されている。
透明度制御部111は、液晶シャッター103の透明度の制御データの生成と送出、データの更新を行う。発光層制御部112は、透明発光パネル104に表示するRGBデータの生成と送出、データの更新を行う。
入力領域306にアイコンが表示される。すなわち、前面タッチ操作のためのGUIをメニューの第一階層とし、それに対する前面タッチ操作に連動して、背面タッチ操作のためのGUIをメニューの第二階層として表示する。すなわち、前面タッチ操作用のメニューと背面タッチ操作用のメニューとで階層を構成し、背面タッチ操作用のメニュー表示を前面タッチ操作用のメニューに対する操作内容に連携させる。このように、本実施例では、片手で前面及び背面の両面からタッチ操作できることから、すばやくメニュー内のアイコン選択の決定操作を行うことができる。
本実施例での表示装置の動作を、図5(A)〜図5(D)の表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。
ユーザは、画面に平行の軸周りに表示オブジェクトを回転させるという複雑な表示指示を簡単な操作で入力することが可能となる。
設定する。垂直回転移動とは、図5(B)で説明したような、xy平面に平行な軸周りに表示オブジェクトを回転させるものである。この回転軸を垂直回転軸という。表示オブジェクト情報及び設定した回転軸の情報は、表示データ生成部109に送られる。次に、ステップS607にて表示データ生成部109は、垂直回転軸を中心に、スライド操作量に応じて、表示オブジェクトを回転移動させた画像を生成する。これにより画面に対して垂直方向に表示オブジェクトを回転させる指示を表示装置に入力するための操作が完了する。
本実施例での表示装置の動作を、図7(A)及び図7(B)に示す表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。
れる第3の部品である。図7(B)は、ユーザが片手の親指と人差し指で挟み込むようにスリープ解除メニュー702をタッチすることでスリープ解除操作703を実行している様子を示す図である。
本実施例での表示装置の動作を図9(A)〜図9(C)の表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。図9(A)〜図9(C)は、透明ディスプレイ携帯端末901に、地図アプリケーションを表示した例を示す。
。以下、X軸を中心軸とする回転をX軸回転と呼ぶ。Y軸、Z軸についても同様とする。3次元の表示変更操作の分類には、回転と移動があり、図10(A)の表では、操作分類毎の操作内容で表示変更操作をカテゴリー分けしている。回転には、X軸,Y軸,Z軸それぞれを中心とした回転がある。移動には、X方向,Y方向,Z方向のそれぞれに関する移動がある。すなわち、3次元の表示変更操作には合計6種類の方向があり、これを図10(A)の「操作軸・操作方向」の列に示す。移動、回転の方向には、それぞれ正の方向とその反対方向の2種類があり、これらを図10(A)の「操作内容の詳細」の列に示す。図10(A)に示すように、本実施例では、これら3次元の表示変更操作における合計12種類の方向のそれぞれに対応させて、前面タッチ操作と背面タッチ操作の組み合わせを割り当てている。タッチ操作を行う指、スライドさせる方向、前面タッチ操作する指と背面タッチ操作する指の位置関係によって、操作内容が決定される。
図11(A)は、X軸中心の回転操作の方法を示す図である。前面のタッチ位置とスライド操作を実線矢印1101、背面のタッチ位置とスライド操作を破線矢印1102にて示す。図11(A)では、画面中央付近において前面を親指で下から上へタッチしながらスライドさせ、背面の同じ領域で人差し指で上から下へタッチしてスライドさせるタッチ操作が行われている。このタッチ操作は、直感的には、両指でX軸を挟んで回転させる操作と同じである。表示装置は、このタッチ操作を検出すると、表示オブジェクトである地球を、X軸回転の回転軸1103を中心に、αと逆方向に回転させる表示制御を行う。また、前面タッチ操作が下方向、背面タッチ操作が上方向の場合は、表示装置は、表示オブジェクトである地球をα方向に回転させる表示制御を行う。
また、図11(A)、図11(B)では、上下又は左右方向にスライドさせるタッチ操作が行われた場合の表示制御を説明したが、表示オブジェクトを回転させるためのタッチ操作のスライド方向はこれに限らず、例えば斜め方向のスライドであってもよい。その場合、表示装置は、タッチ操作のスライド方向をX軸方向とY軸方向に分解し、X軸回転とY軸回転を同時に行う表示制御を行う。これにより、任意のスライド方向に対応して表示オブジェクトの回転操作が行われる。
タッチ操作として反時計回りのスライド操作が行われ、背面タッチ操作として前面タッチ操作の領域から離れた領域で反時計回りのスライド操作が行われる。表示装置は、この操作を検出すると、表示オブジェクトである地球を、Z軸回転の回転方向1105に示すように、地球の中心を回転中心として、γ方向に回転させる表示制御を行う。前面タッチ操作が時計回りのスライド操作、背面タッチ操作が前面タッチ操作の領域から離れた領域での時計回りのスライド操作である場合は、表示装置は、表示オブジェクトである地球をγと逆方向に回転させる表示制御を行う。
ただし、2Dマップモードでは、図10(A)に示す表示オブジェクトの回転操作に対応するタッチ操作は、表示オブジェクトの移動操作と同等の表示結果となる。例えば、X軸を中心にαと逆方向に回転させる表示変更操作を行った場合の表示結果は、Y方向+側に移動させる表示変更操作を行った場合の表示結果と同等となる。すなわち、表示オブジェクトの回転操作に対応するタッチ操作が行われた場合にも、表示オブジェクトの移動操作に対応するタッチ操作が行われた場合にも、同様に、表示オブジェクトに対し移動の表示変更操作が行われる。従って、以下の2Dマップモードについての説明では、回転操作による表示オブジェクトの回転量(回転速度)と移動操作による表示オブジェクトの移動量(移動速度)は、ともに同等の表示遷移量(表示遷移速度)を意味するものとする。
図10(A)では、表示オブジェクトに対しX軸回転とY軸回転の表示変更操作を行う場合、前面と背面とで逆方向のスライド操作を行うが、この操作において、一方の指をタッチしたまま固定とする応用操作を考える。この場合、スライド操作を行う面が片方のみとなるので、両方の面でスライド操作を行う場合と比べて、表示オブジェクトの回転量(移動量)が少なくなり、回転速度(移動速度)が遅くなるような表示変更操作が行われると、直感的で分かりやすい。すなわち、図10(A)の表示オブジェクトの回転操作に対応するタッチ操作において、前面のスライド操作又は背面のスライド操作の一方を行わずタッチしたまま固定とした場合には、両面でスライド操作を行った場合よりも回転速度(移動速度)を遅くする。又は回転量(移動量)を少なくする。これにより移動の表示変更操作における微調整操作が可能になる。
ブジェクトの回転操作に対応するタッチ操作において、背面のスライド操作を、背面の指1本ではなく背面の4指全てによるスライド操作とする応用操作を考える。この場合、背面のスライド操作を指1本で行う場合と比べて、表示オブジェクトの回転量(移動量)が増加し、回転速度(移動速度)を加速させるような表示変更操作が行われるようにすると、直感的で分かりやすい。
図14(A)では、前面タッチ操作として、前面タッチスライド操作1101に示すように、左方向にスライドさせ、背面タッチ操作として、背面タッチ箇所1401をタッチしたまま固定とする。このようなタッチ操作が行われた場合の表示遷移速度は、矢印1404で模式的に示すように、低速となる。ここで、表示遷移速度を示す矢印は、長いほど速度が速いことを意味するものとする。なお、前面タッチ操作として前面をタッチしたまま固定とし、背面タッチ操作として右方向にスライド操作させるタッチ操作を行った場合も、図14(A)のタッチ操作を行った場合と同じ速度で遷移する。
以上により、直感的な操作で、容易に移動速度(表示遷移速度)を変更することができる。なお、図14では、左右方向の移動の例を示したが、本実施例で説明する移動速度を変更するためのタッチ操作は、左右方向の移動(表示遷移)に限らず、上下左右の任意の方向の移動(表示遷移)に適用できる。
ユーザ視点を上に向ける回転移動のためのタッチ操作として、本実施例では、上方向にスライドさせる前面タッチ操作と、下方向にスライドさせる背面タッチ操作とを組み合わせたタッチ操作を用いる。このタッチ操作と、初期状態に対し視点を上に向ける回転移動が行われた状態の表示内容を図16(B)に示す。
ユーザ視点を下に向ける回転移動のタッチ操作は、上に向ける回転操作のタッチ操作と逆方向の操作とする。このタッチ操作と、初期状態に対し視点を下に向ける回転移動が行われた状態の表示内容を図16(C)に示す。
ユーザ視点を左に向ける回転移動のタッチ操作は、右に向ける回転操作のタッチ操作と逆方向の操作とする。このタッチ操作と、初期状態に対し視点を左に向ける回転移動が行われた状態の表示内容を図16(E)に示す。
図17(A)は、始点となる初期状態を表し、仮想的な3次元空間内においてユーザの視点から正面に立方体が見えている状態である。
ユーザ位置を前後方向(手前、奥行き方向)に移動させるためのタッチ操作として、本実施例では、上方向又は下方向にスライドさせる前面タッチ操作を用いる。このタッチ操作と、初期状態に対しユーザ位置の前後方向の移動操作が行われた状態の表示内容を図17(B)、図17(C)に示す。
ユーザ位置を左右方向に移動させるためのタッチ操作は、左方向又は右方向にスライドさせる前面タッチ操作とする。このタッチ操作と、初期状態に対しユーザ位置の左右方向の移動操作が行われた状態の表示内容を図17(D)、図17(E)に示す。
このように、本実施例によれば、ユーザは、簡単かつ直感的なタッチ操作で、ユーザ位置移動の表示変更操作を行うことができる。なお、図17(A)〜図17(E)では、ユーザ位置移動のために前面タッチ操作を行う例を示したが、ユーザ位置移動のためのタッチ操作はこれに限られず、背面タッチ操作により同様のユーザ位置移動を行えるようにしても良い。
移動量)などの表示変更操作に必要な一群の情報である。CPU106は、タッチ操作検出結果に基づき、図10(A)や図15のテーブルから検出されたタッチ操作に対応する表示変更操作を決定する。
本実施例での表示装置の動作を図19の表示画面例と操作イメージを用いて説明する。透明ディスプレイを有する携帯端末の構成、実装形態は、図1、図2と同一である。図19は、透明ディスプレイ携帯端末1901に、3Dオブジェクトを表示した例を示す。図19の表示例では、四角錐型の3Dオブジェクト表示A1902と、立方体の3Dオブジェクト表示B1903の2個のオブジェクトが表示されている。図19には、ユーザが透明ディスプレイ端末1901を保持しながら、上記2つの3Dオブジェクトに対して、前面と背面の両面からタッチ操作を行っている様子も示す。
なお、図21では背面タッチ操作の指は、人差し指と中指を想定しているが、背面にある薬指や小指で操作をするとしてもよい。
ェクトを回転移動させる表示変更操作を行った場合の表示例を示す。図22(A)、図22(B)の例では、X軸中心の回転とY軸中心の回転の両方が行われている。図22(A)が回転前の表示状態で、図22(B)が回転後の表示状態である。図22(A)は、ユーザが、前面タッチスライド操作2201に示すように、親指で左斜め上にスライド操作し、背面タッチスライド操作2202に示すように、人差し指で右斜め下にスライド操作する例を示している。
)であれば、回転軸はZ軸と平行であり、前面と背面のタッチ箇所が同じでなければ、回転軸はZ軸から傾いた直線となる。次に、タッチ固定箇所を中心にして、背面の中指で円を描くように反時計まわりに回転させるスライド操作をする。このタッチ操作によって、四角錐型3Dオブジェクト1902が、中指のスライド操作に従ってZ軸回転軸2301の回りに反時計まわりに回転する表示変更操作が行われる。中指でのスライド操作の回転の方向が時計回りであれば、3Dオブジェクトの表示変更操作の回転の方向も時計回りとなる。
ートとほぼ同様である。ここでは、実施例4にて説明した内容との相違点を主として説明する。
以降の処理は実施例4で説明した内容と同様である。
Claims (14)
- 前面及び背面の両面からタッチ操作を行うことが可能な透明ディスプレイパネルを備えた表示装置であって、
前面のタッチ操作及び背面のタッチ操作を検出する検出手段と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御手段と、
を備え、
前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
前記制御手段は、まず第1の部品のみを画面に表示させ、第1の部品に対するタッチ操作に応じて第2の部品の内容を決定し、前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる表示装置。 - 前記制御手段は、第1の部品の表示色と第2の部品の表示色とを異ならせる請求項1に記載の表示装置。
- 前記制御手段は、第1の部品の表示領域と第2の部品の表示領域とを異ならせる請求項1又は2に記載の表示装置。
- 前記グラフィックスデータは、ユーザが表示装置を保持する一方の手でタッチ操作するためのグラフィックスデータであり、
前記制御手段は、前記第1の部品及び前記第2の部品のうち前面からのタッチ操作を想定した部品の位置が、背面からのタッチ操作を想定した部品の位置よりも、表示装置の端部に近い位置になるように、第1の部品及び第2の部品の表示制御を行う請求項1〜3のいずれか1項に記載の表示装置。 - 前記前面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の親指による操作を想定した部品であり、
前記背面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の残りの指による操作を想定した部品である請求項4に記載の表示装置。 - 前記グラフィックスデータは、ユーザが文字入力を行うためのユーザインターフェースのグラフィックスデータであり、前記第1の部品に対するタッチ操作に応じて表示される前記第2の部品にタッチ操作することにより入力される文字が決定される請求項1〜5のいずれか1項に記載の表示装置。
- 前記第2の部品の表示領域は、前記第1の部品の表示領域よりも前記表示装置の画面の中央寄りに配置される請求項1〜6のいずれか1項に記載の表示装置。
- 前面及び背面の両面からタッチ操作を行うことが可能な透明ディスプレイパネルを備えた表示装置の制御方法であって、
前面のタッチ操作及び背面のタッチ操作を検出する検出工程と、
タッチ操作のためのグラフィックスデータの表示制御を行う制御工程と、
を有し、
前記グラフィックスデータは、前面側からのタッチ操作を想定した第1の部品と、背面側からのタッチ操作を想定した第2の部品と、を含み、
前記第2の部品は、ユーザが前記表示装置の背面側から複数の指のそれぞれによってタッチ操作を行うことを想定した複数の部品を含み、前記第1の部品とは異なる位置に表示され、
前記制御工程は、
まず第1の部品のみを画面に表示させる工程と、
第1の部品に対するタッチ操作に応じて第2の部品の内容を決定する工程と、
前記第1の部品に対するタッチ操作が行われた後に前記第2の部品を画面に表示させる工程と、
を有する表示装置の制御方法。 - 前記制御工程では、第1の部品の表示色と第2の部品の表示色とを異ならせる請求項8に記載の表示装置の制御方法。
- 前記制御工程では、第1の部品の表示領域と第2の部品の表示領域とを異ならせる請求項8又は9に記載の表示装置の制御方法。
- 前記グラフィックスデータは、ユーザが表示装置を保持する一方の手でタッチ操作するためのグラフィックスデータであり、
前記制御工程では、前記第1の部品及び前記第2の部品のうち前面からのタッチ操作を想定した部品の位置が、背面からのタッチ操作を想定した部品の位置よりも、表示装置の端部に近い位置になるように、第1の部品及び第2の部品の表示制御を行う請求項8〜10のいずれか1項に記載の表示装置の制御方法。 - 前記前面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の親指による操作を想定した部品であり、
前記背面からのタッチ操作を想定した部品は、表示装置を保持する前記一方の手の残りの指による操作を想定した部品である請求項11に記載の表示装置の制御方法。 - 前記グラフィックスデータは、ユーザが文字入力を行うためのユーザインターフェースのグラフィックスデータであり、前記第1の部品に対するタッチ操作に応じて表示される前記第2の部品にタッチ操作することにより入力される文字が決定される請求項8〜12のいずれか1項に記載の表示装置の制御方法。
- 前記第2の部品の表示領域は、前記第1の部品の表示領域よりも前記表示装置の画面の中央寄りに配置される請求項8〜13のいずれか1項に記載の表示装置の制御方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013090165A JP6271858B2 (ja) | 2012-07-04 | 2013-04-23 | 表示装置及びその制御方法 |
US13/928,548 US9519371B2 (en) | 2012-07-04 | 2013-06-27 | Display device and control method therefor |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012150514 | 2012-07-04 | ||
JP2012150514 | 2012-07-04 | ||
JP2013090165A JP6271858B2 (ja) | 2012-07-04 | 2013-04-23 | 表示装置及びその制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014029673A JP2014029673A (ja) | 2014-02-13 |
JP6271858B2 true JP6271858B2 (ja) | 2018-01-31 |
Family
ID=49878156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013090165A Expired - Fee Related JP6271858B2 (ja) | 2012-07-04 | 2013-04-23 | 表示装置及びその制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9519371B2 (ja) |
JP (1) | JP6271858B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150146452A (ko) * | 2014-06-23 | 2015-12-31 | 후지필름 가부시키가이샤 | 전자 기기 및 전자 기기의 작동 방법 |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9791943B2 (en) * | 2011-09-30 | 2017-10-17 | Intel Corporation | Convertible computing device |
EP2648086A3 (en) * | 2012-04-07 | 2018-04-11 | Samsung Electronics Co., Ltd | Object control method performed in device including transparent display, the device, and computer readable recording medium thereof |
US9733667B2 (en) * | 2012-10-01 | 2017-08-15 | Nec Corporation | Information processing device, information processing method and recording medium |
WO2014132680A1 (ja) * | 2013-02-28 | 2014-09-04 | アイシン精機株式会社 | 車両の制御装置、及びプログラム |
US9329750B2 (en) * | 2013-09-10 | 2016-05-03 | Google Inc. | Three-dimensional tilt and pan navigation using a single gesture |
US9189614B2 (en) * | 2013-09-23 | 2015-11-17 | GlobalFoundries, Inc. | Password entry for double sided multi-touch display |
TWI696103B (zh) | 2013-11-29 | 2020-06-11 | 日商半導體能源研究所股份有限公司 | 資料處理裝置及資料處理裝置的驅動方法 |
CN104793839B (zh) * | 2014-01-20 | 2019-08-06 | 中兴通讯股份有限公司 | 一种触摸屏界面的显示控制方法和系统 |
JP5985125B2 (ja) * | 2014-06-11 | 2016-09-06 | 三菱電機株式会社 | 表示制御システムおよび表示制御方法 |
US9671828B2 (en) * | 2014-09-19 | 2017-06-06 | Lg Electronics Inc. | Mobile terminal with dual touch sensors located on different sides of terminal body and method of controlling the same |
KR20160114413A (ko) * | 2015-03-24 | 2016-10-05 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어방법 |
US9436369B2 (en) * | 2014-09-26 | 2016-09-06 | Disney Enterprises, Inc. | Touch interface for precise rotation of an object |
US9910518B2 (en) * | 2014-10-01 | 2018-03-06 | Rockwell Automation Technologies, Inc. | Transparency augmented industrial automation display |
KR101667727B1 (ko) | 2014-10-31 | 2016-10-28 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어방법 |
JP6507626B2 (ja) * | 2014-12-19 | 2019-05-08 | アイシン精機株式会社 | 車両周辺監視装置 |
WO2016104922A1 (ko) | 2014-12-24 | 2016-06-30 | 전자부품연구원 | 웨어러블 전자기기 |
US10297229B2 (en) | 2014-12-25 | 2019-05-21 | Sharp Kabushiki Kaisha | Display device and control method therefor |
KR102180404B1 (ko) | 2015-06-02 | 2020-11-18 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
TWI708169B (zh) | 2015-06-02 | 2020-10-21 | 南韓商三星電子股份有限公司 | 使用者終端裝置及其控制方法 |
WO2017006783A1 (ja) * | 2015-07-03 | 2017-01-12 | シャープ株式会社 | 表示装置および表示方法 |
KR20170008640A (ko) * | 2015-07-14 | 2017-01-24 | 엘지전자 주식회사 | 투명 디스플레이 장치 및 그의 동작 방법 |
JP6174646B2 (ja) * | 2015-09-24 | 2017-08-02 | 株式会社コロプラ | 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム |
US10739968B2 (en) * | 2015-11-23 | 2020-08-11 | Samsung Electronics Co., Ltd. | Apparatus and method for rotating 3D objects on a mobile device screen |
KR102168648B1 (ko) | 2016-01-07 | 2020-10-21 | 삼성전자주식회사 | 사용자 단말 장치 및 그 제어 방법 |
JP6458750B2 (ja) * | 2016-03-02 | 2019-01-30 | 京セラドキュメントソリューションズ株式会社 | 表示操作装置およびプログラム |
JP2017157079A (ja) * | 2016-03-03 | 2017-09-07 | 富士通株式会社 | 情報処理装置、表示制御方法、及び表示制御プログラム |
KR102511247B1 (ko) * | 2016-03-14 | 2023-03-20 | 삼성전자 주식회사 | 다면 디스플레이 장치와 그의 운영 방법 |
TWI579826B (zh) * | 2016-03-30 | 2017-04-21 | 佳世達科技股份有限公司 | 顯示裝置及其運作方法 |
CN106028101A (zh) * | 2016-05-19 | 2016-10-12 | 广州视源电子科技股份有限公司 | 按键功能图标的屏幕显示方法及其系统 |
CN106250091B (zh) * | 2016-07-20 | 2020-10-13 | 珠海市魅族科技有限公司 | 一种信息显示方法及移动终端 |
CN106354306A (zh) * | 2016-08-26 | 2017-01-25 | 青岛海信电器股份有限公司 | 触控操作的响应方法及装置 |
JP6837309B2 (ja) * | 2016-10-03 | 2021-03-03 | 株式会社東海理化電機製作所 | 操作装置 |
US10712836B2 (en) * | 2016-10-04 | 2020-07-14 | Hewlett-Packard Development Company, L.P. | Three-dimensional input device |
US10627911B2 (en) | 2017-04-25 | 2020-04-21 | International Business Machines Corporation | Remote interaction with content of a transparent display |
CN109471575A (zh) * | 2017-09-07 | 2019-03-15 | 中兴通讯股份有限公司 | 双屏移动终端的操作方法、装置及双屏移动终端 |
JP6419278B1 (ja) * | 2017-09-19 | 2018-11-07 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
US11126258B2 (en) | 2017-10-14 | 2021-09-21 | Qualcomm Incorporated | Managing and mapping multi-sided touch |
KR20190054397A (ko) * | 2017-11-13 | 2019-05-22 | 삼성전자주식회사 | 디스플레이장치 및 그 제어방법 |
CN108989675B (zh) * | 2018-07-26 | 2020-09-18 | 维沃移动通信有限公司 | 一种对焦方法及终端 |
JP6613512B1 (ja) * | 2018-08-31 | 2019-12-04 | レノボ・シンガポール・プライベート・リミテッド | 電子機器 |
US20200150779A1 (en) * | 2018-11-14 | 2020-05-14 | Nimisha Jain | Keyboard |
JP7363096B2 (ja) * | 2019-05-23 | 2023-10-18 | 富士フイルムビジネスイノベーション株式会社 | 画像処理装置及び画像処理プログラム |
WO2020250352A1 (ja) * | 2019-06-12 | 2020-12-17 | 日本電信電話株式会社 | タッチパネル型情報端末装置およびその情報入力処理方法 |
CN110633043A (zh) * | 2019-08-26 | 2019-12-31 | 华为技术有限公司 | 一种分屏处理方法及终端设备 |
JP2021068206A (ja) | 2019-10-24 | 2021-04-30 | 株式会社ジャパンディスプレイ | 表示装置 |
CN111372028B (zh) * | 2020-02-13 | 2021-08-20 | 广州视源电子科技股份有限公司 | 画面旋转控制方法、装置、画面旋转控制终端及存储介质 |
KR102408864B1 (ko) * | 2020-11-19 | 2022-06-15 | 엠에스웨이 주식회사 | 시인성이 개선된 투명 디스플레이 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003209719A (ja) | 2002-01-16 | 2003-07-25 | Toshiba Corp | デジタルスチルカメラ |
JP3852368B2 (ja) * | 2002-05-16 | 2006-11-29 | ソニー株式会社 | 入力方法及びデータ処理装置 |
JP2007334827A (ja) | 2006-06-19 | 2007-12-27 | Sony Corp | 携帯端末装置 |
JP2008083510A (ja) | 2006-09-28 | 2008-04-10 | Toppan Printing Co Ltd | 表示装置及び表示方法 |
JP4762262B2 (ja) * | 2008-03-13 | 2011-08-31 | シャープ株式会社 | 情報表示装置及び情報表示方法 |
JP2010146506A (ja) * | 2008-12-22 | 2010-07-01 | Sharp Corp | 入力装置、入力装置の制御方法、入力装置の制御プログラム、コンピュータ読取可能な記録媒体、および情報端末装置 |
KR101544364B1 (ko) * | 2009-01-23 | 2015-08-17 | 삼성전자주식회사 | 듀얼 터치 스크린을 구비한 휴대 단말기 및 그 컨텐츠 제어방법 |
US20100277420A1 (en) * | 2009-04-30 | 2010-11-04 | Motorola, Inc. | Hand Held Electronic Device and Method of Performing a Dual Sided Gesture |
US8493364B2 (en) * | 2009-04-30 | 2013-07-23 | Motorola Mobility Llc | Dual sided transparent display module and portable electronic device incorporating the same |
JP2011070609A (ja) * | 2009-09-28 | 2011-04-07 | Fujitsu Ltd | タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム |
JP5363259B2 (ja) * | 2009-09-29 | 2013-12-11 | 富士フイルム株式会社 | 画像表示装置、画像表示方法およびプログラム |
EP2341418A1 (en) * | 2009-12-31 | 2011-07-06 | Sony Computer Entertainment Europe Limited | Device and method of control |
KR101799270B1 (ko) * | 2010-12-29 | 2017-11-21 | 엘지전자 주식회사 | 이동 단말기 및 이것의 터치 인식 방법 |
JP5917805B2 (ja) * | 2011-01-05 | 2016-05-18 | ソニー株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
JP5784960B2 (ja) * | 2011-04-26 | 2015-09-24 | 京セラ株式会社 | 携帯端末、タッチパネル操作プログラムおよびタッチパネル操作方法 |
JP5155427B2 (ja) * | 2011-06-08 | 2013-03-06 | 株式会社コナミデジタルエンタテインメント | ゲーム装置、ゲーム装置の制御方法、ならびに、プログラム |
JP2013117885A (ja) * | 2011-12-02 | 2013-06-13 | Nintendo Co Ltd | 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法 |
EP2648086A3 (en) * | 2012-04-07 | 2018-04-11 | Samsung Electronics Co., Ltd | Object control method performed in device including transparent display, the device, and computer readable recording medium thereof |
-
2013
- 2013-04-23 JP JP2013090165A patent/JP6271858B2/ja not_active Expired - Fee Related
- 2013-06-27 US US13/928,548 patent/US9519371B2/en active Active
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150146452A (ko) * | 2014-06-23 | 2015-12-31 | 후지필름 가부시키가이샤 | 전자 기기 및 전자 기기의 작동 방법 |
KR102336329B1 (ko) | 2014-06-23 | 2021-12-08 | 후지필름 가부시키가이샤 | 전자 기기 및 전자 기기의 작동 방법 |
Also Published As
Publication number | Publication date |
---|---|
US20140009415A1 (en) | 2014-01-09 |
JP2014029673A (ja) | 2014-02-13 |
US9519371B2 (en) | 2016-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6271858B2 (ja) | 表示装置及びその制御方法 | |
KR102219912B1 (ko) | 원격 호버 터치 시스템 및 방법 | |
US11221730B2 (en) | Input device for VR/AR applications | |
Wigdor et al. | Lucid touch: a see-through mobile device | |
US20130307796A1 (en) | Touchscreen Device Integrated Computing System And Method | |
US20150067603A1 (en) | Display control device | |
KR20100041006A (ko) | 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법 | |
JP5780438B2 (ja) | 電子機器、位置指定方法及びプログラム | |
EP2669781B1 (en) | A user interface for navigating in a three-dimensional environment | |
KR101981158B1 (ko) | 사용자 인터페이스를 위한 인터랙션 방법 | |
US20120242576A1 (en) | Information processing apparatus, information processing method, and program | |
KR20150094967A (ko) | 적어도 하나의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법 | |
JP7245167B2 (ja) | 表示情報及び/又はデータの同時多機能操作を可能とするディスプレイを備えたスマートデバイス | |
JP5790578B2 (ja) | 表示システム、表示装置、及び操作装置 | |
JP6174646B2 (ja) | 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム | |
KR100746009B1 (ko) | 3차원 그래픽 유저 인터페이스를 위한 네비게이션 장치 | |
CN110121690B (zh) | 包括接近传感器和深度变化的界面元素的多层显示器和/或相关联的方法 | |
KR101467144B1 (ko) | 원형 터치 입력에 의한 3차원 페이지화면 전환 방법 | |
JP6130583B1 (ja) | 仮想空間内のオブジェクトを制御するコンピュータ・プログラムおよびコンピュータ実装方法 | |
JP5767378B1 (ja) | 仮想空間内のオブジェクトを制御するコンピュータ・プログラムおよびコンピュータ実装方法 | |
JP2014149815A (ja) | 情報処理装置、システムおよび方法 | |
WO2015122259A1 (ja) | 入力方法、及び入力装置 | |
JP2016016319A (ja) | 仮想空間平面上に配置したオブジェクトを表示制御するゲーム・プログラム | |
JP2005332231A (ja) | ポインティング方法およびポインティング装置、ならびにポインティングプログラム | |
JP6130550B2 (ja) | コンピュータ・プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170809 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6271858 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |