JP5492257B2 - 電子機器、制御方法及びプログラム - Google Patents

電子機器、制御方法及びプログラム Download PDF

Info

Publication number
JP5492257B2
JP5492257B2 JP2012148014A JP2012148014A JP5492257B2 JP 5492257 B2 JP5492257 B2 JP 5492257B2 JP 2012148014 A JP2012148014 A JP 2012148014A JP 2012148014 A JP2012148014 A JP 2012148014A JP 5492257 B2 JP5492257 B2 JP 5492257B2
Authority
JP
Japan
Prior art keywords
display
hierarchy
displayed
area
touch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012148014A
Other languages
English (en)
Other versions
JP2014010719A (ja
Inventor
瑠弥子 羽柴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2012148014A priority Critical patent/JP5492257B2/ja
Priority to US13/789,007 priority patent/US20140002387A1/en
Publication of JP2014010719A publication Critical patent/JP2014010719A/ja
Application granted granted Critical
Publication of JP5492257B2 publication Critical patent/JP5492257B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Description

本発明の実施形態は、タッチ操作によるメニューおよびオブジェクトの操作方法に係わる電子機器及び操作方法に関する。
従来は、比較的表示領域の小さい画面を持つ端末の場合、階層の異なる情報を閲覧・比較するためには、階層毎の画面移動を繰り返す必要があり、煩雑な操作となっていた。また、ソフトウェアウィンドウを多く持たない端末の場合、表示データの読み込みを繰り返すため、ユーザ操作に対する表示の遅延が生じ、使い勝手の低下に繋がっていた。これらは、ユーザにストレスを与え、操作に対する意欲を減退させる原因となる。
即ち、例えば上位階層の情報表示を維持したまま、上位階層の情報を一部集約し、下位階層の情報閲覧を可能とするといった技術への要望があるが、かかる要望を実現するための手段は知られていない。
特開2009−245012号公報
本発明の実施の形態は、表示装置の表示領域中における階層の同時制御を行うことができる電子機器及び操作方法を提供することを目的とする。
上記課題を解決するために、実施形態によれば電子機器は、ディスプレイ上へのユーザによる少なくとも1以上のタッチ操作を検出可能な入力部と、前記ディスプレイ上に、第1階層に含まれる第1オブジェクト及び第2オブジェクトが表示されているときに、前記第1オブジェクトに対応する領域に対して、少なくとも1以上の第1タッチ操作が検出される場合に、前記第1タッチ操作に基づいて定められる前記ディスプレイ上の第1領域に、前記第1階層より下位の階層である第2階層の第3オブジェクトを表示するとともに、前記第1領域とは異なる前記ディスプレイ上の第2領域に、前記第2オブジェクトを表示する表示制御部と、を備え、前記第3オブジェクトは、前記第1オブジェクトに含まれるオブジェクトであって、前記第1タッチ操作は、2つの接触点を含むものであって、一方の接触点と他方の接触点の位置が離れる操作である。
実施形態にかかる電子機器の外観を模式的に示す図。 実施形態にかかる電子機器のハードウェア構成の一例を示すブロック図。 実施形態における代表的な表示および操作の手順を示す図。 同実施形態の機能構成を示すブロック図。 実施例1に示すフォルダ表示および操作の手順を示す図。 実施例2に示すリスト表示および操作の手順を示す図。 実施例3に示す階層を持つ画像の表示および操作手順を示す図。 実施例4に示す階層を持つ文字データの表示および操作手順を示す図。 実施例5に示す階層を持つ文字データの表示および操作手順を示す図。 実施例6に示す階層を持つ文字データの表示および操作手順を示す図。 基本手順を示す処理フロー図。
以下、添付図面を参照して実施形態にかかる電子機器及び制御方法の詳細を説明する。なお、以下の実施形態では、表示処理に関わる信号処理装置として機能するPDAや携帯電話等、ユーザが把持してあるいは装着して使用する電子機器を例に説明する。
図1は、実施形態にかかる電子機器100の外観を模式的に示す図である。電子機器100は、表示画面を備えた情報処理装置であり、例えばスレート端末(タブレット端末)や電子書籍リーダ、デジタルフォトフレーム等として実現されている。なお、ここでは、X軸、Y軸、Z軸の矢印方向(Z軸では図の正面方向)を正方向としている(以下同様)。
電子機器100は、薄い箱状の筐体Bを備え、この筐体Bの上面に表示部11が配置されている。表示部11は、ユーザによってタッチされた表示画面上の位置を検知するタッチパネル(図2、タッチパネル111参照)を備えている。また、筐体Bの正面下部にはユーザが各種操作を行う操作スイッチ等である操作スイッチ19、ユーザの音声を取得するためのマイク21が配置されている。また、筐体Bの正面上部には音声出力を行うためのスピーカ22が配置されている。また、筐体Bの縁には、把持するユーザの圧力を検知する圧力センサ23が配置されている。なお、図示例ではX軸方向の左右の縁に圧力センサ23を備える構成を例示したが、Y軸方向の上下の縁に圧力センサ23を備えてもよい。
図2は、実施形態にかかる電子機器100のハードウェア構成の一例を示すブロック図である。図2に示すように、電子機器100は、上述の構成に加え、CPU12、システムコントローラ13、グラフィックスコントローラ14、タッチパネルコントローラ15、加速度センサ16、不揮発性メモリ17、RAM18、音声処理部20等を備えている。
表示部11は、タッチパネル111と、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)等のディスプレイ112とから構成されている。タッチパネル111は、例えばディスプレイ112の表示画面上に配置された当面の座標検出装置から構成されている。タッチパネル111は、例えば筐体Bを把持したユーザの指によってタッチされた表示画面上の位置(タッチ位置)を検知することができる。このタッチパネル111の働きにより、ディスプレイ112の表示画面はいわゆるタッチスクリーンとして機能する。
CPU12は、電子機器100の動作を中央制御するプロセッサであり、システムコントローラ13を介して電子機器100の各部を制御する。CPU12は、不揮発性メモリ17からRAM18にロードされる、オペレーティングシステム、各種アプリケーションプログラムを実行することにより、後述する各機能部(図4参照)を実現する。RAM18は、電子機器100のメインメモリとして、CPU12がプログラムを実行する際の作業領域を提供する。
システムコントローラ13には、不揮発性メモリ17及びRAM18をアクセス制御するメモリコントローラも内蔵されている。また、システムコントローラ13は、グラフィックスコントローラ14との通信を実行する機能も有している。
グラフィックスコントローラ14は、電子機器100のディスプレイモニタとして使用されるディスプレイ112を制御する表示コントローラである。タッチパネルコントローラ15は、タッチパネル111を制御し、ユーザによってタッチされたディスプレイ112の表示画面上のタッチ位置を示す座標データをタッチパネル111から取得する。
加速度センサ16は、図1に示す3軸方向(X、Y、Z方向)や、これに各軸周りの回転方向の検出を加えた6軸方向の加速度センサ等であって、電子機器100に対する外部からの加速度の向きと大きさを検出し、CPU12に出力する。具体的に、加速度センサ16は、加速度を検出した軸、向き(回転の場合、回転角度)、及び大きさを含んだ加速度検出信号(傾き情報)をCPU12に出力する。なお、角速度(回転角度)検出のためのジャイロセンサを、加速度センサ16に統合する形態としてもよい。
音声処理部20は、マイク21より入力される音声信号に、デジタル変換、ノイズ除去、エコーキャンセル等の音声処理を施してCPU12へ出力する。また、音声処理部20は、CPU12の制御のもとで、音声合成等の音声処理を施して生成した音声信号をスピーカ22へ出力し、スピーカ22による音声報知を行う。

(実施例1)
さて図3は、実施形態における代表的な表示および操作の手順を示す図である。
本実施形態では、端末にタッチセンサまたはマウス相当のポインタ入力デバイスが搭載されていることを前提とし、後述の入力装置41よりユーザ操作を取得するものとする(上記タッチパネル111の例ではタッチセンサである)。入力装置41から取得するユーザ操作は例えば2点とし、2点間の距離の変化量をもとに後述のタッチ状態判定手段121によってピンチアウトや他にドラッグの操作を判定する。
図3(a)は、A,B,Cなどのフォルダが表示されている表示部11のディスプレイ112の画面で、フォルダAに対してピンチアウトがユーザによってなされようとしている様子を模式的に表している。このピンチアウトが実施された場合には図3(b)のように、フォルダBなどは画面の端や外に押しやられ、フォルダAが拡大され下位階層(あるいは内容、または詳細などの表現をあててもよい)が表示される。この図3(b)の例では、夫々破線とグレースケールの線で表現したフォルダAのサブフォルダ2つが表示されている。
ドラッグの操作としては、追加操作として、ピンチアウトした後の領域の端にあたる部分をシングルタッチでドラッグすると領域を拡大する。拡大する際には、拡大前の領域が外接する矩形座標とドラッグ後の座標をもとに領域を再計算する。
図4には本実施形態の表示処理関係の機能構成図を示す。入力装置41、中央処理制御装置42、表示装置43と記憶装置44の4つの構成を含んでいる。さらに中央処理制御装置42は、タッチ状態判定手段421、座標判定手段422、表示階層レイアウト生成部423、表示変換処理部424と画面表示手段425の5つの構成を含んでいる。また記憶装置44は、ファイルデータ441、フォルダ・ファイル階層データ442、ファイル内オブジェクトデータ443とオブジェクト階層データ444の4つの構成を含んでいる。
このうち、入力装置41は電子機器100の表示部11における、タッチパネル111とタッチパネルコントローラ15とから構成されている。また表示装置43は同じく表示部11におけるディスプレイ112に相当している。また記憶装置44は、不揮発性メモリ17に相当している。
一方中央処理制御装置42は、CPU12、システムコントローラ13、とRAM18とから構成されている。このうち画面表示手段425は主にグラフィックスコントローラ14に相当していて、他のタッチ状態判定手段421、座標判定手段422、表示階層レイアウト生成部423、表示変換処理部424はCPU12とシステムコントローラ13とに拠って機能している。

このような構成において、フォルダまたはファイルに関する階層関係のあるオブジェクトをアイコンまたはサムネイル等にて表示する際、表示階層レイアウト生成部423はファイルデータ441およびフォルダ・ファイル階層データ442から情報を取得する。
中央処理制御装置42主体にマルチタッチを検出した後、2点を設置した座標を中心として、ピンチアウトした後のタッチ座標までの距離を算出し、中心座標に表示されていたオブジェクトの属性を判別する。属性がフォルダ相当である場合、表示変換処理部424は、当該フォルダに対して下位層にあたるデータ群を取得し、ピンチアウトした距離分の大きさで当該フォルダを拡大表示する。拡大表示した領域に下位層にあたるデータ群のフォルダまたはアイコンを表示する。
なお、表示変換処理部424から画面表示手段425に画面情報を渡すことにより表示を実現する。この操作を階層毎に繰り返すことより、階層構造となっているデータを順次拡大表示する。また、マルチタッチ検出後の移動距離がピンチインと判定した場合、表示変換処理部424は、当該フォルダの表示を削除し、上位層にあたるデータ群の表示を行う。
以上の要点を処理フローにすると図11のようになる。
ステップS101: タッチ状態判定手段421は、マルチタッチを検出する。
ステップS102: 座標判定手段422、座標を検出する。
ステップS103: 表示階層レイアウト生成部423は、ファイルデータ441およびフォルダ・ファイル階層データ442から情報を取得する。
ステップS104: 表示変換処理部424は、フォルダの拡大表示等を行う。
図5は、実施例1に示すフォルダ表示および操作の手順を示す図である。
図5(a)は、A,B,C,Dなどのフォルダが表示されている表示部11のディスプレイ112の画面で、フォルダCに対してピンチアウトがユーザによってなされようとしている様子を模式的に表している。このピンチアウトが実施された場合には図5(b)のように、フォルダC拡大され下位階層(あるいは内容、または詳細などの表現をあててもよい)が表示される。この図5(b)の例では、夫々破線とグレースケールの線で表現したフォルダCのサブフォルダ2つの他に、アイコンで示されているテキストファイルC1と画像ファイルC2とが表示されている。

(実施例2)
図6は、実施例2に示すリスト表示および操作の手順を示す図である。
フォルダまたはファイルに関する階層関係のあるオブジェクトをリストにて縮小表示する際、表示階層レイアウト生成部は表示中のファイルに対して下層に相当するデータを取得しておく。ユーザによるピンチアウト操作を取得すると、2点を設置した座標を中心として、ピンチアウトした後のタッチ座標までの距離を算出し、中心座標に表示されていたオブジェクトの下位層データを判別する。表示変換処理部424は、判別したデータに基づき、ピンチアウトした距離分の大きさで下位層リストを表示する。この操作を階層毎に繰り返すことより、階層構造となっているデータを順次拡大表示する。また、マルチタッチ検出後の移動距離がピンチインと判定した場合、表示変換処理部424は、当該リスト内の表示を削除し、上位層にあたるデータ群の再表示を行う。
図6の例では、まず図6(a)はタイトル1乃至タイトル3の3つのテキストが表示されている。ここでタイトル2をピンチアウトすると図6(b)のようにタイトル2の下位構造が開く。この例ではタイトル2のサブタイトルが2つあり、2つ目のサブタイトルであるサブタイトル2を更にピンチアウトするとその中身である「本文1の内容が表示されてます」などのメッセージテキストが表示される。

(実施例3)
図7は、実施例3に示す階層を持つ画像の表示および操作手順を示す図である。
場所に関する階層関係にあるファイルを表示する際、表示中のファイルに対して下に相当するファイルを下位レイヤとして重ねて表示し、2点を設置した座標を中心として、ピンチアウトした後のタッチ座標までの楕円形となる範囲を表示階層レイアウト生成部にてレイアウト透過領域と定義する。ピンチアウトした範囲に表示していたオブジェクトをレイアウト透過領域外に配置する。配置のレイアウトは配置前のオブジェクト座標とピンチアウトした後のタッチ座標の差分をもとに算出する。
図7の例では、まず図7(a)のようにある建物の各階設計図がある。ここで2階設計図のある箇所をピンチアウトすると、図7(b)のように概楕円形に透過領域が開いて下位の1階設計図が表示される。

(実施例4)
図8は、実施例4に示す階層を持つ文字データの表示および操作手順を示す図である。
時系列等の属性のあるファイルを表示する際、次の時間に相当するファイルを下位レイヤとして重ねて表示する。画面の右下周辺にシングルタッチを検出した場合、タッチ位置の移動量を元に、表示階層レイアウト生成部によってレイアウト透過領域を定義する。シングルタッチが維持されている間、下位レイヤにおいてレイアウト透過領域に該当する領域を表示する。によって次の日のスケジュールが覗ける
図8の例では、まず図8(a)は今日のスケジュールが表示されている。ここで右下部にスライドによるめくり操作を施すと、透過領域として図8(b)のように下位構造として次の日のスケジュールが現れてくる。このめくり操作はマウスのドラッグによっても同様に実現するように構成することができる。

(実施例5)
図9は、実施例5に示す階層を持つ文字データの表示および操作手順を示す図である。
時系列等の属性のあるファイルを表示する際、次の時間に相当するファイルを下位レイヤとして重ねて表示し、2点を設置した座標を中心として、ピンチアウトした後のタッチ座標までの楕円形となる範囲を表示階層レイアウト生成部にてレイアウト透過領域と定義する。ピンチアウトした範囲に表示していたオブジェクトをレイアウト透過領域外に配置する。配置のレイアウトは配置前のオブジェクト座標とピンチアウトした後のタッチ座標の差分をもとに算出する。
図9の例では、まず図9(a)は今日のスケジュールが表示されている。ここで11時の内容記載場所をピンチアウトすると図9(b)のように下位構造として次の日のスケジュールが開く。この例では今日のスケジュールのToDoリストにチェックのあるB社企画書作成に対して、次の日のスケジュールのB社企画書レビューが開示され両者の関連が把握される。
このピンチアウトなどの操作はマウスによっても同様に実現するように、ユーザのメニュー設定などによって構成することができる。例えば対象箇所の中心点をクリックし続けて上下の点をクリックすると、この上下の点を範囲とする概楕円形の窓が開くようにする。あるいは中心点をクリックし続けて左上と右下など対角の点をクリックすると、この対角の点を対向する頂点とする四角形の窓が開くようにしてもよい。これらは、他の実施例でも同様に構成できる。
また操作により、例えば階層として会議の内容のページが開くようにしてもよい。
スケジュールアイテムをピンチアウトした場合、アイテムの詳細情報を表示するが詳細情報は会議内容とは限らない。たとえば、ランチミーティングだったら、場所やメンバ、議題などoutlookの会議通知のような内容を表示する。
また、企画書レビューであれば、PJ(プロジェクト)のガントチャートへのリンクや作成した企画書を保管しているファイル管理システムへのリンクも表示し選択(ファイルopen操作等)可能とするよう構成してもよい。
また下位構造の情報として、スケジュールアイテムに紐づく関連スケジュールを表示してもよい。スケジュールアイテムの内容以外にも、タグやリンクなどで紐づけられた他のスケジュールアイテムも下位構造の一部として認識し表示させることができる。
(実施例6)
他の実施例/変形例として、図10は実施例6に示す階層を持つ文字データの表示および操作手順を示す図である。
(1)リストの場合(図10(a))
項目(オブジェクト)が縦または横に並んでいる状態で項目内に付属情報がある場合(詳細項目など)、項目周辺でピンチアウトすると、その項目を表す領域が拡大表示されて(周辺の項目は、拡大する項目からの距離に応じて縮小され)付属情報(詳細項目など)が表示される。
この例では、システム一覧の中から社員名簿を選んでピンチアウトすると、付属情報として「○山○男」「△川△朗」の2名の名が表示されている。
(2)カレンダーの場合(図10(b))
カレンダー(月間、週間など)の表示において、特定の日付周辺でピンチアウトすると、その日付を表す部分の下位情報が拡大表示されて(まわりの日付を表す四角は縮小される)、その日の予定などの情報が表示される。さらに、予定項目周辺でピンチアウトすると、拡大された領域内で該当する項目の詳細が表示される。
図10(b)の中段の例では、6月6日の天体の太陽面通過とある総選挙との項目が表示される。さらに前者をピンチアウトすると、図10(b)の下段の例のように第一接触(外日蝕の始まり)と第二接触(外日蝕の始まり)など(なお更には図示しないが10時半頃の最小角距離など)の時刻の情報を知ることができる(また、ある総選挙についても図示しないが、例えば19時から始まるLIVE放送の次第などの情報を知ることができる)。
(3)カレンダーの場合((2)の変形(不図示))
同じくカレンダー(月間、週間など)の表示において、特定の日付周辺でピンチアウトすると、その日付を表す四角が拡大表示されて(まわりの日付を表す四角は平行移動をしながら縮小される)、その日の予定などの情報が表示される。さらに、予定項目周辺でピンチアウトすると、拡大された四角領域内で該当する項目の詳細が表示される。
タッチパネル搭載の端末操作において、ピンチやスライドによって、画面上のオブジェクトに対する操作を行うことで、画面切り替えを行うことなく階層の深い情報の閲覧性を向上させる機能を提供する。
本実施形態では、上位の階層情報を維持したまま、下位の階層情報の閲覧を可能とする。これにより、表示領域の小さい画面を持つ端末であっても、階層間の関係性の情報を失うことなく、異なる階層の情報を同時に閲覧・比較することができる効果がある。
なお、この発明は上記実施形態に限定されるものではなく、この外その要旨を逸脱しない範囲で種々変形して実施することができる。
また、上記した実施の形態に開示されている複数の構成要素を適宜に組み合わせることにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素から幾つかの構成要素を削除しても良いものである。さらに、異なる実施の形態に係わる構成要素を適宜組み合わせても良いものである。
100…電子機器(信号処理装置)、11…表示部、12…CPU、13…システムコントローラ、14…グラフィックスコントローラ、15…タッチパネルコントローラ、16…加速度センサ、17…不揮発性メモリ、18…RAM、19…操作スイッチ、20…音声処理部、21…マイク(マイクロフォン)、22…スピーカ、23…圧力センサ、111…タッチパネル、112…ディスプレイ、B…筐体。

Claims (12)

  1. ディスプレイ上へのユーザによる少なくとも1以上のタッチ操作を検出可能な入力部と、
    前記ディスプレイ上に、第1階層に含まれる第1オブジェクト及び第2オブジェクトが表示されているときに、前記第1オブジェクトに対応する領域に対して、少なくとも1以上の第1タッチ操作が検出される場合に、
    前記第1タッチ操作に基づいて定められる前記ディスプレイ上の第1領域に、前記第1階層より下位の階層である第2階層の第3オブジェクトを表示するとともに、
    前記第1領域とは異なる前記ディスプレイ上の第2領域に、前記第2オブジェクトを表示する表示制御部と、
    を備え、
    前記第3オブジェクトは、前記第1オブジェクトに含まれるオブジェクトであって、
    前記第1タッチ操作は、2つの接触点を含むものであって、一方の接触点と他方の接触点の位置が離れる操作である、電子機器。
  2. 前記表示制御部は、前記第3オブジェクトを、前記第1オブジェクトの表示領域上に表示させる請求項1に記載の電子機器。
  3. 前記表示制御部は、前記第3オブジェクトに加えて、さらに、少なくとも1以上の操作が指定可能なメニューを前記ディスプレイ上に表示する請求項1又は請求項2に記載の電子機器。
  4. 前記ディスプレイは、タッチスクリーンディスプレイであって、
    更に前記タッチスクリーンディスプレイを備える請求項1乃至請求項のいずれか1項に記載の電子機器。
  5. ユーザがタッチ操作を行う入力部を備えた電子機器における制御方法であって、
    ディスプレイ上へのユーザによる少なくとも1以上のタッチ操作を検出するするステップと、
    前記ディスプレイ上に、第1階層に含まれる第1オブジェクト及び第2オブジェクトが表示されているときに、前記第1オブジェクトに対応する領域に対して、少なくとも1以上の第1タッチ操作が検出される場合に、
    前記第1タッチ操作に基づいて定められる前記ディスプレイ上の第1領域に、前記第1階層より下位の階層である第2階層の第3オブジェクトを表示するとともに、
    前記第1領域とは異なる前記ディスプレイ上の第2領域に、前記第2オブジェクトを表示するステップと、
    を有し、
    前記第3オブジェクトは、前記第1オブジェクトに含まれるオブジェクトであって、
    前記第1タッチ操作は、2つの接触点を含むものであって、一方の接触点と他方の接触点の位置が離れる操作である、制御方法。
  6. 前記表示するステップでは、前記第3オブジェクトを、前記第1オブジェクトの表示領域上に表示させる請求項5に記載の制御方法。
  7. 前記表示するステップでは、前記第3オブジェクトに加えて、さらに、少なくとも1以上の操作が指定可能なメニューを前記ディスプレイ上に表示する請求項5又は請求項6に記載の制御方法。
  8. 前記ディスプレイは、タッチスクリーンディスプレイであって、
    更に前記タッチスクリーンディスプレイを備える請求項5乃至請求項7のいずれか1項に記載の制御方法。
  9. ディスプレイ上へのユーザによる少なくとも1以上のタッチ操作を検出可能な入力部と、
    前記ディスプレイ上に、第1階層に含まれる第1オブジェクト及び第2オブジェクトが表示されているときに、前記第1オブジェクトに対応する領域に対して、少なくとも1以上の第1タッチ操作が検出される場合に、
    前記第1タッチ操作に基づいて定められる前記ディスプレイ上の第1領域に、前記第1階層より下位の階層である第2階層の第3オブジェクトを表示するとともに、
    前記第1領域とは異なる前記ディスプレイ上の第2領域に、前記第2オブジェクトを表示する表示制御部、としてコンピュータを機能させるプログラムであり、
    前記第3オブジェクトは、前記第1オブジェクトに含まれるオブジェクトであって、
    前記第1タッチ操作は、2つの接触点を含むものであって、一方の接触点と他方の接触点の位置が離れる操作である、プログラム。
  10. 前記表示制御部は、前記第3オブジェクトを、前記第1オブジェクトの表示領域上に表示させる請求項9に記載のプログラム。
  11. 前記表示制御部は、前記第3オブジェクトに加えて、さらに、少なくとも1以上の操作が指定可能なメニューを前記ディスプレイ上に表示する請求項9又は請求項10に記載のプログラム。
  12. 前記ディスプレイは、タッチスクリーンディスプレイであって、
    更に前記タッチスクリーンディスプレイを備える請求項9乃至請求項11のいずれか1項に記載のプログラム。
JP2012148014A 2012-06-29 2012-06-29 電子機器、制御方法及びプログラム Active JP5492257B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012148014A JP5492257B2 (ja) 2012-06-29 2012-06-29 電子機器、制御方法及びプログラム
US13/789,007 US20140002387A1 (en) 2012-06-29 2013-03-07 Electronic apparatus and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012148014A JP5492257B2 (ja) 2012-06-29 2012-06-29 電子機器、制御方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2014010719A JP2014010719A (ja) 2014-01-20
JP5492257B2 true JP5492257B2 (ja) 2014-05-14

Family

ID=49777605

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012148014A Active JP5492257B2 (ja) 2012-06-29 2012-06-29 電子機器、制御方法及びプログラム

Country Status (2)

Country Link
US (1) US20140002387A1 (ja)
JP (1) JP5492257B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9310907B2 (en) 2009-09-25 2016-04-12 Apple Inc. Device, method, and graphical user interface for manipulating user interface objects
EP3855297A3 (en) 2009-09-22 2021-10-27 Apple Inc. Device method and graphical user interface for manipulating user interface objects
US8832585B2 (en) * 2009-09-25 2014-09-09 Apple Inc. Device, method, and graphical user interface for manipulating workspace views
EP2961185B1 (en) 2013-02-20 2020-03-04 Panasonic Intellectual Property Corporation of America Control method for information apparatus and program
JP6057466B2 (ja) * 2013-02-26 2017-01-11 シャープ株式会社 電子機器及びコンテンツ表示方法
JP6026363B2 (ja) * 2013-07-09 2016-11-16 シャープ株式会社 情報処理装置および制御プログラム
US20150095856A1 (en) * 2013-09-29 2015-04-02 Xiaomi Inc. Method and terminal device for displaying messages
WO2015111321A1 (ja) * 2014-01-23 2015-07-30 ソニー株式会社 表示制御装置、表示制御方法及びコンピュータプログラム
CN113821143A (zh) * 2014-06-24 2021-12-21 苹果公司 音乐正在播放用户界面
WO2016039570A1 (en) * 2014-09-12 2016-03-17 Samsung Electronics Co., Ltd. Method and device for executing applications through application selection screen
KR20160034685A (ko) * 2014-09-22 2016-03-30 삼성전자주식회사 전자장치에서 객체 입력 방법 및 장치
US20160231876A1 (en) * 2015-02-06 2016-08-11 Yifei Wang Graphical interaction in a touch screen user interface
DE102015110764A1 (de) * 2015-07-03 2017-01-05 Visteon Global Technologies, Inc. Multifunktionale Bedienungseinrichtung und Verfahren zum Bedienen einer multifunktionalen Bedienungseinrichtung
JP6601042B2 (ja) * 2015-07-29 2019-11-06 セイコーエプソン株式会社 電子機器、電子機器の制御プログラム
US9996222B2 (en) * 2015-09-18 2018-06-12 Samsung Electronics Co., Ltd. Automatic deep view card stacking
JP6507987B2 (ja) * 2015-10-15 2019-05-08 京セラドキュメントソリューションズ株式会社 表示制御装置、及び、画像形成装置
KR102426695B1 (ko) * 2015-10-20 2022-07-29 삼성전자주식회사 화면 출력 방법 및 이를 지원하는 전자 장치
JP6776551B2 (ja) * 2016-03-01 2020-10-28 セイコーエプソン株式会社 電子機器および電子機器における表示方法
US11016634B2 (en) * 2016-09-01 2021-05-25 Samsung Electronics Co., Ltd. Refrigerator storage system having a display
JP7063729B2 (ja) 2018-06-01 2022-05-09 株式会社シマノ 表示処理装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2008010432A1 (ja) * 2006-07-20 2009-12-17 シャープ株式会社 ユーザインタフェイス装置、コンピュータプログラム、及びその記録媒体
JP2010061348A (ja) * 2008-09-03 2010-03-18 Sanyo Electric Co Ltd ボタン表示方法及びそれを用いたポータブル装置
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8669945B2 (en) * 2009-05-07 2014-03-11 Microsoft Corporation Changing of list views on mobile device
KR101873744B1 (ko) * 2011-11-29 2018-07-03 엘지전자 주식회사 이동단말기 및 그 제어방법

Also Published As

Publication number Publication date
JP2014010719A (ja) 2014-01-20
US20140002387A1 (en) 2014-01-02

Similar Documents

Publication Publication Date Title
JP5492257B2 (ja) 電子機器、制御方法及びプログラム
JP7397881B2 (ja) 複数のアプリケーションウィンドウと対話するためのシステム、方法、及びユーザインタフェース
US11402968B2 (en) Reduced size user in interface
KR102061361B1 (ko) 확장형 통신 서비스를 위한 동적인 최소화된 내비게이션 바
US10175855B2 (en) Interaction in orbit visualization
CN105224166B (zh) 便携式终端及其显示方法
KR102061362B1 (ko) 확장형 통신 서비스를 위한 동적인 내비게이션 바
TWI604370B (zh) 用於以圖磚顯示電子訊息的方法、電腦可讀取媒體及系統
KR102061363B1 (ko) 확장형 통신 서비스를 위한 동적인 내비게이션 바를 도킹 및 언도킹하는 기법
US9690474B2 (en) User interface, device and method for providing an improved text input
KR102130857B1 (ko) 객체에 의한 문서의 시각적 탐색 기법
US20130191785A1 (en) Confident item selection using direct manipulation
US20110316888A1 (en) Mobile device user interface combining input from motion sensors and other controls
US20200356250A1 (en) Devices, methods, and systems for manipulating user interfaces
JP6178421B2 (ja) コンテンツ選択および拡張コンテンツ選択のためのユーザインタフェース
US20110141144A1 (en) Content display magnification changing method and content display magnification changing program
US20200326841A1 (en) Devices, methods, and systems for performing content manipulation operations
US20230393717A1 (en) User interfaces for displaying handwritten content on an electronic device
JP2014044673A (ja) 携帯端末装置
JP5898015B2 (ja) 情報端末装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140228

R151 Written notification of patent or utility model registration

Ref document number: 5492257

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350