JP2012073962A - Electronic device and object display method - Google Patents
Electronic device and object display method Download PDFInfo
- Publication number
- JP2012073962A JP2012073962A JP2010219992A JP2010219992A JP2012073962A JP 2012073962 A JP2012073962 A JP 2012073962A JP 2010219992 A JP2010219992 A JP 2010219992A JP 2010219992 A JP2010219992 A JP 2010219992A JP 2012073962 A JP2012073962 A JP 2012073962A
- Authority
- JP
- Japan
- Prior art keywords
- display
- display screen
- finger
- displayed
- icon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明の実施形態は、ユーザがディスプレイにタッチし、アイコンなどのオブジェクトを移動可能な電子機器に関する。 Embodiments described herein relate generally to an electronic device in which a user can move an object such as an icon by touching a display.
近年、ユーザがディスプレイにタッチし、アイコンなどのオブジェクトを移動可能な電子機器が普及している。
これらの中には、例えば、オブジェクトの移動元から移動先まで、ディスプレイ画面上でオブジェクトに指で触れながら軌跡を描かせる方法が採られているものがある。
In recent years, electronic devices that allow a user to touch a display and move an object such as an icon have become popular.
Among these, for example, there is a method that draws a locus while touching an object with a finger on a display screen from the movement source to the movement destination of the object.
しかし、この方法ではオブジェクトの移動距離が長い場合は、画面に触れながら指を移動させるのはユーザにとって煩わしいという問題があった。 However, this method has a problem that it is troublesome for the user to move the finger while touching the screen when the moving distance of the object is long.
電子機器の表示画面に表示されているオブジェクトを指で触れながら移動させる際、例えば、オブジェクトの移動距離が長い場合、長い距離に渡って画面に触れた指を移動させることは煩わしいという問題があり、これを解決することが課題となっていた。 When moving an object displayed on the display screen of an electronic device while touching it with a finger, for example, when the moving distance of the object is long, it is troublesome to move the finger touching the screen over a long distance. To solve this problem has been a problem.
実施形態の電子機器は、オブジェクトが表示される表示画面を表示する表示手段を備える。
また、前記表示画面に表示されているオブジェクトが指定された第1の位置と前記表示画面上に指定された第2の位置を検出する検出手段を備える。
また、前記検出された第1の位置と第2の位置の相対的な位置に基づいて前記オブジェクトが移動する位置を算出し、前記オブジェクトの移動先を前記表示画面上に表示する表示手段を備える。
The electronic device of the embodiment includes a display unit that displays a display screen on which an object is displayed.
The image processing apparatus further includes detection means for detecting a first position where the object displayed on the display screen is designated and a second position designated on the display screen.
In addition, a display unit is provided that calculates a position where the object moves based on the detected relative position between the first position and the second position, and displays the movement destination of the object on the display screen. .
以下、図面を参照して、実施形態を説明する。
図1は、本発明の一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a perspective view showing an external appearance of an electronic apparatus according to an embodiment of the present invention. This electronic apparatus is realized as a notebook type personal computer 10, for example.
図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。 As shown in FIG. 1, the computer 10 includes a computer main body 11 and a display unit 12. The display unit 12 includes an LCD (liquid crystal display) 17. The display unit 12 is attached to the computer main body 11 so as to be rotatable between an open position where the upper surface of the computer main body 11 is exposed and a closed position covering the upper surface of the computer main body 11.
コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。
The computer main body 11 has a thin box-shaped casing. On the upper surface of the computer main body 11, a keyboard 13, a power button 14 for powering on / off the computer 10, an input operation panel 15, a
また、コンピュータ本体11の右側面には、例えばUSB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。
Further, on the right side surface of the computer main body 11, for example, a USB (Universal Serial Bus) 2.0 standard USB cable or a
さらに、コンピュータ本体11の背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子(図示せず)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。 Furthermore, an external display connection terminal (not shown) corresponding to, for example, the HDMI (high-definition multimedia interface) standard is provided on the back surface of the computer main body 11. This external display connection terminal is used to output a digital video signal to an external display.
図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
FIG. 2 is a diagram showing a system configuration of the computer 10.
As shown in FIG. 2, the computer 10 includes a CPU (central processing unit) 101, a
CPU101は、本コンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201、及びフォトムービー作成アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。
The
フォトムービー作成アプリケーションプログラム202は、例えばHDD109等に格納された各種デジタルコンテンツを再生するソフトウェアである。このフォトムービー作成アプリケーションプログラム202は、動画像生成機能を有している。この動画像生成機能は、例えば、HDD109等に格納された写真等の素材(デジタルコンテンツ)を用いて、動画像(フォトムービー、スライドショー)を作成する機能である。
The photo movie
さらに、この動画像生成機能は、動画像の作成に用いる素材を分析する機能を含む。フォトムービー作成アプリケーションプログラム202は、素材を用いて作成された動画像を再生し、画面(LCD17)に表示する。
Further, the moving image generation function includes a function of analyzing a material used for creating a moving image. The photo movie
また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
The
The
GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。
このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ1にデジタル映像信号を送出することもできる。
The GPU 105 is a display controller that controls the LCD 17 used as a display monitor of the computer 10.
A display signal generated by the
HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ1にデジタル映像信号を、HDMI端子2を介して送出するためのインタフェースである。
The
サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。
The
さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。
Further, the
The
例えば、USBコントローラ111Aは、例えば、デジタルカメラに格納されている画像データファイルを受信するために使用される。カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。
For example, the
EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。
The EC /
この実施の形態においては、表示画面上をオブジェクトの移動元から移動先への軌跡を触れ続けることなく、簡便に行わせる。
この実施の形態においては、ユーザは、例えば1つの指でオブジェクトに触れ、このオブジェクトに触れたまま、他の指で画面上に触れる。
そして、後述するように、例えば、上記1つの指と他の指の2本の指で指定されるベクトルに応じて、オブジェクトの移動先を示す的の表示を表示画面上に表示する。
In this embodiment, the user can easily perform the operation on the display screen without continuously touching the locus from the movement source to the movement destination of the object.
In this embodiment, the user touches the object with one finger, for example, and touches the object with the other finger while touching the object.
Then, as will be described later, for example, a target display indicating the destination of the object is displayed on the display screen in accordance with the vector specified by the two fingers of the one finger and the other finger.
ユーザは、この的の表示を見ながら画面上に触れている他の指の位置を移動させる。他の指の位置が移動すると上記的の表示が移動する。
そして、この的の表示を見ながら画面上に触れている他の指の位置を移動させ、オブジェクトを移動させたい位置へ的の表示を移動させ、調整する。
また、ユーザが上記1つの指(第1の指)でオブジェクトを的の表示へ向かって移動させるような動作(例えばはらう)を行うと、オブジェクトは的の表示の位置に移動する。
The user moves the position of the other finger touching the screen while viewing the target display. When the position of the other finger moves, the target display moves.
Then, while observing the target display, the position of the other finger touching the screen is moved, and the target display is moved to the position where the object is to be moved and adjusted.
In addition, when the user performs an operation (for example, to move) the object toward the target display with the one finger (first finger), the object moves to the target display position.
「はらう」とは、習字で言うところの「はね」、「とめ」、「はらい」の「はらい」に当たる仕草である。ここでは、上記のように例えば1つの指(第1の指)等で表示画面上のオブジェクトに触れ、このオブジェクトを的の表示へ向かって移動させるような動作である。 “Harau” is a gesture that corresponds to “Harai” of “Hane”, “Tome”, and “Harai” in the calligraphy. In this case, as described above, for example, an object on the display screen is touched with one finger (first finger) or the like, and this object is moved toward the target display.
図3は、実施形態に係る電子機器において、ユーザにオブジェクトに係る第1の位置が指定される一例を示す図である。
この実施の形態における電子機器の動作はCPU101に制御される。
符号61は電子機器10の映像表示部であるLCD17に表示される表示画面(ディスプレイ)である。
この実施の形態においては、映像表示部(LCD)17は、図示しないタッチセンサを備えている。そして、ユーザが映像表示部(LCD)17に触れると、ユーザに触れられたその表示画面(ディスプレイ)における位置を検出し、CPU101に報告する。
FIG. 3 is a diagram illustrating an example in which the first position related to the object is designated by the user in the electronic apparatus according to the embodiment.
The operation of the electronic device in this embodiment is controlled by the
In this embodiment, the video display unit (LCD) 17 includes a touch sensor (not shown). When the user touches the video display unit (LCD) 17, the position on the display screen (display) touched by the user is detected and reported to the
なお、ここでは映像表示部(LCD)17はタッチセンサを備え、ユーザに触れられたその表示画面(ディスプレイ)における位置を検出するが、この表示画面(ディスプレイ)における位置検出は、例えば、カメラ等を別途設け、ユーザに触れられた映像表示部(LCD)17の位置を検出するように構成することも可能である。 Here, the video display unit (LCD) 17 includes a touch sensor and detects the position on the display screen (display) touched by the user. The position detection on the display screen (display) is performed by, for example, a camera or the like. It is also possible to provide a separate and detect the position of the video display unit (LCD) 17 touched by the user.
符号30は表示画面(ディスプレイ)61に表示されるオブジェクトであり、ここでは例えばアイコンである。
符号31は例えばユーザの指である。なお、ここでは指と表現したが、指以外のユーザの体の一部でも良いし、ペン等人間の体以外でも良く、表示画面(ディスプレイ)61上の位置を指定することができれば良い。これをここでは第1の指と呼ぶ。
Reference numeral 30 denotes an object displayed on a display screen (display) 61, and is an icon here, for example.
また、タッチパッド16や本コンピュータ10に接続された外部機器等の装置を用いて、表示画面(ディスプレイ)61上の位置を間接的に指定してもよい。この表示画面(ディスプレイ)61上の位置を指定する装置は、パーソナルコンピュータ10と遠隔で通信を行う装置でもよい。
Further, the position on the display screen (display) 61 may be indirectly specified by using a device such as an external device connected to the
なお、オブジェクトの移動先を示す的の表示とは別に、カーソル等を表示画面(ディスプレイ)61上に表示して、ユーザが表示画面(ディスプレイ)61上のどの位置を指定しているかについて示してもよい。 In addition to the target display indicating the movement destination of the object, a cursor or the like is displayed on the display screen (display) 61 to indicate which position on the display screen (display) 61 is specified by the user. Also good.
ユーザは、この第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れる。これにより、オブジェクト(アイコン)30の位置、すなわち第1の位置を指定する。 The user touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger. Thereby, the position of the object (icon) 30, that is, the first position is designated.
図4は、実施形態に係る電子機器において、ユーザに表示画面上の第2の位置が指定される一例を示す図である。
符号32は、ここでも例えばユーザの指である。上記と同様に、ここでは指と表現したが、指以外のユーザの体の一部でも良いし、ペン等人間の体以外でも良く、表示画面(ディスプレイ)61上の位置を指定することができれば良い。これをここでは第2の指と呼ぶ。このユーザの第2の指は、例えばオブジェクト(アイコン)30の周辺の領域(上記第1の指で触れられた第1の位置とは異なる位置)で表示画面(ディスプレイ)61に触れる。
FIG. 4 is a diagram illustrating an example in which the second position on the display screen is designated by the user in the electronic apparatus according to the embodiment.
ここでは、ユーザは第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で第1の指とは異なる位置で表示画面(ディスプレイ)61に触れる。 Here, the user touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger, while the second finger is on the display screen (display) 61 at a position different from the first finger. touch.
図5は、実施形態に係る電子機器において、ユーザに指定された第1の位置と第2の位置の相対的な位置に基づいてオブジェクトの移動先を表示する一例を示す図である。 FIG. 5 is a diagram illustrating an example of displaying an object movement destination based on a relative position between the first position and the second position designated by the user in the electronic apparatus according to the embodiment.
符号33は的の表示である。
この的の表示33は例えば、第1の位置と第2の位置が上記のように指定されると、これに応じて表示される。
上記のように、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で表示画面(ディスプレイ)61に触れると、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示される。
Reference numeral 33 is a target display.
For example, when the first position and the second position are designated as described above, the target display 33 is displayed accordingly.
As described above, when the user touches the display screen (display) 61 with the second finger while touching the object (icon) 30 displayed on the display screen (display) 61 with the first finger, the object (icon) is touched. A target display 33 is displayed as the position of the 30 destination.
すなわち、上記表示画面(ディスプレイ)61に第1の指が接触する第1の位置と同じく表示画面(ディスプレイ)61に第2の指が接触する第2の位置の相対的な位置に基づいてオブジェクト(アイコン)30が移動する位置を算出し、オブジェクト(アイコン)30の移動先を表示画面上61に表示する。
That is, the object is based on the relative position of the second position where the second finger contacts the display screen (display) 61 as well as the first position where the first finger contacts the display screen (display) 61. The position where the (icon) 30 moves is calculated, and the movement destination of the object (icon) 30 is displayed on the
図6は、実施形態に係る電子機器において、ユーザに指定された第2の位置の移動に応じてオブジェクトの移動先が移動する一例を示す図である。
この実施の形態においては、第1の指31と第2の指32の相対的な位置に応じて的の表示33が移動する。
ユーザは第2の指を動かし、オブジェクト(アイコン)30を移動させたい位置へ的の表示33を移動させるようにする。
上記のように、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で表示画面(ディスプレイ)61に触れると、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示されている。
FIG. 6 is a diagram illustrating an example in which the destination of the object moves in accordance with the movement of the second position designated by the user in the electronic device according to the embodiment.
In this embodiment, the target display 33 moves according to the relative positions of the
The user moves the second finger to move the target display 33 to a position where the object (icon) 30 is to be moved.
As described above, when the user touches the display screen (display) 61 with the second finger while touching the object (icon) 30 displayed on the display screen (display) 61 with the first finger, the object (icon) is touched. A target display 33 is displayed as the position of 30 destinations.
この状態で、ユーザが表示画面(ディスプレイ)61に触れながら第2の指32を移動させる、もしくは第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指32で表示画面(ディスプレイ)61に触れる位置を移動させる。
In this state, the user moves the
すると、この第2の指32の位置の移動に応じて的の表示33の位置が移動する。的の表示33は上記のようにオブジェクト(アイコン)30の移動先の位置を示している。
Then, the position of the target display 33 moves in accordance with the movement of the position of the
符号41aはユーザが触れた表示画面(ディスプレイ)61上の第2の指32の位置が移動した軌跡を示している。
そして、符号41bはこれに応じて移動した的の表示33の位置の軌跡を示している。
すなわち、ユーザが第2の指32を移動させると、これに応じて的の表示33の位置が移動する。
図7は、実施形態に係る電子機器において、第1の位置でオブジェクトを移動させる動作が行われることによってオブジェクトが移動先に移動する一例を示す図である。
That is, when the user moves the
FIG. 7 is a diagram illustrating an example of the movement of the object to the movement destination by the operation of moving the object at the first position in the electronic apparatus according to the embodiment.
この実施の形態における動作は次の通りである。
まず、上記のように、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で表示画面(ディスプレイ)61に触れ、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示される。
The operation in this embodiment is as follows.
First, as described above, the user touches the display screen (display) 61 with the second finger while touching the object (icon) 30 displayed on the display screen (display) 61 with the first finger. ) A target display 33 is displayed as the position of the movement destination of 30.
次に、上記のように、ユーザは表示画面(ディスプレイ)61に表示されたこの的の表示33の位置を見ながら表示画面(ディスプレイ)61に触れている第2の指を移動させ、的の表示33の位置を調整する。 Next, as described above, the user moves the second finger touching the display screen (display) 61 while viewing the position of the target display 33 displayed on the display screen (display) 61, The position of the display 33 is adjusted.
次に、ユーザが的の表示33の位置、すなわちオブジェクト(アイコン)30を移動させたい位置が概ね所望の位置であると判断した場合、例えば、ユーザは上記のように表示画面(ディスプレイ)61上で的の表示61の方向に第2の指をはらう動作(移動先の方向に移動されるような動作)を行う。 Next, when the user determines that the position of the target display 33, that is, the position at which the object (icon) 30 is to be moved is generally a desired position, the user, for example, on the display screen (display) 61 as described above. Then, an operation of placing the second finger in the direction of the target display 61 (an operation of moving in the direction of the movement destination) is performed.
すると、オブジェクト(アイコン)30は的の表示33の位置へ移動する。
図8は、実施形態に係る電子機器において、ユーザに指定された第1の位置と第2の位置に基づいてオブジェクトの移動先を算出し、表示する手段の一例を説明する図である。
Then, the object (icon) 30 moves to the target display 33 position.
FIG. 8 is a diagram for explaining an example of a unit that calculates and displays the movement destination of the object based on the first position and the second position designated by the user in the electronic apparatus according to the embodiment.
符号51はベクトル1である。ベクトル1(51)は、上記ユーザに指定された第1の位置と上記第2の位置に基づくベクトルである。このベクトル1(51)は、第1の位置から第2の位置に向く方向を持ち、第1の位置と第2の位置の間の長さを持っている。
Reference numeral 51 is a
符号52はベクトル2である。ベクトル1(51)とベクトル2(51)は、ここでは、例えば次の関係で表される。ここで関数f()はベクトル1の取りうる範囲のベクトルを定義域とし、スカラー値を値域とする関数とする。
Reference numeral 52 is a
ベクトル2=f(ベクトル1)*(ベクトル1)
関数f()がベクトル1によらず定数を値としてとってもよいし、ベクトル1の長さに従属する関数でもよいし、ベクトル1の向きに従属する関数でもよい。
また、ベクトル1とベクトル2を次の関係で表すことも可能である。ここで、オブジェクト(アイコン)30の画面上における位置を表す位置ベクトルをベクトル3とする。関数g()をベクトル1の取りうる範囲のベクトルとベクトル3の取りうる値の範囲のベクトルの組を定義域とし、スカラー値を値域とする関数とする。
The function f () may take a constant value regardless of the
Further, the
ベクトル2=g(ベクトル1、ベクトル3)*(ベクトル1)
このように構成することにより、この実施の形態においては、表示画面(ディスプレイ)61内のオブジェクト(アイコン)30を移動させる際に、例えば、表示画面(ディスプレイ)61が大画面で構成され、オブジェクト(アイコン)30の移動距離が長い場合でも、上記のように、実際の移動距離よりも小さな指の動きで、オブジェクト(アイコン)30の移動を実現することが可能になる。
With this configuration, in this embodiment, when the object (icon) 30 in the display screen (display) 61 is moved, for example, the display screen (display) 61 is configured as a large screen, and the object Even when the movement distance of the (icon) 30 is long, the movement of the object (icon) 30 can be realized with the movement of the finger smaller than the actual movement distance as described above.
図9は、実施形態に係る電子機器において、一の表示画面から他の表示画面にオブジェクトを移動させる一例を説明する図である。
ここでは、表示画面61に2つの表示画面(ディスプレイ1(61a)およびディスプレイ2(61b))が表示されている。
そしてここでは、ディスプレイ1(61a)に表示されているオブジェクト(アイコン)30をディスプレイ2(61b)に移動する動作が行われる。
まず、ディスプレイ1(61a)にはオブジェクト(アイコン)30が表示されている。
次に、ユーザは、オブジェクト(アイコン)30をディスプレイ2(61b)に移動するため、上記のように第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れ、第2の指で表示画面(ディスプレイ)61に触れる。すると、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示される。
FIG. 9 is a diagram illustrating an example of moving an object from one display screen to another display screen in the electronic apparatus according to the embodiment.
Here, two display screens (display 1 (61a) and display 2 (61b)) are displayed on the
And here, the operation | movement which moves the object (icon) 30 currently displayed on the display 1 (61a) to the display 2 (61b) is performed.
First, an object (icon) 30 is displayed on the display 1 (61a).
Next, in order to move the object (icon) 30 to the display 2 (61b), the user touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger as described above. Touch the
次に、ユーザは第2の指を移動させ、この的の表示33の位置がディスプレイ2(61b)に表示されるようにする。
的の表示33の位置がディスプレイ2(61b)に表示された場合に、上記のように、第2の指を的の表示33の方向にはらう動作を行う。
すると、ディスプレイ1(61a)に表示されているオブジェクト(アイコン)30がディスプレイ2(61b)に移動する。
このように構成することで、例えば、複数の表示画面(ディスプレイ1(61a)およびディスプレイ2(61b))が表示され、複数の表示画面(ディスプレイ1(61a)およびディスプレイ2(61b))間でオブジェクト(アイコン)30を移動させることが可能になる。
Next, the user moves the second finger so that the position of the target display 33 is displayed on the display 2 (61b).
When the position of the target display 33 is displayed on the display 2 (61b), the operation of holding the second finger in the direction of the target display 33 is performed as described above.
Then, the object (icon) 30 displayed on the display 1 (61a) moves to the display 2 (61b).
With this configuration, for example, a plurality of display screens (display 1 (61a) and display 2 (61b)) are displayed, and a plurality of display screens (display 1 (61a) and display 2 (61b)) are displayed. The object (icon) 30 can be moved.
図10は、実施形態に係る電子機器の動作を説明するフローチャートである。
符号S100は開始ステップである。続いて符号S101を付したステップへ進む。
符号S101はディスプレイ画面61にオブジェクト(アイコン等)30を表示するステップである。続いて符号S102を付したステップへ進む。
符号S102はユーザが第1の指31で画面のオブジェクト(アイコン等)30に触れるのを検出するステップである。続いて符号S103を付したステップへ進む。
FIG. 10 is a flowchart for explaining the operation of the electronic apparatus according to the embodiment.
Reference S100 is a start step. Then, it progresses to the step which attached | subjected code | symbol S101.
Reference numeral S <b> 101 is a step of displaying the object (icon or the like) 30 on the
Reference numeral S <b> 102 is a step of detecting that the user touches the object (icon etc.) 30 on the screen with the
符号S103は第1の指31は画面に触れたままユーザが第2の指32で画面に触れるのを検出するステップである。続いて符号S104を付したステップへ進む。
符号S104は第1の指31の位置と第2の指32の位置の相対的な関係から的の表示33の位置を算出するステップである。続いて符号S105を付したステップへ進む。
Reference numeral S103 is a step of detecting that the user touches the screen with the
Reference numeral S <b> 104 is a step of calculating the position of the target display 33 from the relative relationship between the position of the
符号S105は符号S104を付したステップで算出された位置に的の表示33を表示するステップである。続いて符号S106を付したステップへ進む。
符号S106は、第1の指31で触れたままオブジェクト(アイコン等)30を的の表示33の方向へ移動させるような動作(例えばはらう)を検出するステップである。検出された場合には、ユーザがオブジェクト(アイコン等)30を移動させたい位置へ画面上の的の表示33を移動させ終わったものと判断し、続いて符号S108を付したステップへ進む(Yes)。検出されない場合は、続いて符号S107を付したステップへ進む(No)。
Reference numeral S105 is a step of displaying the target display 33 at the position calculated in the step denoted by reference numeral S104. Then, it progresses to the step which attached | subjected code | symbol S106.
Reference numeral S <b> 106 is a step of detecting an action (for example, a movement) that moves the object (icon or the like) 30 in the direction of the target display 33 while being touched by the
符号S107は、第1の指でオブジェクト(アイコン等)30に触れながら第2の指32を動かしたかどうかを検出するステップである。検出された場合には、続いて符号S104を付したステップへ進む(Yes)。検出されない場合は、続いて符号S106を付したステップへ進む(No)。
Reference S107 is a step of detecting whether or not the
符号S108はオブジェクト(アイコン等)30を的の表示33の位置へ移動させるステップである。続いて符号S109を付したステップへ進む。
符号S109は的の表示33の表示を消すステップである。続いて符号S110を付したステップへ進む。
符号110は終了ステップであり、ここでの処理は終了する。
なお、特に図10では明記していないが、符号S106のステップで第1の指31で触れたままオブジェクト(アイコン等)30を的の表示33の方向へ移動させるような動作(例えばはらう)が検出されるよりも前に第1の指31が画面から離れた場合には、直ちに符号S109を付したステップへ進む。この場合、オブジェクト(アイコン等)30を的の表示33の位置へ移動させない。
Symbol S108 is a step of moving the object (icon or the like) 30 to the target display 33 position. Then, it progresses to the step which attached | subjected code | symbol S109.
Reference numeral S109 is a step of erasing the display of the target display 33. Then, it progresses to the step which attached | subjected code | symbol S110.
Although not specifically shown in FIG. 10, an operation (for example, an operation) of moving the object (icon or the like) 30 in the direction of the target display 33 while being touched with the
図11は、実施形態に係る電子機器において、移動させるオブジェクトをPC等の画面のウインドウに適用した一例を説明する図である。
この実施の形態においては、上記オブジェクト(アイコン等)30の移動を例えば、PC等の表示画面のウインドウに適用する。
符号71は表示されているウインドウ、符号72は大きさを変更するウインドウである。
例えば、表示されているウインドウ71の左下隅(符号71a)を上記オブジェクト(アイコン等)30と同等として扱い、上記と同様に、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたウインドウ71の左下隅71aに触れながら、第2の指で表示画面(ディスプレイ)61に触れ、ウインドウ71の左下隅71aの移動先の位置としての的の表示を表示し(図示せず)、これを見ながら表示画面(ディスプレイ)61に触れている第2の指を移動させ、的の表示の位置を調整する。
FIG. 11 is a diagram illustrating an example in which an object to be moved is applied to a window on a screen of a PC or the like in the electronic apparatus according to the embodiment.
In this embodiment, the movement of the object (icon etc.) 30 is applied to a window of a display screen such as a PC.
For example, the lower left corner (
そして、上記と同様に第2の指をはらう動作(移動先の方向に移動されるような動作)を行うと、ウインドウ71の左下隅71aは的の表示の位置へ移動し、図に示すようにウインドウ72の左下隅(符号71b)に移動する。
When the second finger is moved (moving in the direction of the movement destination) as described above, the lower
この実施の形態においては、この71aから符号71bへの移動に伴い、ウインドウの大きさがウインドウ71からウインドウ72に変更して表示される。
このように構成することにより、この実施の形態においては、ウインドウの大きさの変更に適用することも可能である。
図12は、実施形態に係る電子機器において、移動させるオブジェクトを直線に適用した一例を説明する図である。
この実施の形態においては、上記オブジェクト(アイコン等)30の移動を例えば、直線の作成に適用する。
符号73は作成予定の直線である。
符号81aは作成予定の直線の始点、符号81bは作成予定の直線73の終点である。
例えば、作成予定の直線73の始点81aを上記オブジェクト(アイコン等)30と同等として扱い、上記と同様に、ユーザが第1の指で作成予定の直線73の始点81aに触れながら、第2の指で表示画面(ディスプレイ)61に触れ、作成予定の直線73の終点81bとしての的の表示を表示し(図示せず)、表示画面(ディスプレイ)61に触れている第2の指を移動させ、的の表示の位置を調整する。
In this embodiment, the window size is changed from the
By configuring in this way, in this embodiment, the present invention can be applied to changing the size of the window.
FIG. 12 is a diagram illustrating an example in which an object to be moved is applied to a straight line in the electronic apparatus according to the embodiment.
In this embodiment, the movement of the object (icon or the like) 30 is applied to the creation of a straight line, for example.
Reference numeral 81a is the start point of the straight line to be created, and reference numeral 81b is the end point of the
For example, the start point 81a of the
そして、上記と同様に第2の指をはらう動作(移動先の方向に移動されるような動作)を行うと、直線73が作成される。
このように構成することにより、この実施の形態においては、直線の作成に適用することも可能である。
上記実施の形態においては、電子機器としてノートブックタイプのパーソナルコンピュータを用いて説明を行ったが、この実施の形態はこれに限られることはなく、パーソナルコンピュータよりも小さな携帯機器やTV等大きな表示画面を備えた装置、カーナビゲーション装置、TVに利用されるリモートコントローラ等に応用することも可能である。
Then, a
With this configuration, this embodiment can also be applied to the creation of a straight line.
In the above embodiment, a notebook type personal computer is used as an electronic device. However, this embodiment is not limited to this, and a large display such as a portable device or a TV smaller than the personal computer is used. The present invention can also be applied to a device having a screen, a car navigation device, a remote controller used for a TV, and the like.
また、ユーザの操作は必ずしも指で行う必要は無く、表示画面におけるオブジェクトの位置と表示画面の任意の位置が指定できれば良い。あるいは、右手と左手の両方の指で操作を行っても良い。 Further, the user's operation does not necessarily have to be performed with a finger, as long as the position of the object on the display screen and an arbitrary position on the display screen can be designated. Or you may operate with the finger of both the right hand and the left hand.
上記のように構成することによって、この発明の実施の形態においては、電子機器の表示画面に表示されているオブジェクトを指で触れて移動させる際、長い距離に渡って画面に触れた指を移動させる煩わしさを低減することが可能になる。 By configuring as described above, in the embodiment of the present invention, when the object displayed on the display screen of the electronic device is moved by touching with the finger, the finger touching the screen is moved over a long distance. It is possible to reduce troublesomeness.
なお、上記実施形態は、記述そのものに限定されるものではなく、実施段階では、その趣旨を逸脱しない範囲で、構成要素を種々変形して具体化することが可能である。 Note that the above embodiment is not limited to the description itself, and in the implementation stage, the constituent elements can be variously modified and embodied without departing from the spirit of the invention.
10…電子機器、17…映像表示部(LCD)、30…オブジェクト(アイコン)、31…ユーザの指(第1の指)、32…ユーザの指(第2の指)、33…的の表示、51…ベクトル1、52…ベクトル2、61…表示画面(ディスプレイ)。
DESCRIPTION OF SYMBOLS 10 ... Electronic device, 17 ... Video | video display part (LCD), 30 ... Object (icon), 31 ... User's finger (1st finger), 32 ... User's finger (2nd finger), 33 ... Target display 51 ...
Claims (6)
前記表示画面に表示されているオブジェクトが指定された第1の位置と前記表示画面上に指定された第2の位置を検出する検出手段と、
前記検出された第1の位置と第2の位置の相対的な位置に基づいて前記オブジェクトが移動する位置を算出し、前記オブジェクトの移動先を前記表示画面上に表示する表示手段を備える電子機器。 Display means for displaying a display screen on which the object is displayed;
Detecting means for detecting a first position at which an object displayed on the display screen is designated and a second position designated on the display screen;
An electronic apparatus comprising: a display unit configured to calculate a position where the object moves based on a relative position between the detected first position and second position, and to display a movement destination of the object on the display screen. .
前記表示画面に表示されているオブジェクトが指定された第1の位置と前記表示画面上に指定された第2の位置を検出するステップと、
前記検出された第1の位置と第2の位置の相対的な位置に基づいて前記オブジェクトが移動する位置を算出し、前記オブジェクトの移動先を前記表示画面上に表示するステップを備えるオブジェクトの表示方法。 Displaying a display screen on which the object is displayed;
Detecting a first position where an object displayed on the display screen is designated and a second position designated on the display screen;
An object display comprising: calculating a position where the object moves based on a relative position between the detected first position and the second position, and displaying a movement destination of the object on the display screen. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010219992A JP2012073962A (en) | 2010-09-29 | 2010-09-29 | Electronic device and object display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010219992A JP2012073962A (en) | 2010-09-29 | 2010-09-29 | Electronic device and object display method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012073962A true JP2012073962A (en) | 2012-04-12 |
Family
ID=46170039
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010219992A Pending JP2012073962A (en) | 2010-09-29 | 2010-09-29 | Electronic device and object display method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2012073962A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009116762A (en) * | 2007-11-09 | 2009-05-28 | Sharp Corp | Display |
JP2009151638A (en) * | 2007-12-21 | 2009-07-09 | Canon Inc | Information processor and control method thereof |
-
2010
- 2010-09-29 JP JP2010219992A patent/JP2012073962A/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009116762A (en) * | 2007-11-09 | 2009-05-28 | Sharp Corp | Display |
JP2009151638A (en) * | 2007-12-21 | 2009-07-09 | Canon Inc | Information processor and control method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4818427B2 (en) | Information processing apparatus and screen selection method | |
US8988342B2 (en) | Display apparatus, remote controlling apparatus and control method thereof | |
US8610678B2 (en) | Information processing apparatus and method for moving a displayed object between multiple displays | |
US20120299846A1 (en) | Electronic apparatus and operation support method | |
CN108958635B (en) | Mobile device displaying end effect and control method thereof | |
US20130342456A1 (en) | Remote control apparatus and control method thereof | |
US20130002573A1 (en) | Information processing apparatus and a method for controlling the same | |
JP5295839B2 (en) | Information processing apparatus, focus movement control method, and focus movement control program | |
JP2013109421A (en) | Electronic apparatus, electronic apparatus control method and electronic apparatus control program | |
JP2012079065A (en) | Electronic device, icon display method and program for electronic device | |
JP2015022442A (en) | Electronic device, control method of electronic device, and control program of electronic device | |
KR20150081657A (en) | Mobile terminal and method for control thereof | |
JP5865615B2 (en) | Electronic apparatus and control method | |
JP5076013B1 (en) | Information processing apparatus, information processing method, and program | |
JP5197834B1 (en) | Electronic device, electronic device control method, electronic device control program | |
JP4892068B2 (en) | Information processing apparatus and image display method | |
JP2014203305A (en) | Electronic apparatus, electronic apparatus control method, electronic apparatus control program | |
JP5851652B2 (en) | Electronic device, display method and program | |
KR102118091B1 (en) | Mobile apparatus having fuction of pre-action on object and control method thereof | |
US20140258923A1 (en) | Apparatus and method for displaying screen image | |
JP5221694B2 (en) | Electronic device, object display method, and object display program. | |
US20120151409A1 (en) | Electronic Apparatus and Display Control Method | |
JP2011232881A (en) | Image processor, display device, image processing method, image processing program and recording medium | |
JP5414843B2 (en) | Electronic device, image data display control method, and program | |
JP5242748B2 (en) | Information processing apparatus and screen selection method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130510 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20130510 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131217 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140422 |