JP2012073962A - Electronic device and object display method - Google Patents

Electronic device and object display method Download PDF

Info

Publication number
JP2012073962A
JP2012073962A JP2010219992A JP2010219992A JP2012073962A JP 2012073962 A JP2012073962 A JP 2012073962A JP 2010219992 A JP2010219992 A JP 2010219992A JP 2010219992 A JP2010219992 A JP 2010219992A JP 2012073962 A JP2012073962 A JP 2012073962A
Authority
JP
Japan
Prior art keywords
display
display screen
finger
displayed
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010219992A
Other languages
Japanese (ja)
Inventor
Hideki Matsumoto
英樹 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2010219992A priority Critical patent/JP2012073962A/en
Publication of JP2012073962A publication Critical patent/JP2012073962A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the inconvenience of, when an object shown on a display screen of an electronic device is moved by touching the object by a finger over a long distance, moving the finger touching the screen over the long distance.SOLUTION: An electronic device includes: display means for displaying a display screen 61 for showing an object 30; detection means for detecting a first position where the object 30 shown on the display screen 61 is specified and a second position specified on the display screen; and display means for calculating a position of the object 30 to be moved on the basis of a relative position between the detected first position and second position, and displaying a movement destination of the object 30 on the display screen.

Description

本発明の実施形態は、ユーザがディスプレイにタッチし、アイコンなどのオブジェクトを移動可能な電子機器に関する。   Embodiments described herein relate generally to an electronic device in which a user can move an object such as an icon by touching a display.

近年、ユーザがディスプレイにタッチし、アイコンなどのオブジェクトを移動可能な電子機器が普及している。
これらの中には、例えば、オブジェクトの移動元から移動先まで、ディスプレイ画面上でオブジェクトに指で触れながら軌跡を描かせる方法が採られているものがある。
In recent years, electronic devices that allow a user to touch a display and move an object such as an icon have become popular.
Among these, for example, there is a method that draws a locus while touching an object with a finger on a display screen from the movement source to the movement destination of the object.

しかし、この方法ではオブジェクトの移動距離が長い場合は、画面に触れながら指を移動させるのはユーザにとって煩わしいという問題があった。   However, this method has a problem that it is troublesome for the user to move the finger while touching the screen when the moving distance of the object is long.

特開平10−105334号公報JP-A-10-105334

電子機器の表示画面に表示されているオブジェクトを指で触れながら移動させる際、例えば、オブジェクトの移動距離が長い場合、長い距離に渡って画面に触れた指を移動させることは煩わしいという問題があり、これを解決することが課題となっていた。   When moving an object displayed on the display screen of an electronic device while touching it with a finger, for example, when the moving distance of the object is long, it is troublesome to move the finger touching the screen over a long distance. To solve this problem has been a problem.

実施形態の電子機器は、オブジェクトが表示される表示画面を表示する表示手段を備える。
また、前記表示画面に表示されているオブジェクトが指定された第1の位置と前記表示画面上に指定された第2の位置を検出する検出手段を備える。
また、前記検出された第1の位置と第2の位置の相対的な位置に基づいて前記オブジェクトが移動する位置を算出し、前記オブジェクトの移動先を前記表示画面上に表示する表示手段を備える。
The electronic device of the embodiment includes a display unit that displays a display screen on which an object is displayed.
The image processing apparatus further includes detection means for detecting a first position where the object displayed on the display screen is designated and a second position designated on the display screen.
In addition, a display unit is provided that calculates a position where the object moves based on the detected relative position between the first position and the second position, and displays the movement destination of the object on the display screen. .

実施形態に係る電子機器の構成を示す斜視図。The perspective view which shows the structure of the electronic device which concerns on embodiment. 実施形態に係る電子機器のシステム構成を示すブロック図。1 is a block diagram showing a system configuration of an electronic device according to an embodiment. 実施形態に係る電子機器において、ユーザにオブジェクトに係る第1の位置が指定される一例を示す図。The figure which shows an example in which the 1st position which concerns on an object is designated to the user in the electronic device which concerns on embodiment. 実施形態に係る電子機器において、ユーザに表示画面上の第2の位置が指定される一例を示す図。The figure which shows an example in which the 2nd position on a display screen is designated by the user in the electronic device which concerns on embodiment. 実施形態に係る電子機器において、ユーザに指定された第1の位置と第2の位置の相対的な位置に基づいてオブジェクトの移動先を表示する一例を示す図。6 is a diagram illustrating an example of displaying an object movement destination based on a relative position between a first position and a second position designated by a user in the electronic apparatus according to the embodiment. FIG. 実施形態に係る電子機器において、ユーザに指定された第2の位置の移動に応じてオブジェクトの移動先が移動する一例を示す図。6 is a diagram illustrating an example in which the destination of the object moves in accordance with the movement of the second position designated by the user in the electronic apparatus according to the embodiment. FIG. 実施形態に係る電子機器において、第1の位置でオブジェクトを移動させる動作が行われることによってオブジェクトが移動先に移動する一例を示す図。FIG. 6 is a diagram illustrating an example in which an object moves to a movement destination when an operation of moving the object at a first position is performed in the electronic apparatus according to the embodiment. 実施形態に係る電子機器において、ユーザに指定された第1の位置と第2の位置に基づいてオブジェクトの移動先を算出し、表示する手段の一例を説明する図。FIG. 6 is a diagram for explaining an example of a unit that calculates and displays an object movement destination based on a first position and a second position designated by a user in the electronic apparatus according to the embodiment. 実施形態に係る電子機器において、一の表示画面から他の表示画面にオブジェクトを移動させる一例を説明する図。6 is a diagram for explaining an example of moving an object from one display screen to another display screen in the electronic apparatus according to the embodiment. FIG. 実施形態に係る電子機器の動作を説明するフローチャート。6 is a flowchart for explaining the operation of the electronic apparatus according to the embodiment. 実施形態に係る電子機器において、移動させるオブジェクトをPC等の画面のウインドウに適用した一例を説明する図。6 is a diagram for explaining an example in which an object to be moved is applied to a window of a screen such as a PC in the electronic apparatus according to the embodiment. 実施形態に係る電子機器において、移動させるオブジェクトを直線に適用した一例を説明する図。6 is a diagram for explaining an example in which an object to be moved is applied to a straight line in the electronic apparatus according to the embodiment. FIG.

以下、図面を参照して、実施形態を説明する。
図1は、本発明の一実施形態に係る電子機器の外観を示す斜視図である。この電子機器は、例えばノートブックタイプのパーソナルコンピュータ10として実現されている。
Hereinafter, embodiments will be described with reference to the drawings.
FIG. 1 is a perspective view showing an external appearance of an electronic apparatus according to an embodiment of the present invention. This electronic apparatus is realized as a notebook type personal computer 10, for example.

図1に示すように、本コンピュータ10は、コンピュータ本体11と、ディスプレイユニット12とから構成されている。ディスプレイユニット12には、LCD(liquid crystal display)17が組み込まれている。ディスプレイユニット12は、コンピュータ本体11の上面が露出される開放位置とコンピュータ本体11の上面を覆う閉塞位置との間を回動自在にコンピュータ本体11に取り付けられている。   As shown in FIG. 1, the computer 10 includes a computer main body 11 and a display unit 12. The display unit 12 includes an LCD (liquid crystal display) 17. The display unit 12 is attached to the computer main body 11 so as to be rotatable between an open position where the upper surface of the computer main body 11 is exposed and a closed position covering the upper surface of the computer main body 11.

コンピュータ本体11は、薄い箱形の筐体を有しており、その上面には、キーボード13、本コンピュータ10を電源オン/電源オフするためのパワーボタン14、入力操作パネル15、タッチパッド16、スピーカ18A,18Bなどが配置されている。入力操作パネル15上には、各種操作ボタンが設けられている。   The computer main body 11 has a thin box-shaped casing. On the upper surface of the computer main body 11, a keyboard 13, a power button 14 for powering on / off the computer 10, an input operation panel 15, a touch pad 16, Speakers 18A, 18B, etc. are arranged. Various operation buttons are provided on the input operation panel 15.

また、コンピュータ本体11の右側面には、例えばUSB(universal serial bus)2.0規格のUSBケーブルやUSBデバイスを接続するためのUSBコネクタ19が設けられている。   Further, on the right side surface of the computer main body 11, for example, a USB (Universal Serial Bus) 2.0 standard USB cable or a USB connector 19 for connecting a USB device is provided.

さらに、コンピュータ本体11の背面には、例えばHDMI(high-definition multimedia interface)規格に対応した外部ディスプレイ接続端子(図示せず)が設けられている。この外部ディスプレイ接続端子は、デジタル映像信号を外部ディスプレイに出力するために用いられる。   Furthermore, an external display connection terminal (not shown) corresponding to, for example, the HDMI (high-definition multimedia interface) standard is provided on the back surface of the computer main body 11. This external display connection terminal is used to output a digital video signal to an external display.

図2は、本コンピュータ10のシステム構成を示す図である。
本コンピュータ10は、図2に示されているように、CPU(central processing unit)101、ノースブリッジ102、主メモリ103、サウスブリッジ104、GPU(Graphics Processing Unit)105、VRAM(ビデオRAM:random access memory)105A、サウンドコントローラ106、BIOS−ROM(basic input/output system-read only memory)107、LAN(local area network)コントローラ108、ハードディスクドライブ(HDD)109、光ディスクドライブ(ODD)110、USBコントローラ111A、カードコントローラ111B、無線LANコントローラ112、エンベデッドコントローラ/キーボードコントローラ(EC/KBC)113、EEPROM(electrically erasable programmable ROM)114等を備える。
FIG. 2 is a diagram showing a system configuration of the computer 10.
As shown in FIG. 2, the computer 10 includes a CPU (central processing unit) 101, a north bridge 102, a main memory 103, a south bridge 104, a GPU (Graphics Processing Unit) 105, a VRAM (video RAM: random access). memory) 105A, sound controller 106, BIOS-ROM (basic input / output system-read only memory) 107, LAN (local area network) controller 108, hard disk drive (HDD) 109, optical disk drive (ODD) 110, USB controller 111A , A card controller 111B, a wireless LAN controller 112, an embedded controller / keyboard controller (EC / KBC) 113, an EEPROM (electrically erasable programmable ROM) 114, and the like.

CPU101は、本コンピュータ10内の各部の動作を制御するプロセッサである。CPU101は、HDD109から主メモリ103にロードされる、オペレーティングシステム(OS)201、及びフォトムービー作成アプリケーションプログラム202のような各種アプリケーションプログラムを実行する。   The CPU 101 is a processor that controls the operation of each unit in the computer 10. The CPU 101 executes various application programs such as an operating system (OS) 201 and a photo movie creation application program 202 that are loaded from the HDD 109 to the main memory 103.

フォトムービー作成アプリケーションプログラム202は、例えばHDD109等に格納された各種デジタルコンテンツを再生するソフトウェアである。このフォトムービー作成アプリケーションプログラム202は、動画像生成機能を有している。この動画像生成機能は、例えば、HDD109等に格納された写真等の素材(デジタルコンテンツ)を用いて、動画像(フォトムービー、スライドショー)を作成する機能である。   The photo movie creation application program 202 is software that reproduces various digital contents stored in the HDD 109, for example. The photo movie creation application program 202 has a moving image generation function. This moving image generation function is a function for creating a moving image (photo movie, slide show) using a material such as a photograph (digital content) stored in the HDD 109 or the like, for example.

さらに、この動画像生成機能は、動画像の作成に用いる素材を分析する機能を含む。フォトムービー作成アプリケーションプログラム202は、素材を用いて作成された動画像を再生し、画面(LCD17)に表示する。   Further, the moving image generation function includes a function of analyzing a material used for creating a moving image. The photo movie creation application program 202 reproduces a moving image created using the material and displays it on the screen (LCD 17).

また、CPU101は、BIOS−ROM107に格納されたBIOSも実行する。BIOSは、ハードウェア制御のためのプログラムである。
ノースブリッジ102は、CPU101のローカルバスとサウスブリッジ104との間を接続するブリッジデバイスである。ノースブリッジ102には、主メモリ103をアクセス制御するメモリコントローラも内蔵されている。また、ノースブリッジ102は、例えば、PCI EXPRESS規格のシリアルバスなどを介してGPU105との通信を実行する機能も有している。
The CPU 101 also executes the BIOS stored in the BIOS-ROM 107. The BIOS is a program for hardware control.
The north bridge 102 is a bridge device that connects the local bus of the CPU 101 and the south bridge 104. The north bridge 102 also includes a memory controller that controls access to the main memory 103. The north bridge 102 also has a function of executing communication with the GPU 105 via, for example, a PCI EXPRESS serial bus.

GPU105は、本コンピュータ10のディスプレイモニタとして使用されるLCD17を制御する表示コントローラである。
このGPU105によって生成される表示信号はLCD17に送られる。また、GPU105は、HDMI制御回路3およびHDMI端子2を介して、外部ディスプレイ1にデジタル映像信号を送出することもできる。
The GPU 105 is a display controller that controls the LCD 17 used as a display monitor of the computer 10.
A display signal generated by the GPU 105 is sent to the LCD 17. The GPU 105 can also send a digital video signal to the external display 1 via the HDMI control circuit 3 and the HDMI terminal 2.

HDMI端子2は、前述の外部ディスプレイ接続端子である。HDMI端子2は、非圧縮のデジタル映像信号とデジタルオーディオ信号とを1本のケーブルでテレビのような外部ディスプレイ1に送出することができる。HDMI制御回路3は、HDMIモニタと称される外部ディスプレイ1にデジタル映像信号を、HDMI端子2を介して送出するためのインタフェースである。   The HDMI terminal 2 is the aforementioned external display connection terminal. The HDMI terminal 2 can send an uncompressed digital video signal and a digital audio signal to the external display 1 such as a television with a single cable. The HDMI control circuit 3 is an interface for sending a digital video signal to an external display 1 called an HDMI monitor via the HDMI terminal 2.

サウスブリッジ104は、PCI(Peripheral Component Interconnect)バス上の各デバイス及びLPC(Low Pin Count)バス上の各デバイスを制御する。また、サウスブリッジ104は、HDD109及びODD110を制御するためのIDE(Integrated Drive Electronics)コントローラを内蔵している。   The south bridge 104 controls each device on a peripheral component interconnect (PCI) bus and each device on a low pin count (LPC) bus. Further, the south bridge 104 includes an IDE (Integrated Drive Electronics) controller for controlling the HDD 109 and the ODD 110.

さらに、サウスブリッジ104は、サウンドコントローラ106との通信を実行する機能も有している。
サウンドコントローラ106は音源デバイスであり、再生対象のオーディオデータをスピーカ18A,18BまたはHDMI制御回路3に出力する。LANコントローラ108は、例えばIEEE 802.3規格の有線通信を実行する有線通信デバイスであり、一方、無線LANコントローラ112は、例えばIEEE 802.11g規格の無線通信を実行する無線通信デバイスである。USBコントローラ111Aは、(USBコネクタ19を介して接続される)例えばUSB 2.0規格に対応した外部機器との通信を実行する。
Further, the south bridge 104 has a function of executing communication with the sound controller 106.
The sound controller 106 is a sound source device, and outputs audio data to be reproduced to the speakers 18A and 18B or the HDMI control circuit 3. The LAN controller 108 is a wired communication device that executes IEEE 802.3 standard wired communication, for example, while the wireless LAN controller 112 is a wireless communication device that executes IEEE 802.11g standard wireless communication, for example. The USB controller 111A executes communication with an external device (connected via the USB connector 19) that supports, for example, the USB 2.0 standard.

例えば、USBコントローラ111Aは、例えば、デジタルカメラに格納されている画像データファイルを受信するために使用される。カードコントローラ111Bは、コンピュータ本体11に設けられたカードスロットに挿入される、SDカードのようなメモリカードに対するデータの書き込み及び読み出しを実行する。   For example, the USB controller 111A is used for receiving an image data file stored in a digital camera, for example. The card controller 111B executes data writing and reading with respect to a memory card such as an SD card inserted into a card slot provided in the computer main body 11.

EC/KBC113は、電力管理のためのエンベデッドコントローラと、キーボード13及びタッチパッド16を制御するためのキーボードコントローラとが集積された1チップマイクロコンピュータである。EC/KBC113は、ユーザによるパワーボタン14の操作に応じて本コンピュータ10を電源オン/電源オフする機能を有している。   The EC / KBC 113 is a one-chip microcomputer in which an embedded controller for power management and a keyboard controller for controlling the keyboard 13 and the touch pad 16 are integrated. The EC / KBC 113 has a function of turning on / off the computer 10 in accordance with the operation of the power button 14 by the user.

この実施の形態においては、表示画面上をオブジェクトの移動元から移動先への軌跡を触れ続けることなく、簡便に行わせる。
この実施の形態においては、ユーザは、例えば1つの指でオブジェクトに触れ、このオブジェクトに触れたまま、他の指で画面上に触れる。
そして、後述するように、例えば、上記1つの指と他の指の2本の指で指定されるベクトルに応じて、オブジェクトの移動先を示す的の表示を表示画面上に表示する。
In this embodiment, the user can easily perform the operation on the display screen without continuously touching the locus from the movement source to the movement destination of the object.
In this embodiment, the user touches the object with one finger, for example, and touches the object with the other finger while touching the object.
Then, as will be described later, for example, a target display indicating the destination of the object is displayed on the display screen in accordance with the vector specified by the two fingers of the one finger and the other finger.

ユーザは、この的の表示を見ながら画面上に触れている他の指の位置を移動させる。他の指の位置が移動すると上記的の表示が移動する。
そして、この的の表示を見ながら画面上に触れている他の指の位置を移動させ、オブジェクトを移動させたい位置へ的の表示を移動させ、調整する。
また、ユーザが上記1つの指(第1の指)でオブジェクトを的の表示へ向かって移動させるような動作(例えばはらう)を行うと、オブジェクトは的の表示の位置に移動する。
The user moves the position of the other finger touching the screen while viewing the target display. When the position of the other finger moves, the target display moves.
Then, while observing the target display, the position of the other finger touching the screen is moved, and the target display is moved to the position where the object is to be moved and adjusted.
In addition, when the user performs an operation (for example, to move) the object toward the target display with the one finger (first finger), the object moves to the target display position.

「はらう」とは、習字で言うところの「はね」、「とめ」、「はらい」の「はらい」に当たる仕草である。ここでは、上記のように例えば1つの指(第1の指)等で表示画面上のオブジェクトに触れ、このオブジェクトを的の表示へ向かって移動させるような動作である。   “Harau” is a gesture that corresponds to “Harai” of “Hane”, “Tome”, and “Harai” in the calligraphy. In this case, as described above, for example, an object on the display screen is touched with one finger (first finger) or the like, and this object is moved toward the target display.

図3は、実施形態に係る電子機器において、ユーザにオブジェクトに係る第1の位置が指定される一例を示す図である。
この実施の形態における電子機器の動作はCPU101に制御される。
符号61は電子機器10の映像表示部であるLCD17に表示される表示画面(ディスプレイ)である。
この実施の形態においては、映像表示部(LCD)17は、図示しないタッチセンサを備えている。そして、ユーザが映像表示部(LCD)17に触れると、ユーザに触れられたその表示画面(ディスプレイ)における位置を検出し、CPU101に報告する。
FIG. 3 is a diagram illustrating an example in which the first position related to the object is designated by the user in the electronic apparatus according to the embodiment.
The operation of the electronic device in this embodiment is controlled by the CPU 101.
Reference numeral 61 denotes a display screen (display) displayed on the LCD 17 which is a video display unit of the electronic device 10.
In this embodiment, the video display unit (LCD) 17 includes a touch sensor (not shown). When the user touches the video display unit (LCD) 17, the position on the display screen (display) touched by the user is detected and reported to the CPU 101.

なお、ここでは映像表示部(LCD)17はタッチセンサを備え、ユーザに触れられたその表示画面(ディスプレイ)における位置を検出するが、この表示画面(ディスプレイ)における位置検出は、例えば、カメラ等を別途設け、ユーザに触れられた映像表示部(LCD)17の位置を検出するように構成することも可能である。   Here, the video display unit (LCD) 17 includes a touch sensor and detects the position on the display screen (display) touched by the user. The position detection on the display screen (display) is performed by, for example, a camera or the like. It is also possible to provide a separate and detect the position of the video display unit (LCD) 17 touched by the user.

符号30は表示画面(ディスプレイ)61に表示されるオブジェクトであり、ここでは例えばアイコンである。
符号31は例えばユーザの指である。なお、ここでは指と表現したが、指以外のユーザの体の一部でも良いし、ペン等人間の体以外でも良く、表示画面(ディスプレイ)61上の位置を指定することができれば良い。これをここでは第1の指と呼ぶ。
Reference numeral 30 denotes an object displayed on a display screen (display) 61, and is an icon here, for example.
Reference numeral 31 is, for example, a user's finger. Here, although expressed as a finger, it may be a part of the user's body other than the finger, or may be other than a human body such as a pen, as long as the position on the display screen (display) 61 can be designated. This is referred to herein as the first finger.

また、タッチパッド16や本コンピュータ10に接続された外部機器等の装置を用いて、表示画面(ディスプレイ)61上の位置を間接的に指定してもよい。この表示画面(ディスプレイ)61上の位置を指定する装置は、パーソナルコンピュータ10と遠隔で通信を行う装置でもよい。   Further, the position on the display screen (display) 61 may be indirectly specified by using a device such as an external device connected to the touch pad 16 or the computer 10. The device that designates the position on the display screen (display) 61 may be a device that communicates with the personal computer 10 remotely.

なお、オブジェクトの移動先を示す的の表示とは別に、カーソル等を表示画面(ディスプレイ)61上に表示して、ユーザが表示画面(ディスプレイ)61上のどの位置を指定しているかについて示してもよい。   In addition to the target display indicating the movement destination of the object, a cursor or the like is displayed on the display screen (display) 61 to indicate which position on the display screen (display) 61 is specified by the user. Also good.

ユーザは、この第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れる。これにより、オブジェクト(アイコン)30の位置、すなわち第1の位置を指定する。   The user touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger. Thereby, the position of the object (icon) 30, that is, the first position is designated.

図4は、実施形態に係る電子機器において、ユーザに表示画面上の第2の位置が指定される一例を示す図である。
符号32は、ここでも例えばユーザの指である。上記と同様に、ここでは指と表現したが、指以外のユーザの体の一部でも良いし、ペン等人間の体以外でも良く、表示画面(ディスプレイ)61上の位置を指定することができれば良い。これをここでは第2の指と呼ぶ。このユーザの第2の指は、例えばオブジェクト(アイコン)30の周辺の領域(上記第1の指で触れられた第1の位置とは異なる位置)で表示画面(ディスプレイ)61に触れる。
FIG. 4 is a diagram illustrating an example in which the second position on the display screen is designated by the user in the electronic apparatus according to the embodiment.
Reference numeral 32 is here also the user's finger, for example. Similarly to the above, it is expressed as a finger here, but it may be a part of the user's body other than the finger, or may be other than a human body such as a pen, and the position on the display screen (display) 61 can be designated. good. This is referred to herein as the second finger. The second finger of the user touches the display screen (display) 61 in an area around the object (icon) 30 (a position different from the first position touched by the first finger), for example.

ここでは、ユーザは第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で第1の指とは異なる位置で表示画面(ディスプレイ)61に触れる。   Here, the user touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger, while the second finger is on the display screen (display) 61 at a position different from the first finger. touch.

図5は、実施形態に係る電子機器において、ユーザに指定された第1の位置と第2の位置の相対的な位置に基づいてオブジェクトの移動先を表示する一例を示す図である。   FIG. 5 is a diagram illustrating an example of displaying an object movement destination based on a relative position between the first position and the second position designated by the user in the electronic apparatus according to the embodiment.

符号33は的の表示である。
この的の表示33は例えば、第1の位置と第2の位置が上記のように指定されると、これに応じて表示される。
上記のように、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で表示画面(ディスプレイ)61に触れると、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示される。
Reference numeral 33 is a target display.
For example, when the first position and the second position are designated as described above, the target display 33 is displayed accordingly.
As described above, when the user touches the display screen (display) 61 with the second finger while touching the object (icon) 30 displayed on the display screen (display) 61 with the first finger, the object (icon) is touched. A target display 33 is displayed as the position of the 30 destination.

すなわち、上記表示画面(ディスプレイ)61に第1の指が接触する第1の位置と同じく表示画面(ディスプレイ)61に第2の指が接触する第2の位置の相対的な位置に基づいてオブジェクト(アイコン)30が移動する位置を算出し、オブジェクト(アイコン)30の移動先を表示画面上61に表示する。   That is, the object is based on the relative position of the second position where the second finger contacts the display screen (display) 61 as well as the first position where the first finger contacts the display screen (display) 61. The position where the (icon) 30 moves is calculated, and the movement destination of the object (icon) 30 is displayed on the display screen 61.

図6は、実施形態に係る電子機器において、ユーザに指定された第2の位置の移動に応じてオブジェクトの移動先が移動する一例を示す図である。
この実施の形態においては、第1の指31と第2の指32の相対的な位置に応じて的の表示33が移動する。
ユーザは第2の指を動かし、オブジェクト(アイコン)30を移動させたい位置へ的の表示33を移動させるようにする。
上記のように、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で表示画面(ディスプレイ)61に触れると、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示されている。
FIG. 6 is a diagram illustrating an example in which the destination of the object moves in accordance with the movement of the second position designated by the user in the electronic device according to the embodiment.
In this embodiment, the target display 33 moves according to the relative positions of the first finger 31 and the second finger 32.
The user moves the second finger to move the target display 33 to a position where the object (icon) 30 is to be moved.
As described above, when the user touches the display screen (display) 61 with the second finger while touching the object (icon) 30 displayed on the display screen (display) 61 with the first finger, the object (icon) is touched. A target display 33 is displayed as the position of 30 destinations.

この状態で、ユーザが表示画面(ディスプレイ)61に触れながら第2の指32を移動させる、もしくは第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指32で表示画面(ディスプレイ)61に触れる位置を移動させる。   In this state, the user moves the second finger 32 while touching the display screen (display) 61 or touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger. The position where the second finger 32 touches the display screen (display) 61 is moved.

すると、この第2の指32の位置の移動に応じて的の表示33の位置が移動する。的の表示33は上記のようにオブジェクト(アイコン)30の移動先の位置を示している。   Then, the position of the target display 33 moves in accordance with the movement of the position of the second finger 32. The target display 33 indicates the position of the movement destination of the object (icon) 30 as described above.

符号41aはユーザが触れた表示画面(ディスプレイ)61上の第2の指32の位置が移動した軌跡を示している。
そして、符号41bはこれに応じて移動した的の表示33の位置の軌跡を示している。
すなわち、ユーザが第2の指32を移動させると、これに応じて的の表示33の位置が移動する。
図7は、実施形態に係る電子機器において、第1の位置でオブジェクトを移動させる動作が行われることによってオブジェクトが移動先に移動する一例を示す図である。
Reference numeral 41 a indicates a locus of movement of the position of the second finger 32 on the display screen (display) 61 touched by the user.
Reference numeral 41b indicates the locus of the position of the target display 33 that has moved in response to this.
That is, when the user moves the second finger 32, the position of the target display 33 moves accordingly.
FIG. 7 is a diagram illustrating an example of the movement of the object to the movement destination by the operation of moving the object at the first position in the electronic apparatus according to the embodiment.

この実施の形態における動作は次の通りである。
まず、上記のように、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れながら、第2の指で表示画面(ディスプレイ)61に触れ、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示される。
The operation in this embodiment is as follows.
First, as described above, the user touches the display screen (display) 61 with the second finger while touching the object (icon) 30 displayed on the display screen (display) 61 with the first finger. ) A target display 33 is displayed as the position of the movement destination of 30.

次に、上記のように、ユーザは表示画面(ディスプレイ)61に表示されたこの的の表示33の位置を見ながら表示画面(ディスプレイ)61に触れている第2の指を移動させ、的の表示33の位置を調整する。   Next, as described above, the user moves the second finger touching the display screen (display) 61 while viewing the position of the target display 33 displayed on the display screen (display) 61, The position of the display 33 is adjusted.

次に、ユーザが的の表示33の位置、すなわちオブジェクト(アイコン)30を移動させたい位置が概ね所望の位置であると判断した場合、例えば、ユーザは上記のように表示画面(ディスプレイ)61上で的の表示61の方向に第2の指をはらう動作(移動先の方向に移動されるような動作)を行う。   Next, when the user determines that the position of the target display 33, that is, the position at which the object (icon) 30 is to be moved is generally a desired position, the user, for example, on the display screen (display) 61 as described above. Then, an operation of placing the second finger in the direction of the target display 61 (an operation of moving in the direction of the movement destination) is performed.

すると、オブジェクト(アイコン)30は的の表示33の位置へ移動する。
図8は、実施形態に係る電子機器において、ユーザに指定された第1の位置と第2の位置に基づいてオブジェクトの移動先を算出し、表示する手段の一例を説明する図である。
Then, the object (icon) 30 moves to the target display 33 position.
FIG. 8 is a diagram for explaining an example of a unit that calculates and displays the movement destination of the object based on the first position and the second position designated by the user in the electronic apparatus according to the embodiment.

符号51はベクトル1である。ベクトル1(51)は、上記ユーザに指定された第1の位置と上記第2の位置に基づくベクトルである。このベクトル1(51)は、第1の位置から第2の位置に向く方向を持ち、第1の位置と第2の位置の間の長さを持っている。   Reference numeral 51 is a vector 1. Vector 1 (51) is a vector based on the first position and the second position designated by the user. The vector 1 (51) has a direction from the first position to the second position, and has a length between the first position and the second position.

符号52はベクトル2である。ベクトル1(51)とベクトル2(51)は、ここでは、例えば次の関係で表される。ここで関数f()はベクトル1の取りうる範囲のベクトルを定義域とし、スカラー値を値域とする関数とする。   Reference numeral 52 is a vector 2. Here, the vector 1 (51) and the vector 2 (51) are expressed by the following relationship, for example. Here, the function f () is a function having a vector in the range that can be taken by the vector 1 as a domain and a scalar value as a range.

ベクトル2=f(ベクトル1)*(ベクトル1)
関数f()がベクトル1によらず定数を値としてとってもよいし、ベクトル1の長さに従属する関数でもよいし、ベクトル1の向きに従属する関数でもよい。
また、ベクトル1とベクトル2を次の関係で表すことも可能である。ここで、オブジェクト(アイコン)30の画面上における位置を表す位置ベクトルをベクトル3とする。関数g()をベクトル1の取りうる範囲のベクトルとベクトル3の取りうる値の範囲のベクトルの組を定義域とし、スカラー値を値域とする関数とする。
Vector 2 = f (vector 1) * (vector 1)
The function f () may take a constant value regardless of the vector 1, may be a function dependent on the length of the vector 1, or may be a function dependent on the direction of the vector 1.
Further, the vector 1 and the vector 2 can be expressed by the following relationship. Here, a position vector representing the position of the object (icon) 30 on the screen is set as a vector 3. The function g () is a function whose domain is a set of vectors in the range that can be taken by the vector 1 and vectors in the range of values that the vector 3 can take, and whose scalar value is the range.

ベクトル2=g(ベクトル1、ベクトル3)*(ベクトル1)
このように構成することにより、この実施の形態においては、表示画面(ディスプレイ)61内のオブジェクト(アイコン)30を移動させる際に、例えば、表示画面(ディスプレイ)61が大画面で構成され、オブジェクト(アイコン)30の移動距離が長い場合でも、上記のように、実際の移動距離よりも小さな指の動きで、オブジェクト(アイコン)30の移動を実現することが可能になる。
Vector 2 = g (vector 1, vector 3) * (vector 1)
With this configuration, in this embodiment, when the object (icon) 30 in the display screen (display) 61 is moved, for example, the display screen (display) 61 is configured as a large screen, and the object Even when the movement distance of the (icon) 30 is long, the movement of the object (icon) 30 can be realized with the movement of the finger smaller than the actual movement distance as described above.

図9は、実施形態に係る電子機器において、一の表示画面から他の表示画面にオブジェクトを移動させる一例を説明する図である。
ここでは、表示画面61に2つの表示画面(ディスプレイ1(61a)およびディスプレイ2(61b))が表示されている。
そしてここでは、ディスプレイ1(61a)に表示されているオブジェクト(アイコン)30をディスプレイ2(61b)に移動する動作が行われる。
まず、ディスプレイ1(61a)にはオブジェクト(アイコン)30が表示されている。
次に、ユーザは、オブジェクト(アイコン)30をディスプレイ2(61b)に移動するため、上記のように第1の指で表示画面(ディスプレイ)61に表示されたオブジェクト(アイコン)30に触れ、第2の指で表示画面(ディスプレイ)61に触れる。すると、オブジェクト(アイコン)30の移動先の位置として的の表示33が表示される。
FIG. 9 is a diagram illustrating an example of moving an object from one display screen to another display screen in the electronic apparatus according to the embodiment.
Here, two display screens (display 1 (61a) and display 2 (61b)) are displayed on the display screen 61.
And here, the operation | movement which moves the object (icon) 30 currently displayed on the display 1 (61a) to the display 2 (61b) is performed.
First, an object (icon) 30 is displayed on the display 1 (61a).
Next, in order to move the object (icon) 30 to the display 2 (61b), the user touches the object (icon) 30 displayed on the display screen (display) 61 with the first finger as described above. Touch the display screen 61 with two fingers. Then, a target display 33 is displayed as the position to which the object (icon) 30 is moved.

次に、ユーザは第2の指を移動させ、この的の表示33の位置がディスプレイ2(61b)に表示されるようにする。
的の表示33の位置がディスプレイ2(61b)に表示された場合に、上記のように、第2の指を的の表示33の方向にはらう動作を行う。
すると、ディスプレイ1(61a)に表示されているオブジェクト(アイコン)30がディスプレイ2(61b)に移動する。
このように構成することで、例えば、複数の表示画面(ディスプレイ1(61a)およびディスプレイ2(61b))が表示され、複数の表示画面(ディスプレイ1(61a)およびディスプレイ2(61b))間でオブジェクト(アイコン)30を移動させることが可能になる。
Next, the user moves the second finger so that the position of the target display 33 is displayed on the display 2 (61b).
When the position of the target display 33 is displayed on the display 2 (61b), the operation of holding the second finger in the direction of the target display 33 is performed as described above.
Then, the object (icon) 30 displayed on the display 1 (61a) moves to the display 2 (61b).
With this configuration, for example, a plurality of display screens (display 1 (61a) and display 2 (61b)) are displayed, and a plurality of display screens (display 1 (61a) and display 2 (61b)) are displayed. The object (icon) 30 can be moved.

図10は、実施形態に係る電子機器の動作を説明するフローチャートである。
符号S100は開始ステップである。続いて符号S101を付したステップへ進む。
符号S101はディスプレイ画面61にオブジェクト(アイコン等)30を表示するステップである。続いて符号S102を付したステップへ進む。
符号S102はユーザが第1の指31で画面のオブジェクト(アイコン等)30に触れるのを検出するステップである。続いて符号S103を付したステップへ進む。
FIG. 10 is a flowchart for explaining the operation of the electronic apparatus according to the embodiment.
Reference S100 is a start step. Then, it progresses to the step which attached | subjected code | symbol S101.
Reference numeral S <b> 101 is a step of displaying the object (icon or the like) 30 on the display screen 61. Then, it progresses to the step which attached | subjected code | symbol S102.
Reference numeral S <b> 102 is a step of detecting that the user touches the object (icon etc.) 30 on the screen with the first finger 31. Then, it progresses to the step which attached | subjected code | symbol S103.

符号S103は第1の指31は画面に触れたままユーザが第2の指32で画面に触れるのを検出するステップである。続いて符号S104を付したステップへ進む。
符号S104は第1の指31の位置と第2の指32の位置の相対的な関係から的の表示33の位置を算出するステップである。続いて符号S105を付したステップへ進む。
Reference numeral S103 is a step of detecting that the user touches the screen with the second finger 32 while the first finger 31 is touching the screen. Then, it progresses to the step which attached | subjected code | symbol S104.
Reference numeral S <b> 104 is a step of calculating the position of the target display 33 from the relative relationship between the position of the first finger 31 and the position of the second finger 32. Then, it progresses to the step which attached | subjected code | symbol S105.

符号S105は符号S104を付したステップで算出された位置に的の表示33を表示するステップである。続いて符号S106を付したステップへ進む。
符号S106は、第1の指31で触れたままオブジェクト(アイコン等)30を的の表示33の方向へ移動させるような動作(例えばはらう)を検出するステップである。検出された場合には、ユーザがオブジェクト(アイコン等)30を移動させたい位置へ画面上の的の表示33を移動させ終わったものと判断し、続いて符号S108を付したステップへ進む(Yes)。検出されない場合は、続いて符号S107を付したステップへ進む(No)。
Reference numeral S105 is a step of displaying the target display 33 at the position calculated in the step denoted by reference numeral S104. Then, it progresses to the step which attached | subjected code | symbol S106.
Reference numeral S <b> 106 is a step of detecting an action (for example, a movement) that moves the object (icon or the like) 30 in the direction of the target display 33 while being touched by the first finger 31. If detected, it is determined that the user has finished moving the target display 33 on the screen to the position where the object (icon etc.) 30 is to be moved, and the process proceeds to the step marked S108 (Yes). ). When not detected, it progresses to the step which attached | subjected code | symbol S107 subsequently (No).

符号S107は、第1の指でオブジェクト(アイコン等)30に触れながら第2の指32を動かしたかどうかを検出するステップである。検出された場合には、続いて符号S104を付したステップへ進む(Yes)。検出されない場合は、続いて符号S106を付したステップへ進む(No)。   Reference S107 is a step of detecting whether or not the second finger 32 has been moved while touching the object (such as an icon) 30 with the first finger. If it is detected, the process proceeds to the step marked S104 (Yes). When not detected, it progresses to the step which attached | subjected code | symbol S106 subsequently (No).

符号S108はオブジェクト(アイコン等)30を的の表示33の位置へ移動させるステップである。続いて符号S109を付したステップへ進む。
符号S109は的の表示33の表示を消すステップである。続いて符号S110を付したステップへ進む。
符号110は終了ステップであり、ここでの処理は終了する。
なお、特に図10では明記していないが、符号S106のステップで第1の指31で触れたままオブジェクト(アイコン等)30を的の表示33の方向へ移動させるような動作(例えばはらう)が検出されるよりも前に第1の指31が画面から離れた場合には、直ちに符号S109を付したステップへ進む。この場合、オブジェクト(アイコン等)30を的の表示33の位置へ移動させない。
Symbol S108 is a step of moving the object (icon or the like) 30 to the target display 33 position. Then, it progresses to the step which attached | subjected code | symbol S109.
Reference numeral S109 is a step of erasing the display of the target display 33. Then, it progresses to the step which attached | subjected code | symbol S110.
Reference numeral 110 denotes an end step, and the processing here ends.
Although not specifically shown in FIG. 10, an operation (for example, an operation) of moving the object (icon or the like) 30 in the direction of the target display 33 while being touched with the first finger 31 in the step of S <b> 106. If the first finger 31 has left the screen before it is detected, the process immediately proceeds to the step marked S109. In this case, the object (icon or the like) 30 is not moved to the target display 33 position.

図11は、実施形態に係る電子機器において、移動させるオブジェクトをPC等の画面のウインドウに適用した一例を説明する図である。
この実施の形態においては、上記オブジェクト(アイコン等)30の移動を例えば、PC等の表示画面のウインドウに適用する。
符号71は表示されているウインドウ、符号72は大きさを変更するウインドウである。
例えば、表示されているウインドウ71の左下隅(符号71a)を上記オブジェクト(アイコン等)30と同等として扱い、上記と同様に、ユーザが第1の指で表示画面(ディスプレイ)61に表示されたウインドウ71の左下隅71aに触れながら、第2の指で表示画面(ディスプレイ)61に触れ、ウインドウ71の左下隅71aの移動先の位置としての的の表示を表示し(図示せず)、これを見ながら表示画面(ディスプレイ)61に触れている第2の指を移動させ、的の表示の位置を調整する。
FIG. 11 is a diagram illustrating an example in which an object to be moved is applied to a window on a screen of a PC or the like in the electronic apparatus according to the embodiment.
In this embodiment, the movement of the object (icon etc.) 30 is applied to a window of a display screen such as a PC.
Reference numeral 71 denotes a displayed window, and reference numeral 72 denotes a window whose size is changed.
For example, the lower left corner (symbol 71a) of the displayed window 71 is treated as equivalent to the object (icon etc.) 30 and the user is displayed on the display screen (display) 61 with the first finger in the same manner as described above. While touching the lower left corner 71a of the window 71, the display screen (display) 61 is touched with a second finger to display a target display (not shown) as the position to which the lower left corner 71a of the window 71 is moved. The second finger touching the display screen (display) 61 is moved while viewing the screen to adjust the target display position.

そして、上記と同様に第2の指をはらう動作(移動先の方向に移動されるような動作)を行うと、ウインドウ71の左下隅71aは的の表示の位置へ移動し、図に示すようにウインドウ72の左下隅(符号71b)に移動する。   When the second finger is moved (moving in the direction of the movement destination) as described above, the lower left corner 71a of the window 71 moves to the target display position, as shown in the figure. To the lower left corner (reference numeral 71b) of the window 72.

この実施の形態においては、この71aから符号71bへの移動に伴い、ウインドウの大きさがウインドウ71からウインドウ72に変更して表示される。
このように構成することにより、この実施の形態においては、ウインドウの大きさの変更に適用することも可能である。
図12は、実施形態に係る電子機器において、移動させるオブジェクトを直線に適用した一例を説明する図である。
この実施の形態においては、上記オブジェクト(アイコン等)30の移動を例えば、直線の作成に適用する。
符号73は作成予定の直線である。
符号81aは作成予定の直線の始点、符号81bは作成予定の直線73の終点である。
例えば、作成予定の直線73の始点81aを上記オブジェクト(アイコン等)30と同等として扱い、上記と同様に、ユーザが第1の指で作成予定の直線73の始点81aに触れながら、第2の指で表示画面(ディスプレイ)61に触れ、作成予定の直線73の終点81bとしての的の表示を表示し(図示せず)、表示画面(ディスプレイ)61に触れている第2の指を移動させ、的の表示の位置を調整する。
In this embodiment, the window size is changed from the window 71 to the window 72 in accordance with the movement from 71a to 71b.
By configuring in this way, in this embodiment, the present invention can be applied to changing the size of the window.
FIG. 12 is a diagram illustrating an example in which an object to be moved is applied to a straight line in the electronic apparatus according to the embodiment.
In this embodiment, the movement of the object (icon or the like) 30 is applied to the creation of a straight line, for example.
Reference numeral 73 is a straight line to be created.
Reference numeral 81a is the start point of the straight line to be created, and reference numeral 81b is the end point of the straight line 73 to be created.
For example, the start point 81a of the straight line 73 to be created is treated as equivalent to the object (icon or the like) 30, and the second touching the start point 81a of the straight line 73 to be created with the first finger is performed as described above. The display screen (display) 61 is touched with a finger to display the target display as the end point 81b of the straight line 73 to be created (not shown), and the second finger touching the display screen (display) 61 is moved. , Adjust the display position of the target.

そして、上記と同様に第2の指をはらう動作(移動先の方向に移動されるような動作)を行うと、直線73が作成される。
このように構成することにより、この実施の形態においては、直線の作成に適用することも可能である。
上記実施の形態においては、電子機器としてノートブックタイプのパーソナルコンピュータを用いて説明を行ったが、この実施の形態はこれに限られることはなく、パーソナルコンピュータよりも小さな携帯機器やTV等大きな表示画面を備えた装置、カーナビゲーション装置、TVに利用されるリモートコントローラ等に応用することも可能である。
Then, a straight line 73 is created by performing the action of putting the second finger on (the action of moving in the direction of the movement destination) in the same manner as described above.
With this configuration, this embodiment can also be applied to the creation of a straight line.
In the above embodiment, a notebook type personal computer is used as an electronic device. However, this embodiment is not limited to this, and a large display such as a portable device or a TV smaller than the personal computer is used. The present invention can also be applied to a device having a screen, a car navigation device, a remote controller used for a TV, and the like.

また、ユーザの操作は必ずしも指で行う必要は無く、表示画面におけるオブジェクトの位置と表示画面の任意の位置が指定できれば良い。あるいは、右手と左手の両方の指で操作を行っても良い。   Further, the user's operation does not necessarily have to be performed with a finger, as long as the position of the object on the display screen and an arbitrary position on the display screen can be designated. Or you may operate with the finger of both the right hand and the left hand.

上記のように構成することによって、この発明の実施の形態においては、電子機器の表示画面に表示されているオブジェクトを指で触れて移動させる際、長い距離に渡って画面に触れた指を移動させる煩わしさを低減することが可能になる。   By configuring as described above, in the embodiment of the present invention, when the object displayed on the display screen of the electronic device is moved by touching with the finger, the finger touching the screen is moved over a long distance. It is possible to reduce troublesomeness.

なお、上記実施形態は、記述そのものに限定されるものではなく、実施段階では、その趣旨を逸脱しない範囲で、構成要素を種々変形して具体化することが可能である。   Note that the above embodiment is not limited to the description itself, and in the implementation stage, the constituent elements can be variously modified and embodied without departing from the spirit of the invention.

10…電子機器、17…映像表示部(LCD)、30…オブジェクト(アイコン)、31…ユーザの指(第1の指)、32…ユーザの指(第2の指)、33…的の表示、51…ベクトル1、52…ベクトル2、61…表示画面(ディスプレイ)。   DESCRIPTION OF SYMBOLS 10 ... Electronic device, 17 ... Video | video display part (LCD), 30 ... Object (icon), 31 ... User's finger (1st finger), 32 ... User's finger (2nd finger), 33 ... Target display 51 ... Vector 1, 52 ... Vector 2, 61 ... Display screen (display).

Claims (6)

オブジェクトが表示される表示画面を表示する表示手段と、
前記表示画面に表示されているオブジェクトが指定された第1の位置と前記表示画面上に指定された第2の位置を検出する検出手段と、
前記検出された第1の位置と第2の位置の相対的な位置に基づいて前記オブジェクトが移動する位置を算出し、前記オブジェクトの移動先を前記表示画面上に表示する表示手段を備える電子機器。
Display means for displaying a display screen on which the object is displayed;
Detecting means for detecting a first position at which an object displayed on the display screen is designated and a second position designated on the display screen;
An electronic apparatus comprising: a display unit configured to calculate a position where the object moves based on a relative position between the detected first position and second position, and to display a movement destination of the object on the display screen. .
前記表示手段は前記第2の位置が移動するとこれに応じて前記オブジェクトの移動先を移動させて表示する請求項1に記載の電子機器。   The electronic device according to claim 1, wherein when the second position moves, the display unit moves and displays the movement destination of the object according to the second position. 前記検出手段は前記指定されたオブジェクトが前記オブジェクトの移動先の方向に移動されるような動作を検出する手段をさらに備え、前記オブジェクトが移動されるような動作が検出された場合は、これに応じて前記オブジェクトを前記移動先の位置に移動して表示する請求項1に記載の電子機器。   The detection means further includes means for detecting an action such that the designated object is moved in the direction of the movement destination of the object, and if an action such that the object is moved is detected, The electronic apparatus according to claim 1, wherein the object is displayed by moving to the position of the destination. 前記検出手段はタッチセンサを備え、前記第1の位置と前記第2の位置が検出される請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the detection unit includes a touch sensor, and the first position and the second position are detected. 前記表示画面上の第1の位置の指定と前記第2の位置の指定はユーザの指で指定される請求項1に記載の電子機器。   The electronic device according to claim 1, wherein the designation of the first position on the display screen and the designation of the second position are designated by a user's finger. オブジェクトが表示される表示画面を表示するステップと、
前記表示画面に表示されているオブジェクトが指定された第1の位置と前記表示画面上に指定された第2の位置を検出するステップと、
前記検出された第1の位置と第2の位置の相対的な位置に基づいて前記オブジェクトが移動する位置を算出し、前記オブジェクトの移動先を前記表示画面上に表示するステップを備えるオブジェクトの表示方法。
Displaying a display screen on which the object is displayed;
Detecting a first position where an object displayed on the display screen is designated and a second position designated on the display screen;
An object display comprising: calculating a position where the object moves based on a relative position between the detected first position and the second position, and displaying a movement destination of the object on the display screen. Method.
JP2010219992A 2010-09-29 2010-09-29 Electronic device and object display method Pending JP2012073962A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010219992A JP2012073962A (en) 2010-09-29 2010-09-29 Electronic device and object display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010219992A JP2012073962A (en) 2010-09-29 2010-09-29 Electronic device and object display method

Publications (1)

Publication Number Publication Date
JP2012073962A true JP2012073962A (en) 2012-04-12

Family

ID=46170039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010219992A Pending JP2012073962A (en) 2010-09-29 2010-09-29 Electronic device and object display method

Country Status (1)

Country Link
JP (1) JP2012073962A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116762A (en) * 2007-11-09 2009-05-28 Sharp Corp Display
JP2009151638A (en) * 2007-12-21 2009-07-09 Canon Inc Information processor and control method thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116762A (en) * 2007-11-09 2009-05-28 Sharp Corp Display
JP2009151638A (en) * 2007-12-21 2009-07-09 Canon Inc Information processor and control method thereof

Similar Documents

Publication Publication Date Title
JP4818427B2 (en) Information processing apparatus and screen selection method
US8988342B2 (en) Display apparatus, remote controlling apparatus and control method thereof
US8610678B2 (en) Information processing apparatus and method for moving a displayed object between multiple displays
US20120299846A1 (en) Electronic apparatus and operation support method
CN108958635B (en) Mobile device displaying end effect and control method thereof
US20130342456A1 (en) Remote control apparatus and control method thereof
US20130002573A1 (en) Information processing apparatus and a method for controlling the same
JP5295839B2 (en) Information processing apparatus, focus movement control method, and focus movement control program
JP2013109421A (en) Electronic apparatus, electronic apparatus control method and electronic apparatus control program
JP2012079065A (en) Electronic device, icon display method and program for electronic device
JP2015022442A (en) Electronic device, control method of electronic device, and control program of electronic device
KR20150081657A (en) Mobile terminal and method for control thereof
JP5865615B2 (en) Electronic apparatus and control method
JP5076013B1 (en) Information processing apparatus, information processing method, and program
JP5197834B1 (en) Electronic device, electronic device control method, electronic device control program
JP4892068B2 (en) Information processing apparatus and image display method
JP2014203305A (en) Electronic apparatus, electronic apparatus control method, electronic apparatus control program
JP5851652B2 (en) Electronic device, display method and program
KR102118091B1 (en) Mobile apparatus having fuction of pre-action on object and control method thereof
US20140258923A1 (en) Apparatus and method for displaying screen image
JP5221694B2 (en) Electronic device, object display method, and object display program.
US20120151409A1 (en) Electronic Apparatus and Display Control Method
JP2011232881A (en) Image processor, display device, image processing method, image processing program and recording medium
JP5414843B2 (en) Electronic device, image data display control method, and program
JP5242748B2 (en) Information processing apparatus and screen selection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130510

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130510

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140422