JP2006011914A - Image display controller and image display control program - Google Patents
Image display controller and image display control program Download PDFInfo
- Publication number
- JP2006011914A JP2006011914A JP2004189387A JP2004189387A JP2006011914A JP 2006011914 A JP2006011914 A JP 2006011914A JP 2004189387 A JP2004189387 A JP 2004189387A JP 2004189387 A JP2004189387 A JP 2004189387A JP 2006011914 A JP2006011914 A JP 2006011914A
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- image display
- dragged
- pointing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 13
- 230000001133 acceleration Effects 0.000 claims description 9
- 238000000034 method Methods 0.000 description 23
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000007639 printing Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 2
- 230000005057 finger movement Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 238000007789 sealing Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は画像表示制御装置及び画像表示制御プログラムに係り、特にポインティングデバイス等を用いて画面に表示されている画像の移動操作を行う画像表示制御装置及び画像表示制御プログラムに関する。 The present invention relates to an image display control apparatus and an image display control program, and more particularly to an image display control apparatus and an image display control program for performing a moving operation of an image displayed on a screen using a pointing device or the like.
従来、パーソナルコンピュータや携帯情報端末(PDA)等において、マウスや入力ペン等のポインティングデバイスを用いて画面上に表示されている画像を指示しながら移動(ドラッグ)すると、そのドラッグ操作に追随して画像を画面上の所望の位置まで移動させるGUIが用いられている。例えば、特許文献1には、タッチパネル上に表示されている操作ボタン等のタッチ操作部材をドラッグ操作に付いて移動させる制御部を有する表示装置について開示されている。 Conventionally, when a personal computer or a personal digital assistant (PDA) or the like moves (drags) while pointing to an image displayed on a screen using a pointing device such as a mouse or an input pen, the drag operation is followed. A GUI that moves an image to a desired position on the screen is used. For example, Patent Literature 1 discloses a display device having a control unit that moves a touch operation member such as an operation button displayed on a touch panel in accordance with a drag operation.
上記特許文献1に開示されている表示装置は、一般に1人のユーザにより操作されることを想定し、指や入力ペン等のポインティングデバイスが直接触れる範囲にタッチ操作部材が表示されることを前提としてGUIの設計が行われている。 The display device disclosed in Patent Document 1 is generally assumed to be operated by a single user, and it is assumed that a touch operation member is displayed in a range where a pointing device such as a finger or an input pen directly touches. The GUI is designed as follows.
ところで、特許文献2には、喫茶店やレストラン等において、利用者が持参した媒体から画像データを読み取り、画像を加工してプリンタに出力する情報端末テーブルが開示されている。特許文献2に開示された情報端末テーブルによれば、1つのテーブルを1グループで利用することで、画像の表示や加工、印刷を楽しむことができる。このような場合には、天板上の画像を表示する領域はできるだけ大きく、グループ全員で画像を自由に操作できるほうが都合がよい。
上記特許文献2に係る情報端末テーブルにおいては、表示領域が大きい場合にも、利用者の手が届かない領域に表示されている画像に操作を行う必要がある。しかしながら、従来の表示装置のGUI(例えば、特許文献1)によれば、利用者の手が届かない範囲に表示されている画像の操作を行うことができないという問題があった。 In the information terminal table according to Patent Document 2, even when the display area is large, it is necessary to perform an operation on an image displayed in an area out of reach of the user. However, according to the GUI of the conventional display device (for example, Patent Document 1), there is a problem that it is not possible to operate an image displayed in a range that cannot be reached by the user.
本発明はこのような事情に鑑みてなされたもので、利用者の手が届かない位置に表示されている画像の操作を行うことができる画像表示制御装置及び画像表示制御プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and provides an image display control apparatus and an image display control program capable of operating an image displayed at a position out of reach of a user. Objective.
上記目的を達成するために請求項1に係る画像表示制御装置は、デジタル画像を入力する画像入力手段と、前記画像入力手段から入力された画像を表示する画像表示手段と、前記画像表示手段上の任意の点を指示するポインティングデバイスと、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する位置検出手段と、前記ポインティングデバイスからの入力信号に基づいて、前記画像表示手段に表示された画像の表示を制御する制御手段とを備え、前記制御手段は、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る直線上に表示されている画像を前記始点から終点の方向に移動させることを特徴とする。 In order to achieve the above object, an image display control apparatus according to claim 1 includes an image input means for inputting a digital image, an image display means for displaying an image input from the image input means, and an image display means on the image display means. A pointing device that points to an arbitrary point of the image, and when the point on the image display means is dragged by the pointing device, the position coordinates of each point on the locus follow the locus of the dragged point. And a control means for controlling the display of the image displayed on the image display means based on an input signal from the pointing device, the control means using the pointing device to When a point on the display means is dragged, the image displayed on the straight line passing through the start point and end point of the drag operation Wherein the moving from the start point toward the end point.
請求項1に係る画像表示制御装置によれば、利用者の手が届かない位置に表示されている画像を、画像表示手段上で直接タップすることなく移動させることができる。 According to the image display control apparatus of the first aspect, it is possible to move an image displayed at a position out of reach of the user without directly tapping on the image display means.
請求項2に示すように請求項1に係る画像表示制御装置において、前記制御手段は、前記始点又は終点から利用者の座席の反対側に延びる半直線上に表示されている画像を前記始点から終点の方向に移動させることを特徴とする。 As shown in claim 2, in the image display control device according to claim 1, the control means displays an image displayed on a half line extending from the start point or the end point to the opposite side of the user's seat from the start point. It is characterized by moving in the direction of the end point.
請求項2に係る画像表示制御装置によれば、利用者の手が届かない位置にある画像を移動させて、画像を手元に取り寄せたり、逆に押しやったりすることができる。 According to the image display control device of the second aspect, it is possible to move an image at a position that cannot be reached by the user and to pick up the image at hand or to push it back.
請求項3に示すように請求項1に係る画像表示制御装置において、前記制御手段は、前記ポインティングデバイスにより前記画像表示手段上の2点がほぼ同時にドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る2本の直線の間に表示されている画像を、前記始点から終点の方向に移動させることを特徴とする。 According to a third aspect of the present invention, in the image display control apparatus according to the first aspect, the control means starts the drag operation when two points on the image display means are dragged almost simultaneously by the pointing device. And an image displayed between two straight lines passing through the end point is moved from the start point to the end point.
請求項3に係る画像表示制御装置によれば、上記した効果に加え、広範囲に表示されている画像をまとめて移動させることができる。 According to the image display control apparatus of the third aspect, in addition to the above-described effect, images displayed over a wide range can be moved together.
請求項4に示すように請求項3に係る画像表示制御装置において、前記制御手段は、前記始点又は終点から利用者の座席の反対側に延びる2本の半直線の間に表示されている画像を、前記始点から終点の方向に移動させることを特徴とする。
The image display control device according to
請求項5に示すように請求項1から4に係る画像表示制御装置において、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記軌跡上の各点間の距離を算出する移動距離算出手段を更に備え、前記制御手段は、前記ドラッグ操作の始点から終点までの距離に基づいて前記画像の移動距離を決定することを特徴とする。 The image display control device according to any one of claims 1 to 4, wherein when a point on the image display means is dragged by the pointing device, a distance between the points on the locus is calculated. A moving distance calculating means for determining the moving distance of the image based on a distance from a starting point to an ending point of the drag operation.
請求項5に係る画像表示制御装置によれば、ドラッグ操作の距離と画像の移動距離の関係を調整することにより、遠くにある画像を簡単に取り寄せることができる。 According to the image display control apparatus of the fifth aspect, by adjusting the relationship between the distance of the drag operation and the moving distance of the image, it is possible to easily obtain an image at a distance.
請求項6に示すように請求項5に係る画像表示制御装置において、前記制御手段は、前記ドラッグ操作の始点から終点までの距離に所定の比例係数を乗じることにより前記画像の移動距離を決定することを特徴とする。 According to a sixth aspect of the present invention, in the image display control device according to the fifth aspect, the control means determines the moving distance of the image by multiplying a distance from the start point to the end point of the drag operation by a predetermined proportional coefficient. It is characterized by that.
請求項7に示すように請求項6に係る画像表示制御装置において、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記軌跡上の各点間の距離と通過時間とに基づいて前記各点間の移動速度を算出する移動速度算出手段を更に備え、前記制御手段は、前記移動速度に基づいて前記比例係数を決定することを特徴とする。 According to a seventh aspect of the present invention, in the image display control device according to the sixth aspect, when a point on the image display means is dragged by the pointing device, the distance between the points on the locus and the passing time The apparatus further comprises a moving speed calculating means for calculating a moving speed between the points based on the control means, and the control means determines the proportionality coefficient based on the moving speed.
請求項8に示すように請求項6に係る画像表示制御装置において、前記ポインティングデバイスが前記画像表示手段上に設けられたタッチパネルであり、前記タッチパネルに加えられる圧力の強度を検知する圧力検知手段を更に備え、前記制御手段は、前記タッチパネルに加えられる圧力に基づいて前記比例係数を決定することを特徴とする。 As shown in claim 8, in the image display control device according to claim 6, the pointing device is a touch panel provided on the image display means, and pressure detecting means for detecting the intensity of pressure applied to the touch panel. In addition, the control means may determine the proportionality coefficient based on a pressure applied to the touch panel.
請求項9に示すように請求項1から8に係る画像表示制御装置において、前記制御手段は、前記ドラッグ操作が終了すると、前記画像を前記ドラッグ操作の終了時の速度から所定の加速度で減速させて停止させることを特徴とする。 According to a ninth aspect of the present invention, in the image display control device according to the first to eighth aspects, when the drag operation ends, the control means decelerates the image at a predetermined acceleration from a speed at the end of the drag operation. And stop.
請求項10に示すように請求項9に係る画像表示制御装置において、前記所定の加速度が前記利用者の座席の近傍では大きくなることを特徴とする。 According to a tenth aspect of the present invention, in the image display control device according to the ninth aspect, the predetermined acceleration increases in the vicinity of the seat of the user.
請求項10に係る画像表示制御装置によれば、画像を利用者の近くに集めるのが容易である。 According to the image display control apparatus of the tenth aspect, it is easy to collect images near the user.
請求項11に係る画像表示制御プログラムは、画像入力手段から入力されたデジタル画像を画像表示手段に表示させる機能と、ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る直線上に表示されている画像を抽出する機能と、前記抽出された画像を前記始点から終点の方向に移動させる機能と、をコンピュータに実現させることを特徴とする。 An image display control program according to an eleventh aspect includes a function of displaying a digital image input from an image input means on the image display means, and the dragging when a point on the image display means is dragged by a pointing device. A function for detecting the position coordinates of each point on the locus following the locus of the point, and when the point on the image display means is dragged by the pointing device, the start point and end point of the drag operation And a function of extracting an image displayed on a straight line passing through and a function of moving the extracted image from the start point to the end point.
請求項12に係る画像表示制御プログラムは、画像入力手段から入力されたデジタル画像を画像表示手段に表示させる機能と、ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグ操作の始点又は終点から利用者の座席の反対側に延びる半直線上に表示されている画像を抽出する機能と、前記抽出された画像を前記始点から終点の方向に移動させる機能と、をコンピュータに実現させることを特徴とする。 An image display control program according to a twelfth aspect includes a function of displaying a digital image input from an image input unit on the image display unit, and the dragging when a point on the image display unit is dragged by a pointing device. A function of detecting the position coordinates of each point on the locus following the locus of the point, and when the point on the image display means is dragged by the pointing device, the start point or the end point of the drag operation A computer that realizes a function of extracting an image displayed on a half straight line extending from the user to the opposite side of the seat of the user and a function of moving the extracted image from the start point to the end point Features.
請求項13に係る画像表示制御プログラムは、画像入力手段から入力されたデジタル画像を画像表示手段に表示させる機能と、ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、前記ポインティングデバイスにより前記画像表示手段上の2点がほぼ同時にドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る2本の直線の間に表示されている画像を抽出する機能と、前記抽出された画像を前記始点から終点の方向に移動させる機能と、をコンピュータに実現させることを特徴とする。 An image display control program according to a thirteenth aspect includes a function of displaying a digital image input from an image input unit on the image display unit, and the dragging when a point on the image display unit is dragged by a pointing device. The function of detecting the position coordinates of each point on the locus following the locus of the point, and the drag operation when the two points on the image display means are dragged almost simultaneously by the pointing device. A computer that realizes a function of extracting an image displayed between two straight lines passing through a start point and an end point, and a function of moving the extracted image in a direction from the start point to the end point. To do.
請求項14に係る画像表示制御プログラムは、画像入力手段から入力されたデジタル画像を画像表示手段に表示させる機能と、ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、前記ポインティングデバイスにより前記画像表示手段上の2点がほぼ同時にドラッグ操作された際に、前記ドラッグ操作の始点又は終点から利用者の座席の反対側に延びる2本の半直線の間に表示されている画像を抽出する機能と、前記抽出された画像を前記始点から終点の方向に移動させる機能と、をコンピュータに実現させることを特徴とする。
The image display control program according to
本発明によれば、タッチパネル上に表示されている画像を操作する場合に、利用者の手が届かない位置に表示されている画像を容易に手元に取り寄せることができる。 ADVANTAGE OF THE INVENTION According to this invention, when manipulating the image currently displayed on a touch panel, the image currently displayed on the position which a user's hand cannot reach can be easily gathered at hand.
以下、添付図面に従って本発明に係る画像表示制御装置及び画像表示制御プログラムの好ましい実施の形態について説明する。図1は、本発明の一実施形態に係る画像表示制御装置(画像表示制御テーブル)を示す斜視図である。 Preferred embodiments of an image display control device and an image display control program according to the present invention will be described below with reference to the accompanying drawings. FIG. 1 is a perspective view showing an image display control device (image display control table) according to an embodiment of the present invention.
図1に示すように、本実施形態の画像表示制御装置10は円卓状であり、表面に画像を表示する表示部12が設けられている。上記の画像表示制御装置10は、例えば、喫茶店やレストラン等の店舗に設置される。
As shown in FIG. 1, the image
表示部12は、例えば、有機EL(electro-luminescence)や液晶ディスプレイ(LCD)、電子ペーパー等であり、タッチパネルとなっている。表示部12における指や入力ペン(スタイラスペン)等によるタッチ操作の検出方法としては、アナログ容量結合方式や超音波方式、抵抗膜方式、赤外線方式等を用いることができる。
The
なお、本実施形態においては、表示部12における画像の操作手段(図2における操作部16)として表示部12の全面にタッチパネルを設けたが、本発明はこれに限定されるものではなく、例えば、マウスやペンタブレット等のポインティングデバイスを用いてもよい。
In the present embodiment, the touch panel is provided on the entire surface of the
また、図1に示すように、表示部12の図における下面には、利用者の画像の入出力を行うメディアリーダ/ライタ(図3の符号30)等を備える入出力部14が取り付けられている。
As shown in FIG. 1, an input /
図2は、本発明の一実施形態に係る画像表示制御装置の構成を示すブロック図である。図2に示すように、画像表示制御装置10は、上述の表示部12と、入出力部14と、操作部16と、中央処理装置(CPU)18と、メモリ20と、通信I/F22とを含んでいる。
FIG. 2 is a block diagram showing a configuration of the image display control apparatus according to the embodiment of the present invention. As shown in FIG. 2, the image
操作部16は、画像表示制御装置10を操作するための装置であり、上述のように本実施形態においてはタッチパネルである。
The
CPU18は、画像表示制御装置10を統括制御する制御部である。CPU18は、操作部16等からの入力に基づいて画像表示制御装置10の動作を制御する。
The
メモリ20には、CPU18が処理するプログラム及び制御に必要な各種データ等が格納されるROMや、入出力部14を介して入力した画像や画像の表示位置座標が格納される記憶領域及びCPU18が各種の演算処理等を行う作業用領域となるSDRAM(Synchronous Dynamic RAM)等が含まれている。
The
通信I/F22は、LANに接続するための機器で、所定のプロトコルにしたがって各種データの送受信を行う。
The communication I /
図3は、入出力部14を拡大して示す斜視図である。入出力部14は、記録メディアに画像データを入出力するメディアリーダ/ライタ30と、画像に音声入出力を行うためのマイクやヘッドホン等を接続するジャック32とを備えている。メディアリーダ/ライタ30は、xDピクチャカードやコンパクトフラッシュ(CF)カード、スマートメディア、SDメモリカード(登録商標)、PCカード等の半導体メモリ、フレキシブルディスクや光磁気(MO)ディスク、CD−R/RW、DVD−RAM、DVD−R/RW等の各種記録メディアに対応している。なお、図3においては、メディアリーダ/ライタ30は1つの記録メディア挿入口として簡略化されている。
FIG. 3 is an enlarged perspective view showing the input /
また、入出力部14は、有線通信やIrDA(Infrared Data Association)やBluetooth等の無線通信に対応しており、デジタルカメラやカメラ付き携帯電話等との間で直接画像データを送受信することもできる。
The input /
以下、画像表示制御装置10の利用方法について説明する。利用者がメディアリーダ/ライタ30に記録メディアを挿入すると、記録メディアに記録されている画像データが読み取られ、表示部12に読み取られた画像データが一覧表示される。
Hereinafter, a method of using the image
利用者は、操作部16を操作して、画像の表示位置の移動、拡大/縮小、印刷指示、セーブ/消去又は動画再生等の操作を行う。また、音声付の画像の場合にはジャック32(図3参照)を利用して音声を聞くこともできる。また、利用者は、操作部16を操作して、画像への書き込み、画像の色合い等の調整、画像とテンプレート等との合成、シールやインデックスプリントの作成、ジャック32からの音声入力等、さまざまな加工を施すことができる。
The user operates the
なお、利用者が持ち込んだ画像のほかに、例えば、店内(例えば、画像表示制御装置10上)にカメラ(定点カメラ)等を設置して、このカメラによって撮影された画像についても上述のような操作等が行えるようにしてもよい。 In addition to the image brought in by the user, for example, a camera (fixed-point camera) or the like is installed in the store (for example, on the image display control device 10), and the image captured by this camera is also as described above. Operation may be performed.
利用者はメディアリーダ/ライタ30により加工した画像データをファイル出力して持ち帰ることができる。また、画像表示制御装置10はLANを介してプリンタに接続されており、各利用者は画像の印刷を行うことができる。なお、プリンタには通常の印刷用紙のほか、例えば、ラメ加工やシール加工等が施された用紙が搭載されており、各利用者は印刷用紙を選択できる。
The user can take out the image data processed by the media reader /
以下、画像表示制御装置10に表示されている画像の移動操作方法について説明する。図4は、本発明の一実施形態に係る画像の移動操作方法を模式的に示す図である。図4に示す点Aはドラッグ操作の始点であり、点Cは終点、点Bはドラッグ操作の経路上の点である。図4の矩形の領域52は表示部12に表示されている画像である。なお、図4には説明のためxy座標軸が示されており、利用者の座席は図4の原点の位置にあるとする。
Hereinafter, a method for moving the image displayed on the image
図5は、本発明の一実施形態に係る画像の移動操作方法を示すフローチャートである。まず、表示部12上において画像が表示されていない点Aがタッチされると(図4参照)、操作部(タッチパネル)16のタッチセンサによりこのタッチ操作が検出される(ステップS10)。すると、操作部16からのタッチ検出信号に基づいて、図示せぬタイマーでカウントが開始され、ドラッグ操作に追随して所定の時間間隔ごとにタッチ位置の座標が検出される。このタッチ位置の座標は、移動距離や移動速度等とともにメモリ(SDRAM)20のポインティングテーブルに記録される。
FIG. 5 is a flowchart illustrating an image moving operation method according to an embodiment of the present invention. First, when a point A at which no image is displayed on the
図6は、ポインティングテーブルの例を示す図である。図6に示すポインティングテーブル40には、所定の間隔ごとに検出されたタッチ位置の座標と、直前の検出点からの移動距離、及び移動速度が記録されている。この移動距離はCPU18により検出点の座標から算出され、移動速度は、移動距離とタイマーのカウント数から算出される。
FIG. 6 is a diagram illustrating an example of a pointing table. In the pointing table 40 shown in FIG. 6, the coordinates of the touch position detected at predetermined intervals, the movement distance from the immediately preceding detection point, and the movement speed are recorded. This moving distance is calculated from the coordinates of the detection point by the
図4のフローチャートの説明に戻ると、次にステップS12に進み、ドラッグ方向判定アルゴリズムによりドラッグ操作の方向が検出される。 Returning to the description of the flowchart of FIG. 4, the process proceeds to step S12, and the direction of the drag operation is detected by the drag direction determination algorithm.
図7は、ドラッグ方向判定アルゴリズムを示すフローチャートである。まず、ドラッグ操作が検知されると(図4のステップS10)、ポインティングテーブル40(図6参照)から始点Aと、2番目の検出点Bの座標が読み出される(ステップS30)。次に、点Aと点Bの座標から線分ABの傾きk(=(Ya−Yb)/(Xa−Xb))が算出される(ステップS32)。これによりドラッグ方向が得られる。 FIG. 7 is a flowchart showing the drag direction determination algorithm. First, when a drag operation is detected (step S10 in FIG. 4), the coordinates of the start point A and the second detection point B are read from the pointing table 40 (see FIG. 6) (step S30). Next, the slope k (= (Ya−Yb) / (Xa−Xb)) of the line segment AB is calculated from the coordinates of the points A and B (step S32). This gives the drag direction.
なお、本実施形態においては、始点Aと2番目の検出点Bからドラッグ方向を算出することとしたが、3番目以降の検出点を用いてドラッグ方向の算出を行ってもよい。 In the present embodiment, the drag direction is calculated from the start point A and the second detection point B, but the drag direction may be calculated using the third and subsequent detection points.
ここで、3番目以降の検出点Dを用いてドラッグ方向の算出を行う場合について説明する。図8は、始点Aと点Dからドラッグ方向を算出する方法を示す図である。図8に示すように、始点Aと点Dの間に検出点がある場合には、線分AD(図中の一点鎖線)の傾きをドラッグ方向としてもよいし、点Aと点D間の検出点群を最小自乗近似して得られる直線42の傾きをドラッグ方向としてもよい。
Here, a case where the drag direction is calculated using the third and subsequent detection points D will be described. FIG. 8 is a diagram illustrating a method of calculating the drag direction from the start point A and the point D. As shown in FIG. 8, when there is a detection point between the starting point A and the point D, the slope of the line segment AD (a chain line in the figure) may be the drag direction, or between the point A and the point D The slope of the
再び、図4のフローチャートの説明に戻ると、次にステップS14に進み、選択画像判定アルゴリズムにより移動対象画像が選択される。このとき、例えば、選択された画像52の枠の色が変わる等の方法で利用者にどの画像が選択されたかが表示される。
Returning to the description of the flowchart of FIG. 4 again, the process proceeds to step S14, and the movement target image is selected by the selection image determination algorithm. At this time, for example, which image is selected is displayed to the user by a method such as changing the color of the frame of the selected
図9は、選択画像判定アルゴリズムを示すフローチャートである。まず、始点Aから表示部12の縁(END)まで傾きkで利用者の座席の反対側に延びる半直線50(図4参照)上に表示されている画像が検索される(ステップS40)。次に、半直線50上の表示画像52が移動対象画像として選択される(ステップS42)。
FIG. 9 is a flowchart showing the selected image determination algorithm. First, an image displayed on a half line 50 (see FIG. 4) extending from the starting point A to the edge (END) of the
図10は、移動対象画像の選択方法を説明するための図である。図10(a)に示すように、半直線50に触れる画像52が移動対象画像となる。
FIG. 10 is a diagram for explaining a method of selecting a movement target image. As shown in FIG. 10A, an
なお、本実施形態においては、図10(b)に示すように、画像52の中心の領域52A(例えば、画像の面積の50%程度の矩形領域)が半直線50に触れる場合に移動対象画像としてもよい。
In the present embodiment, as shown in FIG. 10B, when the
なお、本実施形態においては、半直線50上の画像52がすべて移動対象画像となるようにしてもよいし、一部(例えば、利用者から所定の距離以上はなれた画像)でもよい。
In the present embodiment, all the
また、本実施形態においては、利用者の座席から見て反対側に延びる半直線上の画像を移動させることとしたが、ドラッグ操作の始点と終点を通る直線上の画像を移動させるようにしてもよい。この場合、ドラッグの始点より利用者側に表示されている画像の操作も行うことができる。 In this embodiment, the image on the half line extending to the opposite side as viewed from the user's seat is moved. However, the image on the line passing through the start point and the end point of the drag operation is moved. Also good. In this case, an image displayed on the user side from the starting point of dragging can also be operated.
再び、図4のフローチャートの説明に戻ると、次にステップS16に進み、点Aと点C間の移動距離L(A→C)が算出される。ステップS16において、移動距離L(A→C)はポインティングテーブル40の移動距離(La、…、Lb、…、Lc)の和として算出される。 Returning to the description of the flowchart of FIG. 4 again, the process proceeds to step S16, where a movement distance L (A → C) between the points A and C is calculated. In step S16, the movement distance L (A → C) is calculated as the sum of the movement distances (La,..., Lb,..., Lc) of the pointing table 40.
そして、移動距離判定アルゴリズム(後述)により移動対象画像の移動距離が算出され(ステップS18)、移動対象画像の表示位置がステップS18で算出された移動距離及びステップS12で検出されたドラッグ方向にしたがって表示部12を移動される(ステップS20)。
Then, the movement distance of the movement target image is calculated by a movement distance determination algorithm (described later) (step S18), and the display position of the movement target image is determined according to the movement distance calculated in step S18 and the drag direction detected in step S12. The
これにより、図4に示すように、画像に直接タッチすることなく、画像を利用者の座席側に手繰りよせることができる。また、点Bから点Aの方向にドラッグ操作を行えば、画像を利用者の反対方向に押しやることもできる。 As a result, as shown in FIG. 4, the image can be moved toward the user's seat without directly touching the image. Also, if a drag operation is performed in the direction from point B to point A, the image can be pushed in the opposite direction of the user.
次に、移動距離判定アルゴリズムの例について説明する。図11は、ドラッグ操作の指の動きと画像の移動を対応させて示す図である。図11に示すように、始点Aから終点Cまでのドラッグ操作に伴って移動対象画像52が表示部12上の点Pから点Qまで移動する場合、画像の移動距離L(P→Q)は次の式(1)で表される。
Next, an example of the movement distance determination algorithm will be described. FIG. 11 is a diagram illustrating correspondence between the finger movement of the drag operation and the movement of the image. As shown in FIG. 11, when the
L(P→Q)=nL(A→C) (1)
ここで、nは比例係数であり、例えば、n≧1である。
L (P → Q) = nL (A → C) (1)
Here, n is a proportionality coefficient, for example, n ≧ 1.
本実施形態によれば、比例係数nを1より大きくすることで、利用者は遠くにある画像を小さなドラッグ操作で手元に取り寄せることができる。 According to the present embodiment, by setting the proportionality coefficient n to be greater than 1, the user can obtain a distant image by a small drag operation.
なお、比例係数nは利用者からの距離に応じて変化するように(例えば、利用者の座席から遠いほど比例係数nが大きくなるように)してもよい。 Note that the proportional coefficient n may be changed according to the distance from the user (for example, the proportional coefficient n increases as the distance from the user's seat increases).
また、上記の実施形態においては、比例係数nを任意に決めることができるが、例えば、タッチ圧力やドラッグ操作の移動速度等に応じて比例係数nを変化させることとしてもよい。 In the above-described embodiment, the proportional coefficient n can be arbitrarily determined. For example, the proportional coefficient n may be changed according to the touch pressure, the moving speed of the drag operation, or the like.
図12はタッチ圧力と比例係数nの値の対応の例を示す図であり、図13はドラッグ操作の移動速度と比例係数nの値の対応の例を示す図である。なお、図12及び図13に示されているnの値はあくまで例であり、これらの値は表示部12の大きさ等に応じて操作性を考慮した上で決定される。
FIG. 12 is a diagram illustrating an example of correspondence between the touch pressure and the value of the proportional coefficient n, and FIG. 13 is a diagram illustrating an example of correspondence between the moving speed of the drag operation and the value of the proportional coefficient n. Note that the values of n shown in FIGS. 12 and 13 are merely examples, and these values are determined in consideration of operability in accordance with the size of the
また、上述の移動距離判定アルゴリズムにおいては、ドラッグの終了とともに画像が停止するようにしたが、表示部12から手が離れてドラッグ操作が解除された後、画像が所定の距離移動してから停止するようにしてもよい。
In the above moving distance determination algorithm, the image is stopped when the drag ends. However, after the hand is released from the
図14は、ドラッグ操作の指の動きと画像の移動を対応させて示す図である。図14に示すように、始点Aから終点Cまでのドラッグ操作に伴って移動対象画像52が表示部12上の点Pから点Q’まで移動する。そして、利用者が終点Cで手を離すと、画像52は所定の加速度で減速して点Qで停止する。
FIG. 14 is a diagram illustrating correspondence between the finger movement of the drag operation and the movement of the image. As shown in FIG. 14, the
点Q’における移動速度をVc、加速度をa、ドラッグ終了時からの経過時間をtとすると、画像52の移動速度Vは次の式(2)で表される。
If the moving speed at the point Q ′ is Vc, the acceleration is a, and the elapsed time from the end of the drag is t, the moving speed V of the
V=Vc−at (2)
なお、この場合、加速度aは可変でもよい。例えば、利用者の座席付近の点Rから加速度aの値を大きくすれば、利用者の手前の見やすい位置で画像を停止させることができるため、操作性が向上する。また、加速度aの向きについても利用者の座席の近くに向かうようにすれば更に操作性の向上が期待できる。
V = Vc-at (2)
In this case, the acceleration a may be variable. For example, if the value of the acceleration a is increased from the point R in the vicinity of the user's seat, the image can be stopped at a position that is easy to see in front of the user, so that the operability is improved. Further, with regard to the direction of the acceleration a, the operability can be further improved if the direction is closer to the user's seat.
次に、画像の移動操作方法の別の例について説明する。図15は、本発明の別の実施形態に係る画像の移動操作方法を模式的に示す図である。図15において、点A1及びA2はドラッグ操作の始点であり、点C1及びC2は終点、点B1及びB2はドラッグ操作の指の経路上の点である。図15の矩形の領域52は表示部12に表示されている画像である。
Next, another example of the image moving operation method will be described. FIG. 15 is a diagram schematically illustrating an image moving operation method according to another embodiment of the present invention. In FIG. 15, points A1 and A2 are starting points of the drag operation, points C1 and C2 are end points, and points B1 and B2 are points on the path of the finger of the drag operation. A
図16は、本発明の別の実施形態に係る画像の移動操作方法を示すフローチャートである。また、図17〜19は、ドラッグ操作の態様を示す図である。 FIG. 16 is a flowchart showing an image moving operation method according to another embodiment of the present invention. FIGS. 17 to 19 are diagrams showing modes of the drag operation.
まず、図15に示すように、表示部12上の2点A1とA2がほぼ同時にタッチされると、操作部(タッチパネル)16のタッチセンサによりタッチ操作が検出される(ステップS50)。すると、上述の実施形態と同様に、操作部16からのタッチ検出信号に基づいて、図示せぬタイマーでカウントが開始され、所定の時間間隔ごとにタッチ位置の座標が算出される。このタッチ位置の座標は、移動距離や移動速度等とともにメモリ(SDRAM)20のポインティングテーブルに記録される。
First, as shown in FIG. 15, when two points A1 and A2 on the
次に、ドラッグ方向判定アルゴリズムにより、2点A1とA2を始点とするドラッグ操作のそれぞれのドラッグ方向(傾きk1、k2)が検出される(ステップS52)。なお、ドラッグ方向判定アルゴリズムについては、上述の実施形態と同様であるため説明を省略する。 Next, the drag directions (inclinations k1, k2) of the drag operation starting from the two points A1 and A2 are detected by the drag direction determination algorithm (step S52). Note that the drag direction determination algorithm is the same as that in the above-described embodiment, and thus description thereof is omitted.
そして、選択画像判定アルゴリズムにより移動対象画像が選択される(ステップS54)。図15に示すように、線分A1A2に略垂直な方向にドラッグされた場合には、始点A1とA2からそれぞれ傾きk1、k2で利用者の座席の反対側に延びる半直線50−1、50−2の間の領域(選択領域)に表示されている画像52が移動対象画像として選択される。
Then, the movement target image is selected by the selected image determination algorithm (step S54). As shown in FIG. 15, when dragged in a direction substantially perpendicular to the line segment A1A2, half straight lines 50-1 and 50 that extend from the starting points A1 and A2 to the opposite side of the user's seat at inclinations k1 and k2, respectively. The
なお、図17に示すように、2つのドラッグ経路が略平行(y方向)で、始点A1とA2の位置がy方向にずれている場合には、線分A1A2がドラッグ経路に略垂直になるように回転された線分が選択領域の幅となる。 As shown in FIG. 17, when the two drag paths are substantially parallel (y direction) and the positions of the starting points A1 and A2 are shifted in the y direction, the line segment A1A2 is substantially perpendicular to the drag path. The line segment thus rotated becomes the width of the selected area.
また、図18に示すように、表示部12上で3以上の点が同時にタッチされた場合には、選択領域の幅が最大となるように選択領域の幅が設定される。図18においては、線分A1A5が選択領域の幅となる。
As shown in FIG. 18, when three or more points are touched simultaneously on the
なお、本実施形態においては、利用者の座席から見て反対側に延びる2本の半直線の間の画像を移動させることとしたが、ドラッグ操作の始点と終点を通る2本の直線の間の画像を移動させることとしてもよい。 In the present embodiment, the image between the two half lines extending in the opposite direction when viewed from the user's seat is moved, but between the two straight lines passing through the starting point and the ending point of the drag operation. The image may be moved.
その次に、各ドラッグ操作の移動距離L(A1→C1)、L(A2→C2)が算出され(ステップS56)、移動距離判定アルゴリズムにより移動対象画像の移動距離が算出される(ステップS58)。ここで、画像の移動距離は、各ドラッグ操作の移動距離L(A1→C1)、L(A2→C2)のいずれか一方、又は平均を用いて、上述の実施形態と同様に算出される。 Next, the movement distances L (A1 → C1) and L (A2 → C2) of each drag operation are calculated (step S56), and the movement distance of the movement target image is calculated by the movement distance determination algorithm (step S58). . Here, the moving distance of the image is calculated in the same manner as in the above-described embodiment, using one of the moving distances L (A1 → C1) and L (A2 → C2) of each drag operation, or the average.
また、移動対象画像の移動方向については、半直線50−1及び50−2の方向ベクトルの合成ベクトル方向から算出される。なお、移動方向は半直線50−1又は50−2の方向ベクトルのいずれか一方としてもよい。 Further, the movement direction of the movement target image is calculated from the combined vector direction of the direction vectors of the half lines 50-1 and 50-2. The moving direction may be either one of the direction vectors of the half lines 50-1 or 50-2.
なお、図19に示すように、2つのドラッグ経路が略扇形状の場合には、画像の移動方向は半直線50−1及び50−2の利用者側への延長線の交点E(扇の要の位置)に向かって移動することとしてもよい。 As shown in FIG. 19, when the two drag paths are substantially fan-shaped, the moving direction of the image is the intersection E of the extension lines to the user side of the half lines 50-1 and 50-2 (fan-shaped It is good also as moving toward the important position.
そして、移動対象画像の表示位置がステップS58で算出された移動距離及び上記の移動距離にしたがって表示部12を移動される(ステップS60)。
Then, the display position of the movement target image is moved on the
なお、入力ペンを用いて本実施形態の操作を行う場合には、入力ペンを2本用いて同様の操作をしてもよいし、1本の入力ペンで選択領域の設定を行えるようにしてもよい。ここで、1本の入力ペンで選択領域を設定する場合には、例えば、始めに始点A1をダブルクリック等の操作により選択し、2つ目の始点A2をドラッグすることにより、上記と同様の処理を行うことができる。 When the operation of this embodiment is performed using an input pen, the same operation may be performed using two input pens, or a selection area can be set with one input pen. Also good. Here, when the selection area is set with one input pen, for example, the start point A1 is first selected by an operation such as double-clicking, and the second start point A2 is dragged. Processing can be performed.
10…画像表示制御装置、12…表示部、14…入出力部、16…操作部、18…CPU、20…メモリ、22…通信I/F、40…ポインティングテーブル
DESCRIPTION OF
Claims (14)
前記画像入力手段から入力された画像を表示する画像表示手段と、
前記画像表示手段上の任意の点を指示するポインティングデバイスと、
前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する位置検出手段と、
前記ポインティングデバイスからの入力信号に基づいて、前記画像表示手段に表示された画像の表示を制御する制御手段とを備え、
前記制御手段は、前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る直線上に表示されている画像を前記始点から終点の方向に移動させることを特徴とする画像表示制御装置。 An image input means for inputting a digital image;
Image display means for displaying an image input from the image input means;
A pointing device for indicating an arbitrary point on the image display means;
Position detecting means for detecting a position coordinate of each point on the trajectory following the trajectory of the dragged point when a point on the image display means is dragged by the pointing device;
Control means for controlling display of an image displayed on the image display means based on an input signal from the pointing device;
When the point on the image display means is dragged by the pointing device, the control means moves the image displayed on the straight line passing through the start point and the end point of the drag operation from the start point to the end point. An image display control device characterized in that
前記制御手段は、前記ドラッグ操作の始点から終点までの距離に基づいて前記画像の移動距離を決定することを特徴とする請求項1から4のいずれか1項記載の画像表示制御装置。 When the point on the image display means is dragged by the pointing device, the apparatus further comprises a movement distance calculation means for calculating a distance between the points on the locus.
5. The image display control apparatus according to claim 1, wherein the control unit determines a moving distance of the image based on a distance from a start point to an end point of the drag operation.
前記制御手段は、前記移動速度に基づいて前記比例係数を決定することを特徴とする請求項6記載の画像表示制御装置。 A moving speed calculating means for calculating a moving speed between the points based on a distance and a passing time between the points on the trajectory when a point on the image display means is dragged by the pointing device; In addition,
The image display control apparatus according to claim 6, wherein the control unit determines the proportionality coefficient based on the moving speed.
前記タッチパネルに加えられる圧力の強度を検知する圧力検知手段を更に備え、
前記制御手段は、前記タッチパネルに加えられる圧力に基づいて前記比例係数を決定することを特徴とする請求項6記載の画像表示制御装置。 The pointing device is a touch panel provided on the image display means;
Further comprising pressure detection means for detecting the intensity of pressure applied to the touch panel;
The image display control apparatus according to claim 6, wherein the control unit determines the proportionality coefficient based on a pressure applied to the touch panel.
ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、
前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る直線上に表示されている画像を抽出する機能と、
前記抽出された画像を前記始点から終点の方向に移動させる機能と、
をコンピュータに実現させることを特徴とする画像表示制御プログラム。 A function for displaying a digital image input from the image input means on the image display means;
A function of detecting a position coordinate of each point on the locus following the locus of the dragged point when a point on the image display means is dragged by a pointing device;
A function of extracting an image displayed on a straight line passing through a start point and an end point of the drag operation when a point on the image display means is dragged by the pointing device;
A function of moving the extracted image from the start point to the end point;
An image display control program for causing a computer to realize the above.
ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、
前記ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグ操作の始点又は終点から利用者の座席の反対側に延びる半直線上に表示されている画像を抽出する機能と、
前記抽出された画像を前記始点から終点の方向に移動させる機能と、
をコンピュータに実現させることを特徴とする画像表示制御プログラム。 A function for displaying a digital image input from the image input means on the image display means;
A function of detecting a position coordinate of each point on the locus following the locus of the dragged point when a point on the image display means is dragged by a pointing device;
A function of extracting an image displayed on a half line extending from the start point or end point of the drag operation to the opposite side of the user's seat when a point on the image display means is dragged by the pointing device; ,
A function of moving the extracted image from the start point to the end point;
An image display control program for causing a computer to realize the above.
ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、
前記ポインティングデバイスにより前記画像表示手段上の2点がほぼ同時にドラッグ操作された際に、前記ドラッグ操作の始点と終点を通る2本の直線の間に表示されている画像を抽出する機能と、
前記抽出された画像を前記始点から終点の方向に移動させる機能と、
をコンピュータに実現させることを特徴とする画像表示制御プログラム。 A function for displaying a digital image input from the image input means on the image display means;
A function of detecting a position coordinate of each point on the locus following the locus of the dragged point when a point on the image display means is dragged by a pointing device;
A function of extracting an image displayed between two straight lines passing through a start point and an end point of the drag operation when two points on the image display means are dragged almost simultaneously by the pointing device;
A function of moving the extracted image from the start point to the end point;
An image display control program for causing a computer to realize the above.
ポインティングデバイスにより前記画像表示手段上の点がドラッグ操作された際に、前記ドラッグされた点の軌跡に追随して前記軌跡上の各点の位置座標を検出する機能と、
前記ポインティングデバイスにより前記画像表示手段上の2点がほぼ同時にドラッグ操作された際に、前記ドラッグ操作の始点又は終点から利用者の座席の反対側に延びる2本の半直線の間に表示されている画像を抽出する機能と、
前記抽出された画像を前記始点から終点の方向に移動させる機能と、
をコンピュータに実現させることを特徴とする画像表示制御プログラム。 A function for displaying a digital image input from the image input means on the image display means;
A function of detecting a position coordinate of each point on the locus following the locus of the dragged point when a point on the image display means is dragged by a pointing device;
When two points on the image display means are dragged almost simultaneously by the pointing device, they are displayed between two half lines extending from the start point or end point of the drag operation to the opposite side of the user's seat. A function to extract the image
A function of moving the extracted image from the start point to the end point;
An image display control program for causing a computer to realize the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004189387A JP4045550B2 (en) | 2004-06-28 | 2004-06-28 | Image display control apparatus and image display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004189387A JP4045550B2 (en) | 2004-06-28 | 2004-06-28 | Image display control apparatus and image display control program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006011914A true JP2006011914A (en) | 2006-01-12 |
JP4045550B2 JP4045550B2 (en) | 2008-02-13 |
Family
ID=35779100
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004189387A Expired - Fee Related JP4045550B2 (en) | 2004-06-28 | 2004-06-28 | Image display control apparatus and image display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4045550B2 (en) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008299619A (en) * | 2007-05-31 | 2008-12-11 | Toshiba Corp | Mobile device, data transfer method, and data transfer system |
JP2010039558A (en) * | 2008-07-31 | 2010-02-18 | Canon Inc | Information processing apparatus and control method thereof |
WO2010035491A1 (en) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | User interface device, user interface method, and recording medium |
WO2011058783A1 (en) * | 2009-11-10 | 2011-05-19 | 株式会社ソニー・コンピュータエンタテインメント | Method for controlling information input apparatus, information input apparatus, program, and information storage medium |
JP2011123773A (en) * | 2009-12-11 | 2011-06-23 | Kyocera Corp | Device having touch sensor, tactile feeling presentation method, and tactile feeling presentation program |
JP2011145779A (en) * | 2010-01-12 | 2011-07-28 | Canon Inc | Information processing apparatus, information processing method thereof, and program |
KR101055579B1 (en) * | 2007-12-11 | 2011-08-08 | 제이 터치 코퍼레이션 | How to determine a plurality of touch inputs on a resistive touch screen |
WO2012160920A1 (en) * | 2011-05-24 | 2012-11-29 | シャープ株式会社 | Information processing device, control method for information processing device, information processing device control program and computer-readable recording medium in which said program is recorded |
WO2013084560A1 (en) | 2011-12-07 | 2013-06-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Method of displaying electronic document, and apparatus and computer program therefor |
JP2013210963A (en) * | 2012-03-30 | 2013-10-10 | Denso Corp | Display control device and program |
JP2013254497A (en) * | 2012-06-07 | 2013-12-19 | Dassault Systemes | Method and system for dynamically manipulating assembly of objects in three-dimensional scene of system of computer-aided design |
JP2014016927A (en) * | 2012-07-11 | 2014-01-30 | Fuji Xerox Co Ltd | Information processing device and program |
JP2014085792A (en) * | 2012-10-23 | 2014-05-12 | Fuji Xerox Co Ltd | Information processing device and program |
JP2015015045A (en) * | 2008-07-17 | 2015-01-22 | 日本電気株式会社 | Information processing device, program, and information processing method |
JP2015088090A (en) * | 2013-11-01 | 2015-05-07 | シャープ株式会社 | Operation display device, and operation display method and program |
JP2015118507A (en) * | 2013-12-18 | 2015-06-25 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method, device, and computer program for selecting object |
JP2017091300A (en) * | 2015-11-12 | 2017-05-25 | 京セラドキュメントソリューションズ株式会社 | Operation input device and operation input method |
WO2018096827A1 (en) * | 2016-11-25 | 2018-05-31 | ソニー株式会社 | Display control device, display control method, and computer program |
JP2019125080A (en) * | 2018-01-15 | 2019-07-25 | 富士通株式会社 | Display control program, display control method and display control device |
CN117472380A (en) * | 2023-12-28 | 2024-01-30 | 江西铜锐信息技术有限公司 | Front-end form generation method and system |
-
2004
- 2004-06-28 JP JP2004189387A patent/JP4045550B2/en not_active Expired - Fee Related
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008299619A (en) * | 2007-05-31 | 2008-12-11 | Toshiba Corp | Mobile device, data transfer method, and data transfer system |
KR101055579B1 (en) * | 2007-12-11 | 2011-08-08 | 제이 터치 코퍼레이션 | How to determine a plurality of touch inputs on a resistive touch screen |
JP2015015045A (en) * | 2008-07-17 | 2015-01-22 | 日本電気株式会社 | Information processing device, program, and information processing method |
JP2010039558A (en) * | 2008-07-31 | 2010-02-18 | Canon Inc | Information processing apparatus and control method thereof |
WO2010035491A1 (en) * | 2008-09-29 | 2010-04-01 | パナソニック株式会社 | User interface device, user interface method, and recording medium |
US8451216B2 (en) | 2008-09-29 | 2013-05-28 | Panasonic Corporation | User interface device, user interface method, and recording medium |
KR101366813B1 (en) * | 2009-11-10 | 2014-02-25 | 소니 컴퓨터 엔터테인먼트 인코포레이티드 | Method for controlling information input apparatus, information input apparatus, program, and information storage medium |
US9250799B2 (en) | 2009-11-10 | 2016-02-02 | Sony Corporation | Control method for information input device, information input device, program therefor, and information storage medium therefor |
WO2011058783A1 (en) * | 2009-11-10 | 2011-05-19 | 株式会社ソニー・コンピュータエンタテインメント | Method for controlling information input apparatus, information input apparatus, program, and information storage medium |
CN102317892A (en) * | 2009-11-10 | 2012-01-11 | 索尼计算机娱乐公司 | Method for controlling information input apparatus, information input apparatus, program, and information storage medium |
JP2011123773A (en) * | 2009-12-11 | 2011-06-23 | Kyocera Corp | Device having touch sensor, tactile feeling presentation method, and tactile feeling presentation program |
JP2011145779A (en) * | 2010-01-12 | 2011-07-28 | Canon Inc | Information processing apparatus, information processing method thereof, and program |
WO2012160920A1 (en) * | 2011-05-24 | 2012-11-29 | シャープ株式会社 | Information processing device, control method for information processing device, information processing device control program and computer-readable recording medium in which said program is recorded |
WO2013084560A1 (en) | 2011-12-07 | 2013-06-13 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Method of displaying electronic document, and apparatus and computer program therefor |
US11150785B2 (en) | 2011-12-07 | 2021-10-19 | International Business Machines Corporation | Displaying an electronic document |
JP2013210963A (en) * | 2012-03-30 | 2013-10-10 | Denso Corp | Display control device and program |
JP2013254497A (en) * | 2012-06-07 | 2013-12-19 | Dassault Systemes | Method and system for dynamically manipulating assembly of objects in three-dimensional scene of system of computer-aided design |
JP2014016927A (en) * | 2012-07-11 | 2014-01-30 | Fuji Xerox Co Ltd | Information processing device and program |
JP2014085792A (en) * | 2012-10-23 | 2014-05-12 | Fuji Xerox Co Ltd | Information processing device and program |
JP2015088090A (en) * | 2013-11-01 | 2015-05-07 | シャープ株式会社 | Operation display device, and operation display method and program |
US9405390B2 (en) | 2013-12-18 | 2016-08-02 | International Business Machines Corporation | Object selection for computer display screen |
JP2015118507A (en) * | 2013-12-18 | 2015-06-25 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | Method, device, and computer program for selecting object |
JP2017091300A (en) * | 2015-11-12 | 2017-05-25 | 京セラドキュメントソリューションズ株式会社 | Operation input device and operation input method |
WO2018096827A1 (en) * | 2016-11-25 | 2018-05-31 | ソニー株式会社 | Display control device, display control method, and computer program |
US11023050B2 (en) | 2016-11-25 | 2021-06-01 | Sony Corporation | Display control device, display control method, and computer program |
JP2019125080A (en) * | 2018-01-15 | 2019-07-25 | 富士通株式会社 | Display control program, display control method and display control device |
CN117472380A (en) * | 2023-12-28 | 2024-01-30 | 江西铜锐信息技术有限公司 | Front-end form generation method and system |
CN117472380B (en) * | 2023-12-28 | 2024-03-22 | 江西铜锐信息技术有限公司 | Front-end form generation method and system |
Also Published As
Publication number | Publication date |
---|---|
JP4045550B2 (en) | 2008-02-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4045550B2 (en) | Image display control apparatus and image display control program | |
US11003304B2 (en) | Information display terminal, information display method and program | |
JP5506375B2 (en) | Information processing apparatus and control method thereof | |
JP3955042B2 (en) | Coordinate input device | |
JP5738495B2 (en) | Information display device and display information operation method | |
WO2014061097A1 (en) | Information display device and display information operation method | |
US20070038955A1 (en) | Pen-based computer system having first and second windows together with second window locator within first window | |
JP5075473B2 (en) | Portable information device and information storage medium | |
JP4900361B2 (en) | Image processing apparatus, image processing method, and program | |
JP2010086230A (en) | Information processing apparatus, information processing method and program | |
CN103294337A (en) | Electronic apparatus and control method | |
KR20130099186A (en) | Display device, user interface method, and program | |
JP2012133490A (en) | Display control apparatus, control method thereof, program and recording medium | |
CN106716493A (en) | Method of styling content and touch screen device for styling content | |
CN105488832B (en) | Optical digital ruler | |
JP3256994B2 (en) | Display target movement method by touch input | |
EP2712433B1 (en) | User interface for drawing with electronic devices | |
KR102295823B1 (en) | Method of providing an interface using a mobile device and a wearable device | |
KR101920864B1 (en) | Method and terminal for displaying of image using touchscreen | |
JP4671095B2 (en) | Image display control apparatus and image display control program | |
JP2006048139A (en) | Image display controller and image display control program | |
JP2018194801A (en) | Display, display method, and program | |
KR101136327B1 (en) | A touch and cursor control method for portable terminal and portable terminal using the same | |
JP2005173934A (en) | Information input device and method, computer program, and computer readable storage medium | |
JP2006195742A (en) | Electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060807 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20061005 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20061219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070810 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071026 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071108 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4045550 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111130 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121130 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121130 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131130 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |