JP2012043248A - Operation input device, program and method - Google Patents
Operation input device, program and method Download PDFInfo
- Publication number
- JP2012043248A JP2012043248A JP2010184812A JP2010184812A JP2012043248A JP 2012043248 A JP2012043248 A JP 2012043248A JP 2010184812 A JP2010184812 A JP 2010184812A JP 2010184812 A JP2010184812 A JP 2010184812A JP 2012043248 A JP2012043248 A JP 2012043248A
- Authority
- JP
- Japan
- Prior art keywords
- display
- axis
- relative angle
- angle
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Digital Computer Display Output (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
Abstract
Description
本発明は、操作入力装置ならびにプログラムと方法に関するものである。 The present invention relates to an operation input device, a program, and a method.
近年、タッチパネル操作が可能なGUI(Graphical User Interface)システムを持ったコンピューティングデバイスが増加している。これらのコンピューティングデバイスは、ボタンやテキスト入力によるコンピュータ操作ではなく、画面上へのタッチ入力やフリック入力を受け付けることによって、より直観的な操作感をユーザに与えられる。フリックとは、画面に触れたペンや指を少しだけスライドさせる操作のことを言う。 In recent years, an increasing number of computing devices have a GUI (Graphical User Interface) system capable of touch panel operation. These computing devices can give a more intuitive operational feeling to the user by accepting touch input or flick input on the screen instead of computer operation by buttons or text input. A flick is an operation of sliding a pen or finger that touches the screen slightly.
例えば、非特許文献1はタッチ入力を前提として、画面上に表示される情報オブジェクトを始点としたフリック操作により、対象となる情報オブジェクトをフリックした方向に移動させる表示手法を開示している。また、非特許文献1は、テキストや画像などの情報オブジェクトに対して長押しをすることによる、カット アンド ペーストや画像の保存などを開示している。また、非特許文献1には、情報オブジェクトに対する任意の操作を選択することができるコンテキストメニューの表示手法などがユーザーズガイドとして掲載されている。 For example, Non-Patent Document 1 discloses a display method in which a target information object is moved in a flicked direction by a flick operation starting from an information object displayed on the screen on the premise of touch input. Non-Patent Document 1 discloses cut-and-paste, image storage, and the like by long-pressing information objects such as text and images. Further, Non-Patent Document 1 includes a context menu display method that can select an arbitrary operation for an information object as a user's guide.
一方、筺体の動き、角度などと連動させて、画面上に表示すべき情報オブジェクトの表示方法を変化させる工夫を持たせたGUIシステムを持ったコンピューティングデバイスが、提供されている。例えば、特許文献1には、2つの表示デバイスを持ち、それぞれが回転可能なヒンジ部品で連結されているような装置における表示方法が開示されている。特許文献1で開示されている発明は、2つの表示デバイスの相対的な角度に応じて一方の画面内に表示されている情報オブジェクトの3次元表示(以下3次元は3Dとも呼ぶ)の角度を変化させる表示処理装置である。 On the other hand, there is provided a computing device having a GUI system that has a device for changing a display method of an information object to be displayed on a screen in conjunction with a movement, an angle, and the like of a housing. For example, Patent Document 1 discloses a display method in an apparatus having two display devices, each of which is connected by a rotatable hinge component. In the invention disclosed in Patent Document 1, the angle of a three-dimensional display (hereinafter, three-dimensional is also referred to as 3D) of an information object displayed in one screen in accordance with the relative angle between two display devices. A display processing device to be changed.
特許文献2には、仮想3次元空間内のオブジェクトを、複数のディスプレイにまたがってシームレスに3D表示する情報処理装置が開示されている。この文献は、ディスプレイが備えるタッチパネルに接触させたマウスを、接触させたままスライドさせる動作により、表示したオブジェクトに対する指示を行うことを開示している。
このように、タッチパネルデバイスと3D表示の仕組みを持つGUIシステムによって、ユーザからの操作入力、ユーザへの表示出力における操作性、直観性を向上させる仕組みが提供されている。 As described above, the GUI system having the touch panel device and the 3D display mechanism provides a mechanism for improving the operability and intuitiveness in the operation input from the user and the display output to the user.
上記特許文献1で示されている画面表示手法によって情報オブジェクトを表現する際、同じ意味を持つ操作をしようとした場合でも、3D表示の角度によってユーザが直観的に抱くフリック入力方向に対するイメージが異なるという現象が発生する。図12はこの現象を具体的に示す。図12の(a)、(b)に示されるのは、2つの異なる3D表示角度による、「文書を上方向にスライドさせる」という操作の例である。(a)でこの操作を行う場合、ユーザが直観的に抱くフリックの方向のイメージは矢印61である。しかし、(b)の場合、ユーザが直観的に抱くフリック方向のイメージは矢印61から矢印62に変わる。
When an information object is expressed by the screen display method disclosed in Patent Document 1 above, even if an operation having the same meaning is attempted, the image for the flick input direction intuitively held by the user differs depending on the angle of 3D display. The phenomenon that occurs. FIG. 12 specifically shows this phenomenon. FIGS. 12A and 12B show an example of an operation of “sliding a document upward” at two different 3D display angles. When this operation is performed in (a), the image of the direction of the flick that the user intuitively holds is an
上記特許文献2には、マウス操作によって表示中のオブジェクトの位置を移動させる点については開示されているが、フリック操作に関する言及はない。したがって、特許文献2による方法でもこの課題は解決できない。
Japanese Patent Application Laid-Open No. 2005-228561 discloses the point of moving the position of an object being displayed by a mouse operation, but does not mention a flick operation. Therefore, even the method according to
また、上記非特許文献1で示されている長押しによるコンテキストメニューの表示手法では、指示デバイスをタッチパネルに接触させる時間によっては、その操作内容を区別することが難しい場合がある。この場合、指示デバイスとは、指もしくはペンなどを意味している。また、操作内容とは「選択」、「コンテキストメニューの表示」などを指す。特に、長押しと判定するまでのタッチパネルへの接触時間を短く設定すると、ユーザが「選択」のつもりでタッチした操作が「コンテキストメニューの表示」と誤認されるケースが頻発する恐れがある。 Further, in the context menu display method by long press shown in Non-Patent Document 1, it may be difficult to distinguish the operation contents depending on the time for which the pointing device is in contact with the touch panel. In this case, the pointing device means a finger or a pen. The operation content refers to “selection”, “display context menu”, and the like. In particular, if the touch time on the touch panel until it is determined to be a long press is set to be short, there is a possibility that an operation that the user touches with the intention of “selection” will be mistaken as “display context menu”.
このように、3D表示された情報オブジェクトに対するタッチパネルによる操作は、ユーザが直感的に持つ動作のイメージとは異なっていることがある。このような実際に必要とする動作と、直感とのずれはタッチパネルの操作性を損なうものである。したがって、操作性の低下を防ぐ技術が必要であるが、上記技術文献のいずれをもってしても、これを実現することはできない。 As described above, an operation by a touch panel for an information object displayed in 3D may be different from an image of an operation that the user intuitively has. Such a deviation between the actually required operation and the intuition impairs the operability of the touch panel. Therefore, a technique for preventing a decrease in operability is necessary, but this cannot be realized with any of the above technical documents.
本発明は、操作性向上の課題を解決する画像操作入力処理装置を提供することを目的とする。 An object of the present invention is to provide an image operation input processing device that solves the problem of improving operability.
本発明によれば、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定する角度検出手段と、前記相対角度に応じた画像を前記第1の表示部に表示する空間制御手段と、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出手段と、前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御手段と、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御手段と、を備えている操作入力装置。が得られる。 According to the present invention, the angle detection means for measuring the relative angle between the surface without the display surface and the surface including the upper surface of the main body of the first display means for outputting a signal corresponding to the contact with the display surface. Space control means for displaying an image corresponding to the relative angle on the first display unit, and the signal is input from the display means, and from the start position and the end position of the contact to the display surface, Input detection means for acquiring a movement direction, operation control means for determining operation contents based on the relative angle and the movement direction, drawing contents based on the operation contents, and the first display means An operation input device comprising: display control means for displaying on the display. Is obtained.
本発明によれば、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定する角度検出処理と、前記相対角度に応じた画像を前記第1の表示部に表示する空間制御処理と、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出処理と、前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御処理と、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御処理と、をコンピュータに実行させることを特徴とする操作入力プログラムが得られる。 According to the present invention, an angle detection process for measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body of the first display means for outputting a signal corresponding to contact with the display surface. , A space control process for displaying an image corresponding to the relative angle on the first display unit, and the signal is input from the display means, and the contact position is determined from the start position and the end position of the contact on the display surface An input detection process for acquiring a movement direction, an operation control process for determining an operation content based on the relative angle and the movement direction, a drawing content is created based on the operation content, and the first display means An operation input program characterized by causing a computer to execute display control processing to be displayed on the computer is obtained.
本発明によれば、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定し、前記相対角度に応じた画像を前記第1の表示部に表示し、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得し、前記相対角度と、前記移動方向を基に、操作内容を決定し、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する操作入力方法が得られる。 According to the present invention, the first display means for outputting a signal corresponding to the contact with the display surface measures the relative angle formed by the surface without the display surface and the surface including the upper surface of the main body, and the relative angle is measured. According to the first display unit, input the signal from the display means, obtain the moving direction of the contact from the start position and the end position of the contact to the display surface, the relative Based on the angle and the moving direction, an operation content is determined, and an operation input method is provided in which drawing content is created based on the operation content and displayed on the first display means.
本発明は、表示装置の操作性を向上させる。 The present invention improves the operability of the display device.
(第1の実施形態)
次に本発明を実施するための第1の実施形態が、図面を参照して詳細に説明される。図1(a)、(b)は、本発明の実施形態における操作入力装置10の外観を示す図である。本実施の形態における操作入力装置10は、本体部101と蓋体部102と第一の表示デバイス103と第二の表示デバイス104とヒンジ部105から成る。なお、ヒンジは蝶番ともいう。また、本体部101と蓋体部102を接続する機構部は、必ずしもヒンジに限定されるものではなく、変形可能な金属板等を用いてもよいし、プラスチック等金属以外の材料で同じ構造を構成して用いてもよい。
(First embodiment)
Next, a first embodiment for carrying out the present invention will be described in detail with reference to the drawings. FIGS. 1A and 1B are views showing the appearance of the
本体部101は、操作入力装置10を水平面に置いたとき、水平面と接地する筺体部品である。蓋体部102は、後述するヒンジ部105によって本体部101と連結されており、図1(b)のようにヒンジ部105を始点として180度回転可能な筺体部品である。第二の表示デバイス104は、本体部101が含む画面表示用の部品であり、ユーザの指やペンを使った接触により、操作入力装置10内で実行されているソフトウェアを操作可能とする、タッチパネル機能を搭載する。第一の表示デバイス103は、蓋体部102が含む画面表示用の部品であり、第二の表示デバイス104と同じくタッチパネル機能を搭載する。ヒンジ部105は、本体部101と蓋体部102を連結し、これら2つの筺体部品を折りたたみの状態から180度開いた状態にまで自由に回転可能な構造を提供する部品である。
The
図2は、本発明の実施の形態における画面操作入力処理装置操作入力装置10のソフトウェア構造を示す機能ブロック図である。本発明の実施の形態における操作入力装置10は、ヒンジ角度検出部201と、疑似3D空間制御部202と、操作内容制御部203と、フリック入力検出部204と、から成る。また、これらに加えて操作入力装置10は、操作内容情報格納部205と、情報オブジェクト描画制御部206と画面表示制御部207と第一の画面デバイス制御部208と第二の画面デバイス制御部209と、を有している。
FIG. 2 is a functional block diagram showing a software structure of the screen operation input processing device
ヒンジ角度検出部201は、ヒンジ部105の状態より、本体部101と蓋体部102が成す相対的な角度を信号値として検出する。相対角度の算出方法については後述する。
The
疑似3D空間制御部202は、ヒンジ角度検出部201より得られる信号値を基に、本体部101の面を水平基準面とした仮想的な3D空間に関する幾つかのパラメータを決定する。具体的な算出方法については後述する。
The pseudo 3D
操作内容制御部203は、疑似3D空間制御部202から得られる仮想3D空間に関するパラメータと、後述するフリック入力検出部204より得られるフリック入力情報より、ユーザがタッチパネルを経由して行ったフリック入力内容の判別を行う。操作内容制御部203がフリック入力内容の判別をすることで、ユーザがどのような操作を指示しているのかが、特定される。この特定において、操作内容制御部203は、後述する操作内容情報格納部205内の対応表データを参照して、ユーザが指示する操作を判断する。
The operation
操作内容情報格納部205は、操作内容制御部203がフリック入力内容の判別結果から具体的な操作内容を決定する為の、フリック入力判別結果と操作内容との対応表を格納する。対応表の詳細については後述する。
The operation content
情報オブジェクト描画制御部206は、疑似3D空間制御部202より得られる疑似3D空間のパラメータを基に、表示すべき情報オブジェクトの疑似3D空間内における3次元座標データを算出する。その後、情報オブジェクト描画制御部206は、第一の表示デバイス103、第二の表示デバイス104のそれぞれに表示すべき平面投射された情報オブジェクトの描画データを生成する。さらに、情報オブジェクト描画制御部206は、操作内容制御部203より得られた操作内容情報を基に情報オブジェクトのスライド移動やコンテキストメニューイメージの描画データも生成する。
The information object
画面表示制御部207は、情報オブジェクト描画制御部206より得られた描画データを基に、第一の表示デバイス103と第二の表示デバイス104のそれぞれに対して出力すべき描画内容の振り分けを行なう。また、画面表示制御部207は、後述する第一の画面デバイス制御部208と第二の画面デバイス制御部209に対して表示命令を出力する。この振り分けは図4で示されるように、一つの情報オブジェクトを第一の表示デバイス103と第二の表示デバイス104に跨って表示させようとする際に機能するものである。
The screen
第一の画面デバイス制御部208は、画面表示制御部207より得られた表示命令より、第一の表示デバイス103が解釈可能な信号データに変換する。
The first screen
第二の画面デバイス制御部209は、第一の画面デバイス制御部208と同じく、画面表示制御部207より得られた表示命令より、第二の表示デバイス104が解釈可能な信号データに変換する。
Similar to the first screen
図3は、操作入力装置10が表示する、情報オブジェクトの一例を示したものである。情報オブジェクト300は、サブオブジェクト301、サブオブジェクト302の集合体として表現される。図3の例では、サブオブジェクトは画像に関するサブオブジェクト301とテキストに関するサブオブジェクト302とから成る。
FIG. 3 shows an example of an information object displayed by the
図4は、情報オブジェクト300が、操作入力装置10が持つ2つの表示デバイスである、第1の表示デバイス103と第2の表示デバイス104とに跨って表示されている例を示している。(a)のように本体部101に対して蓋体部102が完全に開いた状態では、両表示デバイスは、情報オブジェクト300を、ユーザが、真上から見下ろせる形に表示する。これに対して、図4(b)のように、本体部101に対して蓋体部102が起き上った状態では、両表示デバイスは、情報オブジェクト300を、奥行きを持った形で表示する。
FIG. 4 shows an example in which the
次に、図5及び図6のフローチャートを参照して、本実施の形態の全体の動作が詳細に説明される。図5は、ヒンジの角度に応じた情報オブジェクト300の表示制御動作について説明するものである。まず、本フロ―チャートは本体部101と蓋体部102の相対的な角度を検出するところから始まる(ステップS101)。ここで検出する相対角度は、図7にθで示されるように、蓋体部102の第1の表示デバイス103を有する面とは反対側の面と、第2の表示デバイスの表示面を含む面のなす角度である。この値はヒンジ部105の物理的形状を基にヒンジ角度検出部201より得る。次に、ヒンジ角度検出部201にて得られた相対角度θを基に、疑似3D空間制御部202が、疑似3D空間に関連するパラメータとして、消失点νと疑似Z軸投射角Φを求める(ステップS102)。
Next, the overall operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS. FIG. 5 explains the display control operation of the
消失点とは、3D表示に変換するために用いる透視法で得た表示対象が有する、変換前は平行だったが変換後に平行でなくなった直線の組の、交点である。すなわち、ここで言う消失点は、一点透視図法において一般に用いられる消失点と同じ意味を持っている。 The vanishing point is an intersection point of a set of straight lines that are displayed in the perspective obtained by the perspective method used for conversion to 3D display and that are parallel before conversion but no longer parallel after conversion. In other words, the vanishing point here has the same meaning as the vanishing point generally used in the one-point perspective method.
疑似Z軸とは、透視法で得られた3D空間の奥行きを表す軸である。第1の表示デバイス103の横の辺(ヒンジ部105のある辺)に平行な軸をx、横の辺と直交する縦の辺に平行な軸をyとすると、この疑似Z軸をxy平面上に投射した直線Lとy軸との相対角度が疑似Z軸投射角Φである。直線Lは、消失点と原点を通るので、消失点からΦを計算することが可能である。
The pseudo Z axis is an axis representing the depth of the 3D space obtained by the perspective method. If the axis parallel to the horizontal side of the first display device 103 (side where the
図8は、消失点νと疑似Z軸投射角Φのイメージを示すものである。画面の幅をW、装置10に与えられた自然数をα、βとすると、擬似3D空間制御部202は、νのx座標ν_x、y座標ν_yをそれぞれ以下の式で求める。
FIG. 8 shows an image of the vanishing point ν and the pseudo Z-axis projection angle Φ. Assuming that the width of the screen is W and the natural numbers given to the
ν_x=W/2
ν_y=α+β((1/sinθ)−1)
上記の式に基づくと、蓋体部102を完全に開ききった場合(図7の点線部が開ききった状態を示す)、θの値が0になるので、ν_yの値が無限大となる。すなわち、νの座標はy軸座標において無限遠になり、結果的に第一の表示デバイス103に表示される情報オブジェクト300は図4(a)のように真上から見下ろした表示になる。
ν_x = W / 2
ν_y = α + β ((1 / sin θ) −1)
Based on the above formula, when the
一方、蓋体部102を本体部101に対して垂直に立てた場合、sinθの値が1になるので、ν_yの値がαとなる。図8に示すように、この場合は、画面内に消失点ν(W/2、α)が存在する。また、この消失点から計算した疑似Z軸投射角Φは、arctan(2α/W)となる。つまり、一点透視図法によって奥行表現された情報オブジェクト300が、消失点ν(W/2、α)、疑似Z軸投射角Φ=arctan(2α/W)で、第一の表示デバイス103に表示される。
On the other hand, since the value of sin θ is 1 when the
次に、ステップS102より得た消失点座標νを用いて、情報オブジェクト描画制御部206が、表示すべき情報オブジェクトの描画データを算出する。この時、描画データは、座標νを消失点とした一点透視図法によって算出される(ステップS103)。
Next, using the vanishing point coordinate ν obtained in step S102, the information object
ステップS103にて算出された描画データは画面表示制御部207に渡され、表示命令に変換される。この際、この表示命令は第一の表示デバイス103に向けた命令セットと第二の表示デバイス104に向けた命令セットに振り分けされる(ステップS104)。
ちなみに、この表示命令は具体的にはGPU(Graphics Processing Unit)などのグラフィック制御チップが理解可能な機械命令語を用いて行うことができる。
The drawing data calculated in step S103 is transferred to the screen
Incidentally, this display instruction can be specifically performed using a machine instruction word that can be understood by a graphic control chip such as GPU (Graphics Processing Unit).
最後にこの表示命令が、第一の画面デバイス制御部208と第二の画面デバイス制御部209に入力され、第一の表示デバイス103と第二の表示デバイス104に相対角度θに応じた情報オブジェクトが表示出力される(ステップS105)。
Finally, this display command is input to the first screen
図6は、第一の表示デバイス103に対するフリック入力操作を行った際の操作入力装置10内の動作を示すフローチャートである。第二の画面デバイス制御部209は、第一の表示デバイス103が備えるタッチパネルを経由してユーザが何らかの操作を行ったことを電気信号として受信すると、この電気信号をタッチパネル操作情報に変換する(ステップS201)。
FIG. 6 is a flowchart illustrating an operation in the
次に、このタッチパネル操作情報は、フリック入力検出部204に渡され、タッチパネル操作情報がフリック入力かどうかを判定する。フリック入力ではなかった場合(Noの場合)は、フリック入力検出部204は、他の処理を行うか、または処理を終了する。フリック入力であった場合(Yesの場合)は、フリック入力検出部204は、フリック入力情報に変換する(ステップS202)。このフリック入力情報には、フリック入力の開始点とフリックの方向が含まれる。これらの値は例えば第一の表示デバイス103を基準面としたxy平面状の2次元座標と正規化されたベクトルデータとしてそれぞれ表現される。
Next, the touch panel operation information is passed to the flick
次に、操作内容制御部203は、ステップ202で変換したフリック入力情報とステップS102で得た疑似Z軸投射角Φを基にフリック入力の内容の判定を行う(ステップS203)。ステップS203におけるフリック入力の判定の目的は2つある。一つは本体部101と水平な面を基準となる水平面だとした場合、この水平面に対してフリック入力が疑似3D空間内で垂直な方向に入力されているか否かを決めることである。他の一つはフリック入力の始点座標に応じて、その操作対象となるサブオブジェクトが何であるかを決定することである。なお、対象オブジェクトが1つの場合、始点座標は無視されても良い。
Next, the operation
図9はフリック入力の判定処理に必要な情報(フリック入力始点座標、フリックのベクトルD、y軸との相対角度ψ、相対角度Φ)を図示している。図9においては、棒矢印で表現したフリック入力情報401が、フリック入力のイメージである。フリック入力情報401はフリック入力始点座標B(x、y)と正規化されたフリック方向ベクトルD(x_v、y_v)を持つ。操作内容制御部203は、フリック方向ベクトルDを用いて、フリック入力とy軸との相対角度Ψを求める。
FIG. 9 illustrates information (flick input start point coordinates, flick vector D, relative angle ψ, relative angle Φ with respect to the y-axis) necessary for the flick input determination process. In FIG. 9, flick
フリック入力が疑似3D空間内で垂直な方向に入力されているという判定は、y軸との相対角度Ψが以下の条件を満たした場合に下される。 The determination that the flick input is input in a direction perpendicular to the pseudo 3D space is made when the relative angle Ψ with the y-axis satisfies the following condition.
−nθ<Ψ<nθ(0<n<1)
もしも、この判定方法にて、ある特定のサブオブジェクトを始点とした垂直方向への入力が成されたと判定された場合、その入力は、コンテキストメニューの表示だと判断される。そして、対象となるサブオブジェクトに応じた操作内容が、第一の表示デバイス103と第二の表示デバイス104の間で割り振られる(ステップS204)。操作内容の割り振りは、操作内容制御部203によって、操作内容情報格納部205に格納されているフリック入力内容と操作内容の対応を示す操作内容対応表をもとに行われる。
−nθ <Ψ <nθ (0 <n <1)
If it is determined by this determination method that an input in a vertical direction starting from a specific sub-object is made, it is determined that the input is a display of a context menu. Then, the operation content corresponding to the target sub-object is allocated between the
図10はこの操作内容対応表を例示する。図10は、フリック入力が垂直方向ではないと判定された場合は情報オブジェクトのスライド処理が割り振り、垂直方向であると判定された場合は、さらにフリック始点座標Bに対応するサブオブジェクトの種類に応じて、操作が割り振る操作内容対応表の例である。この例は、画像オブジェクトの場合は「画像のコピー」、「画像の保存」、「画像の印刷」が割り振り、テキストオブジェクトの場合は「テキストの範囲指定」、それ以外の場合はブラウザ処理における「一階層上に戻る」を割り振っている例である。 FIG. 10 illustrates this operation content correspondence table. In FIG. 10, when it is determined that the flick input is not in the vertical direction, the slide processing of the information object is allocated, and when it is determined that the flick input is in the vertical direction, it further depends on the type of the sub-object corresponding to the flick start point coordinate B. This is an example of an operation content correspondence table allocated by an operation. In this example, “copy image”, “save image”, and “print image” are allocated in the case of an image object, “text range specification” in the case of a text object, and “ This is an example of assigning “return one level up”.
ステップS204にてフリック入力に対する操作内容が決定したら、それは操作内容情報として情報オブジェクト描画制御部206に送られ、この操作内容情報に応じた描画処理が行われる(ステップS205)。
When the operation content for the flick input is determined in step S204, it is sent to the information object
図11は、ステップS205で行われる描画処理の一例を示す。図11(a)はフリック入力方向が「垂直」と認識され、フリック入力の始点がこの画像に関するサブオブジェクト301だった場合の描画処理を説明するものである。この場合は、フリック方向の先に、サブオブジェクト301の画像に関するサブオブジェクトの正面画イメージ501が浮かび上がるように表示され、その脇にサブオブジェクト301に関連する操作を示す画像に関するコンテキストメニュー502が表示される。
FIG. 11 shows an example of the drawing process performed in step S205. FIG. 11A illustrates a drawing process when the flick input direction is recognized as “vertical” and the start point of the flick input is the sub-object 301 related to this image. In this case, a front-
図11(b)はフリック入力方向が垂直ではない、すなわち「それ以外」と認識された場合の描画処理を説明するものである。この場合は、フリック方向に応じた情報オブジェクト300のスライド移動が起こる。図11(b)の例示では、フリック入力は疑似3D空間内におけるZ軸(奥行き)方向と見なされ、その方向へのスライド移動が発生する。
ステップS205における描画処理の結果、情報オブジェクト描画制御部206は描画データを出力する。この描画データを受けた画面表示制御部207は、第一の画面デバイス制御部208と第二の画面デバイス制御部209に対して表示命令セットを出力する。この命令セットに応じて、第一の画面デバイス制御部208と第二の画面デバイス制御部209はそれぞれ第一の表示デバイス103ならびに第二の表示デバイス104に情報オブジェクトを表示する。この結果、情報オブジェクト300は、第一の表示デバイスと第二の表示デバイスを跨って移動するように表示される。
FIG. 11B illustrates a drawing process when the flick input direction is not vertical, that is, “other than that” is recognized. In this case, the
As a result of the drawing process in step S205, the information object
本実施の形態の効果は、画面操作入力処理の操作性を向上させることである。その理由は、ヒンジの角度によって動的に替わる3D表示された情報オブジェクト300に対して、ユーザが直感的に抱くフリック入力動作のイメージ通りに、フリック入力を行うことができるからである。これを具体的に述べると、本実施の形態では、垂直とみなされないすべてのフリックは画像の移動の命令とみなされる。したがって、ユーザが画面の表示で判断して直感的に正しいと思う方向にフリックすることで、所望の画像の移動が実現する。これは、ヒンジの角度に応じて変化する疑似3D空間における仮想視点座標と、フリック入力の内容に応じて、操作内容制御部203がフリック入力によって決まる情報オブジェクト300に対する操作内容を動的に変化させることによって可能となる。
The effect of the present embodiment is to improve the operability of the screen operation input process. The reason is that flick input can be performed on the 3D-displayed
また、本実施の形態の第2の効果は、タッチパネルの長押し操作なしに特定の情報オブジェクトに対するコンテキストメニューの表示が実現できる点である。その理由は、以下に説明される。疑似3D空間制御部202によって、ユーザの目には、情報オブジェクトが、仮想的に疑似3D表示空間上に投射されているように見える。その結果、ユーザは、擬似Z軸方向へのフリック入力という2次元(2D)表示空間では認識することができない新しいフリック入力操作を加えることができる。この新しいフリック入力操作に対して操作内容制御部203は、コンテキストメニュー表示を割り振ることができるため、ユーザは長押し操作を不要とする。
The second effect of the present embodiment is that a context menu can be displayed for a specific information object without long-pressing the touch panel. The reason is explained below. The pseudo 3D
なお、本実施形態における情報オブジェクト300は、サブオブジェクト301、サブオブジェクト302の集合体として表現されているが、3つ以上のサブオブジェクトの集合体であっても構わない。
Note that the
なお、本実施形態においては、第1の表示デバイス103と第2の表示デバイス104の両方に描画内容を振り分けているが、必ずしも振り分ける必要はなく、すべてをどちらかの表示デバイスに表示させてもよい。
In the present embodiment, the drawing contents are distributed to both the
なお、本実施の形態においては、フリック入力が疑似3D空間内で垂直な方向に入力されているか否かの判定のために、操作内容制御部203は、−nθ<Ψ<nθ(0<n<1)の条件を用いたが、必ずしもこの条件である必要はない。操作内容制御部203は、より厳密な条件0<n<0.5を用いてもよいし、より緩い条件0<n<2を用いてもよい。また、フリック方向とy軸のなす角度と擬似Z軸投射角Φとの差が0.1XΦ以下等であるときは、擬似Z軸と平行であるとみなす等、操作内容制御部203は、フリックの擬似Z軸との平行性を判定してもよい。
(第2の実施形態)
本発明の第2の実施形態は、図13に示すように、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定するヒンジ角度検出部201と、前記相対角度に応じた画像を前記第1の表示部に表示する擬似3D空間制御部202と、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得するフリック入力検出部204と、前記相対角度と、前記移動方向を基に、操作内容を決定する操作内容制御部203と、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する画面表示制御部207と、を備えていることを特徴とする操作入力装置10である。
In this embodiment, in order to determine whether or not a flick input is input in a vertical direction in the pseudo 3D space, the operation
(Second Embodiment)
In the second embodiment of the present invention, as shown in FIG. 13, the first display means for outputting a signal corresponding to the contact with the display surface, the surface having no display surface and the surface including the upper surface of the main body unit, A hinge
第2の実施形態の効果は、画面操作入力処理の操作性が向上させることにある。その理由は、ヒンジの角度によって動的に替わる3D表示された情報オブジェクトに対して、ユーザが直感的に抱くフリック入力動作のイメージ通りに、フリック入力を行うことができる点である。これは、ヒンジの角度に応じて変化する疑似3D空間における仮想視点座標と、フリック入力の内容に応じて、操作内容制御部203がフリック入力によって決まる情報オブジェクトに対する操作内容を動的に変化させることによって可能となっている。
The effect of the second embodiment is to improve the operability of the screen operation input process. The reason is that flick input can be performed on the information object displayed in 3D that dynamically changes depending on the angle of the hinge, as the image of the flick input operation intuitively held by the user. This is because the operation
以上、第1、第2の実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described with reference to the first and second embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.
本発明は、折りたたみ可能なタッチパネル型画面デバイスを持ったモバイル端末装置の用途に適用できる。 The present invention can be applied to the use of a mobile terminal device having a foldable touch panel type screen device.
10 操作入力装置
101 本体部
102 蓋体部
103 第一の表示デバイス
104 第二の表示デバイス
105 ヒンジ部
201 ヒンジ角度検出部
202 疑似3D空間制御部
203 操作内容制御部
204 フリック入力検出部
205 操作内容情報格納部
206 情報オブジェクト描画制御部
207 画面表示制御部
208 第一の画面デバイス制御部
209 第二の画面デバイス制御部
300 情報オブジェクト
301 画像に関するサブオブジェクト
302 テキストに関するサブオブジェクト
401 フリック入力情報
501 画像に関するサブオブジェクトの正面画イメージ
502 画像に関するコンテキストメニュー
61 矢印
62 矢印
DESCRIPTION OF
Claims (10)
前記相対角度に応じた画像を前記第1の表示部に表示する空間制御手段と、
前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出手段と、
前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御手段と、
前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御手段と、
を備えていることを特徴とする操作入力装置。 Angle detection means for measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body, of the first display means for outputting a signal corresponding to contact with the display surface;
Space control means for displaying an image corresponding to the relative angle on the first display unit;
Input detection means for inputting the signal from the display means, and obtaining a moving direction of the contact from a start position and an end position of the contact with the display surface;
Operation control means for determining operation content based on the relative angle and the moving direction;
Display control means for creating drawing contents based on the operation contents and displaying the drawing contents on the first display means;
An operation input device comprising:
前記操作制御手段は、前記第1の操作内容として、前記オブジェクトを前記疑似3次元空間上で、前記疑似軸方向に平行移動させる操作を選択し、
前記表示制御手段は、前記オブジェクトを前記第1と第2の表示手段に跨って移動させることを特徴とする、請求項3の操作入力装置。 The main body includes a second display unit on an upper surface,
The operation control means selects, as the first operation content, an operation of translating the object in the pseudo three-dimensional space in the pseudo axis direction,
The operation input device according to claim 3, wherein the display control unit moves the object across the first and second display units.
前記相対角度に応じた画像を前記第1の表示部に表示する空間制御処理と、
前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出処理と、
前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御処理と、
前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御処理と、
をコンピュータに実行させることを特徴とする操作入力プログラム。 An angle detection process for measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body of the first display means for outputting a signal corresponding to contact with the display surface;
A space control process for displaying an image corresponding to the relative angle on the first display unit;
An input detection process for inputting the signal and obtaining a moving direction of the contact from a start position and an end position of the contact with the display surface;
An operation control process for determining an operation content based on the relative angle and the moving direction;
A display control process for creating drawing content based on the operation content and displaying the drawing content on the first display means;
An operation input program for causing a computer to execute.
前記相対角度に応じた画像を前記第1の表示部に表示し、
前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得し、
前記相対角度と、前記移動方向を基に、操作内容を決定し、
前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示することを特徴とする操作入力方法。 Measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body of the first display means for outputting a signal corresponding to contact with the display surface;
Displaying an image corresponding to the relative angle on the first display unit;
Input the signal from the display means, obtain the moving direction of the contact from the start position and the end position of the contact to the display surface,
Based on the relative angle and the movement direction, determine the operation content,
An operation input method characterized in that a drawing content is created based on the operation content and displayed on the first display means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010184812A JP5621407B2 (en) | 2010-08-20 | 2010-08-20 | Operation input device, program and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010184812A JP5621407B2 (en) | 2010-08-20 | 2010-08-20 | Operation input device, program and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012043248A true JP2012043248A (en) | 2012-03-01 |
JP5621407B2 JP5621407B2 (en) | 2014-11-12 |
Family
ID=45899456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010184812A Active JP5621407B2 (en) | 2010-08-20 | 2010-08-20 | Operation input device, program and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5621407B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103885701A (en) * | 2012-12-24 | 2014-06-25 | 联想(北京)有限公司 | Operation processing method and electronic equipment |
JP2015135563A (en) * | 2014-01-16 | 2015-07-27 | カシオ計算機株式会社 | Display system, display terminal, display method, and program |
JPWO2015053188A1 (en) * | 2013-10-10 | 2017-03-09 | 日本電気株式会社 | Display device and image transformation method |
JP2019021989A (en) * | 2017-07-12 | 2019-02-07 | マクセル株式会社 | Video display system |
JP2019091276A (en) * | 2017-11-15 | 2019-06-13 | 富士ゼロックス株式会社 | Display unit and program |
JP2019117634A (en) * | 2019-02-07 | 2019-07-18 | グリー株式会社 | Display control program, display control method, and display control system |
WO2020056729A1 (en) * | 2018-09-21 | 2020-03-26 | 深圳市柔宇科技有限公司 | Hinge device, housing and electronic device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009086793A (en) * | 2007-09-28 | 2009-04-23 | Nec Corp | Portable terminal and its display control method |
JP2009266236A (en) * | 2008-04-22 | 2009-11-12 | Apple Inc | Language input interface on device |
JP2010003260A (en) * | 2008-06-23 | 2010-01-07 | Sharp Corp | Display processor, method for controlling the same, control program, and recording medium |
-
2010
- 2010-08-20 JP JP2010184812A patent/JP5621407B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009086793A (en) * | 2007-09-28 | 2009-04-23 | Nec Corp | Portable terminal and its display control method |
JP2009266236A (en) * | 2008-04-22 | 2009-11-12 | Apple Inc | Language input interface on device |
JP2010003260A (en) * | 2008-06-23 | 2010-01-07 | Sharp Corp | Display processor, method for controlling the same, control program, and recording medium |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103885701A (en) * | 2012-12-24 | 2014-06-25 | 联想(北京)有限公司 | Operation processing method and electronic equipment |
JPWO2015053188A1 (en) * | 2013-10-10 | 2017-03-09 | 日本電気株式会社 | Display device and image transformation method |
JP2015135563A (en) * | 2014-01-16 | 2015-07-27 | カシオ計算機株式会社 | Display system, display terminal, display method, and program |
US9817628B2 (en) | 2014-01-16 | 2017-11-14 | Casio Computer Co., Ltd. | Display system, display terminal, display method and computer readable recording medium having program thereof |
JP2019021989A (en) * | 2017-07-12 | 2019-02-07 | マクセル株式会社 | Video display system |
JP2019091276A (en) * | 2017-11-15 | 2019-06-13 | 富士ゼロックス株式会社 | Display unit and program |
JP7143580B2 (en) | 2017-11-15 | 2022-09-29 | 富士フイルムビジネスイノベーション株式会社 | Display device and program |
WO2020056729A1 (en) * | 2018-09-21 | 2020-03-26 | 深圳市柔宇科技有限公司 | Hinge device, housing and electronic device |
JP2019117634A (en) * | 2019-02-07 | 2019-07-18 | グリー株式会社 | Display control program, display control method, and display control system |
Also Published As
Publication number | Publication date |
---|---|
JP5621407B2 (en) | 2014-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5621407B2 (en) | Operation input device, program and method | |
CN108431729B (en) | Three-dimensional object tracking to increase display area | |
KR101043944B1 (en) | Method and apparatus for providing virtual keyboard | |
US8866776B2 (en) | Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof | |
WO2013018480A1 (en) | User interface device comprising touch pad for shrinking and displaying source image within screen capable of touch input, input processing method and program | |
US20070262964A1 (en) | Multi-touch uses, gestures, and implementation | |
US20090278812A1 (en) | Method and apparatus for control of multiple degrees of freedom of a display | |
US20120105351A1 (en) | Touch Pad Operable with Multi-Objects and Method of Operating same | |
KR20100041006A (en) | A user interface controlling method using three dimension multi-touch | |
US8525854B2 (en) | Display device and screen display method | |
US9544556B2 (en) | Projection control apparatus and projection control method | |
JP2014215737A (en) | Information processor, display control method and computer program | |
US20140285507A1 (en) | Display control device, display control method, and computer-readable storage medium | |
US20190064947A1 (en) | Display control device, pointer display method, and non-temporary recording medium | |
US10990277B2 (en) | Creating tables using gestures | |
JP5275429B2 (en) | Information processing apparatus, program, and pointing method | |
TWI442305B (en) | A operation method and a system of the multi-touch | |
JP5442128B2 (en) | Object layout editing method and apparatus | |
JP2012238120A (en) | Information processing device and information processing method | |
US10963073B2 (en) | Display control device including pointer control circuitry, pointer display method, and non-temporary recording medium thereof | |
EP3330842A1 (en) | Touch panel type information terminal device, information input processing method therefor, and program | |
JP6411067B2 (en) | Information processing apparatus and input method | |
KR101535738B1 (en) | Smart device with touchless controlling operation function and the control method of using the same | |
JP6373710B2 (en) | Graphic processing apparatus and graphic processing program | |
JP2014241078A (en) | Information processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130716 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140204 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140304 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140826 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140908 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5621407 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |