JP2012043248A - Operation input device, program and method - Google Patents

Operation input device, program and method Download PDF

Info

Publication number
JP2012043248A
JP2012043248A JP2010184812A JP2010184812A JP2012043248A JP 2012043248 A JP2012043248 A JP 2012043248A JP 2010184812 A JP2010184812 A JP 2010184812A JP 2010184812 A JP2010184812 A JP 2010184812A JP 2012043248 A JP2012043248 A JP 2012043248A
Authority
JP
Japan
Prior art keywords
display
axis
relative angle
angle
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010184812A
Other languages
Japanese (ja)
Other versions
JP5621407B2 (en
Inventor
Fumitake Muratsu
文武 村津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2010184812A priority Critical patent/JP5621407B2/en
Publication of JP2012043248A publication Critical patent/JP2012043248A/en
Application granted granted Critical
Publication of JP5621407B2 publication Critical patent/JP5621407B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operability in image operation input processing.SOLUTION: An operation input device includes: angle detection means for measuring a relative angle between a face without a display surface and a face including a top face of a body part of first display means for outputting a signal according to a touch on the display surface; space control means for showing an image according to the relative angle on a first display part; input detection means for obtaining a movement direction of the touch from a start position and an end position of the touch on the display surface by inputting the signal from the display means; operation control means for determining operation content on the basis of the relative angle and the movement direction; and display control means for generating drawing content on the basis of the operation content and showing the drawing content on the first display means.

Description

本発明は、操作入力装置ならびにプログラムと方法に関するものである。   The present invention relates to an operation input device, a program, and a method.

近年、タッチパネル操作が可能なGUI(Graphical User Interface)システムを持ったコンピューティングデバイスが増加している。これらのコンピューティングデバイスは、ボタンやテキスト入力によるコンピュータ操作ではなく、画面上へのタッチ入力やフリック入力を受け付けることによって、より直観的な操作感をユーザに与えられる。フリックとは、画面に触れたペンや指を少しだけスライドさせる操作のことを言う。   In recent years, an increasing number of computing devices have a GUI (Graphical User Interface) system capable of touch panel operation. These computing devices can give a more intuitive operational feeling to the user by accepting touch input or flick input on the screen instead of computer operation by buttons or text input. A flick is an operation of sliding a pen or finger that touches the screen slightly.

例えば、非特許文献1はタッチ入力を前提として、画面上に表示される情報オブジェクトを始点としたフリック操作により、対象となる情報オブジェクトをフリックした方向に移動させる表示手法を開示している。また、非特許文献1は、テキストや画像などの情報オブジェクトに対して長押しをすることによる、カット アンド ペーストや画像の保存などを開示している。また、非特許文献1には、情報オブジェクトに対する任意の操作を選択することができるコンテキストメニューの表示手法などがユーザーズガイドとして掲載されている。   For example, Non-Patent Document 1 discloses a display method in which a target information object is moved in a flicked direction by a flick operation starting from an information object displayed on the screen on the premise of touch input. Non-Patent Document 1 discloses cut-and-paste, image storage, and the like by long-pressing information objects such as text and images. Further, Non-Patent Document 1 includes a context menu display method that can select an arbitrary operation for an information object as a user's guide.

一方、筺体の動き、角度などと連動させて、画面上に表示すべき情報オブジェクトの表示方法を変化させる工夫を持たせたGUIシステムを持ったコンピューティングデバイスが、提供されている。例えば、特許文献1には、2つの表示デバイスを持ち、それぞれが回転可能なヒンジ部品で連結されているような装置における表示方法が開示されている。特許文献1で開示されている発明は、2つの表示デバイスの相対的な角度に応じて一方の画面内に表示されている情報オブジェクトの3次元表示(以下3次元は3Dとも呼ぶ)の角度を変化させる表示処理装置である。   On the other hand, there is provided a computing device having a GUI system that has a device for changing a display method of an information object to be displayed on a screen in conjunction with a movement, an angle, and the like of a housing. For example, Patent Document 1 discloses a display method in an apparatus having two display devices, each of which is connected by a rotatable hinge component. In the invention disclosed in Patent Document 1, the angle of a three-dimensional display (hereinafter, three-dimensional is also referred to as 3D) of an information object displayed in one screen in accordance with the relative angle between two display devices. A display processing device to be changed.

特許文献2には、仮想3次元空間内のオブジェクトを、複数のディスプレイにまたがってシームレスに3D表示する情報処理装置が開示されている。この文献は、ディスプレイが備えるタッチパネルに接触させたマウスを、接触させたままスライドさせる動作により、表示したオブジェクトに対する指示を行うことを開示している。   Patent Document 2 discloses an information processing apparatus that seamlessly displays 3D objects in a virtual three-dimensional space across a plurality of displays. This document discloses that the displayed object is instructed by an operation of sliding the mouse that is in contact with the touch panel included in the display while keeping the mouse in contact.

このように、タッチパネルデバイスと3D表示の仕組みを持つGUIシステムによって、ユーザからの操作入力、ユーザへの表示出力における操作性、直観性を向上させる仕組みが提供されている。   As described above, the GUI system having the touch panel device and the 3D display mechanism provides a mechanism for improving the operability and intuitiveness in the operation input from the user and the display output to the user.

特開2010−3260JP 2010-3260 特開2009−193471JP2009-193471A

iPhone ユーザーズガイドhttp://manuals.info.apple.com/ja_JPiPhone User's Guide http: // manuals. info. apple. com / ja_JP

上記特許文献1で示されている画面表示手法によって情報オブジェクトを表現する際、同じ意味を持つ操作をしようとした場合でも、3D表示の角度によってユーザが直観的に抱くフリック入力方向に対するイメージが異なるという現象が発生する。図12はこの現象を具体的に示す。図12の(a)、(b)に示されるのは、2つの異なる3D表示角度による、「文書を上方向にスライドさせる」という操作の例である。(a)でこの操作を行う場合、ユーザが直観的に抱くフリックの方向のイメージは矢印61である。しかし、(b)の場合、ユーザが直観的に抱くフリック方向のイメージは矢印61から矢印62に変わる。   When an information object is expressed by the screen display method disclosed in Patent Document 1 above, even if an operation having the same meaning is attempted, the image for the flick input direction intuitively held by the user differs depending on the angle of 3D display. The phenomenon that occurs. FIG. 12 specifically shows this phenomenon. FIGS. 12A and 12B show an example of an operation of “sliding a document upward” at two different 3D display angles. When this operation is performed in (a), the image of the direction of the flick that the user intuitively holds is an arrow 61. However, in the case of (b), the image in the flick direction intuitively held by the user changes from the arrow 61 to the arrow 62.

上記特許文献2には、マウス操作によって表示中のオブジェクトの位置を移動させる点については開示されているが、フリック操作に関する言及はない。したがって、特許文献2による方法でもこの課題は解決できない。   Japanese Patent Application Laid-Open No. 2005-228561 discloses the point of moving the position of an object being displayed by a mouse operation, but does not mention a flick operation. Therefore, even the method according to Patent Document 2 cannot solve this problem.

また、上記非特許文献1で示されている長押しによるコンテキストメニューの表示手法では、指示デバイスをタッチパネルに接触させる時間によっては、その操作内容を区別することが難しい場合がある。この場合、指示デバイスとは、指もしくはペンなどを意味している。また、操作内容とは「選択」、「コンテキストメニューの表示」などを指す。特に、長押しと判定するまでのタッチパネルへの接触時間を短く設定すると、ユーザが「選択」のつもりでタッチした操作が「コンテキストメニューの表示」と誤認されるケースが頻発する恐れがある。   Further, in the context menu display method by long press shown in Non-Patent Document 1, it may be difficult to distinguish the operation contents depending on the time for which the pointing device is in contact with the touch panel. In this case, the pointing device means a finger or a pen. The operation content refers to “selection”, “display context menu”, and the like. In particular, if the touch time on the touch panel until it is determined to be a long press is set to be short, there is a possibility that an operation that the user touches with the intention of “selection” will be mistaken as “display context menu”.

このように、3D表示された情報オブジェクトに対するタッチパネルによる操作は、ユーザが直感的に持つ動作のイメージとは異なっていることがある。このような実際に必要とする動作と、直感とのずれはタッチパネルの操作性を損なうものである。したがって、操作性の低下を防ぐ技術が必要であるが、上記技術文献のいずれをもってしても、これを実現することはできない。   As described above, an operation by a touch panel for an information object displayed in 3D may be different from an image of an operation that the user intuitively has. Such a deviation between the actually required operation and the intuition impairs the operability of the touch panel. Therefore, a technique for preventing a decrease in operability is necessary, but this cannot be realized with any of the above technical documents.

本発明は、操作性向上の課題を解決する画像操作入力処理装置を提供することを目的とする。   An object of the present invention is to provide an image operation input processing device that solves the problem of improving operability.

本発明によれば、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定する角度検出手段と、前記相対角度に応じた画像を前記第1の表示部に表示する空間制御手段と、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出手段と、前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御手段と、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御手段と、を備えている操作入力装置。が得られる。   According to the present invention, the angle detection means for measuring the relative angle between the surface without the display surface and the surface including the upper surface of the main body of the first display means for outputting a signal corresponding to the contact with the display surface. Space control means for displaying an image corresponding to the relative angle on the first display unit, and the signal is input from the display means, and from the start position and the end position of the contact to the display surface, Input detection means for acquiring a movement direction, operation control means for determining operation contents based on the relative angle and the movement direction, drawing contents based on the operation contents, and the first display means An operation input device comprising: display control means for displaying on the display. Is obtained.

本発明によれば、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定する角度検出処理と、前記相対角度に応じた画像を前記第1の表示部に表示する空間制御処理と、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出処理と、前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御処理と、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御処理と、をコンピュータに実行させることを特徴とする操作入力プログラムが得られる。   According to the present invention, an angle detection process for measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body of the first display means for outputting a signal corresponding to contact with the display surface. , A space control process for displaying an image corresponding to the relative angle on the first display unit, and the signal is input from the display means, and the contact position is determined from the start position and the end position of the contact on the display surface An input detection process for acquiring a movement direction, an operation control process for determining an operation content based on the relative angle and the movement direction, a drawing content is created based on the operation content, and the first display means An operation input program characterized by causing a computer to execute display control processing to be displayed on the computer is obtained.

本発明によれば、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定し、前記相対角度に応じた画像を前記第1の表示部に表示し、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得し、前記相対角度と、前記移動方向を基に、操作内容を決定し、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する操作入力方法が得られる。   According to the present invention, the first display means for outputting a signal corresponding to the contact with the display surface measures the relative angle formed by the surface without the display surface and the surface including the upper surface of the main body, and the relative angle is measured. According to the first display unit, input the signal from the display means, obtain the moving direction of the contact from the start position and the end position of the contact to the display surface, the relative Based on the angle and the moving direction, an operation content is determined, and an operation input method is provided in which drawing content is created based on the operation content and displayed on the first display means.

本発明は、表示装置の操作性を向上させる。   The present invention improves the operability of the display device.

図1は本発明の第1の実施形態における端末装置の外観を示す図である。FIG. 1 is a diagram showing an appearance of a terminal device according to the first embodiment of the present invention. 図2は本発明の第1の実施形態における端末装置の主要部構成を示すブロック図である。FIG. 2 is a block diagram showing a main part configuration of the terminal device according to the first embodiment of the present invention. 図3は本発明にて取り扱う情報オブジェクトの構成例を示す図である。FIG. 3 is a diagram showing a configuration example of an information object handled in the present invention. 図4は本発明における情報オブジェクトの表示構成例を示す図である。FIG. 4 is a diagram showing a display configuration example of the information object in the present invention. 図5は本発明の実施形態におけるヒンジ角度に応じた情報オブジェクトの表示処理動作の流れを示すフローチャート図である。FIG. 5 is a flowchart showing the flow of the information object display processing operation according to the hinge angle in the embodiment of the present invention. 図6は本発明の第1の実施形態におけるフリック入力操作に応じた情報オブジェクトの表示処理動作の流れを示すフローチャート図である。FIG. 6 is a flowchart showing the flow of the information object display processing operation according to the flick input operation according to the first embodiment of the present invention. 図7は本発明の端末装置における本体部と蓋体部の相対角度を示す図である。FIG. 7 is a diagram showing a relative angle between the main body and the lid in the terminal device of the present invention. 図8は本発明の端末装置が算出する疑似3D空間を表現する各種パラメータの概念を示す図である。FIG. 8 is a diagram showing the concept of various parameters representing the pseudo 3D space calculated by the terminal device of the present invention. 図9は本発明におけるフリック入力判別処理の概念を示す図である。FIG. 9 is a diagram showing the concept of the flick input determination process in the present invention. 図10は本発明におけるフリック入力の内容に応じた処理内容を決める為の対応表である。FIG. 10 is a correspondence table for determining processing contents according to the contents of flick input in the present invention. 図11は本発明におけるフリック入力に対する描画処理の一例を示す図である。FIG. 11 is a diagram showing an example of a drawing process for flick input according to the present invention. 図12は奥行きをもった3D映像に対してユーザが直観的に抱くフリック方向のイメージを示す図である。FIG. 12 is a diagram illustrating an image in a flick direction that a user intuitively holds for a 3D image having a depth. 図13は本発明の第2の実施形態における端末装置の主要部構成を示すブロック図である。FIG. 13 is a block diagram showing a main part configuration of a terminal apparatus according to the second embodiment of the present invention.

(第1の実施形態)
次に本発明を実施するための第1の実施形態が、図面を参照して詳細に説明される。図1(a)、(b)は、本発明の実施形態における操作入力装置10の外観を示す図である。本実施の形態における操作入力装置10は、本体部101と蓋体部102と第一の表示デバイス103と第二の表示デバイス104とヒンジ部105から成る。なお、ヒンジは蝶番ともいう。また、本体部101と蓋体部102を接続する機構部は、必ずしもヒンジに限定されるものではなく、変形可能な金属板等を用いてもよいし、プラスチック等金属以外の材料で同じ構造を構成して用いてもよい。
(First embodiment)
Next, a first embodiment for carrying out the present invention will be described in detail with reference to the drawings. FIGS. 1A and 1B are views showing the appearance of the operation input device 10 according to the embodiment of the present invention. The operation input device 10 in this embodiment includes a main body 101, a lid 102, a first display device 103, a second display device 104, and a hinge 105. The hinge is also called a hinge. In addition, the mechanism unit that connects the main body unit 101 and the lid unit 102 is not necessarily limited to the hinge, and a deformable metal plate or the like may be used, or the same structure may be used with a material other than metal such as plastic. It may be configured and used.

本体部101は、操作入力装置10を水平面に置いたとき、水平面と接地する筺体部品である。蓋体部102は、後述するヒンジ部105によって本体部101と連結されており、図1(b)のようにヒンジ部105を始点として180度回転可能な筺体部品である。第二の表示デバイス104は、本体部101が含む画面表示用の部品であり、ユーザの指やペンを使った接触により、操作入力装置10内で実行されているソフトウェアを操作可能とする、タッチパネル機能を搭載する。第一の表示デバイス103は、蓋体部102が含む画面表示用の部品であり、第二の表示デバイス104と同じくタッチパネル機能を搭載する。ヒンジ部105は、本体部101と蓋体部102を連結し、これら2つの筺体部品を折りたたみの状態から180度開いた状態にまで自由に回転可能な構造を提供する部品である。   The main body 101 is a housing component that comes into contact with the horizontal plane when the operation input device 10 is placed on the horizontal plane. The lid 102 is connected to the main body 101 by a hinge 105 described later, and is a casing component that can rotate 180 degrees starting from the hinge 105 as shown in FIG. The second display device 104 is a screen display component included in the main body unit 101, and can operate software executed in the operation input device 10 by contact with a user's finger or pen. Equipped with functions. The first display device 103 is a screen display component included in the lid 102, and is equipped with a touch panel function in the same manner as the second display device 104. The hinge part 105 is a part that connects the main body part 101 and the lid part 102 and provides a structure that allows these two casing parts to freely rotate from a folded state to a 180 degree opened state.

図2は、本発明の実施の形態における画面操作入力処理装置操作入力装置10のソフトウェア構造を示す機能ブロック図である。本発明の実施の形態における操作入力装置10は、ヒンジ角度検出部201と、疑似3D空間制御部202と、操作内容制御部203と、フリック入力検出部204と、から成る。また、これらに加えて操作入力装置10は、操作内容情報格納部205と、情報オブジェクト描画制御部206と画面表示制御部207と第一の画面デバイス制御部208と第二の画面デバイス制御部209と、を有している。   FIG. 2 is a functional block diagram showing a software structure of the screen operation input processing device operation input device 10 according to the embodiment of the present invention. The operation input device 10 according to the embodiment of the present invention includes a hinge angle detection unit 201, a pseudo 3D space control unit 202, an operation content control unit 203, and a flick input detection unit 204. In addition to these, the operation input device 10 includes an operation content information storage unit 205, an information object drawing control unit 206, a screen display control unit 207, a first screen device control unit 208, and a second screen device control unit 209. And have.

ヒンジ角度検出部201は、ヒンジ部105の状態より、本体部101と蓋体部102が成す相対的な角度を信号値として検出する。相対角度の算出方法については後述する。   The hinge angle detector 201 detects a relative angle formed by the main body 101 and the lid 102 as a signal value from the state of the hinge 105. A method for calculating the relative angle will be described later.

疑似3D空間制御部202は、ヒンジ角度検出部201より得られる信号値を基に、本体部101の面を水平基準面とした仮想的な3D空間に関する幾つかのパラメータを決定する。具体的な算出方法については後述する。   The pseudo 3D space control unit 202 determines some parameters related to a virtual 3D space using the surface of the main body 101 as a horizontal reference plane based on the signal value obtained from the hinge angle detection unit 201. A specific calculation method will be described later.

操作内容制御部203は、疑似3D空間制御部202から得られる仮想3D空間に関するパラメータと、後述するフリック入力検出部204より得られるフリック入力情報より、ユーザがタッチパネルを経由して行ったフリック入力内容の判別を行う。操作内容制御部203がフリック入力内容の判別をすることで、ユーザがどのような操作を指示しているのかが、特定される。この特定において、操作内容制御部203は、後述する操作内容情報格納部205内の対応表データを参照して、ユーザが指示する操作を判断する。   The operation content control unit 203 uses the flick input content that the user has made via the touch panel based on the virtual 3D space parameters obtained from the pseudo 3D space control unit 202 and the flick input information obtained from the flick input detection unit 204 described later. To determine. When the operation content control unit 203 determines the flick input content, it is specified what operation the user is instructing. In this specification, the operation content control unit 203 refers to correspondence table data in the operation content information storage unit 205 described later, and determines an operation instructed by the user.

操作内容情報格納部205は、操作内容制御部203がフリック入力内容の判別結果から具体的な操作内容を決定する為の、フリック入力判別結果と操作内容との対応表を格納する。対応表の詳細については後述する。   The operation content information storage unit 205 stores a correspondence table between the flick input determination result and the operation content for the operation content control unit 203 to determine specific operation content from the determination result of the flick input content. Details of the correspondence table will be described later.

情報オブジェクト描画制御部206は、疑似3D空間制御部202より得られる疑似3D空間のパラメータを基に、表示すべき情報オブジェクトの疑似3D空間内における3次元座標データを算出する。その後、情報オブジェクト描画制御部206は、第一の表示デバイス103、第二の表示デバイス104のそれぞれに表示すべき平面投射された情報オブジェクトの描画データを生成する。さらに、情報オブジェクト描画制御部206は、操作内容制御部203より得られた操作内容情報を基に情報オブジェクトのスライド移動やコンテキストメニューイメージの描画データも生成する。   The information object drawing control unit 206 calculates three-dimensional coordinate data in the pseudo 3D space of the information object to be displayed based on the parameters of the pseudo 3D space obtained from the pseudo 3D space control unit 202. After that, the information object drawing control unit 206 generates drawing data of the information object that is plane-projected to be displayed on each of the first display device 103 and the second display device 104. Furthermore, the information object drawing control unit 206 also generates information object slide movement and context menu image drawing data based on the operation content information obtained from the operation content control unit 203.

画面表示制御部207は、情報オブジェクト描画制御部206より得られた描画データを基に、第一の表示デバイス103と第二の表示デバイス104のそれぞれに対して出力すべき描画内容の振り分けを行なう。また、画面表示制御部207は、後述する第一の画面デバイス制御部208と第二の画面デバイス制御部209に対して表示命令を出力する。この振り分けは図4で示されるように、一つの情報オブジェクトを第一の表示デバイス103と第二の表示デバイス104に跨って表示させようとする際に機能するものである。   The screen display control unit 207 distributes drawing contents to be output to each of the first display device 103 and the second display device 104 based on the drawing data obtained from the information object drawing control unit 206. . Further, the screen display control unit 207 outputs a display command to a first screen device control unit 208 and a second screen device control unit 209 described later. As shown in FIG. 4, this distribution functions when one information object is displayed across the first display device 103 and the second display device 104.

第一の画面デバイス制御部208は、画面表示制御部207より得られた表示命令より、第一の表示デバイス103が解釈可能な信号データに変換する。   The first screen device control unit 208 converts the display command obtained from the screen display control unit 207 into signal data that can be interpreted by the first display device 103.

第二の画面デバイス制御部209は、第一の画面デバイス制御部208と同じく、画面表示制御部207より得られた表示命令より、第二の表示デバイス104が解釈可能な信号データに変換する。   Similar to the first screen device control unit 208, the second screen device control unit 209 converts the display command obtained from the screen display control unit 207 into signal data that can be interpreted by the second display device 104.

図3は、操作入力装置10が表示する、情報オブジェクトの一例を示したものである。情報オブジェクト300は、サブオブジェクト301、サブオブジェクト302の集合体として表現される。図3の例では、サブオブジェクトは画像に関するサブオブジェクト301とテキストに関するサブオブジェクト302とから成る。   FIG. 3 shows an example of an information object displayed by the operation input device 10. The information object 300 is expressed as a collection of sub-objects 301 and 302. In the example of FIG. 3, the sub-object includes a sub-object 301 related to an image and a sub-object 302 related to text.

図4は、情報オブジェクト300が、操作入力装置10が持つ2つの表示デバイスである、第1の表示デバイス103と第2の表示デバイス104とに跨って表示されている例を示している。(a)のように本体部101に対して蓋体部102が完全に開いた状態では、両表示デバイスは、情報オブジェクト300を、ユーザが、真上から見下ろせる形に表示する。これに対して、図4(b)のように、本体部101に対して蓋体部102が起き上った状態では、両表示デバイスは、情報オブジェクト300を、奥行きを持った形で表示する。   FIG. 4 shows an example in which the information object 300 is displayed across the first display device 103 and the second display device 104 which are two display devices of the operation input device 10. When the lid 102 is completely opened with respect to the main body 101 as shown in (a), both display devices display the information object 300 in a form that the user can look down from directly above. On the other hand, as shown in FIG. 4B, when the lid 102 is raised with respect to the main body 101, both display devices display the information object 300 with a depth. .

次に、図5及び図6のフローチャートを参照して、本実施の形態の全体の動作が詳細に説明される。図5は、ヒンジの角度に応じた情報オブジェクト300の表示制御動作について説明するものである。まず、本フロ―チャートは本体部101と蓋体部102の相対的な角度を検出するところから始まる(ステップS101)。ここで検出する相対角度は、図7にθで示されるように、蓋体部102の第1の表示デバイス103を有する面とは反対側の面と、第2の表示デバイスの表示面を含む面のなす角度である。この値はヒンジ部105の物理的形状を基にヒンジ角度検出部201より得る。次に、ヒンジ角度検出部201にて得られた相対角度θを基に、疑似3D空間制御部202が、疑似3D空間に関連するパラメータとして、消失点νと疑似Z軸投射角Φを求める(ステップS102)。   Next, the overall operation of the present embodiment will be described in detail with reference to the flowcharts of FIGS. FIG. 5 explains the display control operation of the information object 300 in accordance with the hinge angle. First, this flowchart starts from detecting a relative angle between the main body 101 and the lid 102 (step S101). The relative angle detected here includes the surface of the lid 102 opposite to the surface having the first display device 103 and the display surface of the second display device, as indicated by θ in FIG. The angle formed by the surface. This value is obtained from the hinge angle detection unit 201 based on the physical shape of the hinge unit 105. Next, based on the relative angle θ obtained by the hinge angle detection unit 201, the pseudo 3D space control unit 202 obtains the vanishing point ν and the pseudo Z-axis projection angle Φ as parameters related to the pseudo 3D space ( Step S102).

消失点とは、3D表示に変換するために用いる透視法で得た表示対象が有する、変換前は平行だったが変換後に平行でなくなった直線の組の、交点である。すなわち、ここで言う消失点は、一点透視図法において一般に用いられる消失点と同じ意味を持っている。   The vanishing point is an intersection point of a set of straight lines that are displayed in the perspective obtained by the perspective method used for conversion to 3D display and that are parallel before conversion but no longer parallel after conversion. In other words, the vanishing point here has the same meaning as the vanishing point generally used in the one-point perspective method.

疑似Z軸とは、透視法で得られた3D空間の奥行きを表す軸である。第1の表示デバイス103の横の辺(ヒンジ部105のある辺)に平行な軸をx、横の辺と直交する縦の辺に平行な軸をyとすると、この疑似Z軸をxy平面上に投射した直線Lとy軸との相対角度が疑似Z軸投射角Φである。直線Lは、消失点と原点を通るので、消失点からΦを計算することが可能である。   The pseudo Z axis is an axis representing the depth of the 3D space obtained by the perspective method. If the axis parallel to the horizontal side of the first display device 103 (side where the hinge portion 105 is located) is x, and the axis parallel to the vertical side orthogonal to the horizontal side is y, this pseudo-Z axis is the xy plane. The relative angle between the straight line L projected above and the y-axis is the pseudo Z-axis projection angle Φ. Since the straight line L passes through the vanishing point and the origin, Φ can be calculated from the vanishing point.

図8は、消失点νと疑似Z軸投射角Φのイメージを示すものである。画面の幅をW、装置10に与えられた自然数をα、βとすると、擬似3D空間制御部202は、νのx座標ν_x、y座標ν_yをそれぞれ以下の式で求める。   FIG. 8 shows an image of the vanishing point ν and the pseudo Z-axis projection angle Φ. Assuming that the width of the screen is W and the natural numbers given to the device 10 are α and β, the pseudo 3D space control unit 202 obtains the x coordinate ν_x and y coordinate ν_y of ν by the following equations.

ν_x=W/2
ν_y=α+β((1/sinθ)−1)
上記の式に基づくと、蓋体部102を完全に開ききった場合(図7の点線部が開ききった状態を示す)、θの値が0になるので、ν_yの値が無限大となる。すなわち、νの座標はy軸座標において無限遠になり、結果的に第一の表示デバイス103に表示される情報オブジェクト300は図4(a)のように真上から見下ろした表示になる。
ν_x = W / 2
ν_y = α + β ((1 / sin θ) −1)
Based on the above formula, when the lid 102 is completely opened (showing a state where the dotted line in FIG. 7 is fully opened), the value of θ becomes 0, so the value of ν_y becomes infinite. . That is, the coordinate of ν is infinite at the y-axis coordinate, and as a result, the information object 300 displayed on the first display device 103 is displayed as viewed from directly above as shown in FIG.

一方、蓋体部102を本体部101に対して垂直に立てた場合、sinθの値が1になるので、ν_yの値がαとなる。図8に示すように、この場合は、画面内に消失点ν(W/2、α)が存在する。また、この消失点から計算した疑似Z軸投射角Φは、arctan(2α/W)となる。つまり、一点透視図法によって奥行表現された情報オブジェクト300が、消失点ν(W/2、α)、疑似Z軸投射角Φ=arctan(2α/W)で、第一の表示デバイス103に表示される。   On the other hand, since the value of sin θ is 1 when the lid portion 102 is set perpendicular to the main body 101, the value of ν_y is α. As shown in FIG. 8, in this case, the vanishing point ν (W / 2, α) exists in the screen. Further, the pseudo Z-axis projection angle Φ calculated from this vanishing point is arctan (2α / W). That is, the information object 300 expressed in depth by the one-point perspective method is displayed on the first display device 103 at the vanishing point ν (W / 2, α) and the pseudo Z-axis projection angle Φ = arctan (2α / W). The

次に、ステップS102より得た消失点座標νを用いて、情報オブジェクト描画制御部206が、表示すべき情報オブジェクトの描画データを算出する。この時、描画データは、座標νを消失点とした一点透視図法によって算出される(ステップS103)。   Next, using the vanishing point coordinate ν obtained in step S102, the information object drawing control unit 206 calculates drawing data of the information object to be displayed. At this time, the drawing data is calculated by a one-point perspective method using the coordinate ν as a vanishing point (step S103).

ステップS103にて算出された描画データは画面表示制御部207に渡され、表示命令に変換される。この際、この表示命令は第一の表示デバイス103に向けた命令セットと第二の表示デバイス104に向けた命令セットに振り分けされる(ステップS104)。
ちなみに、この表示命令は具体的にはGPU(Graphics Processing Unit)などのグラフィック制御チップが理解可能な機械命令語を用いて行うことができる。
The drawing data calculated in step S103 is transferred to the screen display control unit 207 and converted into a display command. At this time, the display command is divided into a command set for the first display device 103 and a command set for the second display device 104 (step S104).
Incidentally, this display instruction can be specifically performed using a machine instruction word that can be understood by a graphic control chip such as GPU (Graphics Processing Unit).

最後にこの表示命令が、第一の画面デバイス制御部208と第二の画面デバイス制御部209に入力され、第一の表示デバイス103と第二の表示デバイス104に相対角度θに応じた情報オブジェクトが表示出力される(ステップS105)。   Finally, this display command is input to the first screen device control unit 208 and the second screen device control unit 209, and the information object corresponding to the relative angle θ is applied to the first display device 103 and the second display device 104. Is displayed and output (step S105).

図6は、第一の表示デバイス103に対するフリック入力操作を行った際の操作入力装置10内の動作を示すフローチャートである。第二の画面デバイス制御部209は、第一の表示デバイス103が備えるタッチパネルを経由してユーザが何らかの操作を行ったことを電気信号として受信すると、この電気信号をタッチパネル操作情報に変換する(ステップS201)。   FIG. 6 is a flowchart illustrating an operation in the operation input device 10 when a flick input operation is performed on the first display device 103. When the second screen device control unit 209 receives, as an electrical signal, that the user has performed some operation via the touch panel included in the first display device 103, the second screen device control unit 209 converts the electrical signal into touch panel operation information (Step S110). S201).

次に、このタッチパネル操作情報は、フリック入力検出部204に渡され、タッチパネル操作情報がフリック入力かどうかを判定する。フリック入力ではなかった場合(Noの場合)は、フリック入力検出部204は、他の処理を行うか、または処理を終了する。フリック入力であった場合(Yesの場合)は、フリック入力検出部204は、フリック入力情報に変換する(ステップS202)。このフリック入力情報には、フリック入力の開始点とフリックの方向が含まれる。これらの値は例えば第一の表示デバイス103を基準面としたxy平面状の2次元座標と正規化されたベクトルデータとしてそれぞれ表現される。   Next, the touch panel operation information is passed to the flick input detection unit 204, and it is determined whether the touch panel operation information is a flick input. When it is not a flick input (in the case of No), the flick input detection unit 204 performs another process or ends the process. When it is a flick input (in the case of Yes), the flick input detection part 204 converts into flick input information (step S202). This flick input information includes a flick input start point and a flick direction. These values are expressed as, for example, xy planar two-dimensional coordinates with the first display device 103 as a reference plane and normalized vector data.

次に、操作内容制御部203は、ステップ202で変換したフリック入力情報とステップS102で得た疑似Z軸投射角Φを基にフリック入力の内容の判定を行う(ステップS203)。ステップS203におけるフリック入力の判定の目的は2つある。一つは本体部101と水平な面を基準となる水平面だとした場合、この水平面に対してフリック入力が疑似3D空間内で垂直な方向に入力されているか否かを決めることである。他の一つはフリック入力の始点座標に応じて、その操作対象となるサブオブジェクトが何であるかを決定することである。なお、対象オブジェクトが1つの場合、始点座標は無視されても良い。   Next, the operation content control unit 203 determines the content of the flick input based on the flick input information converted in step 202 and the pseudo Z-axis projection angle Φ obtained in step S102 (step S203). There are two purposes for determining the flick input in step S203. One is to determine whether or not a flick input is input in a direction perpendicular to the horizontal plane in the pseudo 3D space when a horizontal plane with the main body 101 is a reference horizontal plane. The other is to determine what sub-object is the operation target according to the starting point coordinates of the flick input. When there is one target object, the start point coordinates may be ignored.

図9はフリック入力の判定処理に必要な情報(フリック入力始点座標、フリックのベクトルD、y軸との相対角度ψ、相対角度Φ)を図示している。図9においては、棒矢印で表現したフリック入力情報401が、フリック入力のイメージである。フリック入力情報401はフリック入力始点座標B(x、y)と正規化されたフリック方向ベクトルD(x_v、y_v)を持つ。操作内容制御部203は、フリック方向ベクトルDを用いて、フリック入力とy軸との相対角度Ψを求める。   FIG. 9 illustrates information (flick input start point coordinates, flick vector D, relative angle ψ, relative angle Φ with respect to the y-axis) necessary for the flick input determination process. In FIG. 9, flick input information 401 expressed by a bar arrow is an image of flick input. The flick input information 401 has a flick input start point coordinate B (x, y) and a normalized flick direction vector D (x_v, y_v). The operation content control unit 203 uses the flick direction vector D to obtain the relative angle Ψ between the flick input and the y axis.

フリック入力が疑似3D空間内で垂直な方向に入力されているという判定は、y軸との相対角度Ψが以下の条件を満たした場合に下される。   The determination that the flick input is input in a direction perpendicular to the pseudo 3D space is made when the relative angle Ψ with the y-axis satisfies the following condition.

−nθ<Ψ<nθ(0<n<1)
もしも、この判定方法にて、ある特定のサブオブジェクトを始点とした垂直方向への入力が成されたと判定された場合、その入力は、コンテキストメニューの表示だと判断される。そして、対象となるサブオブジェクトに応じた操作内容が、第一の表示デバイス103と第二の表示デバイス104の間で割り振られる(ステップS204)。操作内容の割り振りは、操作内容制御部203によって、操作内容情報格納部205に格納されているフリック入力内容と操作内容の対応を示す操作内容対応表をもとに行われる。
−nθ <Ψ <nθ (0 <n <1)
If it is determined by this determination method that an input in a vertical direction starting from a specific sub-object is made, it is determined that the input is a display of a context menu. Then, the operation content corresponding to the target sub-object is allocated between the first display device 103 and the second display device 104 (step S204). The operation content is allocated by the operation content control unit 203 based on the operation content correspondence table indicating the correspondence between the flick input content stored in the operation content information storage unit 205 and the operation content.

図10はこの操作内容対応表を例示する。図10は、フリック入力が垂直方向ではないと判定された場合は情報オブジェクトのスライド処理が割り振り、垂直方向であると判定された場合は、さらにフリック始点座標Bに対応するサブオブジェクトの種類に応じて、操作が割り振る操作内容対応表の例である。この例は、画像オブジェクトの場合は「画像のコピー」、「画像の保存」、「画像の印刷」が割り振り、テキストオブジェクトの場合は「テキストの範囲指定」、それ以外の場合はブラウザ処理における「一階層上に戻る」を割り振っている例である。   FIG. 10 illustrates this operation content correspondence table. In FIG. 10, when it is determined that the flick input is not in the vertical direction, the slide processing of the information object is allocated, and when it is determined that the flick input is in the vertical direction, it further depends on the type of the sub-object corresponding to the flick start point coordinate B. This is an example of an operation content correspondence table allocated by an operation. In this example, “copy image”, “save image”, and “print image” are allocated in the case of an image object, “text range specification” in the case of a text object, and “ This is an example of assigning “return one level up”.

ステップS204にてフリック入力に対する操作内容が決定したら、それは操作内容情報として情報オブジェクト描画制御部206に送られ、この操作内容情報に応じた描画処理が行われる(ステップS205)。   When the operation content for the flick input is determined in step S204, it is sent to the information object drawing control unit 206 as operation content information, and a drawing process corresponding to the operation content information is performed (step S205).

図11は、ステップS205で行われる描画処理の一例を示す。図11(a)はフリック入力方向が「垂直」と認識され、フリック入力の始点がこの画像に関するサブオブジェクト301だった場合の描画処理を説明するものである。この場合は、フリック方向の先に、サブオブジェクト301の画像に関するサブオブジェクトの正面画イメージ501が浮かび上がるように表示され、その脇にサブオブジェクト301に関連する操作を示す画像に関するコンテキストメニュー502が表示される。   FIG. 11 shows an example of the drawing process performed in step S205. FIG. 11A illustrates a drawing process when the flick input direction is recognized as “vertical” and the start point of the flick input is the sub-object 301 related to this image. In this case, a front-view image 501 of the sub-object related to the image of the sub-object 301 is displayed so as to appear at the tip of the flick direction, and a context menu 502 related to an image indicating an operation related to the sub-object 301 is displayed beside it. Is done.

図11(b)はフリック入力方向が垂直ではない、すなわち「それ以外」と認識された場合の描画処理を説明するものである。この場合は、フリック方向に応じた情報オブジェクト300のスライド移動が起こる。図11(b)の例示では、フリック入力は疑似3D空間内におけるZ軸(奥行き)方向と見なされ、その方向へのスライド移動が発生する。
ステップS205における描画処理の結果、情報オブジェクト描画制御部206は描画データを出力する。この描画データを受けた画面表示制御部207は、第一の画面デバイス制御部208と第二の画面デバイス制御部209に対して表示命令セットを出力する。この命令セットに応じて、第一の画面デバイス制御部208と第二の画面デバイス制御部209はそれぞれ第一の表示デバイス103ならびに第二の表示デバイス104に情報オブジェクトを表示する。この結果、情報オブジェクト300は、第一の表示デバイスと第二の表示デバイスを跨って移動するように表示される。
FIG. 11B illustrates a drawing process when the flick input direction is not vertical, that is, “other than that” is recognized. In this case, the information object 300 slides according to the flick direction. In the example of FIG. 11B, the flick input is regarded as the Z-axis (depth) direction in the pseudo 3D space, and sliding movement in that direction occurs.
As a result of the drawing process in step S205, the information object drawing control unit 206 outputs drawing data. Upon receiving this drawing data, the screen display control unit 207 outputs a display command set to the first screen device control unit 208 and the second screen device control unit 209. In response to this instruction set, the first screen device control unit 208 and the second screen device control unit 209 display information objects on the first display device 103 and the second display device 104, respectively. As a result, the information object 300 is displayed so as to move across the first display device and the second display device.

本実施の形態の効果は、画面操作入力処理の操作性を向上させることである。その理由は、ヒンジの角度によって動的に替わる3D表示された情報オブジェクト300に対して、ユーザが直感的に抱くフリック入力動作のイメージ通りに、フリック入力を行うことができるからである。これを具体的に述べると、本実施の形態では、垂直とみなされないすべてのフリックは画像の移動の命令とみなされる。したがって、ユーザが画面の表示で判断して直感的に正しいと思う方向にフリックすることで、所望の画像の移動が実現する。これは、ヒンジの角度に応じて変化する疑似3D空間における仮想視点座標と、フリック入力の内容に応じて、操作内容制御部203がフリック入力によって決まる情報オブジェクト300に対する操作内容を動的に変化させることによって可能となる。   The effect of the present embodiment is to improve the operability of the screen operation input process. The reason is that flick input can be performed on the 3D-displayed information object 300 that dynamically changes depending on the angle of the hinge as the flick input operation image intuitively held by the user. Specifically, in the present embodiment, all flicks that are not regarded as vertical are regarded as image movement commands. Therefore, the user can move the desired image by flicking in a direction that is intuitively correct as judged by the display on the screen. This is because the operation content control unit 203 dynamically changes the operation content for the information object 300 determined by the flick input according to the virtual viewpoint coordinates in the pseudo 3D space that changes according to the hinge angle and the content of the flick input. This is possible.

また、本実施の形態の第2の効果は、タッチパネルの長押し操作なしに特定の情報オブジェクトに対するコンテキストメニューの表示が実現できる点である。その理由は、以下に説明される。疑似3D空間制御部202によって、ユーザの目には、情報オブジェクトが、仮想的に疑似3D表示空間上に投射されているように見える。その結果、ユーザは、擬似Z軸方向へのフリック入力という2次元(2D)表示空間では認識することができない新しいフリック入力操作を加えることができる。この新しいフリック入力操作に対して操作内容制御部203は、コンテキストメニュー表示を割り振ることができるため、ユーザは長押し操作を不要とする。   The second effect of the present embodiment is that a context menu can be displayed for a specific information object without long-pressing the touch panel. The reason is explained below. The pseudo 3D space control unit 202 makes it appear to the user's eyes that the information object is virtually projected on the pseudo 3D display space. As a result, the user can add a new flick input operation that cannot be recognized in the two-dimensional (2D) display space, that is, flick input in the pseudo Z-axis direction. The operation content control unit 203 can allocate a context menu display for this new flick input operation, so that the user does not need a long press operation.

なお、本実施形態における情報オブジェクト300は、サブオブジェクト301、サブオブジェクト302の集合体として表現されているが、3つ以上のサブオブジェクトの集合体であっても構わない。   Note that the information object 300 in this embodiment is expressed as an aggregate of the sub-objects 301 and 302, but may be an aggregate of three or more sub-objects.

なお、本実施形態においては、第1の表示デバイス103と第2の表示デバイス104の両方に描画内容を振り分けているが、必ずしも振り分ける必要はなく、すべてをどちらかの表示デバイスに表示させてもよい。   In the present embodiment, the drawing contents are distributed to both the first display device 103 and the second display device 104. However, it is not always necessary to distribute the drawing contents. Good.

なお、本実施の形態においては、フリック入力が疑似3D空間内で垂直な方向に入力されているか否かの判定のために、操作内容制御部203は、−nθ<Ψ<nθ(0<n<1)の条件を用いたが、必ずしもこの条件である必要はない。操作内容制御部203は、より厳密な条件0<n<0.5を用いてもよいし、より緩い条件0<n<2を用いてもよい。また、フリック方向とy軸のなす角度と擬似Z軸投射角Φとの差が0.1XΦ以下等であるときは、擬似Z軸と平行であるとみなす等、操作内容制御部203は、フリックの擬似Z軸との平行性を判定してもよい。
(第2の実施形態)
本発明の第2の実施形態は、図13に示すように、表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定するヒンジ角度検出部201と、前記相対角度に応じた画像を前記第1の表示部に表示する擬似3D空間制御部202と、前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得するフリック入力検出部204と、前記相対角度と、前記移動方向を基に、操作内容を決定する操作内容制御部203と、前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する画面表示制御部207と、を備えていることを特徴とする操作入力装置10である。
In this embodiment, in order to determine whether or not a flick input is input in a vertical direction in the pseudo 3D space, the operation content control unit 203 determines that −nθ <Ψ <nθ (0 <n Although the condition <1) is used, it is not always necessary. The operation content control unit 203 may use a stricter condition 0 <n <0.5 or may use a more lenient condition 0 <n <2. In addition, when the difference between the angle formed by the flick direction and the y-axis and the pseudo Z-axis projection angle Φ is 0.1XΦ or less, the operation content control unit 203 is assumed to be parallel to the pseudo Z-axis. The parallelism with the pseudo Z axis may be determined.
(Second Embodiment)
In the second embodiment of the present invention, as shown in FIG. 13, the first display means for outputting a signal corresponding to the contact with the display surface, the surface having no display surface and the surface including the upper surface of the main body unit, A hinge angle detection unit 201 that measures a relative angle formed by; a pseudo 3D space control unit 202 that displays an image corresponding to the relative angle on the first display unit; and the signal input from the display unit, A flick input detection unit 204 that acquires a moving direction of the contact from a start position and an end position of the contact with the display surface, and an operation content control unit 203 that determines an operation content based on the relative angle and the moving direction. And a screen display control unit 207 for creating drawing contents based on the operation contents and displaying the drawing contents on the first display means.

第2の実施形態の効果は、画面操作入力処理の操作性が向上させることにある。その理由は、ヒンジの角度によって動的に替わる3D表示された情報オブジェクトに対して、ユーザが直感的に抱くフリック入力動作のイメージ通りに、フリック入力を行うことができる点である。これは、ヒンジの角度に応じて変化する疑似3D空間における仮想視点座標と、フリック入力の内容に応じて、操作内容制御部203がフリック入力によって決まる情報オブジェクトに対する操作内容を動的に変化させることによって可能となっている。   The effect of the second embodiment is to improve the operability of the screen operation input process. The reason is that flick input can be performed on the information object displayed in 3D that dynamically changes depending on the angle of the hinge, as the image of the flick input operation intuitively held by the user. This is because the operation content control unit 203 dynamically changes the operation content for the information object determined by the flick input according to the virtual viewpoint coordinates in the pseudo 3D space that changes according to the hinge angle and the content of the flick input. Is possible.

以上、第1、第2の実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   Although the present invention has been described with reference to the first and second embodiments, the present invention is not limited to the above embodiments. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

本発明は、折りたたみ可能なタッチパネル型画面デバイスを持ったモバイル端末装置の用途に適用できる。   The present invention can be applied to the use of a mobile terminal device having a foldable touch panel type screen device.

10 操作入力装置
101 本体部
102 蓋体部
103 第一の表示デバイス
104 第二の表示デバイス
105 ヒンジ部
201 ヒンジ角度検出部
202 疑似3D空間制御部
203 操作内容制御部
204 フリック入力検出部
205 操作内容情報格納部
206 情報オブジェクト描画制御部
207 画面表示制御部
208 第一の画面デバイス制御部
209 第二の画面デバイス制御部
300 情報オブジェクト
301 画像に関するサブオブジェクト
302 テキストに関するサブオブジェクト
401 フリック入力情報
501 画像に関するサブオブジェクトの正面画イメージ
502 画像に関するコンテキストメニュー
61 矢印
62 矢印
DESCRIPTION OF SYMBOLS 10 Operation input apparatus 101 Main body part 102 Cover part 103 1st display device 104 2nd display device 105 Hinge part 201 Hinge angle detection part 202 Pseudo 3D space control part 203 Operation content control part 204 Flick input detection part 205 Operation content Information storage unit 206 Information object drawing control unit 207 Screen display control unit 208 First screen device control unit 209 Second screen device control unit 300 Information object 301 Sub-object related to image 302 Sub-object related to text 401 Flick input information 501 Front-view image of sub-object 502 Context menu related to image 61 Arrow 62 Arrow

Claims (10)

表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定する角度検出手段と、
前記相対角度に応じた画像を前記第1の表示部に表示する空間制御手段と、
前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出手段と、
前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御手段と、
前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御手段と、
を備えていることを特徴とする操作入力装置。
Angle detection means for measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body, of the first display means for outputting a signal corresponding to contact with the display surface;
Space control means for displaying an image corresponding to the relative angle on the first display unit;
Input detection means for inputting the signal from the display means, and obtaining a moving direction of the contact from a start position and an end position of the contact with the display surface;
Operation control means for determining operation content based on the relative angle and the moving direction;
Display control means for creating drawing contents based on the operation contents and displaying the drawing contents on the first display means;
An operation input device comprising:
前記空間制御手段は、前記相対角度の増減に応じて増減する投射角を算出して、3次元空間内のオブジェクトを、前記第1の表示手段の縦軸を高さ軸、横軸を幅軸、前記縦軸に対して前記第1の画面の内側方向に前記投射角をなす疑似軸を奥行き軸とした疑似3次元空間画像に変換して表示することを特徴とする請求項1の操作入力装置。   The space control means calculates a projection angle that increases / decreases according to the increase / decrease of the relative angle, and displays an object in a three-dimensional space with the vertical axis of the first display means as the height axis and the horizontal axis as the width axis. 2. The operation input according to claim 1, wherein the pseudo input is converted into a pseudo three-dimensional space image having a depth axis as a pseudo axis forming the projection angle in an inner direction of the first screen with respect to the vertical axis. apparatus. 前記操作制御手段は、前記移動方向と、前記疑似軸の延伸方向との成す角度が、前記相対角度に応じて計算される許容値以下であるときには、前記3次元空間において、奥行き軸方向の動きが入力された場合と同じ第1の操作内容を選択し、前記成す角度が、前記所定許容値より大きい場合、前記3次元空間において高さ軸方向の動きが入力された場合と同じ第2の操作内容を選択することを特徴とする請求項2の操作入力装置。   The operation control means moves in the depth axis direction in the three-dimensional space when an angle formed by the moving direction and the extension direction of the pseudo axis is equal to or less than a tolerance calculated according to the relative angle. The same first operation content as that in the case where is input is selected, and if the angle formed is larger than the predetermined allowable value, the same second operation as in the case where the movement in the height axis direction is input in the three-dimensional space. 3. The operation input device according to claim 2, wherein an operation content is selected. 前記本体部は、上面に第2の表示手段を備え、
前記操作制御手段は、前記第1の操作内容として、前記オブジェクトを前記疑似3次元空間上で、前記疑似軸方向に平行移動させる操作を選択し、
前記表示制御手段は、前記オブジェクトを前記第1と第2の表示手段に跨って移動させることを特徴とする、請求項3の操作入力装置。
The main body includes a second display unit on an upper surface,
The operation control means selects, as the first operation content, an operation of translating the object in the pseudo three-dimensional space in the pseudo axis direction,
The operation input device according to claim 3, wherein the display control unit moves the object across the first and second display units.
前記操作制御手段は、前記第2の操作内容として、前記オブジェクトのコンテキストメニュー表示を選択することを特徴とする、請求項3または4の操作入力装置。   The operation input device according to claim 3 or 4, wherein the operation control means selects a context menu display of the object as the second operation content. 表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定する角度検出処理と、
前記相対角度に応じた画像を前記第1の表示部に表示する空間制御処理と、
前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得する入力検出処理と、
前記相対角度と、前記移動方向を基に、操作内容を決定する操作制御処理と、
前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示する表示制御処理と、
をコンピュータに実行させることを特徴とする操作入力プログラム。
An angle detection process for measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body of the first display means for outputting a signal corresponding to contact with the display surface;
A space control process for displaying an image corresponding to the relative angle on the first display unit;
An input detection process for inputting the signal and obtaining a moving direction of the contact from a start position and an end position of the contact with the display surface;
An operation control process for determining an operation content based on the relative angle and the moving direction;
A display control process for creating drawing content based on the operation content and displaying the drawing content on the first display means;
An operation input program for causing a computer to execute.
前記相対角度の増減に応じて増減する投射角を算出して、3次元空間内のオブジェクトを、前記第1の表示手段の縦軸を高さ軸、横軸を幅軸、前記縦軸に対して前記第1の画面の内側方向に前記投射角をなす疑似軸を奥行き軸とした疑似3次元空間画像に変換して表示する前記空間制御処理を前記コンピュータに実行させることを特徴とする請求項6の操作入力プログラム。   A projection angle that increases or decreases in accordance with the increase or decrease of the relative angle is calculated, and an object in a three-dimensional space is defined with respect to the vertical axis of the first display means, the horizontal axis as the horizontal axis, and the vertical axis. The computer is configured to cause the computer to execute the spatial control process of converting and displaying a pseudo three-dimensional spatial image having a pseudo axis that forms the projection angle in the inner direction of the first screen as a depth axis. 6. Operation input program. 前記移動方向と、前記疑似軸の延伸方向との成す角度が、前記相対角度に応じて計算される許容値以下であるときには、前記3次元空間において、奥行き軸方向の動きが入力された場合と同じ第1の操作内容を選択し、前記成す角度が、前記相対角度に応じて計算される許容値より大きい場合、前記3次元空間において高さ軸方向の動きが入力された場合と同じ第2の操作内容を選択する前記操作制御処理をコンピュータに実行させることを特徴とする請求項7の操作入力プログラム。   When an angle between the moving direction and the extension direction of the pseudo axis is equal to or less than an allowable value calculated according to the relative angle, a motion in the depth axis direction is input in the three-dimensional space; When the same first operation content is selected and the angle formed is larger than the allowable value calculated according to the relative angle, the same second as when the motion in the height axis direction is input in the three-dimensional space. The operation input program according to claim 7, wherein the operation control process for selecting the operation content is executed by a computer. 表示面への接触に応じた信号を出力する第1の表示手段の、表示面がない面と本体部の上面を含む面との成す相対角度を測定し、
前記相対角度に応じた画像を前記第1の表示部に表示し、
前記表示手段から前記信号を入力して、前記表示面への接触の開始位置と終了位置から前記接触の移動方向を取得し、
前記相対角度と、前記移動方向を基に、操作内容を決定し、
前記操作内容に基づいて描画内容を作成し、前記第1の表示手段に表示することを特徴とする操作入力方法。
Measuring a relative angle between a surface having no display surface and a surface including the upper surface of the main body of the first display means for outputting a signal corresponding to contact with the display surface;
Displaying an image corresponding to the relative angle on the first display unit;
Input the signal from the display means, obtain the moving direction of the contact from the start position and the end position of the contact to the display surface,
Based on the relative angle and the movement direction, determine the operation content,
An operation input method characterized in that a drawing content is created based on the operation content and displayed on the first display means.
前記相対角度に応じた画像を前記第1の表示部に表示する際は、前記相対角度の増減に応じて増減する投射角を算出して、3次元空間内のオブジェクトを、前記第1の表示手段の縦軸を高さ軸、横軸を幅軸、前記縦軸に対して前記第1の画面の内側方向に前記投射角をなす疑似軸を奥行き軸とした疑似3次元空間画像に変換して表示することを特徴とする請求項9の操作入力方法。   When an image corresponding to the relative angle is displayed on the first display unit, a projection angle that increases or decreases according to the increase or decrease of the relative angle is calculated, and an object in a three-dimensional space is displayed on the first display. The vertical axis of the means is converted into a pseudo three-dimensional space image in which the vertical axis is the height axis, the horizontal axis is the width axis, and the pseudo axis that forms the projection angle in the inner direction of the first screen with respect to the vertical axis. The operation input method according to claim 9, wherein the operation input method is displayed.
JP2010184812A 2010-08-20 2010-08-20 Operation input device, program and method Active JP5621407B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010184812A JP5621407B2 (en) 2010-08-20 2010-08-20 Operation input device, program and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010184812A JP5621407B2 (en) 2010-08-20 2010-08-20 Operation input device, program and method

Publications (2)

Publication Number Publication Date
JP2012043248A true JP2012043248A (en) 2012-03-01
JP5621407B2 JP5621407B2 (en) 2014-11-12

Family

ID=45899456

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010184812A Active JP5621407B2 (en) 2010-08-20 2010-08-20 Operation input device, program and method

Country Status (1)

Country Link
JP (1) JP5621407B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103885701A (en) * 2012-12-24 2014-06-25 联想(北京)有限公司 Operation processing method and electronic equipment
JP2015135563A (en) * 2014-01-16 2015-07-27 カシオ計算機株式会社 Display system, display terminal, display method, and program
JPWO2015053188A1 (en) * 2013-10-10 2017-03-09 日本電気株式会社 Display device and image transformation method
JP2019021989A (en) * 2017-07-12 2019-02-07 マクセル株式会社 Video display system
JP2019091276A (en) * 2017-11-15 2019-06-13 富士ゼロックス株式会社 Display unit and program
JP2019117634A (en) * 2019-02-07 2019-07-18 グリー株式会社 Display control program, display control method, and display control system
WO2020056729A1 (en) * 2018-09-21 2020-03-26 深圳市柔宇科技有限公司 Hinge device, housing and electronic device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086793A (en) * 2007-09-28 2009-04-23 Nec Corp Portable terminal and its display control method
JP2009266236A (en) * 2008-04-22 2009-11-12 Apple Inc Language input interface on device
JP2010003260A (en) * 2008-06-23 2010-01-07 Sharp Corp Display processor, method for controlling the same, control program, and recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086793A (en) * 2007-09-28 2009-04-23 Nec Corp Portable terminal and its display control method
JP2009266236A (en) * 2008-04-22 2009-11-12 Apple Inc Language input interface on device
JP2010003260A (en) * 2008-06-23 2010-01-07 Sharp Corp Display processor, method for controlling the same, control program, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103885701A (en) * 2012-12-24 2014-06-25 联想(北京)有限公司 Operation processing method and electronic equipment
JPWO2015053188A1 (en) * 2013-10-10 2017-03-09 日本電気株式会社 Display device and image transformation method
JP2015135563A (en) * 2014-01-16 2015-07-27 カシオ計算機株式会社 Display system, display terminal, display method, and program
US9817628B2 (en) 2014-01-16 2017-11-14 Casio Computer Co., Ltd. Display system, display terminal, display method and computer readable recording medium having program thereof
JP2019021989A (en) * 2017-07-12 2019-02-07 マクセル株式会社 Video display system
JP2019091276A (en) * 2017-11-15 2019-06-13 富士ゼロックス株式会社 Display unit and program
JP7143580B2 (en) 2017-11-15 2022-09-29 富士フイルムビジネスイノベーション株式会社 Display device and program
WO2020056729A1 (en) * 2018-09-21 2020-03-26 深圳市柔宇科技有限公司 Hinge device, housing and electronic device
JP2019117634A (en) * 2019-02-07 2019-07-18 グリー株式会社 Display control program, display control method, and display control system

Also Published As

Publication number Publication date
JP5621407B2 (en) 2014-11-12

Similar Documents

Publication Publication Date Title
JP5621407B2 (en) Operation input device, program and method
CN108431729B (en) Three-dimensional object tracking to increase display area
KR101043944B1 (en) Method and apparatus for providing virtual keyboard
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
WO2013018480A1 (en) User interface device comprising touch pad for shrinking and displaying source image within screen capable of touch input, input processing method and program
US20070262964A1 (en) Multi-touch uses, gestures, and implementation
US20090278812A1 (en) Method and apparatus for control of multiple degrees of freedom of a display
US20120105351A1 (en) Touch Pad Operable with Multi-Objects and Method of Operating same
KR20100041006A (en) A user interface controlling method using three dimension multi-touch
US8525854B2 (en) Display device and screen display method
US9544556B2 (en) Projection control apparatus and projection control method
JP2014215737A (en) Information processor, display control method and computer program
US20140285507A1 (en) Display control device, display control method, and computer-readable storage medium
US20190064947A1 (en) Display control device, pointer display method, and non-temporary recording medium
US10990277B2 (en) Creating tables using gestures
JP5275429B2 (en) Information processing apparatus, program, and pointing method
TWI442305B (en) A operation method and a system of the multi-touch
JP5442128B2 (en) Object layout editing method and apparatus
JP2012238120A (en) Information processing device and information processing method
US10963073B2 (en) Display control device including pointer control circuitry, pointer display method, and non-temporary recording medium thereof
EP3330842A1 (en) Touch panel type information terminal device, information input processing method therefor, and program
JP6411067B2 (en) Information processing apparatus and input method
KR101535738B1 (en) Smart device with touchless controlling operation function and the control method of using the same
JP6373710B2 (en) Graphic processing apparatus and graphic processing program
JP2014241078A (en) Information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140826

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140908

R150 Certificate of patent or registration of utility model

Ref document number: 5621407

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150