JP2012247838A - Display device, display control method, and program - Google Patents

Display device, display control method, and program Download PDF

Info

Publication number
JP2012247838A
JP2012247838A JP2011117006A JP2011117006A JP2012247838A JP 2012247838 A JP2012247838 A JP 2012247838A JP 2011117006 A JP2011117006 A JP 2011117006A JP 2011117006 A JP2011117006 A JP 2011117006A JP 2012247838 A JP2012247838 A JP 2012247838A
Authority
JP
Japan
Prior art keywords
display
information
displayed
display device
specifying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011117006A
Other languages
Japanese (ja)
Other versions
JP5710381B2 (en
Inventor
Taketaka Irukayama
剛堂 入鹿山
Shohei Yoshida
祥平 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011117006A priority Critical patent/JP5710381B2/en
Publication of JP2012247838A publication Critical patent/JP2012247838A/en
Application granted granted Critical
Publication of JP5710381B2 publication Critical patent/JP5710381B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To create commonality of sensation between a user's operation and a movement of an image representing objects displayed in three dimensions.SOLUTION: A display screen 200 displays objects three-dimensionally in rectangular parallelepiped forms which have a date, a channel, and a broadcasting time band in respective axis directions, and represent individual programs, respectively. When a user performs a slide operation in an X axis direction by dragging a finger 300a on a front surface of a display device 100 in an X axis negative direction, and also dragging a finger 300b on a back surface of the display device 100 in an X axis positive direction, a control unit 10 rotates an entire object group 400 clockwise around a rotation axis 500 which is a parallel axis to a Y axis passing through a centroid of the object group 400 to display the object group 400 by switching depth direction information and width direction information.

Description

本発明は、表示装置に表示されている内容を操作に応じて制御する技術に関する。   The present invention relates to a technique for controlling contents displayed on a display device according to an operation.

表示装置において、テレビ放送やラジオ放送の番組表を表す画像を立体的に見えるように表示させる技術が提案されている。特許文献1には、表示面にタッチセンサを備えた表示装置において、ユーザがその表示面をタッチすると、番組表の画像を、放送局別に表示させたり、日付別に表示させたり、指定された時間帯別に表示させたりする仕組みが開示されている。   In a display device, a technique for displaying an image representing a program table of a television broadcast or a radio broadcast so that it can be viewed stereoscopically has been proposed. In Patent Document 1, in a display device having a touch sensor on a display surface, when a user touches the display surface, an image of a program guide is displayed for each broadcast station, displayed for each date, or a specified time. A mechanism for displaying by band is disclosed.

特開2010−45860号公報JP 2010-45860 A

特許文献1に記載の技術では、放送局別、日付別、あるいは指定された時間帯別、といった、それぞれ異なる属性に注目して番組表の画像を表示させるべく、その画像全体が回転する仕組みとなっている。このように番組表の画像を回転させることをユーザが表示装置に指示するときに、その番組表が立体的に表示されているということを生かして、ユーザの操作と、番組表の画像が変更されるときの画像の動きとの間に体感的な共通性があると、ユーザにとっては使いやすい。さらに、このようなユーザの操作との間の体感的な共通性を、番組表の画像が変更されるときの画像の動きに限らず、立体的に表示されたオブジェクトを表す画像が変更されるときの画像の動きにも適用すると、より幅広い場面でユーザにとって使いやすいインターフェースを提供することが可能となる。   In the technique described in Patent Document 1, the entire image is rotated so as to display an image of a program guide by paying attention to different attributes such as by broadcasting station, by date, or by a specified time zone. It has become. When the user instructs the display device to rotate the program guide image in this way, the user's operation and the program guide image are changed by taking advantage of the fact that the program guide is displayed in three dimensions. If there is a sensory commonality with the movement of the image when it is done, it is easy for the user to use. In addition, the sensual commonality with such user operations is not limited to the movement of the image when the image of the program guide is changed, and the image representing the three-dimensionally displayed object is changed. When applied to the movement of images at the time, it is possible to provide an interface that is easy for the user to use in a wider range of scenes.

本発明は上述の背景に鑑みてなされたものであり、ユーザの操作と、立体的に表示されたオブジェクトを表す画像の動きとの間に体感的な共通性を持たせることを目的とする。   The present invention has been made in view of the above-described background, and it is an object of the present invention to provide a bodily commonality between a user's operation and a motion of an image representing a stereoscopically displayed object.

上述した課題を解決するために、本発明は、筐体と、前記筐体の前面に設けられた表示面に画像を表示する表示手段と、前記表示面に対する第1の操作及び前記筐体の背面に対する第2の操作を検出する検出手段と、幅方向、高さ方向及び奥行き方向を持つオブジェクトを、前記表示手段に立体的に表示させる表示制御手段と、前記第1の操作の向かう方向及び前記第2の操作の向かう方向を特定する方向特定手段とを備え、前記表示制御手段は、前記方向特定手段により特定された前記第1の操作の向かう方向と、前記方向特定手段により特定された前記第2の操作の向かう方向とが逆向きである場合に、前記オブジェクトの前記奥行き方向における手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該オブジェクトの前記奥行き方向の奥側の部分が、前記第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させることを特徴とする表示装置を提供する。   In order to solve the above-described problem, the present invention provides a housing, display means for displaying an image on a display surface provided on the front surface of the housing, a first operation on the display surface, and the housing. Detection means for detecting a second operation on the back surface, display control means for causing the display means to stereoscopically display an object having a width direction, a height direction, and a depth direction; a direction in which the first operation is directed; Direction specifying means for specifying the direction of the second operation, and the display control means specified by the direction specifying means and the direction of the first operation specified by the direction specifying means. When the direction in which the second operation is directed is opposite, the portion on the near side in the depth direction of the object moves in the direction in which the first operation is directed and the depth of the object is increased. Rear side portions of the feeder direction, to move in a direction of the second operation, to provide a display device for causing the display by rotating the object.

好ましい態様において、前記オブジェクトは、幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表であることを特徴とする。   In a preferred aspect, the object is a table in which information is arranged in a width direction, a height direction, and a depth direction.

また、別の好ましい態様において、前記表に含まれる複数の情報のうち、前記検出手段により検出された第1の操作に対応する前記表示面の領域に表示されている情報を特定する情報特定手段を備え、前記表示制御手段は、前記情報特定手段によって情報が特定された場合において、前記方向特定手段により特定された前記第1の操作の向かう方向と、前記方向特定手段により特定された前記第2の操作の向かう方向とが逆向きであるときに、前記情報特定手段によって特定された情報及び当該情報と関連し且つ当該情報とは異なる内容の情報が、立体的な図形の各面に配置されているものとして表示させ、さらに、当該図形の前記手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該図形の前記奥側の部分が、前記第2の操作の向かう方向に動くように、当該図形を回転させて表示させることを特徴とする。   In another preferred embodiment, information specifying means for specifying information displayed in the area of the display surface corresponding to the first operation detected by the detecting means among the plurality of pieces of information included in the table And when the information is specified by the information specifying unit, the display control unit includes a direction of the first operation specified by the direction specifying unit and the first direction specified by the direction specifying unit. When the direction of the operation of 2 is opposite, the information specified by the information specifying means and the information related to the information but different from the information are arranged on each surface of the three-dimensional figure. Furthermore, the portion on the near side of the graphic moves in the direction toward the first operation, and the portion on the back side of the graphic indicates the second operation. To move in a direction, and wherein the displaying by rotating the figure.

また、別の好ましい態様において、前記表示制御手段は、前記第1の操作の操作量及び前記第2の操作の操作量に応じた回転量で、前記情報特定手段により特定された情報を回転させて表示させることを特徴とする。   In another preferred embodiment, the display control means rotates the information specified by the information specifying means by a rotation amount corresponding to the operation amount of the first operation and the operation amount of the second operation. It is characterized by being displayed.

また、別の好ましい態様において、前記表に含まれる複数の情報のうち、前記第1の操作又は前記第2の操作に対応する前記表示面の領域に表示されている情報を含んで前記高さ方向及び前記幅方向に配列された情報群を特定する情報群特定手段を備え、前記表示制御手段は、前記検出手段により前記第1の操作が検出された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、前記検出手段により前記第2の操作が検出された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させることを特徴とする。   In another preferable aspect, the height includes information displayed in a region of the display surface corresponding to the first operation or the second operation among a plurality of pieces of information included in the table. Information group specifying means for specifying the information group arranged in the direction and the width direction, and the display control means, when the first operation is detected by the detecting means, by the information group specifying means When the specified information group is moved and displayed in the depth direction in the table and the second operation is detected by the detecting means, the information specified by the information group specifying means The group is displayed by moving to the front side in the depth direction in the table.

また、本発明は、筐体の前面に表示面が設けられた表示装置が行う表示制御方法であって、幅方向、高さ方向及び奥行き方向を持つオブジェクトを、前記表示面に立体的に表示させる第1の表示制御工程と、前記表示面に対する第1の操作及び前記筐体の背面に対する第2の操作を検出する検出工程と、前記第1の操作の向かう方向及び前記第2の操作の向かう方向をそれぞれ特定する方向特定工程と、前記方向特定工程により特定された前記第1の操作の向かう方向と、前記方向特定工程により特定された前記第2の操作の向かう方向とが逆向きである場合に、前記オブジェクトの前記奥行き方向における手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該オブジェクトの前記奥行き方向の奥側の部分が、前記第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させる第2の表示制御工程とを備えることを特徴とする表示制御方法を提供する。   The present invention is also a display control method performed by a display device having a display surface provided on a front surface of a housing, and three-dimensionally displays an object having a width direction, a height direction, and a depth direction on the display surface. A first display control step, a detection step of detecting a first operation on the display surface and a second operation on the back surface of the housing, a direction of the first operation and a direction of the second operation The direction specifying step for specifying each direction to go, the direction of the first operation specified by the direction specifying step, and the direction of the second operation specified by the direction specifying step are opposite. In some cases, the near side portion of the object in the depth direction moves in the direction toward the first operation, and the deep side portion of the object in the depth direction moves the second operation. To move in the direction cow, it provides a display control method characterized by and a second display control step of displaying by rotating the object.

また、本発明は、筐体、当該筐体の前面に設けられた表示面に画像を表示する表示手段及び前記表示面に対する第1の操作及び前記筐体の背面に対する第2の操作を検出する検出手段を備えたコンピュータに、幅方向、高さ方向及び奥行き方向を持つオブジェクトを、前記表示面に立体的に表示させる第1の表示制御工程と、前記第1の操作の向かう方向及び前記第2の操作の向かう方向を特定する方向特定工程と、前記方向特定工程により特定された前記第1の操作の向かう方向と、前記方向特定工程により特定された前記第2の操作の向かう方向とが逆向きである場合に、前記オブジェクトの前記奥行き方向における手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該オブジェクトの前記奥行き方向の奥側の部分が、前記第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させる第2の表示制御工程とを実行させるためのプログラムとしても提供し得る。   In addition, the present invention detects a housing, a display unit that displays an image on a display surface provided on the front surface of the housing, a first operation on the display surface, and a second operation on the back surface of the housing. A first display control step of causing a computer having a detection means to three-dimensionally display an object having a width direction, a height direction, and a depth direction on the display surface; a direction in which the first operation is directed; A direction specifying step for specifying the direction of the two operations, a direction of the first operation specified by the direction specifying step, and a direction of the second operation specified by the direction specifying step. When the object is in the reverse direction, the portion on the near side in the depth direction of the object moves in the direction toward the first operation, and the portion on the far side in the depth direction of the object To move in a direction toward the second operation may also provide a program for executing a second display control step of displaying by rotating the object.

本発明によれば、ユーザの操作と、立体的に表示されたオブジェクトを表す画像の動きとの間に体感的な共通性を持たせることが可能となる。   According to the present invention, it is possible to provide a sense of commonality between a user's operation and a motion of an image representing a three-dimensionally displayed object.

表示装置の外観を表す正面図Front view showing appearance of display device 表示装置のハードウェア構成を表すブロック図Block diagram showing hardware configuration of display device 番組表データの内容を表す図Diagram showing contents of program guide data 快適立体視範囲を説明する模式図Schematic diagram explaining comfortable stereoscopic vision range 表示面において3D表示される番組表を表す図The figure showing the program schedule displayed in 3D on a display surface 表示装置の前面へのタッチ操作によって表示内容が変更される様子を表す図The figure showing a mode that display contents are changed by touch operation to the front of a display device 表示装置の背面へのタッチ操作によって表示内容が変更される様子を表す図The figure showing a mode that display contents are changed by touch operation to the back of a display device 表示装置に対するスライド操作を説明するための図The figure for demonstrating the slide operation with respect to a display device X軸方向へのスライド操作によって表示内容が変更される様子を表す図The figure showing a mode that display contents are changed by slide operation to the X-axis direction Y軸方向へのスライド操作によって表示内容が変更される様子を表す図The figure showing a mode that display contents are changed by slide operation to the Y-axis direction 表示内容を変更する処理の流れを示すフローチャートFlowchart showing the flow of processing to change display contents ドラッグ操作の方向が逆向きであるか否かの判定を説明するための模式図Schematic diagram for explaining whether or not the direction of the drag operation is reverse 制御部の機能的構成を表すブロック図Block diagram showing the functional configuration of the control unit 変形例1に係るオブジェクトの部分的な回転表示を表す図The figure showing the partial rotation display of the object which concerns on the modification 1 変形例1に係る表示内容を変更する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which changes the display content which concerns on the modification 1. 変形例2に係る回転量テーブルの内容を表す図The figure showing the contents of the amount-of-rotation table concerning modification 2

以下、本発明の実施形態について説明する。
<実施形態>
<構成>
図1は、表示装置100の外観を表す正面図である。図1(a)は、表示装置100を前面から見た様子を表しており、図1(b)は、表示装置100を背面からみた様子を表している。表示装置100は例えば板状の六面体である筐体を備えており、表示装置100の前面とは、筐体を構成する複数の面のうち、ユーザによって表示装置100が使われるときにそのユーザに対向する面のことであり、表示装置100の背面とは、筐体において前面の反対側にある面のことである。表示装置100は、その前面に、長方形の表示面200と、表示面200の周囲に設けられた操作子31とを有するコンピュータであり、例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、無線LAN(Local Area Network)機能を有する情報端末、ゲーム機、パーソナルコンピュータ、及び通信機能を有するリモコンなどの電子機器である。ユーザは、表示面200及び操作子31を指や操作具で触れたり押したりすることで、表示装置100を操作することができるようになっている。また、表示装置100の背面には、背面タッチセンサ52が設けられている。
Hereinafter, embodiments of the present invention will be described.
<Embodiment>
<Configuration>
FIG. 1 is a front view illustrating an appearance of the display device 100. FIG. 1A illustrates a state in which the display device 100 is viewed from the front, and FIG. 1B illustrates a state in which the display device 100 is viewed from the back. The display device 100 includes a housing that is, for example, a plate-shaped hexahedron, and the front surface of the display device 100 refers to a user when the display device 100 is used by a user among a plurality of surfaces constituting the housing. It is an opposing surface, and the back surface of the display device 100 is a surface on the opposite side of the front surface in the housing. The display device 100 is a computer having a rectangular display surface 200 and an operation element 31 provided around the display surface 200 on the front surface. For example, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a wireless An electronic device such as an information terminal having a LAN (Local Area Network) function, a game machine, a personal computer, and a remote controller having a communication function. The user can operate the display device 100 by touching or pushing the display surface 200 and the operation element 31 with a finger or an operation tool. Further, a back surface touch sensor 52 is provided on the back surface of the display device 100.

図2は、表示装置100のハードウェア構成を表すブロック図である。表示装置100は、制御部10、記憶部20、操作部30、表示部40、検出部50、及び通信部60を有し、これらの各部はバス70を介して接続されている。制御部10は、CPU(Central Processing Unit)などの演算装置と、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリを有している。制御部10において、CPUが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより、表示装置100の各部を制御する。操作部30は、操作子31を備えており、ユーザによる操作内容を表す操作信号を制御部10に出力する。   FIG. 2 is a block diagram illustrating a hardware configuration of the display device 100. The display device 100 includes a control unit 10, a storage unit 20, an operation unit 30, a display unit 40, a detection unit 50, and a communication unit 60, and these units are connected via a bus 70. The control unit 10 includes an arithmetic device such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory). In the control unit 10, the CPU controls each unit of the display device 100 by reading out a computer program stored in the ROM or the storage unit 20, loading it into the RAM, and executing it. The operation unit 30 includes an operation element 31 and outputs an operation signal representing the content of an operation performed by the user to the control unit 10.

表示部40は、3D(Dimension)ディスプレイ41を備え、制御部10による制御の下で、ユーザの操作に応じた画像やメニュー画像等の各種画像を3Dディスプレイ41に表示する。3Dディスプレイ41は、2次元の画像を表示するほか、3次元の画像をも表示し得るディスプレイである。以下、3次元の画像を表示することを3D表示という。3D表示の方式としては、単に2次元の斜視図に陰影をつけて立体的に見せる方法のほか、視差バリア方式や、レンチキュラーレンズ方式、スリット状の偏光フィルターと偏光メガネを用いた方式や液晶シャッターによる時分割方式などが知られている。この3Dディスプレイ41においては、上述の方式うち、どれを用いてもよいが、ここでは、視差バリア方式、つまり、スリットを利用して、左右の眼に対し、視差を持つ映像を入射させることでユーザがあたかも立体的な画像を見ていると感じられるような仕組みを用いている。つまり、ユーザは、3Dディスプレイ41に表示される画像が3Dディスプレイ41から飛び出しているかのように見えたり、反対に、3Dディスプレイ41の奥のほうに引っ込んでいるかのように見えたりする。以降において、3Dディスプレイ41に表示される画像について、飛び出しているかのように見えたり、反対に、奥に引っ込んでいるかのように見えたりする、その飛び出しているまたは引っ込んでいる度合いのことを、画像の立体視度合い量という。この立体視度合い量において、特に画像の飛び出しに関する度合いのことを、画像の飛び出し量といい、画像の引っ込みに関する度合いのことを、画像の奥行き量という。   The display unit 40 includes a 3D (Dimension) display 41, and displays various images such as images and menu images according to user operations on the 3D display 41 under the control of the control unit 10. The 3D display 41 is a display that can display a two-dimensional image as well as a three-dimensional image. Hereinafter, displaying a three-dimensional image is referred to as 3D display. As a 3D display method, in addition to a method of creating a three-dimensional view by simply shading a two-dimensional perspective view, a parallax barrier method, a lenticular lens method, a method using a slit-shaped polarizing filter and polarizing glasses, and a liquid crystal shutter The time-sharing method by is known. Any of the above-described methods may be used for the 3D display 41, but here, a parallax barrier method, that is, by using a slit to enter an image having parallax to the left and right eyes. A mechanism that allows the user to feel as if viewing a stereoscopic image is used. That is, the user looks as if the image displayed on the 3D display 41 is popping out of the 3D display 41, or conversely, it looks as if the user is retracting toward the back of the 3D display 41. Hereinafter, with respect to the image displayed on the 3D display 41, it looks as if it is popping out, or on the contrary, it looks as if it is retracting in the back, the degree of the popping out or retracting, This is called the amount of stereoscopic vision of the image. In this stereoscopic vision amount, the degree relating to the popping out of the image is called the amount of popping out the image, and the degree relating to the retraction of the image is called the depth amount of the image.

この3Dディスプレイ41は、長方形の形状であり、XY直交座標系が設定されている。このXY直交座標系の原点Oは、3Dディスプレイ41の四隅のうちのいずれか(図1(a)においては左上隅)に位置している。この原点Oを含む、3Dディスプレイ41の2辺のうち、一方の辺(ここでは3Dディスプレイ41の短手方向の辺)がX軸に対応し、他方の辺(ここでは3Dディスプレイ41の長手方向の辺)がY軸に対応している。これらX軸及びY軸と直交する直線をZ軸とする。つまり、X軸及びY軸で表される平面に対して、Z軸は飛び出し方向及び奥行き方向の座標軸に相当する。図1に示す座標記号のうち、内側が白い円の中に黒い円を描いた記号は、紙面奥側から手前側に向かう矢印を表している。つまり、Z軸は、手前側が正方向であり、奥側が負方向である。表示部40は、筐体の前面に設けられた表示面200に画像を表示する表示手段に相当する。   The 3D display 41 has a rectangular shape, and an XY orthogonal coordinate system is set. The origin O of the XY orthogonal coordinate system is located at one of the four corners of the 3D display 41 (the upper left corner in FIG. 1A). Of the two sides of the 3D display 41 including the origin O, one side (here, the side in the short direction of the 3D display 41) corresponds to the X axis, and the other side (here, the longitudinal direction of the 3D display 41). ) Corresponds to the Y axis. A straight line perpendicular to the X axis and the Y axis is taken as a Z axis. That is, with respect to the plane represented by the X axis and the Y axis, the Z axis corresponds to the coordinate axis in the pop-out direction and the depth direction. Among the coordinate symbols shown in FIG. 1, a symbol in which a black circle is drawn in a circle with a white inside represents an arrow heading from the back side to the near side. That is, the front side of the Z axis is the positive direction, and the back side is the negative direction. The display unit 40 corresponds to display means for displaying an image on a display surface 200 provided on the front surface of the housing.

検出部50は、前面タッチセンサ51及び背面タッチセンサ52を備えており、各センサが検出した結果を表す検出信号を制御部10に出力する。タッチセンサには、主に抵抗皮膜型と静電容量型があり、他にも光センサを用いたものなどがある。前面タッチセンサ51には、これらのうちいずれを用いてもよいが、本実施形態では、抵抗皮膜型を用いる例を示す。前面タッチセンサ51は、図1(a)における表示面200において、3Dディスプレイ41の上(Z軸正方向側)に積層され、且つ、3Dディスプレイ41の全体を覆うように重ねられた状態で配置されており、その大きさ及び形状は、前述した3Dディスプレイ41の大きさ及び形状とほぼ同じである。この前面タッチセンサ51は、光を透過する材料で構成されており、3Dディスプレイ41に表示された画像は前面タッチセンサ51を透過してユーザに視認されるようになっている。背面タッチセンサ52は、図1(b)における表示装置100の背面において、3Dディスプレイ41のちょうど裏側に位置するように配置されており、その大きさ及び形状は、前述した3Dディスプレイ41の大きさ及び形状とほぼ同じである。なお、前面タッチセンサに静電容量型のタッチセンサを用いる場合は、3Dディスプレイ41の下(Z軸負方向側)に前面タッチセンサが積層されることになる。   The detection unit 50 includes a front touch sensor 51 and a rear touch sensor 52, and outputs a detection signal representing a result detected by each sensor to the control unit 10. There are mainly a resistive film type and a capacitance type touch sensor, and there are other types using a photosensor. Any of these may be used for the front touch sensor 51, but in this embodiment, an example using a resistance film type is shown. The front touch sensor 51 is stacked on the 3D display 41 (Z-axis positive direction side) on the display surface 200 in FIG. 1A and is stacked so as to cover the entire 3D display 41. The size and shape of the 3D display 41 are substantially the same as those described above. The front touch sensor 51 is made of a material that transmits light, and an image displayed on the 3D display 41 passes through the front touch sensor 51 and is visually recognized by the user. The back touch sensor 52 is disposed so as to be located on the back side of the 3D display 41 on the back of the display device 100 in FIG. 1B, and the size and shape of the back touch sensor 52 is the size of the 3D display 41 described above. And almost the same as the shape. When a capacitive touch sensor is used as the front touch sensor, the front touch sensor is stacked below the 3D display 41 (Z-axis negative direction side).

前述した3Dディスプレイ41と同様に、この前面タッチセンサ51及び背面タッチセンサ52にも、XY直交座標系が設定されている。つまり、XY直交座標系の原点Oは、前面タッチセンサ51の四隅のうちのいずれか(ここでは図1(a)の左上隅)及び背面タッチセンサ52の四隅のうちのいずれか(ここでは図1(b)の右上隅)に位置している。この原点Oを含む、前面タッチセンサ51及び背面タッチセンサ52の2辺のうち、一方の辺(ここでは前面タッチセンサ51及び背面タッチセンサ52の短手方向の辺)がX軸に対応し、他方の辺(ここでは前面タッチセンサ51及び背面タッチセンサ52の長手方向の辺)がY軸に対応している。前面タッチセンサ51及び背面タッチセンサ52は、指が接触したか否かを所定のサンプリング周期で検出し、その接触位置(操作点という)を示す座標を検出結果として制御部10へ出力する。以下、ユーザが表示面200(より正確にはユーザから見て最も手前側に設けられている前面タッチセンサ51)及び表示装置100の背面(より正確にはユーザから見て最も奥側に設けられている背面タッチセンサ52)に触れて行う操作のことを、タッチ操作という。このタッチ操作は、ユーザが表示面200上または背面タッチセンサ52上の任意の位置を指定する操作である。なお、タッチセンサは、指のほかスタイラスペンなどの操作具などのあらゆる操作手段の接触を検出するものもあるが、以下では指によるタッチ操作を例に上げて説明を行う。前面タッチセンサ51及び背面タッチセンサ52は、表示面200に対する第1の操作(ここではタッチ操作)及び筐体の背面に対する第2の操作(ここではタッチ操作)を検出する検出手段に相当する。つまり、第1の操作とは、表示面200に対するタッチ操作に相当し、第2の操作とは、筐体の背面に対するタッチ操作に相当する。   Similar to the 3D display 41 described above, the front touch sensor 51 and the back touch sensor 52 also have an XY orthogonal coordinate system. In other words, the origin O of the XY orthogonal coordinate system is one of the four corners of the front touch sensor 51 (here, the upper left corner of FIG. 1A) and one of the four corners of the rear touch sensor 52 (here, FIG. 1 (b) in the upper right corner). Of the two sides of the front touch sensor 51 and the back touch sensor 52 including the origin O, one side (here, the side in the short direction of the front touch sensor 51 and the back touch sensor 52) corresponds to the X axis, The other side (here, the side in the longitudinal direction of the front touch sensor 51 and the back touch sensor 52) corresponds to the Y axis. The front touch sensor 51 and the back touch sensor 52 detect whether or not a finger has touched in a predetermined sampling cycle, and output coordinates indicating the contact position (referred to as an operation point) to the control unit 10 as a detection result. Hereinafter, the user is provided with the display surface 200 (more precisely, the front touch sensor 51 provided on the most front side when viewed from the user) and the back surface of the display device 100 (more precisely, when located on the farthest side when viewed from the user). An operation performed by touching the rear touch sensor 52) is referred to as a touch operation. This touch operation is an operation in which the user designates an arbitrary position on the display surface 200 or the rear touch sensor 52. Note that some touch sensors detect the contact of any operation means such as a finger and an operation tool such as a stylus pen. Hereinafter, a touch operation with a finger will be described as an example. The front touch sensor 51 and the back touch sensor 52 correspond to detection means for detecting a first operation (here, a touch operation) on the display surface 200 and a second operation (here, a touch operation) on the back of the housing. That is, the first operation corresponds to a touch operation on the display surface 200, and the second operation corresponds to a touch operation on the back surface of the housing.

このように、3Dディスプレイ41、前面タッチセンサ51、及び背面タッチセンサ52には、共通のXY直交座標系が設定されており、前面タッチセンサ51及び背面タッチセンサ52によって出力される操作点の位置と、3Dディスプレイ41によって表示される画像の位置はいずれも、共通のXY直交座標系で規定されるようになっている。これらのうち、3Dディスプレイ41及び前面タッチセンサ51によって表示面200が構成されている。なお、3Dディスプレイ自体にタッチセンサの機能が組み込まれて構成される態様もあり、本発明はこれらの態様も含むものであるが、本実施形態では上述したように3Dディスプレイ及びタッチセンサが、それぞれ分離している構成を例に挙げて説明を行う。   As described above, a common XY orthogonal coordinate system is set for the 3D display 41, the front touch sensor 51, and the rear touch sensor 52, and the positions of the operation points output by the front touch sensor 51 and the rear touch sensor 52 are set. And the position of the image displayed on the 3D display 41 is defined by a common XY orthogonal coordinate system. Among these, the display surface 200 is configured by the 3D display 41 and the front touch sensor 51. In addition, there is an aspect in which the function of the touch sensor is incorporated in the 3D display itself, and the present invention includes these aspects, but in the present embodiment, as described above, the 3D display and the touch sensor are separated from each other. The configuration will be described as an example.

通信部60は、ネットワークを介して通信ノード(図示せず)とデータ通信を行う。記憶部20は、例えばフラッシュメモリやハードディスク等の不揮発性の記憶手段であり、各種のデータを記憶している。記憶部20に記憶されているデータには、制御部10が実行するプログラムに加え、番組表データ21、及び各種の閾値が含まれる。番組表データ21は、例えばテレビ放送の番組表を表すデータであり、各番組の放送チャンネル、放送日時、番組名など、番組に関する各種情報を含んでいる。制御部10は、通信部60を用いて図示せぬサーバ装置から番組表データ21を取得すると、これを記憶部20に記憶させる。   The communication unit 60 performs data communication with a communication node (not shown) via a network. The storage unit 20 is a nonvolatile storage unit such as a flash memory or a hard disk, and stores various data. The data stored in the storage unit 20 includes program guide data 21 and various threshold values in addition to the program executed by the control unit 10. The program guide data 21 is data representing, for example, a TV broadcast program guide, and includes various information related to the program, such as the broadcast channel, broadcast date and time, and program name of each program. When the control unit 10 acquires the program guide data 21 from a server device (not shown) using the communication unit 60, the control unit 10 stores the program guide data 21 in the storage unit 20.

図3は、番組表データ21の内容を表す図である。図に示すように、番組表データ21は、「日付」、「ch(チャンネル)」、「開始時刻」、「終了時刻」、及び「番組名」といった複数の項目を含んでいる。「日付」は、番組が放送される予定の日付を表した情報である。「ch」は、テレビ番組を放送する各放送局に割り当てられたチャンネルを表した情報である。「開始時刻」は、番組の放送が開始される予定の時刻を表した情報である。「終了時刻」は、番組の放送が終了する予定の時刻を表した情報である。「番組名」は、放送される番組に割り当てられた名称を表した情報である。図は、例えば、「2012/4/1」の「1ch」では「9:00」から「9:58」の時間帯に、「ニュース・気象情報」という番組が放送される予定であることを表している。このように、「日付」、「ch」、「開始時刻」、及び「終了時刻」といった情報の組み合わせごとに、放送される予定の番組が一意に特定される。   FIG. 3 is a diagram showing the contents of the program guide data 21. As shown in the figure, the program guide data 21 includes a plurality of items such as “date”, “ch (channel)”, “start time”, “end time”, and “program name”. “Date” is information representing the date on which the program is scheduled to be broadcast. “Ch” is information representing a channel assigned to each broadcasting station that broadcasts a television program. “Start time” is information representing the time at which the broadcast of the program is scheduled to start. “End time” is information representing the time at which the program broadcast is scheduled to end. “Program name” is information representing a name assigned to a broadcast program. The figure shows that, for example, in “2012/4/1” “1ch”, a program “News / Weather Information” is scheduled to be broadcast from “9:00” to “9:58”. Represents. In this way, a program to be broadcast is uniquely specified for each combination of information such as “date”, “ch”, “start time”, and “end time”.

次に、ユーザが3D画像を快適に視認できるとされている快適立体視範囲について説明する。図4は、快適立体視範囲を説明する模式図であり、表示装置100を表示面200に平行な方向から見たときの様子を表している。ここで、ユーザの視点から見たときの表示面200の水平方向のサイズをs[cm]、ディスプレイの水平方向の解像度をr[pixel]、左右の目の間隔(眼間距離)をe[cm]、表示面200から左右の目を結んだ線分までの距離(視距離)をd[cm]、左右の目でそれぞれ知覚される映像間の水平方向のズレ(視差)における最大視差をDmax[Pixel]、最小視差をDmin[Pixel]とする。そして、仮想的な3次元空間において、最も大きい飛び出し量を持つ点と、最も大きい奥行き量を持つ点と、表示面200上の点とに対する、左右の目の輻輳角をそれぞれα、β、γとする。   Next, the comfortable stereoscopic range in which the user can comfortably visually recognize the 3D image will be described. FIG. 4 is a schematic diagram for explaining the comfortable stereoscopic viewing range, and shows a state when the display device 100 is viewed from a direction parallel to the display surface 200. Here, when viewed from the user's viewpoint, the horizontal size of the display surface 200 is s [cm], the horizontal resolution of the display is r [pixel], and the distance between eyes (interocular distance) is e [ cm], the distance (viewing distance) from the display surface 200 to the line connecting the left and right eyes is d [cm], and the maximum parallax in the horizontal shift (parallax) between the images perceived by the left and right eyes, respectively. Let Dmax [Pixel] and the minimum parallax be Dmin [Pixel]. Then, in the virtual three-dimensional space, the convergence angles of the left and right eyes with respect to the point having the largest pop-out amount, the point having the largest depth amount, and the point on the display surface 200 are α, β, γ, respectively. And

快適立体視範囲の定義は様々であるが、一般的に最もよく用いられる定義としては、3DC安全ガイドラインで述べられている、「視差角|α―γ|及び|β−γ|が1度以内であること」が挙げられる。従って、この定義に則ると、眼間距離e及び視距離dが決まれば、最大飛び出し量p及び最大奥行き量qが求まる。具体的な求め方は、以下のようなものである。まず、図4からも明らかなように、以下の数式(a)及び(b)が成り立つ。
(a)γ=2tan-1(e/2d)
(b)α=2tan-1(e/(2d−2p))
従って、α=γ+1を快適立体視範囲の飛び出し上限として、これを上記の数式に代入することで最大飛び出し量pが求まる。最大奥行き量qも同様に求めることができる。このときの最大飛び出し量p〜最大奥行き量qの範囲が、快適立体視範囲であるから、表示装置100においては、制御部10が、この快適立体視範囲の範囲内で、画像の立体視度合い量を制御することとなる。なお、この最大飛び出し量p及び最大奥行き量qは、一般的には記憶部20に記憶されているプログラムに記述されているが、ユーザの眼間距離eや視距離dをリアルタイムで取得できる場合は、上記数式に則って、制御部10が動的に変化させてもよい。
There are various definitions of the comfortable stereoscopic range, but the most commonly used definition is “parallax angles | α−γ | and | β−γ | within 1 degree as described in the 3DC safety guidelines. "Is". Therefore, according to this definition, if the interocular distance e and the viewing distance d are determined, the maximum pop-out amount p and the maximum depth amount q are obtained. The specific method is as follows. First, as is clear from FIG. 4, the following mathematical formulas (a) and (b) hold.
(A) γ = 2 tan −1 (e / 2d)
(B) α = 2 tan -1 (e / (2d-2p))
Accordingly, α = γ + 1 is used as the upper limit of the comfortable stereoscopic viewing range, and this is substituted into the above formula to obtain the maximum pop-out amount p. The maximum depth q can be obtained in the same manner. Since the range of the maximum pop-out amount p to the maximum depth amount q at this time is the comfortable stereoscopic view range, in the display device 100, the control unit 10 has the stereoscopic view degree of the image within the comfortable stereoscopic view range. The amount will be controlled. The maximum pop-out amount p and the maximum depth amount q are generally described in a program stored in the storage unit 20, but the user's interocular distance e and visual distance d can be acquired in real time. May be dynamically changed by the control unit 10 in accordance with the above formula.

<動作>
次に、以下の動作説明において、まず、表示面200に表示される画像がユーザの操作に応じてどのように変化するかということについて述べる。図5は、表示面200において3D表示される番組表を表す図である。図5は、図3に示される番組表データ21の内容に基づいて表示面200に3D表示される内容を表している。このとき表示面200に3D表示されるのは番組表の内容の一部に過ぎず、図5の例では、4/1から4/3の午前8時から午前11時までの放送チャンネル1,2,4,5,6の番組表が表示されている。図5に示されるように、表示面200のX軸方向にはチャンネルが割り当てられ、Y軸方向には時刻が割り当てられ、Z軸方向には日付が割り当てられる。なお、図示の便宜上、日付は「年」を省略した「月日」のみを表示している。
<Operation>
Next, in the following description of the operation, how the image displayed on the display surface 200 changes according to the user's operation will be described first. FIG. 5 is a diagram showing a program guide displayed in 3D on the display surface 200. FIG. 5 shows the contents displayed in 3D on the display surface 200 based on the contents of the program guide data 21 shown in FIG. At this time, 3D display on the display surface 200 is only a part of the contents of the program guide. In the example of FIG. 5, the broadcast channel 1 from 4/1 to 4/3 from 8 am to 11 am 2, 4, 5, and 6 program guides are displayed. As shown in FIG. 5, a channel is assigned in the X-axis direction of the display surface 200, a time is assigned in the Y-axis direction, and a date is assigned in the Z-axis direction. For convenience of illustration, only “month and day” in which “year” is omitted is displayed as the date.

これらの3軸で表される3次元の座標系において、図3に示される番組表データ21に含まれる番組に関する情報が、直方体を構成する面に表記された状態で表示される。このとき、これらの各直方体は、X,Y,Z座標系において、番組表データ21に記述された日付、チャンネル、開始時刻、及び終了時刻に対応した位置に配置されている。このように番組に関する情報が表記された直方体を、以降においてオブジェクトと呼ぶ。   In the three-dimensional coordinate system represented by these three axes, information related to the program included in the program guide data 21 shown in FIG. 3 is displayed in a state where the information is written on the surfaces constituting the rectangular parallelepiped. At this time, these rectangular parallelepipeds are arranged at positions corresponding to the date, channel, start time, and end time described in the program guide data 21 in the X, Y, Z coordinate system. A rectangular parallelepiped in which information related to a program is described in this way is hereinafter referred to as an object.

各オブジェクトは番組表データ21の内容に基づいているから、以下では、例えば或るオブジェクトによって表される番組が放送される日付のことを「オブジェクトが持つ日付」といったり、或る日付に放送される番組を表すオブジェクトのことを「日付がXXのオブジェクト」といったりすることがある。これは、オブジェクトと、チャンネル、開始時刻及び終了時刻との関係を言うときも同様である。   Since each object is based on the contents of the program guide data 21, in the following, for example, a date on which a program represented by a certain object is broadcast is referred to as “date held by the object” or broadcast on a certain date. An object representing a program to be recorded may be referred to as an “object whose date is XX”. The same applies to the relationship between the object and the channel, start time and end time.

最前面に表示されるオブジェクトの表示面200と平行な面のうち、前面に位置する面が表す領域には、この領域に含まれるXY座標系に基づく座標値が割り当てられている。同様に、最背面に表示されるオブジェクトの表示面200と平行な面のうち、背面に位置する面が表す領域には、この領域に含まれるXY座標系に基づく座標値が割り当てられている。つまり、最前面に表示されるオブジェクトごと及び最背面に表示されるオブジェクトごとに、XY座標系に基づく座標値が複数割り当てられていることとなる。   Of the plane parallel to the display surface 200 of the object displayed on the foreground, a coordinate value based on the XY coordinate system included in this region is assigned to the region represented by the plane located in the foreground. Similarly, a coordinate value based on the XY coordinate system included in this area is assigned to the area represented by the plane located on the back side of the plane parallel to the display surface 200 of the object displayed on the back side. That is, a plurality of coordinate values based on the XY coordinate system are assigned to each object displayed on the foreground and each object displayed on the backmost surface.

図5において、制御部10は、日付が「4/1」のオブジェクト群を最前面に表示している。ここでいう最前面に表示されるオブジェクト群とは、制御部10が表示面200にオブジェクト群を3D表示するときに、画像の飛出し量が最も大きいオブジェクト群のことである。日付が「4/1」のオブジェクト群の背面には、次の日付「4/2」のオブジェクト群が表示されている。ここでいう或るオブジェクト群の背面に表示されるオブジェクト群とは、或るオブジェクト群よりもオブジェクト1つ分だけ画像の飛出し量が小さいオブジェクト群、換言すれば、或るオブジェクト群よりもオブジェクト1つ分だけ画像の奥行き量が大きいオブジェクト群のことである。そして日付が「4/2」のオブジェクト群の背面には、次の日付「4/3」のオブジェクト群が表示されている。また、最背面に表示されるオブジェクト群とは、制御部10が表示面200にオブジェクト群を3D表示するときに、画像の飛出し量が最も小さいオブジェクト群、換言すれば画像の奥行き量が最も大きいオブジェクト群のことである。   In FIG. 5, the control unit 10 displays the object group with the date “4/1” on the foreground. The object group displayed in the foreground here is an object group having the largest image projection amount when the control unit 10 displays the object group in 3D on the display surface 200. On the back of the object group with the date “4/1”, the object group with the next date “4/2” is displayed. The object group displayed on the back of a certain object group here is an object group whose image projection amount is smaller by one object than a certain object group, in other words, an object group that is smaller than a certain object group. This is an object group having a large image depth amount by one. The object group of the next date “4/3” is displayed on the back of the object group of the date “4/2”. Further, the object group displayed on the rearmost surface is an object group with the smallest image projection amount when the control unit 10 displays the object group on the display surface 200 in 3D, in other words, the image depth amount is the smallest. A large group of objects.

一度に表示面200に3D表示されるZ軸方向におけるオブジェクトの数は、同時表示数というパラメータとして予め記憶部20に記憶されている。この同時表示数は、ユーザによって、操作部30を用いて所定の範囲内で任意に変更可能としてもよい。図5の場合では、この同時表示数に「3」の値が設定されている。また、図5においては、「4/1」を基準として(基準日という)、基準日のオブジェクト群が最前面に表示され、その背面に、基準日より後の日付のオブジェクト群が表示されている。このように、基準日は、オブジェクト群全体において最前面に表示されるオブジェクト群の日付であり、パラメータとしてRAMに記憶されている。ここで、ユーザはタッチ操作により基準日を変更することで、最前面に表示されるオブジェクト群の日付を変更させることが可能である。次に、このタッチ操作について詳細を説明する。   The number of objects in the Z-axis direction displayed in 3D on the display surface 200 at a time is stored in advance in the storage unit 20 as a parameter called the simultaneous display number. The number of simultaneous displays may be arbitrarily changed by the user within a predetermined range using the operation unit 30. In the case of FIG. 5, a value of “3” is set as the number of simultaneous displays. Further, in FIG. 5, with reference to “4/1” (referred to as a reference date), the reference date object group is displayed in the foreground, and the object group of the date after the reference date is displayed behind it. Yes. Thus, the reference date is the date of the object group displayed in the foreground in the entire object group, and is stored in the RAM as a parameter. Here, the user can change the date of the object group displayed in the foreground by changing the reference date by a touch operation. Next, details of this touch operation will be described.

図6は、表示装置100の前面へのタッチ操作によって表示内容が変更される様子を表す図である。図6において、図5に示される表示面200の表示内容の一部を拡大して表している。図6(a)において、「4/1」が基準日としてRAMに記憶されている。また、図6(a)において、ユーザは、指300を用いて、表示装置100の前面、すなわち、表示面200上をタッチしている。このように、ユーザが、表示面200上で、最前面に表示されているオブジェクトのいずれかを指定してタッチ操作を行うと、操作点の座標値とオブジェクトに割り当てられた座標値とに基づいて、前面タッチセンサ51によりタッチが検出される。この検出に応じた制御部10は、基準日を過去の日付に変更する。ここで、基準日の変更量、換言すると、Z軸方向におけるオブジェクトの移動量は、例えば「1個/タッチ」というようなパラメータとして記憶部20に記憶されている。図6(a)では、ユーザにより表示面200上において一回タッチ操作が行われたものとする。そして制御部10は、上記パラメータに設定された値に応じて、基準日を過去の日付に変更する。つまり、この場合、制御部10は、基準日を「4/1」から「3/31」に変更してRAMに記憶させる。制御部10は、基準日のオブジェクト群が最前面に表示されるように、オブジェクト群を移動させて表示させる。この結果、図6(b)に示されるように、制御部10は、日付が「3/31」のオブジェクト群を最前面に表示させ、日付が「4/1」のオブジェクト群をその背面に表示させることとなる。   FIG. 6 is a diagram illustrating a state in which display content is changed by a touch operation on the front surface of the display device 100. In FIG. 6, a part of the display content of the display surface 200 shown in FIG. In FIG. 6A, “4/1” is stored in the RAM as the reference date. In FIG. 6A, the user uses the finger 300 to touch the front surface of the display device 100, that is, the display surface 200. As described above, when the user performs a touch operation by designating one of the objects displayed on the foreground on the display surface 200, the user is based on the coordinate value of the operation point and the coordinate value assigned to the object. Thus, the touch is detected by the front touch sensor 51. In response to this detection, the control unit 10 changes the reference date to a past date. Here, the amount of change of the reference date, in other words, the amount of movement of the object in the Z-axis direction is stored in the storage unit 20 as a parameter such as “1 piece / touch”, for example. In FIG. 6A, it is assumed that the user performs a single touch operation on the display surface 200. Then, the control unit 10 changes the reference date to a past date according to the value set in the parameter. That is, in this case, the control unit 10 changes the reference date from “4/1” to “3/31” and stores it in the RAM. The control unit 10 moves and displays the object group so that the object group of the reference date is displayed in the foreground. As a result, as shown in FIG. 6B, the control unit 10 displays the object group with the date “3/31” on the foreground and the object group with the date “4/1” on the back. Will be displayed.

また、このとき、制御部10は、前述した同時表示数と同じ数だけのオブジェクトを一度に表示面200に表示させるため、上記オブジェクト群の移動に伴い、同時表示数からはみ出したオブジェクト群が表示面200に表示されないようにする。図6下段の例では、オブジェクトの移動量が「1」であるため、制御部10は、オブジェクト群のうち、最背面に表示されていた、日付が「4/3」のオブジェクト群を消去して表示面200に表示させないようにする。   At this time, since the control unit 10 displays the same number of objects as the above-described simultaneous display number on the display surface 200 at a time, the object group protruding from the simultaneous display number is displayed as the object group moves. It is not displayed on the surface 200. In the example in the lower part of FIG. 6, since the movement amount of the object is “1”, the control unit 10 deletes the object group with the date “4/3” displayed on the rearmost surface among the object groups. The display screen 200 is not displayed.

図7は、表示装置100の背面へのタッチ操作によって表示内容が変更される様子を表す図である。図7において、図5に示される表示面200への表示内容の一部を拡大して表している。図7(a)において「4/1」が基準日としてRAMに記憶されている。図7(a)では、ユーザが、指300を用いて、表示装置100の背面にタッチしている。このように、ユーザが、表示装置100の背面にタッチ操作を行うと、操作点の座標値とオブジェクトに割り当てられた座標値とに基づいて、背面タッチセンサ52によりタッチが検出される。この検出に応じた制御部10は、基準日を未来の日付に変更する。ここで、基準日の変更量のパラメータは上述したとおりである。図7(a)では、ユーザにより表示装置100の背面に対して一回タッチ操作が行われたものとする。そして制御部10は、上記パラメータに設定された値に応じて、基準日を未来の日付に変更する。つまり、この場合、制御部10は、基準日を「4/1」から「4/2」に変更してRAMに記憶させる。制御部10は、基準日のオブジェクト群が最前面に表示されるように、オブジェクト群を移動させて表示させる。この結果、図7(b)に示されるように、制御部10は、日付が「4/2」のオブジェクト群を最前面に表示させるとともに、日付が「4/1」のオブジェクト群を消去して表示させないようにすることとなる。   FIG. 7 is a diagram illustrating a state in which the display content is changed by a touch operation on the back surface of the display device 100. In FIG. 7, a part of the display content on the display surface 200 shown in FIG. 5 is enlarged. In FIG. 7A, “4/1” is stored in the RAM as the reference date. In FIG. 7A, the user touches the back surface of the display device 100 using the finger 300. As described above, when the user performs a touch operation on the back surface of the display device 100, the back touch sensor 52 detects a touch based on the coordinate value of the operation point and the coordinate value assigned to the object. In response to this detection, the control unit 10 changes the reference date to a future date. Here, the parameter of the change amount of the reference date is as described above. In FIG. 7A, it is assumed that the user performs a single touch operation on the back surface of the display device 100. Then, the control unit 10 changes the reference date to a future date according to the value set in the parameter. That is, in this case, the control unit 10 changes the reference date from “4/1” to “4/2” and stores it in the RAM. The control unit 10 moves and displays the object group so that the object group of the reference date is displayed in the foreground. As a result, as shown in FIG. 7B, the control unit 10 displays the object group with the date “4/2” in the foreground and deletes the object group with the date “4/1”. Will not be displayed.

次に、ユーザによる表示内容を変更するための操作のうち、タッチ操作とは異なるスライド操作なるものについて説明する。図8は、表示装置100に対するスライド操作を説明するための図である。ここで、スライド操作とは、ユーザが、表示装置100の前面、すなわち表示面200上をタッチした指300aと、表示装置100の背面にタッチした指300bとを、それぞれタッチした状態を維持しながら移動させる動作(いわゆるドラッグ操作)を逆向きに行う操作のことである。スライド操作には、大別して、表示装置100を正面から見たときに、横方向(X軸方向)において互いに逆向きとなるドラッグ操作を表示装置100の前面及び背面で行うものと、縦方向(Y軸方向)において互いに逆向きとなるドラッグ操作を表示装置100の前面及び背面で行うものとがある。   Next, among the operations for changing the display content by the user, a slide operation different from the touch operation will be described. FIG. 8 is a diagram for explaining a slide operation on the display device 100. Here, the slide operation means that the user maintains a state in which the user touches the front surface of the display device 100, that is, the finger 300a touching the display surface 200 and the finger 300b touching the back surface of the display device 100, respectively. This is an operation for performing the moving operation (so-called drag operation) in the reverse direction. The slide operation can be broadly divided into one in which a drag operation that is opposite to each other in the horizontal direction (X-axis direction) when the display device 100 is viewed from the front is performed on the front and back of the display device 100, and the vertical direction ( In some cases, drag operations that are opposite to each other in the Y-axis direction) are performed on the front surface and the back surface of the display device 100.

図8(a)において、X軸方向において互いに逆向きとなるドラッグ操作からなるスライド操作の様子が表されており、図8(b)において、Y軸方向において互いに逆向きとなるドラッグ操作からなるスライド操作の様子が表されている。また、図8(a)において、ユーザは、表示面200上をタッチした指300aをX軸負方向にドラッグするとともに、表示装置100の背面にタッチした指300bをX軸正方向にドラッグしている。このような操作をするときの指の動きは、ユーザが、三次元のオブジェクト、すなわちここでは番組表の画像をつまんで、正面から見て横方向に回転させるときの動きに似ている。以降、このような操作のことを、X軸方向へのスライド操作と呼ぶ。また、図8(a)とは逆に、ユーザが、表示面200上をタッチした指300aをX軸正方向にドラッグするとともに、表示装置100の背面にタッチした指300bをX軸負方向にドラッグする操作も、X軸方向へのスライド操作に含まれる。   FIG. 8A shows a slide operation including drag operations that are opposite to each other in the X-axis direction, and FIG. 8B includes drag operations that are opposite to each other in the Y-axis direction. The slide operation is shown. In FIG. 8A, the user drags the finger 300a touching the display surface 200 in the X-axis negative direction and drags the finger 300b touching the back of the display device 100 in the X-axis positive direction. Yes. The movement of the finger when performing such an operation is similar to the movement when the user pinches a three-dimensional object, that is, the image of the program guide here, and rotates it horizontally as viewed from the front. Hereinafter, such an operation is referred to as a slide operation in the X-axis direction. Contrary to FIG. 8A, the user drags the finger 300a touching the display surface 200 in the X-axis positive direction and the finger 300b touching the back surface of the display device 100 in the X-axis negative direction. The drag operation is also included in the slide operation in the X-axis direction.

図8(b)において、ユーザは、表示面200上をタッチした指300aをY軸正方向にドラッグするとともに、表示装置100の背面にタッチした指300bをY軸負方向にドラッグしている。このような操作をするときの指の動きは、ユーザが、三次元のオブジェクト、すなわちここでは番組表の画像をつまんで、正面から見て縦方向に回転させるときの動きに似ている。以降、このような操作のことを、Y軸方向へのスライド操作と呼ぶ。図8(b)とは逆に、ユーザが、表示面200上をタッチした指300aをY軸負方向にドラッグするとともに、表示装置100の背面にタッチした指300bをY軸正方向にドラッグする操作も、Y軸方向へのスライド操作に含まれる。   In FIG. 8B, the user drags the finger 300a touching the display surface 200 in the Y-axis positive direction and drags the finger 300b touching the back surface of the display device 100 in the Y-axis negative direction. The movement of the finger when performing such an operation is similar to the movement when the user pinches a three-dimensional object, that is, an image of the program guide here, and rotates it in the vertical direction when viewed from the front. Hereinafter, such an operation is referred to as a slide operation in the Y-axis direction. Contrary to FIG. 8B, the user drags the finger 300 a touching the display surface 200 in the negative Y-axis direction and drags the finger 300 b touching the back surface of the display device 100 in the positive Y-axis direction. The operation is also included in the slide operation in the Y-axis direction.

図9は、X軸方向へのスライド操作によって表示内容が変更される様子を表す図である。図9において、図5に示される表示面200の表示内容の一部を拡大して表している。図9(a)におけるオブジェクト群において、幅方向にはチャンネルが表示され、高さ方向には放送時間帯が表示され、奥行き方向には日付が表示されている。図9(a)に示された状態から、ユーザが、指300aをX軸負方向にドラッグし、指300bをX軸正方向にドラッグすることで、X軸方向へのスライド操作を行った結果、表示面200の表示内容は、図9(b)に示す状態へと変化する。図9(b)におけるオブジェクト群において、高さ方向に放送時間帯が表示されていることは図9(a)と同様であるが、幅方向に日付が表示され、奥行き方向にチャンネルが表示されていることが、図9(a)と異なっている。ここで、図9(c)は、表示面200に表示されるオブジェクト群400をY軸正方向からY軸負方向に向かって仮想的に見たときの様子を表している。制御部10は、図9(a)に示すようなX軸方向へのスライド操作を受け付けると、図9(c)に示すように、オブジェクト群400の重心を通るY軸に平行な軸である回転軸500を中心としてオブジェクト群400の全体を時計回りに回転させることで、奥行き方向の情報と幅方向の情報とを入れ替えて表示させる。つまり、図9(a)に示すようなX軸方向へのスライド操作が行われると、制御部10は、番組表の奥行き方向における手前側のオブジェクト群が表示面200上のドラッグ操作の方向(X軸負方向)に動き、且つ、番組表の奥行き方向における奥側のオブジェクト群が表示装置100の背面に対するドラッグ操作の方向(X軸正方向)に動くように、番組表を回転させて表示させる。この結果、番組表の表示内容は図9(b)のようなものとなる。   FIG. 9 is a diagram illustrating a state in which display content is changed by a slide operation in the X-axis direction. In FIG. 9, a part of the display content of the display surface 200 shown in FIG. In the object group in FIG. 9A, a channel is displayed in the width direction, a broadcast time zone is displayed in the height direction, and a date is displayed in the depth direction. As a result of the user performing a slide operation in the X-axis direction by dragging the finger 300a in the X-axis negative direction and dragging the finger 300b in the X-axis positive direction from the state shown in FIG. The display content on the display surface 200 changes to the state shown in FIG. In the object group in FIG. 9B, the broadcast time zone is displayed in the height direction, as in FIG. 9A, but the date is displayed in the width direction and the channel is displayed in the depth direction. This is different from FIG. Here, FIG. 9C shows a state when the object group 400 displayed on the display surface 200 is virtually viewed from the Y-axis positive direction toward the Y-axis negative direction. When receiving a slide operation in the X-axis direction as shown in FIG. 9A, the control unit 10 is an axis parallel to the Y axis passing through the center of gravity of the object group 400 as shown in FIG. 9C. By rotating the whole object group 400 clockwise around the rotation axis 500, the information in the depth direction and the information in the width direction are switched and displayed. That is, when a slide operation in the X-axis direction as shown in FIG. 9A is performed, the control unit 10 determines that the object group on the near side in the depth direction of the program guide is in the direction of the drag operation on the display surface 200 ( The program guide is rotated and displayed so that the object group on the back side in the depth direction of the program guide moves in the drag operation direction (X-axis positive direction) with respect to the back surface of the display device 100. Let As a result, the display contents of the program guide are as shown in FIG.

回転に伴う、番組表の奥行き方向における手前側のオブジェクト群が動く方向を、表示装置100の前面にタッチしている指300aのドラッグ操作の方向と同じ方向としているのは、以下のような理由による。ユーザは、表示装置100の前面に触れている指であれば、表示面200に表示される画面の内容と指の動きとを同時に目視で確認可能である。従って、表示装置100の前面にタッチしている指300aのドラッグ操作の方向と、操作結果として表示装置100の前面においてオブジェクト群が動く方向とが視覚的に一致すると、操作がより体感的なものとなり、ユーザは直感的に操作が行いやすくなる。以上の理由により、回転に伴って、番組表の奥行き方向における手前側のオブジェクト群が動く方向を、表示装置100の前面にタッチしている指300aのドラッグ操作の方向と同じ方向としているわけである。   The reason why the near side object group in the depth direction of the program guide accompanying the rotation is the same as the direction of the drag operation of the finger 300a touching the front surface of the display device 100 is as follows. by. If the user is a finger touching the front surface of the display device 100, the contents of the screen displayed on the display surface 200 and the movement of the finger can be visually confirmed at the same time. Therefore, when the direction of the drag operation of the finger 300a touching the front surface of the display device 100 visually matches the direction in which the object group moves on the front surface of the display device 100 as a result of the operation, the operation is more sensible. Thus, the user can easily perform the operation intuitively. For the above reasons, the direction in which the near side object group in the depth direction of the program guide moves with the rotation is the same as the direction of the drag operation of the finger 300a touching the front surface of the display device 100. is there.

このように、制御部10は、X軸方向へのスライド操作を受け付けると、日付別に番組表を表示していた図9(a)の状態から、チャンネル別に番組表を表示する図9(b)の状態に、表示内容を変更する。つまり、図9(b)においては、最前面に「5チャンネル」の番組表が日付ごとに表示されており、その背面に「4チャンネル」の番組表が日付ごとに表示されている。このようにチャンネル別に番組表が表示されることで、ユーザは、同一のチャンネルについて異なる日付の放送内容を一度に確認することが可能となる。   As described above, when the control unit 10 receives the slide operation in the X-axis direction, the control unit 10 displays the program guide for each channel from the state of FIG. 9A displaying the program guide for each date. Change the display contents to the state of. That is, in FIG. 9B, the “5-channel” program guide is displayed for each date on the forefront, and the “4-channel” program guide is displayed for each date on the back. By displaying the program guide for each channel in this way, the user can check broadcast contents of different dates for the same channel at a time.

ここで、ユーザは、前述したタッチ操作により、最前面に表示させるチャンネルを変更することが可能である。制御部10は、基準日と同様にして、最前面に表示させるチャンネルを「基準チャンネル」というパラメータとしてRAMに記憶させている。図9(b)において基準チャンネルは「5」である。図9(b)の状態から、ユーザが、表示装置100の前面に対してタッチ操作を行うと、前面タッチセンサ51によりタッチが検出される。この検出に応じて、制御部10は、基準チャンネルを、並び順で次の番号のチャンネルに変更する。ここで、基準チャンネルの変更量、換言すると、Z軸方向におけるオブジェクトの移動量は、上述したように、例えば「1個/タッチ」というようなパラメータとして記憶部20に記憶されている。ここで、図9(b)において、ユーザにより表示面200上において一回タッチ操作が行われたものとする。このタッチ操作に応じて、制御部10は、上記パラメータに設定された値に応じて、基準チャンネルを並び順で次の番号のチャンネルに変更する。つまり、この場合、制御部10は、基準チャンネルを「5」から「6」に変更してRAMに記憶させる。制御部10は、基準チャンネル「6」のオブジェクト群が最前面に表示されるように、オブジェクト群を移動させて表示させる。   Here, the user can change the channel to be displayed on the foreground by the touch operation described above. Similarly to the reference date, the control unit 10 stores the channel to be displayed in the forefront in the RAM as a parameter called “reference channel”. In FIG. 9B, the reference channel is “5”. When the user performs a touch operation on the front surface of the display device 100 from the state of FIG. 9B, the touch is detected by the front surface touch sensor 51. In response to this detection, the control unit 10 changes the reference channel to the next numbered channel in the arrangement order. Here, the change amount of the reference channel, in other words, the movement amount of the object in the Z-axis direction is stored in the storage unit 20 as a parameter such as “1 piece / touch” as described above. Here, in FIG. 9B, it is assumed that the user performs a single touch operation on the display surface 200. In response to this touch operation, the control unit 10 changes the reference channel to the next numbered channel in the arrangement order according to the value set in the parameter. That is, in this case, the control unit 10 changes the reference channel from “5” to “6” and stores it in the RAM. The control unit 10 moves and displays the object group so that the object group of the reference channel “6” is displayed in the foreground.

また、図9(b)に示す状態において、ユーザが、表示装置100の背面に対してタッチ操作を行うと、背面タッチセンサ52によりタッチが検出される。この検出に応じて、制御部10は、基準チャンネルを、並び順で前の番号のチャンネルに変更する。基準チャンネルの変更量、換言すると、Z軸方向におけるオブジェクトの移動量は、上述したとおりである。ここで、図9(b)において、ユーザにより表示装置100の背面に対して一回タッチ操作が行われたものとする。このタッチ操作に応じて、制御部10は、上記パラメータに設定された値に応じて、基準チャンネルを並び順で前の番号のチャンネルに変更する。つまり、この場合、制御部10は、基準チャンネルを「5」から「4」に変更してRAMに記憶させる。制御部10は、基準チャンネル「4」のオブジェクト群が最前面に表示されるように、オブジェクト群を移動させて表示させる。   9B, when the user performs a touch operation on the back surface of the display device 100, the back touch sensor 52 detects the touch. In response to this detection, the control unit 10 changes the reference channel to the channel having the previous number in the arrangement order. The change amount of the reference channel, in other words, the movement amount of the object in the Z-axis direction is as described above. Here, in FIG. 9B, it is assumed that the user performs a single touch operation on the back surface of the display device 100. In response to this touch operation, the control unit 10 changes the reference channel to the channel of the previous number in the arrangement order according to the value set in the parameter. That is, in this case, the control unit 10 changes the reference channel from “5” to “4” and stores it in the RAM. The control unit 10 moves and displays the object group so that the object group of the reference channel “4” is displayed in the foreground.

図10は、Y軸方向へのスライド操作によって表示内容が変更される様子を表す図である。図10において、図5に示される表示面200の表示内容の一部を拡大して表している。図10(a)におけるオブジェクト群において、幅方向にはチャンネルが表示され、高さ方向には放送時間帯が表示され、奥行き方向には日付が表示されている。図10(a)に示された状態から、ユーザが、指300aをY軸正方向にドラッグし、指300bをY軸負方向にドラッグすることで、Y軸方向へのスライド操作を行った結果、表示面200の表示内容は、図10(b)に示す状態へと変化する。図10(b)におけるオブジェクト群において、幅方向にチャンネルが表示されていることは図10(a)と同様であるが、高さ方向に日付が表示され、奥行き方向に放送時間帯が表示されていることが、図10(a)と異なっている。ここで、図10(c)は、表示面200に表示されるオブジェクト群400をX軸負方向からX軸正方向に向かって仮想的に見たときの様子を表している。制御部10は、図10(a)に示すようなY軸方向へのスライド操作を受け付けると、図10(c)に示すように、オブジェクト群400の重心を通るX軸に平行な軸である回転軸600を中心としてオブジェクト群400の全体を時計回りに回転させることで、奥行き方向の情報と高さ方向の情報とを入れ替えて表示させる。つまり、図10(a)に示すようなY軸方向へのスライド操作が行われると、制御部10は、番組表の奥行き方向における手前側のオブジェクト群が表示面200上のドラッグ操作の方向(Y軸正方向)に動き、且つ、番組表の奥行き方向における奥側のオブジェクト群が表示装置100の背面に対するドラッグ操作の方向(Y軸負方向)に動くように、番組表を回転させて表示させる。この結果、番組表の表示内容は図10(b)のようなものとなる。   FIG. 10 is a diagram illustrating a state in which display content is changed by a slide operation in the Y-axis direction. 10, a part of the display content of the display surface 200 shown in FIG. 5 is shown in an enlarged manner. In the object group in FIG. 10A, a channel is displayed in the width direction, a broadcast time zone is displayed in the height direction, and a date is displayed in the depth direction. As a result of the user performing a sliding operation in the Y-axis direction by dragging the finger 300a in the positive Y-axis direction and dragging the finger 300b in the negative Y-axis direction from the state shown in FIG. The display content on the display surface 200 changes to the state shown in FIG. In the object group in FIG. 10B, the channel is displayed in the width direction as in FIG. 10A, but the date is displayed in the height direction and the broadcast time zone is displayed in the depth direction. Is different from FIG. 10 (a). Here, FIG. 10C illustrates a state when the object group 400 displayed on the display surface 200 is virtually viewed from the X-axis negative direction toward the X-axis positive direction. When receiving a sliding operation in the Y-axis direction as shown in FIG. 10A, the control unit 10 is an axis parallel to the X axis passing through the center of gravity of the object group 400 as shown in FIG. 10C. By rotating the entire object group 400 clockwise about the rotation axis 600, information in the depth direction and information in the height direction are switched and displayed. That is, when a slide operation in the Y-axis direction as shown in FIG. 10A is performed, the control unit 10 moves the object group on the near side in the depth direction of the program guide to the direction of the drag operation on the display surface 200 ( The program guide is rotated and displayed so that the object group on the far side in the depth direction of the program guide moves in the drag operation direction (Y-axis negative direction) with respect to the back surface of the display device 100. Let As a result, the display contents of the program guide are as shown in FIG.

このように、制御部10は、Y軸方向へのスライド操作を受け付けると、日付別に番組表を表示していた図10(a)の状態から、放送時間帯別に番組表を表示する図10(b)の状態に表示内容を変更する。つまり、図10(b)においては、最前面に開始時刻が「9:00」の番組表がチャンネルごと及び日付ごとに表示されており、その背面に開始時刻が「10:00」の番組表がチャンネルごと及び日付ごとに表示されている状態である。このように放送時間帯別に番組表が表示されることで、ユーザは、同一の放送時間帯ついて異なる日付及び異なるチャンネルの組み合わせの放送内容を一度に確認することが可能となる。   As described above, when the control unit 10 receives the slide operation in the Y-axis direction, the control unit 10 displays the program guide for each broadcasting time period from the state of FIG. The display content is changed to the state of b). That is, in FIG. 10B, the program table with the start time “9:00” is displayed for each channel and date on the foreground, and the program table with the start time “10:00” on the back side. Is displayed for each channel and each date. Thus, by displaying the program guide for each broadcast time zone, the user can check broadcast contents of different dates and different channel combinations at the same time for the same broadcast time zone.

ここで、ユーザは、前述したタッチ操作により、最前面に表示させる放送時間帯を変更することが可能である。制御部10は、基準日及び基準チャンネルと同様にして、最前面に表示させる放送時間帯を「基準放送時間帯」というパラメータとしてRAMに記憶させている。図10(b)において基準放送時間帯は「9:00」である。図10(b)の状態において、ユーザが、表示装置100の前面に対してタッチ操作を行うと、前面タッチセンサ51によりタッチが検出される。この検出に応じて、制御部10は、基準放送時間帯を、過去の時間帯に変更する。ここで、基準放送時間帯の変更量、換言すると、Z軸方向におけるオブジェクトの移動量は、上述したように、例えば「1個/タッチ」というようなパラメータとして記憶部20に記憶されている。ここで、図10(b)において、ユーザにより表示面200上において一回タッチ操作が行われたものとする。このタッチ操作に応じて、制御部10は、上記パラメータに設定された値に応じて、基準放送時間帯を過去の時間帯に変更する。つまり、この場合、制御部10は、基準チャンネルを「9:00」から「8:00」に変更してRAMに記憶させる。制御部10は、基準放送時間帯「8:00」のオブジェクト群が最前面に表示されるように、オブジェクト群を移動させて表示させる。   Here, the user can change the broadcast time zone displayed on the foreground by the touch operation described above. Similarly to the reference date and the reference channel, the control unit 10 stores the broadcast time zone displayed on the forefront in the RAM as a parameter called “reference broadcast time zone”. In FIG. 10B, the standard broadcast time zone is “9:00”. In the state of FIG. 10B, when the user performs a touch operation on the front surface of the display device 100, the touch is detected by the front surface touch sensor 51. In response to this detection, the control unit 10 changes the reference broadcast time zone to a past time zone. Here, the amount of change of the reference broadcast time zone, in other words, the amount of movement of the object in the Z-axis direction is stored in the storage unit 20 as a parameter such as “one / touch” as described above. Here, in FIG. 10B, it is assumed that the user performs a single touch operation on the display surface 200. In response to this touch operation, the control unit 10 changes the reference broadcast time zone to a past time zone according to the value set in the parameter. That is, in this case, the control unit 10 changes the reference channel from “9:00” to “8:00” and stores it in the RAM. The control unit 10 moves and displays the object group so that the object group in the standard broadcast time zone “8:00” is displayed in the foreground.

また、図10(b)に示す状態において、ユーザが、表示装置100の背面に対してタッチ操作を行うと、背面タッチセンサ52によりタッチが検出される。この検出に応じて、制御部10は、基準放送時間帯を、未来の時間帯に変更する。基準放送時間帯の変更量、換言すると、Z軸方向におけるオブジェクトの移動量は、上述したとおりである。ここで、図10(b)において、ユーザにより表示装置100の背面に対して一回タッチ操作が行われたものとする。このタッチ操作に応じて、制御部10は、上記パラメータに設定された値に応じて、基準放送時間帯を未来の時間帯に変更する。つまり、この場合、制御部10は、基準放送時間帯を「9:00」から「10:00」に変更してRAMに記憶させる。制御部10は、基準放送時間帯「10:00」のオブジェクト群が最前面に表示されるように、オブジェクト群を移動させて表示させる。   10B, when the user performs a touch operation on the back surface of the display device 100, the back touch sensor 52 detects the touch. In response to this detection, the control unit 10 changes the reference broadcast time zone to a future time zone. The amount of change in the reference broadcast time zone, in other words, the amount of movement of the object in the Z-axis direction is as described above. Here, in FIG. 10B, it is assumed that the user performs a single touch operation on the back surface of the display device 100. In response to this touch operation, the control unit 10 changes the reference broadcast time zone to a future time zone according to the value set in the parameter. That is, in this case, the control unit 10 changes the reference broadcast time zone from “9:00” to “10:00” and stores it in the RAM. The control unit 10 moves and displays the object group so that the object group in the reference broadcast time zone “10:00” is displayed in the foreground.

図11は、制御部10が表示内容を変更する処理の流れを示すフローチャートである。まず、制御部10は、前面タッチセンサ51及び背面タッチセンサ52からの検出信号に基づいて、ユーザによる操作がスライド操作であったか否かを判断する(ステップS100)。制御部10は、ユーザによる操作がスライド操作であったと判断すると(ステップS100;YES)、表示装置100の前面に対するドラッグ操作の方向及び表示装置100の背面に対するドラッグ操作の方向を特定する(ステップS110)。具体的にステップS110において、制御部10は、前面タッチセンサ51の検出する操作点の始点の表す座標から操作点の終点の表す座標へ向かう方向を、表示装置100の前面に対するドラッグ操作の方向と特定する。同様に、ステップS110において、制御部10は、背面タッチセンサ52の検出する操作点の始点の表す座標から操作点の終点の表す座標へ向かう方向を、表示装置100の背面に対するドラッグ操作の方向と特定する。ここにおいて、制御部10は、表示装置100の前面に対するドラッグ操作の方向と表示装置100の背面に対するドラッグ操作の方向とを、同一期間を含む期間において特定する。   FIG. 11 is a flowchart illustrating a flow of processing in which the control unit 10 changes display contents. First, the control unit 10 determines whether or not the operation by the user is a slide operation based on detection signals from the front touch sensor 51 and the rear touch sensor 52 (step S100). When determining that the operation by the user is a slide operation (step S100; YES), the control unit 10 specifies the direction of the drag operation with respect to the front surface of the display device 100 and the direction of the drag operation with respect to the back surface of the display device 100 (step S110). ). Specifically, in step S <b> 110, the control unit 10 sets the direction from the coordinate represented by the start point of the operation point detected by the front touch sensor 51 to the coordinate represented by the end point of the operation point as the direction of the drag operation with respect to the front surface of the display device 100. Identify. Similarly, in step S <b> 110, the control unit 10 sets the direction from the coordinate represented by the start point of the operation point detected by the back touch sensor 52 to the coordinate represented by the end point of the operation point as the direction of the drag operation with respect to the back surface of the display device 100. Identify. Here, the control unit 10 specifies the direction of the drag operation with respect to the front surface of the display device 100 and the direction of the drag operation with respect to the back surface of the display device 100 in a period including the same period.

ステップS110の次に、制御部10は、表示装置100の前面に対するドラッグ操作の方向と表示装置100の背面に対するドラッグ操作の方向とが、逆向きであるかを判定する(ステップS120)。具体的には、ステップS120において、制御部10は、ステップS110で特定した表示装置100の前面に対するドラッグ操作の方向に対して、表示装置100の背面に対するドラッグ操作の方向が正反対の方向成分を持ち、且つ、表示装置100の前面に対するドラッグ操作の大きさに対して、上記正反対の方向成分の大きさが占める割合が予め決められた閾値以上である場合、両者の方向が逆向きであると判定する。ここで上記閾値とは、例えば「70%」といった値であって、パラメータとして予め記憶部20に記憶されている。   After step S110, the control unit 10 determines whether the direction of the drag operation with respect to the front surface of the display device 100 is opposite to the direction of the drag operation with respect to the back surface of the display device 100 (step S120). Specifically, in step S120, the control unit 10 has a directional component in which the direction of the drag operation with respect to the back surface of the display device 100 is opposite to the direction of the drag operation with respect to the front surface of the display device 100 specified in step S110. In addition, when the proportion of the size of the diametrically opposite direction component is greater than or equal to a predetermined threshold with respect to the size of the drag operation on the front surface of the display device 100, it is determined that both directions are opposite. To do. Here, the threshold value is a value such as “70%”, for example, and is stored in the storage unit 20 in advance as a parameter.

図12は、ドラッグ操作の方向が逆向きであるか否かの判定を説明するための模式図である。太枠で描かれた矢印は、表示装置100の前面に対するドラッグ操作の方向710を表す。前面に対するドラッグ操作の方向710と反対側に向かって延びる実線の矢印は、表示装置100の背面に対するドラッグ操作の方向720を表す。そして破線で描かれた矢印のうち、前面に対するドラッグ操作の方向710と逆向きに延びる矢印は、ドラッグ操作の方向720の方向成分のうち、前面に対するドラッグ操作の方向710と正反対の方向成分730を表す。ここで、前面に対するドラッグ操作の大きさ(図では前面に対するドラッグ操作の方向710の示す長さ)に対して、正反対の方向成分730の大きさが占める割合が予め決められた閾値以上である場合、制御部10は、前面に対するドラッグ操作の方向710と背面に対するドラッグ操作の方向720とが逆向きであると判定する。   FIG. 12 is a schematic diagram for explaining whether or not the direction of the drag operation is reverse. An arrow drawn with a thick frame represents a drag operation direction 710 with respect to the front surface of the display device 100. A solid arrow extending toward the opposite side of the direction 710 of the drag operation with respect to the front surface represents the direction 720 of the drag operation with respect to the back surface of the display device 100. Of the arrows drawn in broken lines, an arrow extending in the direction opposite to the drag operation direction 710 with respect to the front surface includes a direction component 730 that is the opposite of the drag operation direction 710 with respect to the front surface among the direction components of the drag operation direction 720. To express. Here, the proportion of the size of the diametrically opposite direction component 730 with respect to the size of the drag operation on the front surface (the length indicated by the drag operation direction 710 on the front surface in the figure) is equal to or greater than a predetermined threshold. The control unit 10 determines that the drag operation direction 710 for the front surface and the drag operation direction 720 for the back surface are opposite to each other.

制御部10は、表示装置100の前面に対するドラッグ操作の方向と表示装置100の背面に対するドラッグ操作の方向とが、逆向きでないと判断すると(ステップS120;NO)、対応処理を行い(ステップS130)、ステップS100の処理に戻る。ここで対応処理とは、例えば、表示面200に表示された画像をスクロールさせて表示したり、表示装置100の前面に対する操作点に位置する画像又は表示装置100の背面に対する操作点に位置する画像を選択したり、あるいは何もしない、といった処理である。   If the control unit 10 determines that the direction of the drag operation with respect to the front surface of the display device 100 and the direction of the drag operation with respect to the back surface of the display device 100 are not opposite (step S120; NO), the control unit 10 performs a corresponding process (step S130). Then, the process returns to step S100. Here, the correspondence processing refers to, for example, scrolling and displaying an image displayed on the display surface 200, or an image located at an operation point with respect to the front surface of the display device 100 or an image located at an operation point with respect to the back surface of the display device 100. This is a process such as selecting or doing nothing.

制御部10は、表示装置100の前面に対するドラッグ操作の方向と表示装置100の背面に対するドラッグ操作の方向とが、逆向きであると判断すると(ステップS120;YES)、ユーザによる操作がX軸方向へのスライド操作であるか否かを判定する(ステップS140)。ステップS140において、具体的に制御部10は、表示装置100の前面に対するドラッグ操作の方向及び表示装置100の背面に対するドラッグ操作の方向とのそれぞれにおいて、Y軸方向の成分よりもX軸方向の成分の方が長い場合、ユーザによる操作をX軸方向へのスライド操作である、と判定する。一方、制御部10は、表示装置100の前面に対するドラッグ操作の方向及び表示装置100の背面に対するドラッグ操作の方向とのそれぞれにおいて、X軸方向の成分よりもY軸方向の成分の方が長い場合、ユーザによる操作をX軸方向へのスライド操作ではない、すなわちY軸方向へのスライド操作である、と判定する。   When the control unit 10 determines that the direction of the drag operation with respect to the front surface of the display device 100 is opposite to the direction of the drag operation with respect to the back surface of the display device 100 (step S120; YES), the operation by the user is in the X-axis direction. It is determined whether or not the operation is a slide operation (step S140). In step S140, specifically, the control unit 10 determines the X-axis direction component rather than the Y-axis direction component in each of the drag operation direction with respect to the front surface of the display device 100 and the drag operation direction with respect to the back surface of the display device 100. If is longer, it is determined that the operation by the user is a slide operation in the X-axis direction. On the other hand, the control unit 10 has a case where the component in the Y-axis direction is longer than the component in the X-axis direction in each of the direction of the drag operation with respect to the front surface of the display device 100 and the direction of the drag operation with respect to the back surface of the display device 100. Then, it is determined that the operation by the user is not a slide operation in the X-axis direction, that is, a slide operation in the Y-axis direction.

制御部10は、ユーザによる操作をX軸方向へのスライド操作であると判定すると(ステップS140;YES)、オブジェクト群全体を回転させることで、番組表の奥行き方向における手前側のオブジェクト群を、表示面200上のドラッグ操作におけるX軸方向に移動させる(ステップS150)。このとき、制御部10は、番組表の奥行き方向における奥側のオブジェクト群を、表示装置100の背面に対するドラッグ操作におけるX軸方向に移動させる。また、制御部10は、ユーザによる操作をX軸方向へのスライド操作でない、すなわちY軸方向へのスライド操作であると判定すると(ステップS140;NO)、オブジェクト群全体を回転させることで、番組表の奥行き方向における手前側のオブジェクト群を、表示面200上のドラッグ操作におけるY軸方向に移動させる(ステップS160)。このとき、制御部10は、番組表の奥行き方向における奥側のオブジェクト群を、表示装置100の背面に対するドラッグ操作におけるY軸方向に移動させる。ステップS150又はステップS160の次に制御部10は、表示面200に表示する内容を変更すると(ステップS170)、処理をステップS100へ戻す。ステップS170において、制御部10は、オブジェクト群全体の回転に応じて、最前面に表示するオブジェクト群を変更して表示させる。   When the control unit 10 determines that the operation by the user is a slide operation in the X-axis direction (step S140; YES), the object group on the near side in the depth direction of the program table is rotated by rotating the entire object group. It is moved in the X-axis direction in the drag operation on the display surface 200 (step S150). At this time, the control unit 10 moves the object group on the back side in the depth direction of the program guide in the X-axis direction in the drag operation on the back surface of the display device 100. If the control unit 10 determines that the operation by the user is not a slide operation in the X-axis direction, that is, a slide operation in the Y-axis direction (step S140; NO), the program is performed by rotating the entire object group. The object group on the near side in the depth direction of the table is moved in the Y-axis direction in the drag operation on the display surface 200 (step S160). At this time, the control unit 10 moves the rear object group in the depth direction of the program guide in the Y-axis direction in the drag operation on the back surface of the display device 100. After step S150 or step S160, when the content displayed on the display surface 200 is changed (step S170), the control unit 10 returns the process to step S100. In step S170, the control unit 10 changes and displays the object group displayed on the foreground according to the rotation of the entire object group.

図13は、制御部10の機能的構成を表すブロック図であり、制御部10は、プログラムを実行することで図に示す各機能を実現する。制御部10は、幅方向、高さ方向及び奥行き方向を持つオブジェクトを、表示部40に立体的に表示させる表示制御手段11として機能する。また、制御部10は、前面タッチセンサ51及び背面タッチセンサ52により検出される第1の操作(タッチ操作)及び第2の操作(タッチ操作)のそれぞれが向かう方向を特定する方向特定手段12として機能する。ここで、第1の操作及び第2の操作の向かう方向、すなわちタッチ操作の向かう方向とは、タッチ操作による操作点の始点から操作点の終点へ向かう方向を表す。さらに表示制御手段11は、方向特定手段12により特定された第1の操作の向かう方向と、方向特定手段12により特定された第2の操作の向かう方向とが逆向きである場合に、オブジェクトの奥行き方向における手前側の部分が、第1の操作の向かう方向に動き、且つ、当該オブジェクトの奥行き方向の奥側の部分が、第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させる。また、制御部10は、オブジェクトが、幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表であるときに、表に含まれる複数の情報のうち、第1の操作又は第2の操作に対応する前記表示面200の領域に表示されている情報を含んで高さ方向及び幅方向に配列された情報群を特定する情報群特定手段13として機能する。このとき表示制御手段11は、前面タッチセンサ51により第1の操作が検出された場合には、情報群特定手段13により特定された情報群を、表において奥行き方向の奥側に移動させて表示させ、背面タッチセンサ52により第2の操作が検出された場合には、情報群特定手段13により特定された情報群を、表において前記奥行き方向の手前側に移動させて表示させる。   FIG. 13 is a block diagram showing a functional configuration of the control unit 10, and the control unit 10 realizes each function shown in the figure by executing a program. The control unit 10 functions as a display control unit 11 that displays an object having a width direction, a height direction, and a depth direction on the display unit 40 in a three-dimensional manner. The control unit 10 also serves as direction specifying means 12 that specifies the direction in which each of the first operation (touch operation) and the second operation (touch operation) detected by the front touch sensor 51 and the back touch sensor 52 is directed. Function. Here, the direction in which the first operation and the second operation are directed, that is, the direction in which the touch operation is directed represents a direction from the start point of the operation point to the end point of the operation point by the touch operation. Further, the display control unit 11 is configured to display the object when the direction of the first operation specified by the direction specifying unit 12 is opposite to the direction of the second operation specified by the direction specifying unit 12. Rotate the object so that the portion on the near side in the depth direction moves in the direction toward the first operation, and the portion on the far side in the depth direction of the object moves in the direction toward the second operation. To display. In addition, when the object is a table in which information is arranged in each of the width direction, the height direction, and the depth direction, the control unit 10 performs a first operation or a second operation among a plurality of pieces of information included in the table. It functions as information group specifying means 13 for specifying information groups arranged in the height direction and width direction including information displayed in the area of the display surface 200 corresponding to the operation. At this time, when the first operation is detected by the front touch sensor 51, the display control unit 11 displays the information group specified by the information group specifying unit 13 by moving it to the back side in the depth direction in the table. When the second operation is detected by the back touch sensor 52, the information group specified by the information group specifying unit 13 is moved and displayed on the front side in the depth direction in the table.

このように、本実施形態によれば、ユーザはあたかも自らの手で三次元のオブジェクト(ここでは三次元の番組表)に力を与えてそのオブジェクトを回転させたかのような感覚を得られるため、ユーザの操作と、その操作に応じた三次元のオブジェクトを表す画像の動きとの間に体感的な共通性を持たせることが可能となる。   As described above, according to the present embodiment, the user can obtain a feeling as if the object is rotated by giving a force to the three-dimensional object (here, the three-dimensional program guide) with his / her hand. It is possible to have a sensual commonality between the user's operation and the movement of the image representing the three-dimensional object corresponding to the operation.

<変形例>
以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施してもよい。
<Modification>
The above embodiment can be modified as follows. Note that the following modifications may be combined as appropriate.

<変形例1>
実施形態においては、ユーザによるスライド操作に応じて制御部10が行う処理は、オブジェクト郡全体を回転させて表示させるというものであったが、これに加えて次のようにしてもよい。図14は、変形例1に係るオブジェクトの部分的な回転表示を表す図である。図14(a)には、図5と同内容の番組表を表すオブジェクト群が表示面200に表示されている。ユーザは、部分的に回転表示させるオブジェクトを指定する際に、単一のオブジェクトのみならず、複数のオブジェクトを一度に指定することが可能である。まず、ユーザは、表示面200にタッチした状態を維持したまま指300を移動させる、いわゆるドラッグ操作を行って、部分的に回転表示させたいオブジェクトを選択する。制御部10は、ドラッグ操作の開始位置の操作点と、ドラッグ操作の終了位置の操作点とを対角に持つ矩形を特定する。この矩形を選択範囲という。そして制御部10は、オブジェクトの表示面200に平行な面を表す矩形が上記選択範囲に含まれる場合、このオブジェクトを、表示内容を変更する対象のオブジェクトとして特定する。図14(a)では、ユーザが、ドラッグ操作を行うことにより、日付が「4/1」、開始時刻が「9:00」、終了時刻が「9:58」であって、チャンネルが「4」、「5」及び「6」の3つのオブジェクトを選択した様子を表している。制御部10は、例えば図14に示すように、選択範囲を破線の矩形として表示させる。制御部10は、このようなドラッグ操作に基づく選択範囲を、表示面200に対するタッチ操作から特定するだけでなく、表示装置100の背面に対してのタッチ操作からも特定することができる。この場合、制御部10は、背面タッチセンサ52が検出するドラッグ操作の開始位置の操作点及び終了位置の操作点とを対角に持つ矩形を、選択範囲として特定する。このように、情報特定手段として機能する制御部10は、表に含まれる複数の情報のうち、前面タッチセンサ51により検出された第1の操作に対応する表示面200の領域に表示されている情報を特定する。
<Modification 1>
In the embodiment, the process performed by the control unit 10 in response to the slide operation by the user is to rotate and display the entire object group, but in addition to this, the following process may be performed. FIG. 14 is a diagram illustrating partial rotation display of an object according to the first modification. In FIG. 14A, an object group representing a program guide having the same content as FIG. 5 is displayed on the display surface 200. The user can specify not only a single object but also a plurality of objects at a time when specifying an object to be partially rotated and displayed. First, the user performs a so-called drag operation of moving the finger 300 while maintaining the state of touching the display surface 200, and selects an object to be partially rotated and displayed. The control unit 10 specifies a rectangle having diagonally the operation point at the start position of the drag operation and the operation point at the end position of the drag operation. This rectangle is called a selection range. When the selection range includes a rectangle representing a plane parallel to the display surface 200 of the object, the control unit 10 identifies this object as an object whose display content is to be changed. In FIG. 14A, when the user performs a drag operation, the date is “4/1”, the start time is “9:00”, the end time is “9:58”, and the channel is “4”. ”,“ 5 ”, and“ 6 ”are selected. For example, as illustrated in FIG. 14, the control unit 10 displays the selection range as a broken-line rectangle. The control unit 10 can specify the selection range based on such a drag operation not only from the touch operation on the display surface 200 but also from the touch operation on the back surface of the display device 100. In this case, the control unit 10 specifies a rectangle having the operation point at the start position and the operation point at the end position of the drag operation detected by the back touch sensor 52 as a selection range. As described above, the control unit 10 functioning as the information specifying unit is displayed in the area of the display surface 200 corresponding to the first operation detected by the front touch sensor 51 among the plurality of pieces of information included in the table. Identify information.

図14(b)は、図14(a)のようにオブジェクトが指定された状態から、ユーザによりスライド操作が行われた結果を表している。図14下段において、制御部10は、指定された3つのオブジェクトについて、出演者の情報を前面に表示させている。一方、制御部10は、そのほかのオブジェクトについては、番組名の情報を前面に表示させている。オブジェクトは、ブロック状の直方体で表示されているから、制御部10は、オブジェクトを回転させて表示させることで、予め前面に表示されていた面と、この面の上下左右裏面との合わせて6面のうちのいずれか1面を、表示面200の最前面に表示させる。   FIG. 14B shows a result of the slide operation performed by the user from the state where the object is designated as shown in FIG. In the lower part of FIG. 14, the control unit 10 displays the performer information on the front of the three specified objects. On the other hand, the control unit 10 displays program name information on the front surface for other objects. Since the object is displayed as a block-shaped rectangular parallelepiped, the control unit 10 rotates and displays the object, so that the surface previously displayed on the front surface and the top, bottom, left, and right back surfaces of this surface are combined. Any one of the surfaces is displayed on the forefront of the display surface 200.

変形例1では、図3の番組表データ21において、各々のデータが、「出演者」、「概要」及び「キーワード」などといった項目を追加で保持している。ここで、「出演者」とは、番組への出演者を表し、「概要」とは、番組の内容の概要を表し、「キーワード」とは、ユーザが番組を検索するときに使用される文字列を表す。例えば、ユーザが「時代劇」という文字列を指定して番組の検索を行うと、制御部10は、番組表データ21の項目「キーワード」に、「時代劇」という文字列を保持する番組を検索結果として表示させる、といった具合である。制御部10は、各オブジェクトの各面に、番組名の情報と、この番組に関連する情報であって番組名とは異なる上述した内容のような情報とが配置されているものとして表示させる。このようにして、制御部10は、ユーザによるスライド操作に応じてオブジェクトを回転させることで、番組名、番組放送日時、又は上記項目の情報のうちいずれかをオブジェクトの前面に表示させる。   In the first modification, in the program guide data 21 of FIG. 3, each data additionally holds items such as “performer”, “outline”, and “keyword”. Here, “performer” represents a performer in the program, “outline” represents an outline of the contents of the program, and “keyword” is a character used when the user searches for the program. Represents a column. For example, when the user searches for a program by designating a character string “period drama”, the control unit 10 selects a program holding the character string “period drama” in the item “keyword” of the program table data 21. For example, it is displayed as a search result. The control unit 10 displays on each surface of each object the information on the program name and the information related to the program that is different from the program name as described above. In this manner, the control unit 10 rotates the object in accordance with the slide operation by the user, thereby displaying any one of the program name, the program broadcast date and time, or the information of the above items on the front surface of the object.

図15は、変形例1に係る表示内容を変更する処理の流れを示すフローチャートである。図11と同一の符号を付されたものは、その処理内容も図11と同一であるため、詳細な説明を省略し、図11と異なる点を中心に説明を行う。まず、制御部10は、オブジェクトを指定する操作が行われると、すなわち、ユーザによるドラッグ操作の開始位置の操作点とドラッグ操作の終了位置の操作点とを対角に持つ矩形からなる選択範囲に、オブジェクトの表示面200に平行な面を表す矩形が含まれる場合(ステップS100a;YES)、このオブジェクトを、表示内容を変更する対象のオブジェクトとして特定する(ステップS100b)。そして制御部10は、ステップS100の処理へ進む。一方、制御部10は、オブジェクトを指定する操作が行われない場合(ステップS100a;NO)、ステップS100の処理へ進む。その後、制御部10は、処理を進め、ステップS140において、ユーザによる操作がX軸方向へのスライド操作であるか否かを判定する。   FIG. 15 is a flowchart showing a flow of processing for changing display contents according to the first modification. 11 that have the same reference numerals as those in FIG. 11 have the same processing contents as those in FIG. 11, and thus detailed description thereof will be omitted, and description will be made focusing on differences from FIG. 11. First, when an operation for designating an object is performed, the control unit 10 sets a selection range including a rectangle having diagonally an operation point at the start position of the drag operation by the user and an operation point at the end position of the drag operation. When a rectangle representing a plane parallel to the object display surface 200 is included (step S100a; YES), this object is specified as an object whose display content is to be changed (step S100b). And the control part 10 progresses to the process of step S100. On the other hand, the control part 10 progresses to the process of step S100, when operation which designates an object is not performed (step S100a; NO). Thereafter, the control unit 10 advances the process, and determines whether or not the operation by the user is a slide operation in the X-axis direction in step S140.

制御部10は、ユーザによる操作をX軸方向へのスライド操作であると判定し(ステップS140;YES)、さらにステップS100bにおいて表示内容を変更する対象のオブジェクトが特定されている場合(ステップS142;YES)、特定されたオブジェクトの手前側の部分が表示面200上のドラッグ操作におけるX軸方向に動くようにこのオブジェクトを回転させる(ステップS144)。このとき、特定されたオブジェクトの奥側の部分が表示装置100の背面に対するドラッグ操作におけるX軸方向に動くように、制御部10は、このオブジェクトを回転させる。一方、制御部10は、ステップS100bにおいて表示内容を変更する対象のオブジェクトが特定されていない場合(ステップS142;NO)、オブジェクト群全体を回転させることで、番組表の奥行き方向における手前側のオブジェクト群を、表示面200上のドラッグ操作におけるX軸方向に移動させる(ステップS150)。   The control unit 10 determines that the user's operation is a slide operation in the X-axis direction (step S140; YES), and further, in step S100b, an object whose display content is to be changed is specified (step S142; (YES), this object is rotated so that the portion on the near side of the identified object moves in the X-axis direction in the drag operation on the display surface 200 (step S144). At this time, the control unit 10 rotates the object so that the back side portion of the identified object moves in the X-axis direction in the drag operation on the back surface of the display device 100. On the other hand, when the target object whose display content is to be changed is not specified in step S100b (step S142; NO), the control unit 10 rotates the entire object group to thereby move the object on the near side in the depth direction of the program guide. The group is moved in the X-axis direction in the drag operation on the display surface 200 (step S150).

また、制御部10は、ユーザによる操作をX軸方向へのスライド操作でない、すなわちY軸方向へのスライド操作であると判定し(ステップS140;NO)、さらにステップS100bにおいて表示内容を変更する対象のオブジェクトが特定されている場合(ステップS152;YES)、特定されたオブジェクトの手前側の部分が表示面200上のドラッグ操作におけるY軸方向に動くようにこのオブジェクトを回転させる(ステップS154)。このとき、特定されたオブジェクトの奥側の部分が表示装置100の背面に対するドラッグ操作におけるY軸方向に動くように、制御部10は、このオブジェクトを回転させる。一方、制御部10は、ステップS100bにおいて表示内容を変更する対象のオブジェクトが特定されていない場合(ステップS152;NO)、オブジェクト群全体を回転させることで、番組表の奥行き方向における手前側のオブジェクト群を、表示面200上のドラッグ操作におけるY軸方向に移動させる(ステップS160)。ステップS144、ステップS150、ステップS154、又はステップS160の次に制御部10は、表示面200に表示させる内容を変更すると(ステップS170)、ステップS100aの処理に戻る。ステップS170において、制御部10は、特定されたオブジェクトの回転又はオブジェクト群全体の回転に応じて、最前面に表示するオブジェクト群を変更して表示させる。   Further, the control unit 10 determines that the operation by the user is not a slide operation in the X-axis direction, that is, a slide operation in the Y-axis direction (step S140; NO), and further, the display content is changed in step S100b. When the object is identified (step S152; YES), this object is rotated so that the portion on the near side of the identified object moves in the Y-axis direction in the drag operation on the display surface 200 (step S154). At this time, the control unit 10 rotates the object so that the back side portion of the identified object moves in the Y-axis direction in the drag operation on the back surface of the display device 100. On the other hand, when the object whose display contents are to be changed is not specified in step S100b (step S152; NO), the control unit 10 rotates the entire object group to thereby move the object on the near side in the depth direction of the program guide. The group is moved in the Y-axis direction in the drag operation on the display surface 200 (step S160). After step S144, step S150, step S154, or step S160, the control unit 10 changes the content to be displayed on the display surface 200 (step S170), and returns to the process of step S100a. In step S <b> 170, the control unit 10 changes and displays the object group displayed on the foreground according to the rotation of the identified object or the entire object group.

このようにすれば、ユーザは、表示面200に表示された番組表を表すオブジェクトのうち、番組名を見て内容が気になった番組などについて、オブジェクトを指定して部分的な回転操作を行うことで、この番組のより詳細な内容を知ることができるようになる。   In this way, the user designates an object and performs a partial rotation operation on a program or the like whose contents are of interest by looking at the program name among the objects representing the program guide displayed on the display surface 200. By doing so, it becomes possible to know more detailed contents of this program.

<変形例2>
変形例1に加えて、ユーザによるスライド操作におけるベクトルの大きさに応じて、制御部10が、指定されたオブジェクトを回転させる量を変更してもよい。変形例2において、記憶部20は、回転量テーブル22を記憶している。図16は、変形例2に係る回転量テーブル22の内容を表す図である。回転量テーブル22は、「スライド量」及び「オブジェクト回転量」といった複数の項目からなる。「スライド量」という項目には、予め区分されたスライド操作における操作量の大きさ(cm)の範囲が記述されている。スライド操作は、前述したように、お互いに方向が逆向きの、表示装置100の前面に対するドラッグ操作と表示装置100の背面に対するドラッグ操作とで成り立っているから、スライド操作における操作量の大きさは、ドラッグ操作における操作量の大きさに基づいている。具体的には、スライド操作における操作量の大きさは、表示面200上のドラッグ操作における操作点の始点の表す座標と操作点の終点の表す座標とを結ぶ軌跡の長さ及び表示装置100の背面に対するドラッグ操作における操作点の始点の表す座標と操作点の終点の表す座標とを結ぶ軌跡の長さを平均した長さで表される。「オブジェクト回転量」という項目には、一度のスライド操作においてオブジェクトの回転する量が記述されている。ここで、オブジェクトの回転する量は、「1」につき「90°の回転1回分」を表している。例えば、スライド量が「3以上」のとき、オブジェクト回転量は「2」であるから、制御部10は、選択されたオブジェクトについて、X軸方向あるいはY軸方向に、90°の回転を2回転させて表示させる。このように、制御部10は、スライド操作における操作量の大きさに応じた回転量で、特定された情報を表す画像を回転させて表示させる。
<Modification 2>
In addition to the first modification, the control unit 10 may change the amount by which the designated object is rotated according to the vector size in the slide operation by the user. In the second modification, the storage unit 20 stores a rotation amount table 22. FIG. 16 is a diagram illustrating the contents of the rotation amount table 22 according to the second modification. The rotation amount table 22 includes a plurality of items such as “slide amount” and “object rotation amount”. In the item “slide amount”, the range of the magnitude (cm) of the operation amount in the slide operation divided in advance is described. As described above, the slide operation is composed of the drag operation on the front surface of the display device 100 and the drag operation on the back surface of the display device 100, the directions of which are opposite to each other. , Based on the amount of operation in the drag operation. Specifically, the magnitude of the operation amount in the slide operation is the length of the trajectory connecting the coordinates of the start point of the operation point and the coordinates of the end point of the operation point in the drag operation on the display surface 200 and the display device 100. It is represented by a length obtained by averaging the lengths of trajectories connecting the coordinates represented by the start point of the operation point and the coordinates represented by the end point of the operation point in the drag operation on the back surface. In the item “object rotation amount”, an amount of rotation of the object in one slide operation is described. Here, the amount of rotation of the object represents “one rotation of 90 °” per “1”. For example, since the object rotation amount is “2” when the slide amount is “3 or more”, the control unit 10 rotates the 90 ° rotation twice in the X-axis direction or the Y-axis direction for the selected object. To display. Thus, the control unit 10 rotates and displays an image representing the specified information with a rotation amount corresponding to the amount of operation in the slide operation.

変形例2では、図15のフローチャートにおいて、ステップS120とステップS140との間に、制御部10は、スライド操作における操作量の大きさに基づいて回転量テーブル22を参照し、オブジェクト回転量を決定する。そしてステップS144又はステップS154で制御部10は、特定されたオブジェクトを、表示装置100の前面において、前面に対するドラッグ操作の方向(X軸方向又はY軸方向)に動くように、決定したオブジェクト回転量だけ回転させる。   In the second modification, in the flowchart of FIG. 15, between step S120 and step S140, the control unit 10 refers to the rotation amount table 22 based on the amount of operation in the slide operation and determines the object rotation amount. To do. In step S144 or step S154, the control unit 10 determines the object rotation amount so that the identified object moves on the front surface of the display device 100 in the drag operation direction (X-axis direction or Y-axis direction) with respect to the front surface. Just rotate.

このようにすれば、ユーザは、指定したオブジェクトの前面に表示される情報を変更するときに、スライド操作における操作量に応じて回転させる量を調整することが可能となる。これにより、例えば、ユーザは、スライド操作における操作量を大きくすることで、オブジェクトの回転量を多いものとして、番組に関する様々な情報を素早く確認することが可能となる。また、例えば、ユーザは、スライド操作における操作量を小さくすることで、オブジェクトを1つずつ回転させ、番組に関する様々な情報をじっくり確認することが可能となる。   In this way, when changing the information displayed on the front surface of the designated object, the user can adjust the amount of rotation according to the operation amount in the slide operation. Thereby, for example, the user can quickly confirm various information regarding the program by increasing the amount of operation in the slide operation, assuming that the amount of rotation of the object is large. Also, for example, the user can rotate the object one by one by reducing the amount of operation in the slide operation, and can check various information related to the program carefully.

<変形例3>
制御部10が画像を立体的に表示させる方法は、視差バリア方式や、レンチキュラーレンズ方式、或いは時分割方式などを用いて3次元で表示させる方法以外に、前述したように斜視図により画像を表示させる方法であってもよい。この場合、オブジェクト群の画像が斜視図により表示されるだけであるから、画像の飛出し量及び奥行き量は生じないが、制御部10が行う処理の内容は実施形態と同様に奥行き方向のオブジェクトの位置を変えるというものになる。なお、制御部10は、画像を3次元で表示させたり、斜視図により表示させたりするのに限らず、画像が幅方向と高さ方向と奥行き方向との3軸を持ち立体的に表示させるものであれば、そのほかの方法を用いてもよい。
<Modification 3>
The control unit 10 displays the image in a three-dimensional manner using a parallax barrier method, a lenticular lens method, a time division method, or the like, as described above. It is also possible to use a method. In this case, since the image of the object group is only displayed in a perspective view, the amount of projection and depth of the image does not occur, but the content of the processing performed by the control unit 10 is the object in the depth direction as in the embodiment. It will be to change the position of. Note that the control unit 10 is not limited to displaying an image in three dimensions or in a perspective view, and the image has a three-dimensional display in the width direction, the height direction, and the depth direction and is displayed in a three-dimensional manner. Other methods may be used as long as they are appropriate.

<変形例4>
実施形態において、立体的に表示される表として、テレビやラジオの番組表を想定していたが、これに限ったものではない。従って、幅方向、高さ方向、及び奥行き方向における情報の属性も、実施形態のような「チャンネル」、「時間帯」、「日付」といった組み合わせに限らない。つまり、表は、3種類の異なる属性の情報で構成される表であればどのようなものでもよい。
<Modification 4>
In the embodiment, a television or radio program table is assumed as a three-dimensionally displayed table, but the table is not limited to this. Therefore, the attribute of information in the width direction, the height direction, and the depth direction is not limited to the combination of “channel”, “time zone”, and “date” as in the embodiment. In other words, the table may be any table as long as the table includes information of three different attributes.

<変形例5>
制御部10が表示面200に立体的に表示される画像は表に限らず、幅方向、高さ方向、及び奥行き方向を持つオブジェクトの画像であれば、どのようなものであってもよい。ここで、オブジェクトが幅方向、高さ方向、及び奥行き方向を持つとは、このオブジェクトの幅方向、高さ方向、及び奥行き方向のそれぞれに大きさがあるという意味である。オブジェクトの画像は、例えば人物や犬や猫といった動物或いは植物など、或るキャラクターを立体的に表したオブジェクトの画像であってもよいし、図形を立体的に表したオブジェクトの画像であってもよい。
<Modification 5>
The image displayed three-dimensionally on the display surface 200 by the control unit 10 is not limited to a table, and may be any image as long as it is an image of an object having a width direction, a height direction, and a depth direction. Here, the object having a width direction, a height direction, and a depth direction means that each of the object has a size in the width direction, the height direction, and the depth direction. The image of the object may be an image of an object that three-dimensionally represents a certain character, such as a person, an animal such as a dog or a cat, or a plant, or may be an image of an object that three-dimensionally represents a figure. Good.

<変形例6>
表示装置100の前面に対するドラッグ操作の方向及び表示装置100の背面に対するドラッグ操作の方向を特定する方法は、実施形態に述べたものに限らず、次のようにしてもよい。例えば、制御部10は、前面タッチセンサ51の検出する操作点の表す座標から、時間軸においてこの操作点の次に検出された操作点の表す座標へ向かう方向を、座標どうしを結んだ線分の数だけ求める。そして制御部10は、求めた各々の方向がX軸に対してなす角度を合計すると、この合計した値を求めた方向の数で除算した値を求める。そして制御部10は、この求めた値をX軸に対してなす角度として持つ方向を、表示装置100の前面に対するドラッグ操作の方向と特定する。また、そのほかの方法として、制御部10は、前面タッチセンサ51の検出する操作点の表す座標から、時間軸においてこの操作点の次に検出された操作点の表す座標へ向かう方向を、座標どうしを結んだ線分の数だけ求める。そして制御部10は、求めた方向の各々についてX軸に対してなす角度を求める。制御部10は、求めた角度のうち統計的に最も多い角度をX軸に対してなす方向を、表示装置100の前面に対するドラッグ操作の方向と特定する。いずれにおいても、表示装置100の背面に対するドラッグ操作の方向については、前面タッチセンサ51を背面タッチセンサ52に読み替えればよい。なお、X軸に対してなす角度の代わりにY軸に対してなす角度を用いてもよい。
<Modification 6>
The method of specifying the direction of the drag operation with respect to the front surface of the display device 100 and the direction of the drag operation with respect to the back surface of the display device 100 are not limited to those described in the embodiment, and may be as follows. For example, the control unit 10 determines the direction from the coordinates represented by the operation point detected by the front touch sensor 51 to the coordinates represented by the operation point detected next to this operation point on the time axis, by a line segment connecting the coordinates. Find as many as And the control part 10 calculates | requires the value which divided | segmented this total value by the number of the calculated | required directions, if the angle which each calculated | required each makes with respect to an X-axis is totaled. Then, the control unit 10 specifies a direction having the obtained value as an angle formed with respect to the X axis as a drag operation direction with respect to the front surface of the display device 100. As another method, the control unit 10 determines the direction from the coordinate represented by the operation point detected by the front touch sensor 51 to the coordinate represented by the operation point detected next to the operation point on the time axis. Find the number of line segments that connect And the control part 10 calculates | requires the angle made with respect to the X-axis about each of the calculated | required direction. The control unit 10 identifies the direction in which the statistically largest angle among the obtained angles is the X-axis as the direction of the drag operation with respect to the front surface of the display device 100. In any case, the front touch sensor 51 may be read as the back touch sensor 52 with respect to the direction of the drag operation with respect to the back surface of the display device 100. An angle formed with respect to the Y axis may be used instead of the angle formed with respect to the X axis.

<変形例7>
実施形態において、表示装置100の前面に対するドラッグ操作の方向と表示装置100の背面に対するドラッグ操作の方向とが逆向きである条件は、前面に対するドラッグ操作の方向に対して、背面に対するドラッグ操作の方向が正反対の方向成分を持ち、且つ、前面に対するドラッグ操作の大きさに対して、正反対の方向成分の大きさが占める割合が予め決められた閾値以上である、というものであった。
前面に対するドラッグ操作の方向と背面に対するドラッグ操作の方向とが逆向きである条件は、上記の例に限らない。例えば、表示装置100の前面に対するドラッグ操作の方向に対して、表示装置100の背面に対するドラッグ操作の方向が正反対の方向成分を持つという条件さえ満たせば、制御部10は、前面に対するドラッグ操作の方向と背面に対するドラッグ操作の方向とが逆向きであると判断するようにしてもよい。また、表示装置100の前面に対するドラッグ操作の方向に対して、表示装置100の背面に対するドラッグ操作の方向が正反対の方向成分を持ち、且つ、前面に対するドラッグ操作の方向と背面に対するドラッグ操作の方向とが成す角度のうち、広いほうの角度が、所定の範囲内である場合に、制御部10は、前面に対するドラッグ操作の方向と背面に対するドラッグ操作の方向とが逆向きであると判断するようにしてもよい。ここで上記所定の範囲内の角度とは、例えば「150°以上180°以下」というように、少なくとも180°を含む範囲であり、パラメータとして予め記憶部20に記憶されている。
<Modification 7>
In the embodiment, the condition that the direction of the drag operation with respect to the front surface of the display device 100 is opposite to the direction of the drag operation with respect to the back surface of the display device 100 is that the direction of the drag operation with respect to the back surface is the direction of the drag operation with respect to the front surface. Has a diametrically opposite direction component, and the ratio of the diametrically opposite direction component to the size of the drag operation on the front surface is equal to or greater than a predetermined threshold.
The condition that the direction of the drag operation on the front surface and the direction of the drag operation on the back surface are opposite is not limited to the above example. For example, if the condition that the direction of the drag operation with respect to the back surface of the display device 100 has a diametrically opposite direction component with respect to the direction of the drag operation with respect to the front surface of the display device 100 is satisfied, the control unit 10 It may be determined that the direction of the drag operation with respect to the back is opposite. In addition, the direction of the drag operation with respect to the front surface of the display device 100 has a direction component opposite to the direction of the drag operation with respect to the back surface of the display device 100, and the direction of the drag operation with respect to the front surface and the direction of the drag operation with respect to the back surface When the wider angle is within a predetermined range, the control unit 10 determines that the direction of the drag operation with respect to the front surface and the direction of the drag operation with respect to the back surface are opposite to each other. May be. Here, the angle within the predetermined range is a range including at least 180 °, for example, “150 ° or more and 180 ° or less”, and is stored in advance in the storage unit 20 as a parameter.

<変形例8>
本発明は、表示装置以外にも、この表示装置における表示を制御するための方法、及びコンピュータをこの表示装置として機能させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。
<Modification 8>
In addition to the display device, the present invention can be understood as a method for controlling display on the display device and a program for causing a computer to function as the display device. Such a program may be provided in the form of a recording medium such as an optical disk storing the program, or may be provided in the form of being downloaded to a computer via the Internet or the like and installed and used.

10…制御部、20…記憶部、21…番組表データ、22…回転量テーブル、30…操作部、31…操作子、40…表示部、41…3Dディスプレイ、50…検出部、51…前面タッチセンサ、52…背面タッチセンサ、60…通信部、70…バス、100…表示装置、200…表示面、300,300a,300b…指、400…オブジェクト群、500,600…回転軸、710…前面に対するドラッグ操作の方向、720…背面に対するドラッグ操作の方向、730…正反対の方向成分   DESCRIPTION OF SYMBOLS 10 ... Control part, 20 ... Memory | storage part, 21 ... Program guide data, 22 ... Rotation amount table, 30 ... Operation part, 31 ... Operation element, 40 ... Display part, 41 ... 3D display, 50 ... Detection part, 51 ... Front Touch sensor, 52 ... rear touch sensor, 60 ... communication unit, 70 ... bus, 100 ... display device, 200 ... display surface, 300, 300a, 300b ... finger, 400 ... object group, 500, 600 ... rotation axis, 710 ... Direction of drag operation on the front surface, 720 ... Direction of drag operation on the back surface, 730 ... Opposite direction component

Claims (7)

筐体と、
前記筐体の前面に設けられた表示面に画像を表示する表示手段と、
前記表示面に対する第1の操作及び前記筐体の背面に対する第2の操作を検出する検出手段と、
幅方向、高さ方向及び奥行き方向を持つオブジェクトを、前記表示手段に立体的に表示させる表示制御手段と、
前記第1の操作の向かう方向及び前記第2の操作の向かう方向を特定する方向特定手段とを備え、
前記表示制御手段は、
前記方向特定手段により特定された前記第1の操作の向かう方向と、前記方向特定手段により特定された前記第2の操作の向かう方向とが逆向きである場合に、前記オブジェクトの前記奥行き方向における手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該オブジェクトの前記奥行き方向の奥側の部分が、前記第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させる
ことを特徴とする表示装置。
A housing,
Display means for displaying an image on a display surface provided on the front surface of the housing;
Detecting means for detecting a first operation on the display surface and a second operation on the rear surface of the housing;
Display control means for stereoscopically displaying an object having a width direction, a height direction, and a depth direction on the display means;
Direction specifying means for specifying the direction of the first operation and the direction of the second operation;
The display control means includes
When the direction of the first operation specified by the direction specifying means and the direction of the second operation specified by the direction specifying means are opposite, the object in the depth direction Rotate the object so that the front part moves in the direction of the first operation and the back part of the object in the depth direction moves in the direction of the second operation. A display device characterized by being displayed.
前記オブジェクトは、幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表である
ことを特徴とする請求項1に記載の表示装置。
The display device according to claim 1, wherein the object is a table in which information is arranged in each of a width direction, a height direction, and a depth direction.
前記表に含まれる複数の情報のうち、前記検出手段により検出された第1の操作に対応する前記表示面の領域に表示されている情報を特定する情報特定手段を備え、
前記表示制御手段は、
前記情報特定手段によって情報が特定された場合において、前記方向特定手段により特定された前記第1の操作の向かう方向と、前記方向特定手段により特定された前記第2の操作の向かう方向とが逆向きであるときに、
前記情報特定手段によって特定された情報及び当該情報と関連し且つ当該情報とは異なる内容の情報が、立体的な図形の各面に配置されているものとして表示させ、さらに、当該図形の前記手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該図形の前記奥側の部分が、前記第2の操作の向かう方向に動くように、当該図形を回転させて表示させる
ことを特徴とする請求項2に記載の表示装置。
Of the plurality of information included in the table, comprising information specifying means for specifying information displayed in the area of the display surface corresponding to the first operation detected by the detecting means,
The display control means includes
When the information is specified by the information specifying unit, the direction of the first operation specified by the direction specifying unit is opposite to the direction of the second operation specified by the direction specifying unit. When it is facing
The information specified by the information specifying means and the information related to the information and different from the information are displayed as being arranged on each surface of the three-dimensional figure, and further before the figure. Rotate and display the graphic so that the side portion moves in the direction toward the first operation and the back side portion of the graphic moves in the direction toward the second operation The display device according to claim 2.
前記表示制御手段は、
前記第1の操作の操作量及び前記第2の操作の操作量に応じた回転量で、前記情報特定手段により特定された情報を回転させて表示させる
ことを特徴とする請求項3に記載の表示装置。
The display control means includes
The information specified by the information specifying unit is rotated and displayed by a rotation amount corresponding to the operation amount of the first operation and the operation amount of the second operation. Display device.
前記表に含まれる複数の情報のうち、前記第1の操作又は前記第2の操作に対応する前記表示面の領域に表示されている情報を含んで前記高さ方向及び前記幅方向に配列された情報群を特定する情報群特定手段を備え、
前記表示制御手段は、
前記検出手段により前記第1の操作が検出された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、前記検出手段により前記第2の操作が検出された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させる
ことを特徴とする請求項2〜4のいずれか1項に記載の表示装置。
Among the plurality of pieces of information included in the table, the information is displayed in the height direction and the width direction including information displayed in the area of the display surface corresponding to the first operation or the second operation. Provided with information group specifying means for specifying the information group,
The display control means includes
When the first operation is detected by the detecting means, the information group specified by the information group specifying means is moved and displayed on the back side in the depth direction in the table, and the detecting means When the second operation is detected, the information group specified by the information group specifying unit is moved and displayed on the front side in the depth direction in the table. 5. The display device according to any one of 4.
筐体の前面に表示面が設けられた表示装置が行う表示制御方法であって、
幅方向、高さ方向及び奥行き方向を持つオブジェクトを、前記表示面に立体的に表示させる第1の表示制御工程と、
前記表示面に対する第1の操作及び前記筐体の背面に対する第2の操作を検出する検出工程と、
前記第1の操作の向かう方向及び前記第2の操作の向かう方向をそれぞれ特定する方向特定工程と、
前記方向特定工程により特定された前記第1の操作の向かう方向と、前記方向特定工程により特定された前記第2の操作の向かう方向とが逆向きである場合に、前記オブジェクトの前記奥行き方向における手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該オブジェクトの前記奥行き方向の奥側の部分が、前記第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させる第2の表示制御工程と
を備えることを特徴とする表示制御方法。
A display control method performed by a display device having a display surface on a front surface of a housing,
A first display control step of stereoscopically displaying an object having a width direction, a height direction, and a depth direction on the display surface;
A detection step of detecting a first operation on the display surface and a second operation on the back surface of the housing;
A direction specifying step for specifying the direction of the first operation and the direction of the second operation,
The direction of the first operation specified by the direction specifying step and the direction of the second operation specified by the direction specifying step are opposite to each other in the depth direction of the object. Rotate the object so that the front part moves in the direction of the first operation and the back part of the object in the depth direction moves in the direction of the second operation. And a second display control step for displaying.
筐体、当該筐体の前面に設けられた表示面に画像を表示する表示手段及び前記表示面に対する第1の操作及び前記筐体の背面に対する第2の操作を検出する検出手段を備えたコンピュータに、
幅方向、高さ方向及び奥行き方向を持つオブジェクトを、前記表示面に立体的に表示させる第1の表示制御工程と、
前記第1の操作の向かう方向及び前記第2の操作の向かう方向を特定する方向特定工程と、
前記方向特定工程により特定された前記第1の操作の向かう方向と、前記方向特定工程により特定された前記第2の操作の向かう方向とが逆向きである場合に、前記オブジェクトの前記奥行き方向における手前側の部分が、前記第1の操作の向かう方向に動き、且つ、当該オブジェクトの前記奥行き方向の奥側の部分が、前記第2の操作の向かう方向に動くように、当該オブジェクトを回転させて表示させる第2の表示制御工程と
を実行させるためのプログラム。
A computer comprising: a housing; display means for displaying an image on a display surface provided on the front surface of the housing; and a detection means for detecting a first operation on the display surface and a second operation on the back surface of the housing In addition,
A first display control step of stereoscopically displaying an object having a width direction, a height direction, and a depth direction on the display surface;
A direction specifying step for specifying the direction of the first operation and the direction of the second operation;
The direction of the first operation specified by the direction specifying step and the direction of the second operation specified by the direction specifying step are opposite to each other in the depth direction of the object. Rotate the object so that the front part moves in the direction of the first operation and the back part of the object in the depth direction moves in the direction of the second operation. And a second display control step for displaying the program.
JP2011117006A 2011-05-25 2011-05-25 Display device, display control method, and program Expired - Fee Related JP5710381B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011117006A JP5710381B2 (en) 2011-05-25 2011-05-25 Display device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011117006A JP5710381B2 (en) 2011-05-25 2011-05-25 Display device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2012247838A true JP2012247838A (en) 2012-12-13
JP5710381B2 JP5710381B2 (en) 2015-04-30

Family

ID=47468265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011117006A Expired - Fee Related JP5710381B2 (en) 2011-05-25 2011-05-25 Display device, display control method, and program

Country Status (1)

Country Link
JP (1) JP5710381B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008340A (en) * 2011-06-27 2013-01-10 Kyocera Corp Portable terminal device, program, and display control method
JP2014127782A (en) * 2012-12-25 2014-07-07 Kyocera Corp Portable terminal device, lock release method, and program
JP2014126949A (en) * 2012-12-25 2014-07-07 Kyocera Corp Portable terminal equipment, screen control method and program
JP2015022625A (en) * 2013-07-22 2015-02-02 アルプス電気株式会社 Input device
US9298306B2 (en) * 2012-04-12 2016-03-29 Denso Corporation Control apparatus and computer program product for processing touchpad signals
JP2016518643A (en) * 2013-03-13 2016-06-23 ガナリラ、エルエルシー System and method for presenting and finding relationships between information units
US10503779B2 (en) 2012-04-18 2019-12-10 Ganalila, Llc Association mapping game
JP2020510254A (en) * 2017-02-27 2020-04-02 バーリント ゲーザ Smart device with display allowing simultaneous multifunctional operation of displayed information and / or data

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169197A (en) * 1999-12-08 2001-06-22 Nec Corp Electronic program guide display controller, method therefor and recording medium with control program recorded thereon
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
US20110065478A1 (en) * 2009-09-14 2011-03-17 Junhee Kim Mobile terminal and method of setting items using the same
JP2011070609A (en) * 2009-09-28 2011-04-07 Fujitsu Ltd Information terminal device with touch panel, method and program for controlling display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001169197A (en) * 1999-12-08 2001-06-22 Nec Corp Electronic program guide display controller, method therefor and recording medium with control program recorded thereon
US20100277420A1 (en) * 2009-04-30 2010-11-04 Motorola, Inc. Hand Held Electronic Device and Method of Performing a Dual Sided Gesture
EP2282256A1 (en) * 2009-08-04 2011-02-09 Deutsche Telekom AG Electronic device and method for controlling an electronic device
US20110065478A1 (en) * 2009-09-14 2011-03-17 Junhee Kim Mobile terminal and method of setting items using the same
JP2011070609A (en) * 2009-09-28 2011-04-07 Fujitsu Ltd Information terminal device with touch panel, method and program for controlling display

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013008340A (en) * 2011-06-27 2013-01-10 Kyocera Corp Portable terminal device, program, and display control method
US9298306B2 (en) * 2012-04-12 2016-03-29 Denso Corporation Control apparatus and computer program product for processing touchpad signals
US10503779B2 (en) 2012-04-18 2019-12-10 Ganalila, Llc Association mapping game
US11361024B2 (en) 2012-04-18 2022-06-14 Ganalila, Llc Association mapping game
JP2014127782A (en) * 2012-12-25 2014-07-07 Kyocera Corp Portable terminal device, lock release method, and program
JP2014126949A (en) * 2012-12-25 2014-07-07 Kyocera Corp Portable terminal equipment, screen control method and program
JP2016518643A (en) * 2013-03-13 2016-06-23 ガナリラ、エルエルシー System and method for presenting and finding relationships between information units
US11079901B2 (en) 2013-03-13 2021-08-03 Ganalila, Llc Systems and methods for presenting and discovering relationships between information units
JP2015022625A (en) * 2013-07-22 2015-02-02 アルプス電気株式会社 Input device
JP2020510254A (en) * 2017-02-27 2020-04-02 バーリント ゲーザ Smart device with display allowing simultaneous multifunctional operation of displayed information and / or data
JP7245167B2 (en) 2017-02-27 2023-03-23 バーリント ゲーザ Smart devices with displays that allow simultaneous multifunctional operation of displayed information and/or data

Also Published As

Publication number Publication date
JP5710381B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP5710381B2 (en) Display device, display control method, and program
US10789760B2 (en) Focus guidance within a three-dimensional interface
US10652515B2 (en) Information processing apparatus, stereoscopic display method, and program
US9703446B2 (en) Zooming user interface frames embedded image frame sequence
JP5638896B2 (en) Display control program, display control device, display control system, and display control method
US9218113B2 (en) Information processing device, information processing method and program
KR101815020B1 (en) Apparatus and Method for Controlling Interface
US9330489B2 (en) Mobile apparatus displaying a 3D image comprising a plurality of layers and display method thereof
CN104115096A (en) Display apparatus and method of changing screen mode using the same
US20130009891A1 (en) Image processing apparatus and control method thereof
TW201336294A (en) Stereoscopic imaging system and method thereof
US9432652B2 (en) Information processing apparatus, stereoscopic display method, and program
US8988500B2 (en) Information processing apparatus, stereoscopic display method, and program
US20150033157A1 (en) 3d displaying apparatus and the method thereof
US9986225B2 (en) Techniques for cut-away stereo content in a stereoscopic display
US9483878B2 (en) Contextual editing using variable offset surfaces
JP5734732B2 (en) Display device, display control method, and program
US20150042621A1 (en) Method and apparatus for controlling 3d object
US20210278954A1 (en) Projecting inputs to three-dimensional object representations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150304

R150 Certificate of patent or registration of utility model

Ref document number: 5710381

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees