JP2012238162A - Display device, display control method and program - Google Patents

Display device, display control method and program Download PDF

Info

Publication number
JP2012238162A
JP2012238162A JP2011106428A JP2011106428A JP2012238162A JP 2012238162 A JP2012238162 A JP 2012238162A JP 2011106428 A JP2011106428 A JP 2011106428A JP 2011106428 A JP2011106428 A JP 2011106428A JP 2012238162 A JP2012238162 A JP 2012238162A
Authority
JP
Japan
Prior art keywords
display
information
displayed
user
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011106428A
Other languages
Japanese (ja)
Other versions
JP5734732B2 (en
Inventor
Taketaka Irukayama
剛堂 入鹿山
Shohei Yoshida
祥平 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2011106428A priority Critical patent/JP5734732B2/en
Publication of JP2012238162A publication Critical patent/JP2012238162A/en
Application granted granted Critical
Publication of JP5734732B2 publication Critical patent/JP5734732B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a virtual commonality between an operation by a user and a movement of an image included in a table at the time of being changed, when the table including a plurality of pieces of information arranged therein is displayed with the contents partially changed in accordance with the operation by the user.SOLUTION: A display device has a display surface 200 that includes a date, a channel and a broadcasting time in axis directions, respectively, and displays rectangular parallelepiped objects each three-dimensionally showing an individual program. When a user carries out a touch operation specifying an object with a finger 300, a control unit 10 determines a moving amount of the object based on an acceleration applied to a display device 100 by the touch operation. Subsequently, the control unit 10 moves and displays the specified object in accordance with the determined moving amount. As a result, an object including contents with a date different from that before the touch operation is displayed foremost in a group of objects arranged in the axis direction of date including the specified object.

Description

本発明は、表示装置に表示されている内容を操作に応じて制御する技術に関する。   The present invention relates to a technique for controlling contents displayed on a display device according to an operation.

表示装置において、テレビ放送やラジオ放送の番組表を表す画像を立体的に見えるように表示させる技術が提案されている。特許文献1には、表示面にタッチセンサを備えた表示装置において、ユーザがその表示面をタッチすると、番組表の画像を、放送局別に表示させたり、日付別に表示させたり、指定された時間帯別に表示させたりする仕組みが開示されている。   In a display device, a technique for displaying an image representing a program table of a television broadcast or a radio broadcast so that it can be viewed stereoscopically has been proposed. In Patent Document 1, in a display device having a touch sensor on a display surface, when a user touches the display surface, an image of a program guide is displayed for each broadcast station, displayed for each date, or a specified time. A mechanism for displaying by band is disclosed.

特開2010−45860号公報JP 2010-45860 A

特許文献1に記載の技術では、放送局別、日付別、あるいは指定された時間帯別、といった、それぞれ異なる属性に注目して番組表の画像を表示させるべく、その画像全体が回転する仕組みとなっている。このため、例えば、ユーザが、特定の日付の番組表を見ながら、一部の時間帯については異なる日付の番組の内容を確認する、といった使い方ができないという問題がある。さらに、このように番組表に含まれる内容の一部について日付などを変えることをユーザが表示装置に指示するときに、その番組表が立体的に表示されているということを生かして、ユーザの操作と、番組表の画像が変更されるときの画像の動きとの間に体感的な共通性があると、ユーザにとっては使いやすい。   In the technique described in Patent Document 1, the entire image is rotated so as to display an image of a program guide by paying attention to different attributes such as by broadcasting station, by date, or by a specified time zone. It has become. For this reason, for example, there is a problem that the user cannot check the contents of a program with a different date for a part of the time zone while viewing the program table with a specific date. Further, when the user instructs the display device to change the date or the like for a part of the content included in the program guide, the user can take advantage of the fact that the program guide is displayed in three dimensions. If there is a sensory commonality between the operation and the movement of the image when the image of the program guide is changed, it is easy for the user to use.

本発明は上述の背景に鑑みてなされたものであり、複数の情報が配列された表の一部の内容をユーザの操作に応じて変更して表示する場合に、ユーザの操作と、表の画像が変更されるときの画像の動きとの間に体感的な共通性をもたせることを目的とする。   The present invention has been made in view of the above-described background, and when the contents of a part of a table in which a plurality of pieces of information are arranged are changed and displayed according to a user operation, the user operation and the table The purpose is to provide a common sense of experience with the movement of the image when the image is changed.

上述した課題を解決するために、本発明は、筐体と、前記筐体の前面に設けられた表示面に画像を表示する表示手段と、ユーザにより前記表示面に対して指定された位置及びユーザにより前記筐体の背面に対して指定された位置を検出する指定位置検出手段と、幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表を、前記表示手段に立体的に表示させる表示制御手段と、前記表に含まれる複数の情報のうち、前記指定位置検出手段により検出された位置に対応する前記表示面の領域に表示されている情報を含んで前記奥行き方向に配列された情報群を特定する情報群特定手段とを備え、前記表示制御手段は、ユーザにより前記表示面に対して位置が指定された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、ユーザにより前記筐体の背面に対して前記位置が指定された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させることを特徴とする表示装置を提供する。   In order to solve the above-described problem, the present invention provides a housing, display means for displaying an image on a display surface provided on the front surface of the housing, a position designated by the user with respect to the display surface, and A designated position detecting means for detecting a position designated by the user with respect to the rear surface of the housing, and a table in which information is arranged in each of the width direction, the height direction, and the depth direction are three-dimensionally displayed on the display means. Display control means to be arranged and information displayed in the area of the display surface corresponding to the position detected by the designated position detection means among a plurality of pieces of information included in the table and arranged in the depth direction Information group specifying means for specifying the information group, and the display control means, when the position is specified with respect to the display surface by the user, the information group specified by the information group specifying means, In the table When the position is designated with respect to the back surface of the housing by the user, the information group specified by the information group specifying means is displayed in the table. Provided is a display device characterized in that it is displayed by being moved to the front side in the depth direction.

好ましい態様において、前記ユーザが前記表示面又は前記筐体の背面に対して位置を指定する操作の速度又は強度に応じた物理量を検出する物理量検出手段を備え、前記表示制御手段は、前記物理量検出手段により検出された物理量に応じた量だけ、前記情報群特定手段により特定された情報群を移動させて表示させることを特徴とする。   In a preferred aspect, the apparatus includes physical quantity detection means for detecting a physical quantity according to a speed or intensity of an operation in which the user designates a position with respect to the display surface or the back surface of the housing, and the display control means includes the physical quantity detection The information group specified by the information group specifying means is moved and displayed by an amount corresponding to the physical quantity detected by the means.

また、好ましい態様において、前記ユーザが前記表示面又は前記筐体の背面に対して位置を指定する操作の速度又は強度に応じた物理量を検出する物理量検出手段を備え、前記表示制御手段は、前記物理量検出手段により検出された物理量に応じて、前記情報群特定手段により特定された情報群を前記奥行き方向の奥側又は手前側に移動させる速度を変えて表示させることを特徴とする。   In a preferred aspect, the apparatus further comprises a physical quantity detection unit that detects a physical quantity according to a speed or intensity of an operation in which the user designates a position with respect to the display surface or the back surface of the housing, and the display control unit includes the display control unit, According to the physical quantity detected by the physical quantity detecting means, the information group specified by the information group specifying means is displayed at a different speed for moving the information group to the far side or the near side in the depth direction.

また、好ましい態様において、前記表示制御手段は、前記情報群特定手段により閾値以上の期間にわたって同じ情報群が特定されている場合、前記情報群特定手段により特定された情報群を当該期間にわたって移動させ続ける表示を行うことを特徴とする。   In a preferred embodiment, the display control means moves the information group specified by the information group specifying means over the period when the same information group is specified over a period equal to or greater than a threshold by the information group specifying means. It is characterized by performing a continuous display.

また、好ましい態様において、前記筐体の背面に対して位置を指定するためにユーザにより用いられる操作手段が当該筐体の背面に接していないときに、前記筐体の背面において前記操作手段に最も近い位置を検出する近接位置検出手段と、前記近接位置検出手段によって検出された位置に対応する前記表示面の領域に表示されている情報を特定する情報特定手段とを備え、前記表示制御手段は、前記情報特定手段により特定された情報の表示態様を他の情報の表示態様と異ならせて表示させ、前記指定位置検出手段は、前記筐体の背面において前記操作手段が接した位置を検出することを特徴とする。   Further, in a preferred aspect, when the operation means used by the user for designating a position with respect to the back surface of the housing is not in contact with the back surface of the housing, Proximity position detection means for detecting a close position; and information specifying means for specifying information displayed in the area of the display surface corresponding to the position detected by the proximity position detection means; and the display control means The display mode of the information specified by the information specifying unit is displayed differently from the display mode of other information, and the designated position detection unit detects a position where the operation unit is in contact with the rear surface of the casing. It is characterized by that.

また、好ましい態様において、前記表示制御手段は、前記表示手段に表示されている複数の情報のうち前記表示面に対して指定され前記指定位置検出手段により検出された位置に対応する情報を特定し、所定の操作が行われると、当該情報が表記された画像と、当該情報と関連し且つ当該情報とは異なる内容の情報が表記された画像とを表示させることを特徴とする。   Further, in a preferred aspect, the display control means specifies information corresponding to a position designated with respect to the display surface and detected by the designated position detection means among a plurality of pieces of information displayed on the display means. When a predetermined operation is performed, an image in which the information is described and an image in which information related to the information and content different from the information are displayed are displayed.

また、本発明は、筐体の前面に表示面が設けられた表示装置が行う表示制御方法であって幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表の一部を前記表示面に立体的に表示させる第1の表示制御工程と、ユーザにより前記表示面に対して指定された位置及びユーザにより前記筐体の背面に対して指定された位置を検出する指定位置検出工程と、前記表に含まれる複数の情報のうち、前記指定位置検出工程において検出された位置に対応する前記表示面の領域に表示されている情報を含んで前記奥行き方向に配列された情報群を特定する情報群特定工程と、ユーザにより前記表示面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、ユーザにより前記筐体の背面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させる第2の表示制御工程とを備えることを特徴とする表示制御方法を提供する。   Further, the present invention is a display control method performed by a display device having a display surface provided on a front surface of a housing, wherein a part of a table in which information is arranged in each of a width direction, a height direction, and a depth direction is displayed. A first display control step for three-dimensionally displaying on a surface; a designated position detecting step for detecting a position designated by the user with respect to the display surface and a position designated by the user with respect to the back surface of the housing; The information group arranged in the depth direction including the information displayed in the area of the display surface corresponding to the position detected in the designated position detection step is specified among the plurality of information included in the table And when the position is specified with respect to the display surface by the user, the information group specified in the information group specifying step is moved to the back side in the depth direction in the table. display When the user designates a position with respect to the back surface of the housing, the information group specified in the information group specifying step is moved to the front side in the depth direction in the table and displayed. And a display control process. The display control method is provided.

また、本発明は、筐体、当該筐体の前面に設けられた表示面に画像を表示する表示手段及びユーザにより前記表示面に対して指定された位置及びユーザにより前記筐体の背面に対して指定された位置を検出する指定位置検出手段を備えたコンピュータに、幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表の一部を前記表示面に立体的に表示させる第1の表示制御工程と、前記表に含まれる複数の情報のうち、前記指定位置検出手段によって検出された位置に対応する前記表示面の領域に表示されている情報を含んで前記奥行き方向に配列された情報群を特定する情報群特定工程と、ユーザにより前記表示面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、ユーザにより前記筐体の背面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させる第2の表示制御工程とを実行させるためのプログラムとしても提供し得る。   The present invention also provides a housing, display means for displaying an image on a display surface provided on the front surface of the housing, a position designated by the user with respect to the display surface, and a back surface of the housing by the user. First, a computer having designated position detecting means for detecting a designated position is displayed in a three-dimensional manner on a part of a table on which information is arranged in the width direction, the height direction, and the depth direction. The display control step, and among the plurality of pieces of information included in the table, the information displayed in the area of the display surface corresponding to the position detected by the designated position detecting means is arranged in the depth direction. When the position is specified with respect to the display surface by the user, the information group specified in the information group specifying step is the depth direction in the table. When the position is designated with respect to the rear surface of the housing by the user, the information group specified in the information group specifying step is displayed on the near side in the depth direction in the table. It can also be provided as a program for executing the second display control process of moving to and displaying.

本発明によれば、複数の情報が配列された表の一部の内容をユーザの操作に応じて変更して表示する場合に、ユーザの操作と、表の画像が変更されるときの画像の動きとの間に体感的な共通性をもたせることが可能となる。   According to the present invention, when the contents of a part of a table in which a plurality of pieces of information are arranged are changed and displayed according to the user's operation, the user's operation and the image when the table image is changed are displayed. It is possible to have a sensual commonality with movement.

表示装置の外観を表す正面図Front view showing appearance of display device 表示装置のハードウェア構成を表すブロック図Block diagram showing hardware configuration of display device 番組表データの内容を表す図Diagram showing contents of program guide data 移動量テーブルの内容を表す図Diagram showing contents of movement amount table 快適立体視範囲を説明する模式図Schematic diagram explaining comfortable stereoscopic vision range 表示面において3D表示される番組表を表す図The figure showing the program schedule displayed in 3D on a display surface 表示装置の前面へのタッチ操作による表示内容の変更を表す図The figure showing change of display contents by touch operation to the front of the display device 表示装置の背面へのタッチ操作による表示内容の変更を表す図The figure showing change of the display contents by touch operation to the back of the display device タッチ操作による表示内容の変更の一例を表す図The figure showing an example of the change of the display contents by touch operation タッチ操作による表示内容の変更の一例を表す図The figure showing an example of the change of the display contents by touch operation タッチ操作による表示内容の変更の一例を表す図The figure showing an example of the change of the display contents by touch operation タッチ操作による表示内容の変更の一例を表す図The figure showing an example of the change of the display contents by touch operation タッチ操作による表示内容を変更する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which changes the display content by touch operation 制御部の機能的構成を表すブロック図Block diagram showing the functional configuration of the control unit 変形例1に係るオブジェクトの展開表示を表す図The figure showing the expansion | deployment display of the object which concerns on the modification 1. 変形例1に係るオブジェクトを展開表示する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which expands and displays the object which concerns on the modification 1. 変形例2に係る移動速度テーブルの内容を表す図The figure showing the contents of the movement speed table concerning modification 2 変形例4に係るオブジェクトの移動に伴う表示内容の変更を表す図The figure showing the change of the display content accompanying the movement of the object which concerns on the modification 4

以下、本発明の実施形態について説明する。
<実施形態>
<構成>
図1は、表示装置100の外観を表す正面図である。図1(a)は、表示装置100を前面から見た様子を表しており、図1(b)は、表示装置100を背面からみた様子を表している。表示装置100は例えば板状の六面体である筐体を備えており、表示装置100の前面とは、筐体を構成する複数の面のうち、ユーザによって表示装置100が使われるときにそのユーザに対向する面のことであり、表示装置100の背面とは、筐体において前面の反対側にある面のことである。表示装置100は、その前面に、長方形の表示面200と、表示面200の周囲に設けられた操作子31とを有するコンピュータであり、例えば、スマートフォン、タブレット端末、PDA(Personal Digital Assistant)、無線LAN(Local Area Network)機能を有する情報端末、ゲーム機、パーソナルコンピュータ、及び通信機能を有するリモコンなどの電子機器である。ユーザは、表示面200及び操作子31を指や操作具で触れたり押したりすることで、表示装置100を操作することができるようになっている。また、表示装置100の背面には、背面タッチセンサ52及び背面近接センサ53が設けられている。
Hereinafter, embodiments of the present invention will be described.
<Embodiment>
<Configuration>
FIG. 1 is a front view illustrating an appearance of the display device 100. FIG. 1A illustrates a state in which the display device 100 is viewed from the front, and FIG. 1B illustrates a state in which the display device 100 is viewed from the back. The display device 100 includes a housing that is, for example, a plate-shaped hexahedron, and the front surface of the display device 100 refers to a user when the display device 100 is used by a user among a plurality of surfaces constituting the housing. It is an opposing surface, and the back surface of the display device 100 is a surface on the opposite side of the front surface in the housing. The display device 100 is a computer having a rectangular display surface 200 and an operation element 31 provided around the display surface 200 on the front surface. For example, a smartphone, a tablet terminal, a PDA (Personal Digital Assistant), a wireless An electronic device such as an information terminal having a LAN (Local Area Network) function, a game machine, a personal computer, and a remote controller having a communication function. The user can operate the display device 100 by touching or pushing the display surface 200 and the operation element 31 with a finger or an operation tool. In addition, a back touch sensor 52 and a back proximity sensor 53 are provided on the back of the display device 100.

図2は、表示装置100のハードウェア構成を表すブロック図である。表示装置100は、制御部10、記憶部20、操作部30、表示部40、検出部50通信部60、及び図示せぬ計時機能を有し、これらの各部はバス70を介して接続されている。制御部10は、CPU(Central Processing Unit)などの演算装置と、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリを有している。制御部10において、CPUが、ROMや記憶部20に記憶されているコンピュータプログラムを読み出しRAMにロードして実行することにより、表示装置100の各部を制御する。操作部30は、操作子31を備えており、ユーザによる操作内容を表す操作信号を制御部10に出力する。   FIG. 2 is a block diagram illustrating a hardware configuration of the display device 100. The display device 100 includes a control unit 10, a storage unit 20, an operation unit 30, a display unit 40, a detection unit 50, a communication unit 60, and a clocking function (not shown), and these units are connected via a bus 70. Yes. The control unit 10 includes an arithmetic device such as a CPU (Central Processing Unit) and a memory such as a RAM (Random Access Memory) and a ROM (Read Only Memory). In the control unit 10, the CPU controls each unit of the display device 100 by reading out a computer program stored in the ROM or the storage unit 20, loading it into the RAM, and executing it. The operation unit 30 includes an operation element 31 and outputs an operation signal representing the content of an operation performed by the user to the control unit 10.

表示部40は、3D(Dimension)ディスプレイ41を備え、制御部10による制御の下で、ユーザの操作に応じた画像やメニュー画像等の各種画像を3Dディスプレイ41の表示面に表示する。3Dディスプレイ41は、2次元の画像を表示するほか、3次元の画像をも表示し得るディスプレイである。以下、3次元の画像を表示することを3D表示という。3D表示の方式としては、単に2次元の斜視図に陰影をつけて立体的に見せる方法のほか、視差バリア方式や、レンチキュラーレンズ方式、スリット状の偏光フィルターと偏光メガネを用いた方式や液晶シャッターによる時分割方式などが知られている。この3Dディスプレイ41においては、上述の方式うち、どれを用いてもよいが、ここでは、視差バリア方式、つまり、スリットを利用して、左右の眼に対し、視差を持つ映像を入射させることでユーザがあたかも立体的な画像を見ていると感じられるような仕組みを用いている。つまり、ユーザは、3Dディスプレイ41に表示される画像が3Dディスプレイ41の表示面から飛び出しているかのように見えたり、反対に、3Dディスプレイ41の表示面の奥のほうに引っ込んでいるかのように見えたりする。以降において、3Dディスプレイ41に表示される画像について、飛び出しているかのように見えたり、反対に、奥に引っ込んでいるかのように見えたりする、その飛び出しているまたは引っ込んでいる度合いのことを、画像の立体視度合い量という。この立体視度合い量において、特に画像の飛び出しに関する度合いのことを、画像の飛び出し量といい、画像の引っ込みに関する度合いのことを、画像の奥行き量という。   The display unit 40 includes a 3D (Dimension) display 41, and displays various images such as images and menu images according to user operations on the display surface of the 3D display 41 under the control of the control unit 10. The 3D display 41 is a display that can display a two-dimensional image as well as a three-dimensional image. Hereinafter, displaying a three-dimensional image is referred to as 3D display. As a 3D display method, in addition to a method of making a three-dimensional view by simply shading a two-dimensional perspective view, a parallax barrier method, a lenticular lens method, a method using a slit-shaped polarizing filter and polarizing glasses, and a liquid crystal shutter The time-sharing method by is known. Any of the above-described methods may be used for the 3D display 41, but here, a parallax barrier method, that is, by using a slit to enter an image having parallax to the left and right eyes. A mechanism that allows the user to feel as if viewing a stereoscopic image is used. That is, the user looks as if the image displayed on the 3D display 41 is protruding from the display surface of the 3D display 41, or conversely, the user is retracted toward the back of the display surface of the 3D display 41. I can see it. Hereinafter, with respect to the image displayed on the 3D display 41, it looks as if it is popping out, or on the contrary, it looks as if it is retracting in the back, the degree of the popping out or retracting, This is called the amount of stereoscopic vision of the image. In this stereoscopic vision amount, the degree relating to the popping out of the image is called the amount of popping out the image, and the degree relating to the retraction of the image is called the depth amount of the image.

この3Dディスプレイ41は、長方形の形状であり、XY直交座標系が設定されている。このXY直交座標系の原点Oは、3Dディスプレイ41の四隅のうちのいずれか(図1(a)においては左上隅)に位置している。この原点Oを含む、3Dディスプレイ41の2辺のうち、一方の辺(ここでは3Dディスプレイ41の短手方向の辺)がX軸に対応し、他方の辺(ここでは3Dディスプレイ41の長手方向の辺)がY軸に対応している。これらX軸及びY軸と直交する直線をZ軸とする。つまり、X軸及びY軸で表される平面に対して、Z軸は飛び出し方向及び奥行き方向の座標軸に相当する。図1に示す座標記号のうち、内側が白い円の中に黒い円を描いた記号は、紙面奥側から手前側に向かう矢印を表している。つまり、Z軸は、手前側が正方向であり、奥側が負方向である。表示部40は、筐体の前面に設けられた表示面に画像を表示する表示手段に相当する。   The 3D display 41 has a rectangular shape, and an XY orthogonal coordinate system is set. The origin O of the XY orthogonal coordinate system is located at one of the four corners of the 3D display 41 (the upper left corner in FIG. 1A). Of the two sides of the 3D display 41 including the origin O, one side (here, the side in the short direction of the 3D display 41) corresponds to the X axis, and the other side (here, the longitudinal direction of the 3D display 41). ) Corresponds to the Y axis. A straight line perpendicular to the X axis and the Y axis is taken as a Z axis. That is, with respect to the plane represented by the X axis and the Y axis, the Z axis corresponds to the coordinate axis in the pop-out direction and the depth direction. Among the coordinate symbols shown in FIG. 1, a symbol in which a black circle is drawn in a circle with a white inside represents an arrow heading from the back side to the near side. That is, the front side of the Z axis is the positive direction, and the back side is the negative direction. The display unit 40 corresponds to display means for displaying an image on a display surface provided on the front surface of the housing.

検出部50は、前面タッチセンサ51、背面タッチセンサ52、背面近接センサ53、及び加速度センサ54を備えており、各センサが検出した結果を表す検出信号を制御部10に出力する。タッチセンサには、主に抵抗皮膜型と静電容量型があり、他にも光センサを用いたものなどがある。前面タッチセンサ51には、これらのうちいずれを用いてもよいが、本実施形態では、抵抗皮膜型を用いる例を示す。前面タッチセンサ51は、図1(a)における表示面200において、3Dディスプレイ41の上(Z軸正方向側)に積層され、且つ、3Dディスプレイ41の全体を覆うように重ねられた状態で配置されており、その大きさ及び形状は、前述した3Dディスプレイ41の大きさ及び形状とほぼ同じである。この前面タッチセンサ51は、光を透過する材料で構成されており、3Dディスプレイ41に表示された画像は前面タッチセンサ51を透過してユーザに視認されるようになっている。背面タッチセンサ52は、図1(b)における表示装置100の背面において、3Dディスプレイ41のちょうど裏側に位置するように配置されており、その大きさ及び形状は、前述した3Dディスプレイ41の大きさ及び形状とほぼ同じである。なお、前面タッチセンサに静電容量型のタッチセンサを用いる場合は、3Dディスプレイ41の下(Z軸負方向側)に前面タッチセンサが積層されることになる。   The detection unit 50 includes a front touch sensor 51, a back touch sensor 52, a back proximity sensor 53, and an acceleration sensor 54, and outputs a detection signal indicating a result detected by each sensor to the control unit 10. There are mainly a resistive film type and a capacitance type touch sensor, and there are other types using a photosensor. Any of these may be used for the front touch sensor 51, but in this embodiment, an example using a resistance film type is shown. The front touch sensor 51 is stacked on the 3D display 41 (Z-axis positive direction side) on the display surface 200 in FIG. 1A and is stacked so as to cover the entire 3D display 41. The size and shape of the 3D display 41 are substantially the same as those described above. The front touch sensor 51 is made of a material that transmits light, and an image displayed on the 3D display 41 passes through the front touch sensor 51 and is visually recognized by the user. The back touch sensor 52 is disposed so as to be located on the back side of the 3D display 41 on the back of the display device 100 in FIG. 1B, and the size and shape of the back touch sensor 52 is the size of the 3D display 41 described above. And almost the same as the shape. When a capacitive touch sensor is used as the front touch sensor, the front touch sensor is stacked below the 3D display 41 (Z-axis negative direction side).

前述した3Dディスプレイ41と同様に、この前面タッチセンサ51及び背面タッチセンサ52にも、XY直交座標系が設定されている。つまり、XY直交座標系の原点Oは、前面タッチセンサ51の四隅のうちのいずれか(ここでは図1(a)の左上隅)及び背面タッチセンサ52の四隅のうちのいずれか(ここでは図1(b)の右上隅)に位置している。この原点Oを含む、前面タッチセンサ51及び背面タッチセンサ52の2辺のうち、一方の辺(ここでは前面タッチセンサ51及び背面タッチセンサ52の短手方向の辺)がX軸に対応し、他方の辺(ここでは前面タッチセンサ51及び背面タッチセンサ52の長手方向の辺)がY軸に対応している。前面タッチセンサ51及び背面タッチセンサ52は、指が接触したか否かを所定のサンプリング周期で検出し、その接触位置(操作点という)を示す座標を検出結果として制御部10へ出力する。前面タッチセンサ51及び背面タッチセンサ52は、ユーザにより表示面に対して指定された位置及びユーザにより筐体の背面に対して指定された位置を検出する指定位置検出手段に相当する。   Similar to the 3D display 41 described above, the front touch sensor 51 and the back touch sensor 52 also have an XY orthogonal coordinate system. In other words, the origin O of the XY orthogonal coordinate system is one of the four corners of the front touch sensor 51 (here, the upper left corner of FIG. 1A) and one of the four corners of the rear touch sensor 52 (here, FIG. 1 (b) in the upper right corner). Of the two sides of the front touch sensor 51 and the back touch sensor 52 including the origin O, one side (here, the side in the short direction of the front touch sensor 51 and the back touch sensor 52) corresponds to the X axis, The other side (here, the side in the longitudinal direction of the front touch sensor 51 and the back touch sensor 52) corresponds to the Y axis. The front touch sensor 51 and the back touch sensor 52 detect whether or not a finger has touched in a predetermined sampling cycle, and output coordinates indicating the contact position (referred to as an operation point) to the control unit 10 as a detection result. The front touch sensor 51 and the rear touch sensor 52 correspond to designated position detection means for detecting a position designated by the user with respect to the display surface and a position designated by the user with respect to the rear surface of the housing.

このように、3Dディスプレイ41、前面タッチセンサ51、及び背面タッチセンサ52には、共通のXY直交座標系が設定されており、前面タッチセンサ51及び背面タッチセンサ52によって出力される操作点の位置と、3Dディスプレイ41によって表示される画像の位置はいずれも、共通のXY直交座標系で規定されるようになっている。これらのうち、3Dディスプレイ41及び前面タッチセンサ51によって表示面200が構成されている。なお、3Dディスプレイ自体にタッチセンサの機能が組み込まれて構成される態様もあり、本発明はこれらの態様も含むものであるが、本実施形態では上述したように3Dディスプレイ及びタッチセンサが、それぞれ分離している構成を例に挙げて説明を行う。   As described above, a common XY orthogonal coordinate system is set for the 3D display 41, the front touch sensor 51, and the rear touch sensor 52, and the positions of the operation points output by the front touch sensor 51 and the rear touch sensor 52 are set. And the position of the image displayed on the 3D display 41 is defined by a common XY orthogonal coordinate system. Among these, the display surface 200 is configured by the 3D display 41 and the front touch sensor 51. In addition, there is an aspect in which the function of the touch sensor is incorporated in the 3D display itself, and the present invention includes these aspects, but in the present embodiment, as described above, the 3D display and the touch sensor are separated from each other. The configuration will be described as an example.

背面近接センサ53は、図1(b)における表示装置100の背面において、背面タッチセンサ52の上に積層され、且つ、背面タッチセンサ52の全体を覆うように重ねられた状態で配置されている。背面近接センサ53の大きさ及び形状は、前述した前面タッチセンサ51、背面タッチセンサ52及び3Dディスプレイ41の大きさ及び形状とほぼ同じである。つまり、表示装置100の前面の垂直な方向から見たとき、前面タッチセンサ51、背面タッチセンサ52及び背面近接センサ53と表示面200とはちょうど重なっている。前述した3Dディスプレイ41、前面タッチセンサ51、及び背面タッチセンサ52と同様に、この背面近接センサ53にも、XY直交座標系が設定されている。つまり、XY直交座標系の原点Oは、背面近接センサ53の四隅のうちのいずれか(ここでは図1(b)の右上隅)に位置している。この原点Oを含む、背面近接センサ53の2辺のうち、一方の辺(ここでは背面近接センサ53の短手方向の辺)がX軸に対応し、他方の辺(ここでは背面近接センサ53の長手方向の辺)がY軸に対応している。   The back proximity sensor 53 is stacked on the back touch sensor 52 on the back surface of the display device 100 in FIG. 1B and is placed so as to cover the entire back touch sensor 52. . The size and shape of the back proximity sensor 53 are substantially the same as the size and shape of the front touch sensor 51, the back touch sensor 52, and the 3D display 41 described above. That is, when viewed from the vertical direction of the front surface of the display device 100, the front touch sensor 51, the back touch sensor 52, the back proximity sensor 53, and the display surface 200 are exactly overlapped. Similar to the 3D display 41, the front touch sensor 51, and the back touch sensor 52 described above, the back proximity sensor 53 is also set with an XY orthogonal coordinate system. That is, the origin O of the XY orthogonal coordinate system is located at one of the four corners of the back proximity sensor 53 (here, the upper right corner of FIG. 1B). Of the two sides of the back proximity sensor 53 including the origin O, one side (here, the side in the short direction of the back proximity sensor 53) corresponds to the X axis, and the other side (here, the back proximity sensor 53). The side in the longitudinal direction corresponds to the Y axis.

近接センサには、赤外線型や超音波型、静電容量型などがあり、これらのうちいずれを背面近接センサ53に用いてもよいが、ここでは、赤外線型のセンサを用いる例を示す。背面近接センサ53は、赤外線を発する複数の発光素子と、光を受け取って電気信号に変換する複数の受光素子を備えており、これらがXY直交座標系に従って配置されている。発光素子から発せられた赤外線が、測定対象物に当たって反射してくると、受光素子は、反射した赤外線を受光する。測定対象物が近いほど反射光の強度が増すため、背面近接センサ53は、受光素子の受光強度に基づいて表示装置100と対象物との距離、つまりZ座標値を測ると、X座標、Y座標及びZ座標の各座標値を検出結果として制御部10に出力する。以下、ユーザが表示面200(より正確にはユーザから見て最も手前側に設けられている前面タッチセンサ51)及び表示装置100の背面(より正確にはユーザから見て最も奥側に設けられている背面近接センサ53)に触れて行う操作のことを、タッチ操作という。このタッチ操作は、ユーザが表示面200上または背面タッチセンサ52上の任意の位置を指定する操作である。なお、タッチセンサは、指のほかスタイラスペンなどの操作具などのあらゆる操作手段の接触を検出するものもあるが、以下では指によるタッチ操作を例に上げて説明を行う。   The proximity sensor includes an infrared type, an ultrasonic type, and a capacitance type, and any of these may be used for the back side proximity sensor 53. Here, an example using an infrared type sensor is shown. The back proximity sensor 53 includes a plurality of light emitting elements that emit infrared rays and a plurality of light receiving elements that receive light and convert it into electrical signals, and these are arranged according to an XY orthogonal coordinate system. When the infrared ray emitted from the light emitting element hits the object to be measured and is reflected, the light receiving element receives the reflected infrared ray. Since the intensity of the reflected light increases as the measurement object is closer, the back proximity sensor 53 measures the distance between the display device 100 and the object, that is, the Z coordinate value based on the light reception intensity of the light receiving element. Each coordinate value of the coordinate and the Z coordinate is output to the control unit 10 as a detection result. Hereinafter, the user is provided with the display surface 200 (more precisely, the front touch sensor 51 provided on the most front side when viewed from the user) and the back surface of the display device 100 (more precisely, when located on the farthest side when viewed from the user). The operation performed by touching the back proximity sensor 53) is referred to as a touch operation. This touch operation is an operation in which the user designates an arbitrary position on the display surface 200 or the rear touch sensor 52. Note that some touch sensors detect the contact of any operation means such as a finger and an operation tool such as a stylus pen. Hereinafter, a touch operation with a finger will be described as an example.

加速度センサ54は、ユーザが表示装置100に対してタッチ操作を行った際に、表示装置100に生じる加速度を検出し、その検出結果を制御部10へ出力する。この加速度は、ユーザのタッチ操作によって表示装置100に力が加えられて生じるものであるから、このタッチ操作におけるタッチの速さまたは強さに応じたものとなる。つまり、加速度センサ54は、ユーザが表示面又は筐体の背面に対して位置を指定する操作の速度又は強度に応じた物理量を検出する物理量検出手段に相当する。   The acceleration sensor 54 detects an acceleration generated in the display device 100 when the user performs a touch operation on the display device 100, and outputs the detection result to the control unit 10. Since the acceleration is generated by applying a force to the display device 100 by the user's touch operation, the acceleration corresponds to the speed or strength of the touch in the touch operation. That is, the acceleration sensor 54 corresponds to a physical quantity detection unit that detects a physical quantity according to the speed or intensity of an operation in which the user designates a position with respect to the display surface or the back of the housing.

通信部60は、ネットワークを介して通信ノード(図示せず)とデータ通信を行う。記憶部20は、例えばフラッシュメモリやハードディスク等の不揮発性の記憶手段であり、各種のデータを記憶している。記憶部20に記憶されているデータには、制御部10が実行するプログラムに加え、番組表データ21、移動量テーブル22、及び各種の閾値が含まれる。番組表データ21は、例えばテレビ放送の番組表を表すデータであり、各番組の放送チャンネル、放送日時、番組名など、番組に関する各種情報を含んでいる。制御部10は、通信部60を用いて図示せぬサーバ装置から番組表データ21を取得すると、これを記憶部20に記憶させる。移動量テーブル22は、ユーザのタッチ操作に伴って加速度センサ54が検出する加速度と、表示面200に表示される画像のオブジェクト(以降、単にオブジェクトという)の移動量とが対応付けて記述されたものである。ユーザによりタッチ操作が行われると、制御部10は、表示装置100に加えられた加速度に応じて、タッチ操作により指定されたオブジェクトをZ軸方向に移動させて表示させる。つまり、オブジェクトの移動量とは、オブジェクトのZ軸方向への移動量のことである。ここでいう画像のオブジェクトとは、番組表に含まれる各々の情報を画像として表したものである。   The communication unit 60 performs data communication with a communication node (not shown) via a network. The storage unit 20 is a nonvolatile storage unit such as a flash memory or a hard disk, and stores various data. The data stored in the storage unit 20 includes a program table data 21, a movement amount table 22, and various threshold values in addition to a program executed by the control unit 10. The program guide data 21 is data representing, for example, a TV broadcast program guide, and includes various information related to the program, such as the broadcast channel, broadcast date and time, and program name of each program. When the control unit 10 acquires the program guide data 21 from a server device (not shown) using the communication unit 60, the control unit 10 stores the program guide data 21 in the storage unit 20. The movement amount table 22 describes the acceleration detected by the acceleration sensor 54 in accordance with the user's touch operation and the movement amount of an object of an image displayed on the display surface 200 (hereinafter simply referred to as an object). Is. When a touch operation is performed by the user, the control unit 10 causes the object specified by the touch operation to move in the Z-axis direction for display according to the acceleration applied to the display device 100. That is, the amount of movement of the object is the amount of movement of the object in the Z-axis direction. Here, the image object represents each piece of information included in the program guide as an image.

図3は、番組表データ21の内容を表す図である。図に示すように、番組表データ21は、「日付」、「ch(チャンネル)」、「開始時刻」、「終了時刻」、及び「番組名」といった複数の項目を含んでいる。「日付」は、番組が放送される予定の日付を表した情報である。「ch」は、テレビ番組を放送する各放送局に割り当てられたチャンネルを表した情報である。「開始時刻」は、番組の放送が開始される予定の時刻を表した情報である。「終了時刻」は、番組の放送が終了する予定の時刻を表した情報である。「番組名」は、放送される番組に割り当てられた名称を表した情報である。図は、例えば、「2012/4/1」の「1ch」では「9:00」から「9:58」の時間帯に、「ニュース・気象情報」という番組が放送される予定であることを表している。このように、「日付」、「ch」、「開始時刻」、及び「終了時刻」といった情報の組み合わせごとに、放送される予定の番組が一意に特定される。   FIG. 3 is a diagram showing the contents of the program guide data 21. As shown in the figure, the program guide data 21 includes a plurality of items such as “date”, “ch (channel)”, “start time”, “end time”, and “program name”. “Date” is information representing the date on which the program is scheduled to be broadcast. “Ch” is information representing a channel assigned to each broadcasting station that broadcasts a television program. “Start time” is information representing the time at which the broadcast of the program is scheduled to start. “End time” is information representing the time at which the program broadcast is scheduled to end. “Program name” is information representing a name assigned to a broadcast program. The figure shows that, for example, in “2012/4/1” “1ch”, a program “News / Weather Information” is scheduled to be broadcast from “9:00” to “9:58”. Represents. In this way, a program to be broadcast is uniquely specified for each combination of information such as “date”, “ch”, “start time”, and “end time”.

図4は、移動量テーブル22の内容を表す図である。移動量テーブル22は、「加速度」及び「オブジェクト移動量」といった複数の項目からなる。「加速度」という項目には、予め区分された加速度(m/s2)の範囲が記述されている。「オブジェクト移動量」という項目には、上述した、表示面200に表示されるオブジェクトのZ軸方向への移動量が記述されている。例えば、加速度が「2以上3未満」のとき、オブジェクト移動量は「2」であるから、制御部10は、指定されたオブジェクトを、オブジェクト2個分だけZ軸方向(正方向又は負方向)に移動させて表示面200に表示させる。さらに詳細を説明すると、ユーザにより表示装置100の前面(すなわち表示面200)に対してタッチ操作が行われた場合、制御部10は、タッチ操作で指定されたオブジェクトを、番組表において、決定したオブジェクト移動量の数だけ背面に移動させる。また、ユーザにより表示装置100の背面に対してタッチ操作が行われた場合、制御部10は、タッチ操作で指定されたオブジェクトを、番組表において、決定したオブジェクト移動量の数だけ前面に移動させる。 FIG. 4 is a diagram showing the contents of the movement amount table 22. The movement amount table 22 includes a plurality of items such as “acceleration” and “object movement amount”. In the item “acceleration”, a range of acceleration (m / s 2 ) classified in advance is described. In the item “object movement amount”, the movement amount of the object displayed on the display surface 200 in the Z-axis direction is described. For example, when the acceleration is “2 or more and less than 3”, the object movement amount is “2”. Therefore, the control unit 10 moves the designated object by two objects in the Z-axis direction (positive direction or negative direction). To be displayed on the display surface 200. More specifically, when the user performs a touch operation on the front surface of the display device 100 (that is, the display surface 200), the control unit 10 determines the object specified by the touch operation in the program guide. Move to the back by the number of object movements. When the user performs a touch operation on the back surface of the display device 100, the control unit 10 moves the object specified by the touch operation to the front by the number of determined object movement amounts in the program guide. .

次に、ユーザが3D画像を快適に視認できるとされている快適立体視範囲について説明する。図5は、快適立体視範囲を説明する模式図であり、表示装置100を表示面200に平行な方向から見たときの様子を表している。ここで、ユーザの視点から見たときの表示面200の水平方向のサイズをs[cm]、ディスプレイの水平方向の解像度をr[pixel]、左右の目の間隔(眼間距離)をe[cm]、表示面200から左右の目を結んだ線分までの距離(視距離)をd[cm]、左右の目でそれぞれ知覚される映像間の水平方向のズレ(視差)における最大視差をDmax[Pixel]、最小視差をDmin[Pixel]とする。そして、仮想的な3次元空間において、最も大きい飛び出し量を持つ点と、最も大きい奥行き量を持つ点と、表示面200上の点とに対する、左右の目の輻輳角をそれぞれα、β、γとする。   Next, the comfortable stereoscopic range in which the user can comfortably visually recognize the 3D image will be described. FIG. 5 is a schematic diagram for explaining the comfortable stereoscopic view range, and shows a state when the display device 100 is viewed from a direction parallel to the display surface 200. Here, when viewed from the user's viewpoint, the horizontal size of the display surface 200 is s [cm], the horizontal resolution of the display is r [pixel], and the distance between eyes (interocular distance) is e [ cm], the distance (viewing distance) from the display surface 200 to the line connecting the left and right eyes is d [cm], and the maximum parallax in the horizontal shift (parallax) between the images perceived by the left and right eyes, respectively. Let Dmax [Pixel] and the minimum parallax be Dmin [Pixel]. Then, in the virtual three-dimensional space, the convergence angles of the left and right eyes with respect to the point having the largest pop-out amount, the point having the largest depth amount, and the point on the display surface 200 are α, β, γ, respectively. And

快適立体視範囲の定義は様々であるが、一般的に最もよく用いられる定義としては、3DC安全ガイドラインで述べられている、「視差角|α―γ|及び|β−γ|が1度以内であること」が挙げられる。従って、この定義に則ると、眼間距離e及び視距離dが決まれば、最大飛び出し量p及び最大奥行き量qが求まる。具体的な求め方は、以下のようなものである。まず、図5からも明らかなように、以下の数式(a)及び(b)が成り立つ。
(a)γ=2tan-1(e/2d)
(b)α=2tan-1(e/(2d−2p))
従って、α=γ+1を快適立体視範囲の飛び出し上限として、これを上記の数式に代入することで最大飛び出し量pが求まる。最大奥行き量qも同様に求めることができる。このときの最大飛び出し量p〜最大奥行き量qの範囲が、快適立体視範囲であるから、表示装置100においては、制御部10が、この快適立体視範囲の範囲内で、画像の立体視度合い量を制御することとなる。なお、この最大飛び出し量p及び最大奥行き量qは、一般的には記憶部20に記憶されているプログラムに記述されているが、ユーザの眼間距離eや視距離dをリアルタイムで取得できる場合は、上記数式に則って、制御部10が動的に変化させてもよい。
There are various definitions of the comfortable stereoscopic range, but the most commonly used definition is “parallax angles | α−γ | and | β−γ | within 1 degree as described in the 3DC safety guidelines. "Is". Therefore, according to this definition, if the interocular distance e and the viewing distance d are determined, the maximum pop-out amount p and the maximum depth amount q are obtained. The specific method is as follows. First, as is clear from FIG. 5, the following formulas (a) and (b) are established.
(A) γ = 2 tan −1 (e / 2d)
(B) α = 2 tan -1 (e / (2d-2p))
Accordingly, α = γ + 1 is used as the upper limit of the comfortable stereoscopic viewing range, and this is substituted into the above formula to obtain the maximum pop-out amount p. The maximum depth q can be obtained in the same manner. Since the range of the maximum pop-out amount p to the maximum depth amount q at this time is the comfortable stereoscopic view range, in the display device 100, the control unit 10 has the stereoscopic view degree of the image within the comfortable stereoscopic view range. The amount will be controlled. The maximum pop-out amount p and the maximum depth amount q are generally described in a program stored in the storage unit 20, but the user's interocular distance e and visual distance d can be acquired in real time. May be dynamically changed by the control unit 10 in accordance with the above formula.

<動作>
以下の動作説明において、まず、表示面200に表示される画像がユーザの操作に応じてどのように変化するかということについて述べる。図6は、表示面200において3D表示される番組表を表す図である。図6は、図3に示される番組表データ21の内容に基づいて表示面200に3D表示される内容を表している。このとき表示面200に3D表示されるのは番組表の内容の一部に過ぎず、図6の例では、4/1から4/3の午前8時から午前11時までの放送チャンネル1,2,4,5,6の番組表が表示されている。図6に示されるように、表示面200のX軸方向にはチャンネルが割り当てられ、Y軸方向には時刻が割り当てられ、Z軸方向には日付が割り当てられる。なお、図示の便宜上、日付は「年」を省略した「月日」のみを表示している。
<Operation>
In the following description of the operation, first, how the image displayed on the display surface 200 changes according to the user's operation will be described. FIG. 6 is a diagram showing a program guide displayed in 3D on the display surface 200. FIG. 6 shows the content displayed in 3D on the display surface 200 based on the content of the program guide data 21 shown in FIG. At this time, 3D display on the display surface 200 is only a part of the contents of the program guide. In the example of FIG. 6, the broadcast channel 1 from 4/1 to 4/3 from 8 am to 11 am 2, 4, 5, and 6 program guides are displayed. As shown in FIG. 6, a channel is assigned to the display surface 200 in the X-axis direction, a time is assigned to the Y-axis direction, and a date is assigned to the Z-axis direction. For convenience of illustration, only “month and day” in which “year” is omitted is displayed as the date.

これらの3軸で表される3次元の座標系において、図3に示される番組表データ21に含まれる番組に関する情報が、直方体を構成する面に表記された状態で表示される。このとき、これらの各直方体は、X,Y,Z座標系において、番組表データ21に記述された日付、チャンネル、開始時刻、及び終了時刻に対応した位置に配置されている。このように番組に関する情報が表記された直方体が、前述した画像のオブジェクトに相当する。   In the three-dimensional coordinate system represented by these three axes, information related to the program included in the program guide data 21 shown in FIG. 3 is displayed in a state where the information is written on the surfaces constituting the rectangular parallelepiped. At this time, these rectangular parallelepipeds are arranged at positions corresponding to the date, channel, start time, and end time described in the program guide data 21 in the X, Y, Z coordinate system. The rectangular parallelepiped in which the information related to the program is written corresponds to the image object described above.

各オブジェクトは番組表データ21の内容に基づいているから、以下では、例えば或るオブジェクトによって表される番組が放送される日付のことを「オブジェクトが持つ日付」といったり、或る日付に放送される番組を表すオブジェクトのことを「日付がXXのオブジェクト」といったりすることがある。これは、オブジェクトと、チャンネル、開始時刻及び終了時刻との関係を言うときも同様である。   Since each object is based on the contents of the program guide data 21, in the following, for example, a date on which a program represented by a certain object is broadcast is referred to as “date held by the object” or broadcast on a certain date. An object representing a program to be recorded may be referred to as an “object whose date is XX”. The same applies to the relationship between the object and the channel, start time and end time.

最前面に表示されるオブジェクトの表示面200と平行な面のうち、前面に位置する面が表す領域には、この領域に含まれるXY座標系に基づく座標値が割り当てられている。同様に、最背面に表示されるオブジェクトの表示面200と平行な面のうち、背面に位置する面が表す領域には、この領域に含まれるXY座標系に基づく座標値が割り当てられている。つまり、最前面に表示されるオブジェクトごと及び最背面に表示されるオブジェクトごとに、XY座標系に基づく座標値が複数割り当てられていることとなる。   Of the plane parallel to the display surface 200 of the object displayed on the foreground, a coordinate value based on the XY coordinate system included in this region is assigned to the region represented by the plane located in the foreground. Similarly, a coordinate value based on the XY coordinate system included in this area is assigned to the area represented by the plane located on the back side of the plane parallel to the display surface 200 of the object displayed on the back side. That is, a plurality of coordinate values based on the XY coordinate system are assigned to each object displayed on the foreground and each object displayed on the backmost surface.

図6において、制御部10は、日付が「4/1」のオブジェクト群を最前面に表示している。ここでいう最前面に表示されるオブジェクト群とは、制御部10が表示面200にオブジェクト群を3D表示するときに、画像の飛出し量が最も大きいオブジェクト群のことである。日付が「4/1」のオブジェクト群の背面には、次の日付「4/2」のオブジェクト群が表示されている。ここでいう或るオブジェクト群の背面に表示されるオブジェクト群とは、或るオブジェクト群よりもオブジェクト1つ分だけ画像の飛出し量が小さいオブジェクト群、換言すれば、或るオブジェクト群よりもオブジェクト1つ分だけ画像の奥行き量が大きいオブジェクト群のことである。そして日付が「4/2」のオブジェクト群の背面には、次の日付「4/3」のオブジェクト群が表示されている。また、最背面に表示されるオブジェクト群とは、制御部10が表示面200にオブジェクト群を3D表示するときに、画像の飛出し量が最も小さいオブジェクト群、換言すれば画像の奥行き量が最も大きいオブジェクト群のことである。   In FIG. 6, the control unit 10 displays the object group with the date “4/1” on the foreground. The object group displayed in the foreground here is an object group having the largest image projection amount when the control unit 10 displays the object group in 3D on the display surface 200. On the back of the object group with the date “4/1”, the object group with the next date “4/2” is displayed. The object group displayed on the back of a certain object group here is an object group whose image projection amount is smaller by one object than a certain object group, in other words, an object group that is smaller than a certain object group. This is an object group having a large image depth amount by one. The object group of the next date “4/3” is displayed on the back of the object group of the date “4/2”. Further, the object group displayed on the rearmost surface is an object group with the smallest image projection amount when the control unit 10 displays the object group on the display surface 200 in 3D, in other words, the image depth amount is the smallest. A large group of objects.

一度に表示面200に3D表示されるZ軸方向におけるオブジェクトの数は、同時表示数というパラメータとして予め記憶部20に記憶されている。この同時表示数は、ユーザによって、操作部30を用いて所定の範囲内で任意に変更可能としてもよい。図6の場合では、この同時表示数に「3」の値が設定されている。また、図6においては、「4/1」を基準として(基準日という)、基準日のオブジェクトが最前面に表示され、その背面に、基準日より後の日付のオブジェクト群が表示されている。このように、基準日は、オブジェクト群全体において最前面に表示されるオブジェクト群の日付であり、パラメータとしてRAMに記憶されている。ここで、ユーザがタッチ操作によりオブジェクトを指定することで、変更前の基準日より後の日付のオブジェクトを最前面に表示させることや、変更前の基準日より前の日付のオブジェクトを最前面に表示させることが可能である。次に、このタッチ操作について詳細を説明する。   The number of objects in the Z-axis direction displayed in 3D on the display surface 200 at a time is stored in advance in the storage unit 20 as a parameter called the simultaneous display number. The number of simultaneous displays may be arbitrarily changed by the user within a predetermined range using the operation unit 30. In the case of FIG. 6, a value of “3” is set as the number of simultaneous displays. In FIG. 6, with reference to “4/1” (referred to as a reference date), the reference date object is displayed in the foreground, and an object group of dates after the reference date is displayed on the back side. . Thus, the reference date is the date of the object group displayed in the foreground in the entire object group, and is stored in the RAM as a parameter. Here, when the user specifies an object by touch operation, an object with a date after the reference date before the change is displayed in the foreground, or an object with a date before the reference date before the change is displayed in the foreground. It can be displayed. Next, details of this touch operation will be described.

図7は、表示装置100の前面へのタッチ操作による表示内容の変更を表す図である。図7は、図6に示される表示面200への表示内容の一部を拡大して表したものである。図7において、「4/1」が基準日としてRAMに記憶されている。また、図7上段において、ユーザは、表示面200に表示されるオブジェクトのうち、日付が「4/1」、チャンネルが「4」、開始時刻が「9:00」、終了時刻が「9:58」の番組表データに基づくオブジェクトを、表示面200上において指でタッチしている。このように、ユーザが表示面200上でオブジェクトを指定してタッチ操作を行うと、前面タッチセンサ51によりタッチが検出される。この検出に応じた制御部10は、操作点の座標値に表示されているオブジェクトを背面に移動させるとともに、基準日より前の日付のオブジェクトを最前面に表示させる。ここで、オブジェクトを何日分移動させるか、すなわちZ軸方向の移動量は、前述した移動量テーブル22の内容に基づいて制御部10が決定する。例えば、ユーザが表示面200上でオブジェクトを指定してタッチ操作を行ったときに検出された加速度が1.5(m/s2)である場合、この加速度は図4に示すように1以上2未満に相当するから、制御部10は、オブジェクトの移動量が「1」であると決定する。そして制御部10は、指定されたオブジェクトを1つだけ背面に移動させて表示させるとともに、未表示であった、基準日より1日前のオブジェクトを、最前面に表示させる。 FIG. 7 is a diagram illustrating a change in display content by a touch operation on the front surface of the display device 100. FIG. 7 is an enlarged view of a part of the display contents on the display surface 200 shown in FIG. In FIG. 7, “4/1” is stored in the RAM as the reference date. In the upper part of FIG. 7, among the objects displayed on the display surface 200, the user has the date “4/1”, the channel “4”, the start time “9:00”, and the end time “9: 58 ”is touched with a finger on the display surface 200. In this way, when the user designates an object on the display surface 200 and performs a touch operation, the front touch sensor 51 detects the touch. In response to this detection, the control unit 10 moves the object displayed at the coordinate value of the operation point to the back, and displays the object having a date before the reference date on the foreground. Here, how many days the object is moved, that is, the amount of movement in the Z-axis direction is determined by the control unit 10 based on the contents of the movement amount table 22 described above. For example, when the acceleration detected when the user designates an object on the display surface 200 and performs a touch operation is 1.5 (m / s 2 ), the acceleration is 1 or more as shown in FIG. Since it corresponds to less than 2, the control unit 10 determines that the amount of movement of the object is “1”. Then, the control unit 10 moves only one designated object to the back and displays it, and displays the object that has not been displayed one day before the reference date on the foreground.

また、RAMには、最前面に表示される各オブジェクトを含みZ軸方向に延びるオブジェクト郡ごとに、日付変更量なるパラメータが記憶されている。この日付変更量は、表示面200の最前面に表示される各々のオブジェクトの日付と、基準日との差分であって、上記オブジェクト群が基準日に対して何日分前後して表示されるかを表している。図7上段において、基準日は「4/1」であり、表示面200の最前面に表示される各々のオブジェクトに対応する日付変更量は「0」である。つまり、図7上段において、表示面200の最前面に表示されるオブジェクトは全て「4/1」に放送される番組に関するものである。ここで、例えば、上記のように表示装置100の前面に対するタッチ操作によりオブジェクト移動量が「1」と決定された場合、制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群に対応する日付変更量をRAM上で「0」から「−1」に更新する。この結果、変更後の表示内容を表す図7下段において、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、日付が「4/1」の指定されたオブジェクトが、オブジェクト1個分だけ背面に移動して表示され、未表示であった、日付が「3/31」のオブジェクトが最前面に表示されることとなる。つまり、日付変更量がマイナスの値は、基準日よりも過去であることを意味しており、日付変更量がプラスの値は、基準日よりも未来であることを意味している。   In addition, the RAM stores a parameter that is a date change amount for each object group that includes each object displayed in the foreground and extends in the Z-axis direction. This date change amount is the difference between the date of each object displayed on the forefront of the display surface 200 and the reference date, and the object group is displayed about how many days before and after the reference date. Represents. In the upper part of FIG. 7, the reference date is “4/1”, and the date change amount corresponding to each object displayed on the foreground of the display surface 200 is “0”. That is, in the upper part of FIG. 7, all the objects displayed on the foreground of the display surface 200 relate to a program broadcast on “4/1”. Here, for example, when the object movement amount is determined to be “1” by the touch operation on the front surface of the display device 100 as described above, the control unit 10 includes the specified object and the objects arranged in the Z-axis direction. The date change amount corresponding to the group is updated from “0” to “−1” on the RAM. As a result, in the lower part of FIG. 7 showing the display contents after the change, one object is designated as the object with the date “4/1” among the object group including the designated object and arranged in the Z-axis direction. The object whose date is “3/31” that has been displayed and moved to the back by the minute is displayed in the foreground. That is, a value with a negative date change amount means that it is in the past of the reference date, and a value with a positive date change amount means that it is in the future than the reference date.

さらにこのとき、制御部10は、同時表示数と同じ数だけのオブジェクトを一度に表示面200に表示させるため、上記オブジェクトの移動に伴い、同時表示数からはみ出したオブジェクトが表示面200に表示されないようにする。図7下段の例では、オブジェクトの移動量が「1」であるため、制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、最背面に表示されていた、日付が「4/3」のオブジェクトを消去して表示面200に表示させないようにする。   Further, at this time, since the control unit 10 displays the same number of objects as the simultaneous display number on the display surface 200 at a time, the object that protrudes from the simultaneous display number is not displayed on the display surface 200 as the object moves. Like that. In the example in the lower part of FIG. 7, since the movement amount of the object is “1”, the control unit 10 is displayed on the backmost among the group of objects including the designated object and arranged in the Z-axis direction. The object whose date is “4/3” is deleted so that it is not displayed on the display surface 200.

次に、図8は、表示装置100の背面へのタッチ操作による表示内容の変更を表す図である。図8は、図6に示される表示面200への表示内容の一部を拡大して表したものである。図8において「4/1」が基準日としてRAMに記憶されている。図8上段は、ユーザが、指300を用いて、表示面200に表示されるオブジェクトのうち、日付が「4/3」、チャンネルが「4」、開始時刻が「9:00」、終了時刻が「9:58」の番組表データに基づくオブジェクトを指定して、表示装置100の背面にタッチしていることを表している。   Next, FIG. 8 is a diagram illustrating a change in display content by a touch operation on the back surface of the display device 100. FIG. 8 is an enlarged view of a part of the display contents on the display surface 200 shown in FIG. In FIG. 8, “4/1” is stored in the RAM as the reference date. In the upper part of FIG. 8, among the objects displayed on the display surface 200 using the finger 300, the date is “4/3”, the channel is “4”, the start time is “9:00”, and the end time. Indicates that an object based on the program guide data “9:58” is designated and the back surface of the display device 100 is touched.

ここで、表示装置100の前面からタッチ操作を行うときには、表示面200に表示されているオブジェクトを視認しながら直接指定することができるため、ユーザにとっては、オブジェクトの指定が行いやすい。これに対して、表示装置100の背面に対してタッチ操作が行われるときには、どのオブジェクトを指定しているのかユーザにとっては分かりづらい。これに対して、ユーザが、表示装置100の背面に指300を移動させて、指300と表示装置100の背面との距離が所定の長さ以内になると、背面近接センサ53が、指300の近接を検出し、検出結果を制御部10に出力する。このとき指300は表示装置100の背面に接しておらず、背面近接センサ53は、表示装置100の背面において指300に最も近い位置を検出する。つまり、背面近接センサ53は、筐体の背面に対して位置を指定するためにユーザにより用いられる操作手段(ここでは指300)が当該筐体の背面に接していないときに、筐体の背面において操作手段に最も近い位置を検出する近接位置検出手段に相当する。   Here, when a touch operation is performed from the front surface of the display device 100, the object displayed on the display surface 200 can be directly specified while visually recognizing the object, so that the user can easily specify the object. On the other hand, when a touch operation is performed on the back surface of the display device 100, it is difficult for the user to know which object is designated. On the other hand, when the user moves the finger 300 to the back surface of the display device 100 and the distance between the finger 300 and the back surface of the display device 100 is within a predetermined length, the back surface proximity sensor 53 Proximity is detected, and the detection result is output to the control unit 10. At this time, the finger 300 is not in contact with the back surface of the display device 100, and the back surface proximity sensor 53 detects a position closest to the finger 300 on the back surface of the display device 100. In other words, the back surface proximity sensor 53 is provided on the back surface of the housing when the operating means (here, the finger 300) used by the user to specify the position with respect to the back surface of the housing is not in contact with the back surface of the housing. Corresponds to proximity position detection means for detecting a position closest to the operation means.

そして制御部10が、検出結果が表すXY座標系の座標値に基づいて、この座標値に対応して表示面200の最背面に表示されているオブジェクトを特定する。つまり、ここにおいて制御部10は、背面近接センサ53によって検出された位置に対応する表示面の領域に表示されている情報(ここではオブジェクト)を特定する情報特定手段として機能する。そして表示制御手段11として機能する制御部10は、特定したオブジェクトの色を、他のオブジェクトの色と変更して表示させるなど、表示態様を他のオブジェクトと異ならせて表示させる。これにより、ユーザは、どのオブジェクトを指定しているのか分かりやすくなる。ここで、上記所定の長さは、例えば1cmといった数値が、パラメータとして記憶部20に記憶されている。この値は、背面近接センサ53の近接検出可能な範囲内において、操作部30を用いてユーザにより設定可能としてもよい。表示態様を異ならせる方法は、このほかに、制御部10が、オブジェクトを点滅させて表示させたり、オブジェクトを囲うようなカーソルを表示させたりする方法であってもよい。   Based on the coordinate value of the XY coordinate system indicated by the detection result, the control unit 10 specifies the object displayed on the rearmost surface of the display surface 200 corresponding to the coordinate value. That is, here, the control unit 10 functions as information specifying means for specifying information (here, an object) displayed in the area of the display surface corresponding to the position detected by the back proximity sensor 53. And the control part 10 which functions as the display control means 11 displays the display mode differently from other objects, such as changing the color of the specified object from the color of another object, and displaying it. This makes it easy for the user to identify which object is specified. Here, as the predetermined length, a numerical value such as 1 cm is stored in the storage unit 20 as a parameter. This value may be set by the user using the operation unit 30 within a range in which proximity detection by the back surface proximity sensor 53 is possible. In addition to this, the method of changing the display mode may be a method in which the control unit 10 causes the object to blink and display, or displays a cursor surrounding the object.

ユーザが、オブジェクトを指定して表示装置100の背面にタッチ操作を行うと、背面タッチセンサ52によりタッチが検出される。この検出に応じた制御部10は、操作点の座標値に表示されているオブジェクトを前面に移動させるとともに、基準日より後ろの日付のオブジェクトを最前面に表示させる。ここで、オブジェクトを日付において何日分移動させるか、すなわちZ軸方向の移動量は、図7と同様にして決定される。例えば、ユーザが表示面200上でオブジェクトを指定してタッチ操作を行ったときに検出された加速度が2.6(m/s2)である場合、この加速度は図4に示すように2以上3未満に相当するから、制御部10は、オブジェクトの移動量が「2」であると決定する。そして制御部10は、指定されたオブジェクトを2つだけ前面に移動させて表示させるとともに、基準日より2日後のオブジェクトを、最前面に表示させる。 When the user designates an object and performs a touch operation on the back surface of the display device 100, the touch is detected by the back surface touch sensor 52. In response to this detection, the control unit 10 moves the object displayed at the coordinate value of the operation point to the front, and displays the object having a date after the reference date on the foreground. Here, how many days the object is moved on the date, that is, the amount of movement in the Z-axis direction is determined in the same manner as in FIG. For example, when the acceleration detected when the user designates an object on the display surface 200 and performs a touch operation is 2.6 (m / s 2 ), the acceleration is 2 or more as shown in FIG. Since it corresponds to less than 3, the control unit 10 determines that the amount of movement of the object is “2”. Then, the control unit 10 moves and displays only two specified objects to the front, and displays an object two days after the reference date on the foreground.

図8上段におけるタッチ操作では、制御部10によってオブジェクト移動量が「2」と決定されたものとする。このとき、制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群に設定され、RAMに記憶された日付変更量を「+2」に更新する。従って、変更後の表示内容を表す図8下段において、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、日付が「4/3」の指定されたオブジェクトが、オブジェクト2個分だけ前面に移動して表示されることで、最前面に表示されている。また、制御部10は、同時表示数と同じ数だけのオブジェクトを一度に表示面200に表示させるため、上記オブジェクトの移動に伴い同時表示数からはみ出すオブジェクトを表示面200に表示させないようにする。図8下段の例では、オブジェクトの移動量が「2」であるため、制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、最前面に表示されていた、日付が「4/1」のオブジェクトと、その背面に表示されていた、日付が「4/2」のオブジェクトとを、表示面200に表示させないようにする。また、これに伴い制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、未表示であった、日付が「4/4」及び「4/5」のオブジェクトを、日付が「4/3」のオブジェクトの背面に表示させる。   In the touch operation in the upper part of FIG. 8, it is assumed that the control unit 10 determines that the object movement amount is “2”. At this time, the control unit 10 sets the date change amount stored in the RAM to “+2”, which is set in the object group including the designated object and arranged in the Z-axis direction. Therefore, in the lower part of FIG. 8 showing the display content after the change, the designated object with the date “4/3” is included in the object group including the designated object and arranged in the Z-axis direction for two objects. It is displayed in the foreground by only moving to the front and being displayed. In addition, since the control unit 10 displays the same number of objects as the simultaneous display number on the display surface 200 at a time, the control unit 10 prevents the display surface 200 from displaying objects that protrude from the simultaneous display number as the object moves. In the example in the lower part of FIG. 8, since the movement amount of the object is “2”, the control unit 10 is displayed in the foreground among the object group including the designated object and arranged in the Z-axis direction. The object with the date “4/1” and the object with the date “4/2” displayed on the back side thereof are not displayed on the display surface 200. Accordingly, the control unit 10 selects the objects whose dates are “4/4” and “4/5” that have not been displayed from the group of objects including the designated object and arranged in the Z-axis direction. , The date of “4/3” is displayed behind the object.

このように、ユーザは、タッチ操作によって、オブジェクト単位で、表示面200の最前面に表示される内容を変更可能であるため、タッチ操作で指定されたオブジェクトの日付と、タッチ操作で指定されていないオブジェクトの日付とが、最前面において一致しない場合が生じる。この場合、例えば図7下段に示すように、制御部10が、タッチ操作で指定されたオブジェクトの前面に日付の文字列を表示させることで、このオブジェクトの日付と、タッチ操作で指定されていないオブジェクトの日付とが区別可能となる。図7下段においては、タッチ操作で指定されたオブジェクトの前面には、このオブジェクトの日付である「3/31」の文字列が表示されている。このような日付の文字列の表示は、表示装置100の背面に対してタッチ操作が行われた場合の図8下段においても同様である。   As described above, since the user can change the content displayed on the foreground of the display surface 200 in units of objects by the touch operation, the date of the object specified by the touch operation and the touch operation are specified. There may be a case where the date of a missing object does not match in the foreground. In this case, for example, as shown in the lower part of FIG. 7, the control unit 10 displays the date character string in front of the object specified by the touch operation, so that the date of the object is not specified by the touch operation. The date of the object can be distinguished. In the lower part of FIG. 7, a character string “3/31” that is the date of this object is displayed in front of the object designated by the touch operation. The display of the date character string is the same in the lower part of FIG. 8 when a touch operation is performed on the back surface of the display device 100.

また、ユーザがタッチ操作によってオブジェクトを指定した際に最前面に表示されているオブジェクトが持つ「開始時刻」と「終了時刻」との差分、すなわち放送時間が、例えば約1時間であり、このオブジェクトがいわゆる1時間番組を表すのに対して、オブジェクトの移動後において最前面に表示される同じ時間帯のオブジェクトが30分番組や2時間番組であったり、オブジェクトの移動後における同じ時間帯において複数のオブジェクトが跨っていたりする場合がある。このような場合に対して、制御部10は、次のような処理を行う。例えば、指定されたオブジェクトが持つ開始時刻から終了時刻までの間の時間帯と同じ時間帯に、オブジェクトの移動後における複数のオブジェクトが収まる場合、制御部10は、オブジェクトの移動後において、これら複数のオブジェクトを全て最前面に表示させる。例えば、指定されたオブジェクトが「9:00〜9:58」の時間帯に放送される1時間番組を表し、オブジェクトの移動後において、この時間帯に2つのオブジェクトが収まる場合、制御部10は、オブジェクトの移動後において、これら2つのオブジェクトを最前面に表示させる。   Further, when the user designates an object by a touch operation, the difference between the “start time” and the “end time” of the object displayed in the foreground, that is, the broadcast time is about 1 hour, for example. Represents a so-called one-hour program, but the object in the same time zone displayed in the foreground after the object is moved is a 30-minute program or a two-hour program, or a plurality of objects in the same time zone after the object is moved. May be straddling objects. In such a case, the control unit 10 performs the following process. For example, when a plurality of objects after the movement of the object fall within the same time zone between the start time and the end time of the designated object, the control unit 10 may change the plurality of objects after the movement of the object. Display all the objects in the foreground. For example, if the designated object represents a one-hour program that is broadcast in the time zone “9:00 to 9:58” and two objects fit in this time zone after the movement of the object, the control unit 10 After the object is moved, these two objects are displayed in the foreground.

図9は、タッチ操作による表示内容の変更の一例を表す図である。図9上段において、ユーザは指300を用いて、表示面200に表示されるオブジェクトのうち、日付が「4/1」、チャンネルが「4」、開始時刻が「10:00」、終了時刻が「10:55」の番組表データに基づくオブジェクトを指定して、表示装置100の前面にタッチしている。ここで、制御部10は、オブジェクト移動量を「1」であると決定したとする。このとき、図3に示すように、日付が「3/31」及びチャンネルが「4」で、「10:00〜10:55」の放送時間帯には、開始時刻が「10:00」及び終了時刻が「10:25」である「美術」という番組と、開始時刻が「10:30」及び終了時刻が「10:55」である「番組宣伝」という番組との2つの番組が含まれる。従って、図9下段に示すように、制御部10は、日付が「3/31」、チャンネルが「4」のオブジェクトのうち、開始時刻が「10:00」及び終了時刻が「10:25」である「美術」という番組のオブジェクトと、開始時刻が「10:30」及び終了時刻が「10:55」である「番組宣伝」という番組のオブジェクトとを最前面に表示させる。   FIG. 9 is a diagram illustrating an example of changing display content by a touch operation. In the upper part of FIG. 9, the user uses his / her finger 300 to display the date “4/1”, the channel “4”, the start time “10:00”, and the end time among the objects displayed on the display surface 200. An object based on the program guide data “10:55” is designated and the front surface of the display device 100 is touched. Here, it is assumed that the control unit 10 determines that the object movement amount is “1”. At this time, as shown in FIG. 3, the start time is “10:00” and “3/31”, the channel is “4”, and the broadcast time zone “10:00 to 10:55” is “10:00” Two programs are included: a program “art” whose end time is “10:25” and a program “program promotion” whose start time is “10:30” and whose end time is “10:55”. . Therefore, as shown in the lower part of FIG. 9, the control unit 10 determines that the start time is “10:00” and the end time is “10:25” among the objects with the date “3/31” and the channel “4”. The program object “art” and the program object “program advertisement” having the start time “10:30” and the end time “10:55” are displayed in the foreground.

また、変更後の基準日の、指定されたオブジェクトが持つ開始時刻から終了時刻までの間の時間帯と同じ時間帯に、複数のオブジェクトが全て収まらない場合、制御部10は、オブジェクトの移動後において、これら複数のオブジェクトのうち、指定されたオブジェクトの開始時刻以降で、より早い開始時刻を持つオブジェクトを最前面に表示させる。図10は、タッチ操作による表示内容の変更の一例を表す図である。図10上段において、ユーザは指300を用いて、表示面200に表示されるオブジェクトのうち、日付が「4/1」、チャンネルが「5」、開始時刻が「10:00」、終了時刻が「10:55」の番組表データに基づくオブジェクトを指定して、表示装置100の前面にタッチしている。ここで、制御部10は、オブジェクト移動量を「1」であると決定したとする。このとき、図3に示すように、日付が「3/31」及びチャンネルが「5」で、「10:00〜10:55」の放送時間帯には、開始時刻が「10:00」及び終了時刻が「10:25」である「為替」という番組と、開始時刻が「10:30」及び終了時刻が「11:58」である「ゴルフ」という番組との2つの番組があるが、後者の番組は上記放送時間帯に収まらない。従って、図10下段に示すように、制御部10は、日付が「3/31」、チャンネルが「5」のオブジェクトのうち、開始時刻が「10:00」及び終了時刻が「10:25」である「為替」という番組のオブジェクトを最前面に表示させる。   In addition, when the plurality of objects do not fit in the same time zone between the start time and the end time of the designated object on the reference date after the change, the control unit 10 In this case, among these objects, an object having an earlier start time after the start time of the designated object is displayed in the foreground. FIG. 10 is a diagram illustrating an example of changing display content by a touch operation. In the upper part of FIG. 10, the user uses his / her finger 300 to display the date “4/1”, the channel “5”, the start time “10:00”, and the end time among the objects displayed on the display surface 200. An object based on the program guide data “10:55” is designated and the front surface of the display device 100 is touched. Here, it is assumed that the control unit 10 determines that the object movement amount is “1”. At this time, as shown in FIG. 3, the start time is “10:00” and “3/31”, the channel is “5”, and the broadcast time zone “10:00 to 10:55” is “10:00” There are two programs: a program “Exchange” with an end time of “10:25” and a program “Golf” with a start time of “10:30” and an end time of “11:58”. The latter program does not fit in the broadcast hours. Therefore, as shown in the lower part of FIG. 10, the control unit 10 determines that the start time is “10:00” and the end time is “10:25” among the objects with the date “3/31” and the channel “5”. The object of the program “Exchange” is displayed in the foreground.

図11は、タッチ操作による表示内容の変更の一例を表す図である。図11上段において、ユーザは指300を用いて、表示面200に表示されるオブジェクトのうち、日付が「4/1」、チャンネルが「1」、開始時刻が「10:00」、終了時刻が「10:55」の番組表データに基づくオブジェクトを指定して、表示装置100の前面にタッチしている。ここで、制御部10は、オブジェクト移動量を「1」であると決定したとする。このとき、図3に示すように、日付が「3/31」及びチャンネルが「1」で、「10:00〜10:55」の放送時間帯には、開始時刻が「9:45」及び終了時刻が「10:28」である「歴史」という番組と、開始時刻が「10:30」及び終了時刻が「11:58」である「ドキュメンタリー」という番組との2つの番組があるが、両番組ともに上記放送時間帯に収まらない。従って、図10下段に示すように、制御部10は、日付が「3/31」、チャンネルが「1」のオブジェクトのうち、開始時刻が「10:30」及び終了時刻が「11:58」である「ドキュメンタリー」という番組のオブジェクトを最前面に表示させる。   FIG. 11 is a diagram illustrating an example of changing display content by a touch operation. In the upper part of FIG. 11, the user uses his / her finger 300 to display the date “4/1”, the channel “1”, the start time “10:00”, and the end time among the objects displayed on the display surface 200. An object based on the program guide data “10:55” is designated and the front surface of the display device 100 is touched. Here, it is assumed that the control unit 10 determines that the object movement amount is “1”. At this time, as shown in FIG. 3, the start time is “9:45” and the date is “3/31”, the channel is “1”, and the broadcast time zone is “10:00 to 10:55”. There are two programs, a program called “History” with an end time of “10:28” and a program called “Documentary” with a start time of “10:30” and an end time of “11:58”. Both programs do not fit in the above broadcast hours. Therefore, as shown in the lower part of FIG. 10, the control unit 10 determines that the start time is “10:30” and the end time is “11:58” among the objects with the date “3/31” and the channel “1”. The object of the program called “Documentary” is displayed in the foreground.

また、オブジェクトの移動後において、指定されたオブジェクトが持つ開始時刻から終了時刻までの間の時間帯と同じ時間帯に、このオブジェクトより長い放送時間を持つ単一のオブジェクトがある場合、制御部10は、このオブジェクトを最前面に表示させる。図12は、タッチ操作による表示内容の変更の一例を表す図である。図12上段において、ユーザは指300を用いて、表示面200に表示されるオブジェクトのうち、日付が「4/1」、チャンネルが「6」、開始時刻が「10:00」、終了時刻が「10:55」の番組表データに基づくオブジェクトを指定して、表示装置100の前面にタッチしている。ここで、制御部10は、オブジェクト移動量を「1」であると決定したとする。このとき、図3に示すように、日付が「3/31」及びチャンネルが「6」で、「10:00〜10:55」の放送時間帯には、開始時刻が「10:00」及び終了時刻が「11:55」である「映画」という単一の番組があり、この番組は上記放送時間帯に収まらない。従って、図12下段に示すように、制御部10は、日付が「3/31」、チャンネルが「6」のオブジェクトのうち、開始時刻が「10:00」及び終了時刻が「11:55」である「映画」という番組のオブジェクトを最前面に表示させる。   If there is a single object having a longer broadcast time than this object in the same time zone from the start time to the end time of the designated object after the object is moved, the control unit 10 Causes this object to be displayed in the foreground. FIG. 12 is a diagram illustrating an example of changing display content by a touch operation. In the upper part of FIG. 12, the user uses his / her finger 300 to display the date “4/1”, the channel “6”, the start time “10:00”, and the end time among the objects displayed on the display surface 200. An object based on the program guide data “10:55” is designated and the front surface of the display device 100 is touched. Here, it is assumed that the control unit 10 determines that the object movement amount is “1”. At this time, as shown in FIG. 3, the start time is “10:00” and “3/31”, the channel is “6”, and the broadcast time zone “10:00 to 10:55” is “10:00” There is a single program “movie” whose end time is “11:55”, and this program does not fit in the broadcast time zone. Accordingly, as shown in the lower part of FIG. 12, the control unit 10 determines that the start time is “10:00” and the end time is “11:55” among the objects with the date “3/31” and the channel “6”. The object of the program “movie” is displayed in the foreground.

また、制御部10は、最前面に表示されるオブジェクトの日付(つまり前述した基準日)を、ユーザのタッチ操作によってオブジェクト単位で変更するだけでなく、オブジェクト全体で変更することが可能である。最前面に表示する日付の変更の対象をオブジェクト単位とするか、オブジェクト全体とするかは、ユーザが例えば操作部30を用いて変更可能である。この変更内容は、表示内容変更モードとしてRAMに記憶されている。表示内容変更モードが「オブジェクト単位」である場合、制御部10は、ユーザのタッチ操作を契機として前述したような処理を行い、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち最前面に表示されるオブジェクトを変更して表示させる。一方、表示内容変更モードが「オブジェクト全体」である場合、制御部10は、ユーザのタッチ操作を契機として、決定されたオブジェクト移動量に応じてRAMに記憶された基準日を変更する。例えば、基準日が「4/1」であったときに、「オブジェクト全体」の表示内容変更モードで、表示装置100の前面へのタッチ操作によりオブジェクト移動量が「1」と決定されると、制御部10は、基準日を「3/31」に更新してRAMに記憶させる。そして制御部10は、新たな基準日のオブジェクト群を最前面に表示させる。ユーザが、表示装置100の背面に対してタッチ操作を行った場合も同様にして、制御部10は、新たな基準日のオブジェクト群を最前面に表示させる。   Further, the control unit 10 can change the date of the object displayed in the foreground (that is, the reference date described above) not only for each object but also for the entire object by a user's touch operation. The user can change whether the date to be displayed on the foreground is to be changed in units of objects or the whole object using the operation unit 30, for example. This change content is stored in the RAM as a display content change mode. When the display content change mode is “object unit”, the control unit 10 performs the above-described processing triggered by the user's touch operation, and includes the specified object among the object group arranged in the Z-axis direction. Change the object displayed in the foreground and display it. On the other hand, when the display content change mode is “entire object”, the control unit 10 changes the reference date stored in the RAM according to the determined object movement amount, triggered by the user's touch operation. For example, when the reference date is “4/1” and the object movement amount is determined as “1” by the touch operation on the front surface of the display device 100 in the display content change mode of “entire object”, The control unit 10 updates the reference date to “3/31” and stores it in the RAM. Then, the control unit 10 displays the new reference date object group on the foreground. Similarly, when the user performs a touch operation on the back surface of the display device 100, the control unit 10 displays the new reference date object group on the forefront.

図13は、タッチ操作による表示内容を変更する処理の流れを示すフローチャートである。制御部10は、タッチ操作を検出したか否かを判定する(ステップS100)。具体的にステップS100において、制御部10は、前面タッチセンサ51又は背面タッチセンサ52から検出信号を入力された場合、タッチ操作を検出する。制御部10は、タッチ操作を検出しない場合(ステップS100;NO)、ステップS100の判定を繰り返す。制御部10は、タッチ操作を検出すると(ステップS100;YES)、タッチ操作によって指定されたオブジェクトを特定する(ステップS110)。具体的にステップS110において、制御部10は、操作点の座標値を割り当てられたオブジェクトを、指定されたオブジェクトとして特定する。ここで、制御部10は、前面タッチセンサ51から検出信号が入力されていた場合、操作点に基づいて、最前面に表示されているオブジェクトを指定されたオブジェクトとして特定し、背面タッチセンサ52から検出信号が入力されていた場合、操作点に基づいて、最背面に表示されているオブジェクトを指定されたオブジェクトとして特定する。次に制御部10は、加速度センサ54から入力される、表示装置100に生じる加速度を表す検出信号に基づいて移動量テーブル22を参照し、オブジェクト移動量を決定する(ステップS120)。   FIG. 13 is a flowchart showing a flow of processing for changing display contents by a touch operation. The control unit 10 determines whether or not a touch operation has been detected (step S100). Specifically, in step S <b> 100, the control unit 10 detects a touch operation when a detection signal is input from the front touch sensor 51 or the rear touch sensor 52. When the touch operation is not detected (step S100; NO), the control unit 10 repeats the determination of step S100. When detecting the touch operation (step S100; YES), the control unit 10 specifies the object specified by the touch operation (step S110). Specifically, in step S110, the control unit 10 identifies an object to which the coordinate value of the operation point is assigned as the designated object. Here, when the detection signal is input from the front touch sensor 51, the control unit 10 identifies the object displayed on the foreground as the designated object based on the operation point, and from the rear touch sensor 52. When the detection signal is input, the object displayed on the backmost surface is specified as the designated object based on the operation point. Next, the control unit 10 refers to the movement amount table 22 based on the detection signal representing the acceleration generated in the display device 100, which is input from the acceleration sensor 54, and determines the object movement amount (step S120).

制御部10は、タッチ操作が表示面200へのタッチであった場合、すなわち前面タッチセンサ51から検出信号を入力されている場合(ステップS130;YES)、RAMに記憶された日付変更量を、特定したオブジェクト移動量に応じた負の値に更新する(ステップS140)。ステップS140において、制御部10は、例えばオブジェクト移動量を「2」と特定していた場合、日付変更量を「−2」に更新すると、これをRAMに記憶させる。また、制御部10は、タッチ操作が表示装置100の背面へのタッチであった場合、すなわち背面タッチセンサ52から検出信号を入力されている場合(ステップS130;NO)、RAMに記憶された日付変更量を、特定したオブジェクト移動量に応じた正の値に更新する(ステップS150)。ステップS150において、制御部10は、例えばオブジェクト移動量を「1」と特定していた場合、日付変更量を「+1」に更新すると、これをRAMに記憶させる。ステップS140又はステップS150の次に、制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、最前面に表示されるオブジェクトを変更すると(ステップS160)、処理をステップS100へ戻す。具体的にステップS160において、制御部10は、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群のうち、指定されたオブジェクトの日付に日付変更量を加算した日付を持つオブジェクトを最前面に表示させる。また、ステップS160において、制御部10は、指定されたオブジェクトの前後の日付を持つオブジェクトをオブジェクト移動量に応じて移動させることで、未表示であったオブジェクトを表示させたり、表示されていたオブジェクトを表示させないようにしたりする。   When the touch operation is a touch on the display surface 200, that is, when a detection signal is input from the front touch sensor 51 (step S130; YES), the control unit 10 calculates the date change amount stored in the RAM, Update to a negative value corresponding to the identified object movement amount (step S140). In step S140, for example, if the object movement amount is specified as “2”, the control unit 10 stores the amount in the RAM when the date change amount is updated to “−2”. Further, when the touch operation is a touch on the back surface of the display device 100, that is, when a detection signal is input from the back surface touch sensor 52 (step S130; NO), the control unit 10 stores the date stored in the RAM. The change amount is updated to a positive value corresponding to the specified object movement amount (step S150). In step S150, for example, if the object movement amount is specified as “1”, the control unit 10 stores this in the RAM when the date change amount is updated to “+1”. After step S140 or step S150, the control unit 10 changes the object displayed in the forefront from among the group of objects including the designated object and arranged in the Z-axis direction (step S160). Return to S100. Specifically, in step S160, the control unit 10 brings the object having the date obtained by adding the date change amount to the date of the specified object among the objects arranged in the Z-axis direction including the specified object to the front. To display. In step S160, the control unit 10 moves an object having dates before and after the designated object according to the amount of object movement, thereby displaying an object that has not been displayed or an object that has been displayed. Is not displayed.

図14は、制御部10の機能的構成を表すブロック図であり、制御部10は、プログラムを実行することで図に示す各機能を実現する。制御部10は、幅方向、高さ方向及び奥行き方向にそれぞれ情報(ここではオブジェクト)が配列された表の一部を、表示部40に立体的に表示させる表示制御手段11として機能する。また、制御部10は、表に含まれる複数の情報のうち、前面タッチセンサ51及び背面タッチセンサ52により検出された位置に対応する表示面の領域に表示されている情報を含んで奥行き方向に配列された情報群を特定する情報群特定手段12として機能する。さらに表示制御手段11は、ユーザにより表示面に対して位置が指定された場合には、情報群特定手段12により特定された情報群を、表において奥行き方向の奥側に移動させて表示させ、ユーザにより筐体の背面に対して位置が指定された場合には、情報群特定手段12により特定された情報群を、表において奥行き方向の手前側に移動させて表示させる。このとき表示制御手段11は、物理量検出手段により検出された物理量に応じた量だけ、情報群特定手段12により特定された情報群を移動させて表示させる。   FIG. 14 is a block diagram showing a functional configuration of the control unit 10, and the control unit 10 realizes each function shown in the figure by executing a program. The control unit 10 functions as the display control unit 11 that three-dimensionally displays on the display unit 40 a part of a table in which information (here, objects) is arranged in the width direction, the height direction, and the depth direction. In addition, the control unit 10 includes the information displayed in the area of the display surface corresponding to the position detected by the front touch sensor 51 and the back touch sensor 52 among the plurality of pieces of information included in the table in the depth direction. It functions as information group specifying means 12 for specifying the arranged information group. Further, the display control unit 11 displays the information group specified by the information group specifying unit 12 by moving the information group specified by the information group specifying unit 12 to the far side in the depth direction in the table when the position is specified by the user. When the position is specified by the user with respect to the rear surface of the casing, the information group specified by the information group specifying unit 12 is moved to the front side in the depth direction on the table and displayed. At this time, the display control means 11 moves and displays the information group specified by the information group specifying means 12 by an amount corresponding to the physical quantity detected by the physical quantity detection means.

このように、本実施形態によれば、ユーザは、特定の日付の番組表を見ながら、一部の時間帯の番組を表すオブジェクトを指定して、このオブジェクト単位で異なる日付の番組の内容を確認することができる。これにより、ユーザは、異なる日付ごとに用意された番組表を行ったり来たりすることなく、互いに異なる日付の番組の内容を同時に比較することが可能となる。また、ユーザは、表示装置100の前面へタッチ操作を行った場合、その操作形態から、指定したオブジェクトを後ろに押し込むイメージを持つことができるが、この操作に対して、指定されたオブジェクトがあたかも奥側に押し込まれるように移動されて表示されるから、自身の操作感と画像の変更内容とが共通しているという感覚を得ることが可能となる。また、ユーザは、表示装置100の背面へタッチ操作を行った場合、その操作形態から、指定したオブジェクトを前に押し出すイメージを持つことができるが、この操作に対して、指定されたオブジェクトがあたかも手前側へ押し出されるように移動されて表示されるから、この場合も、自身の操作感と画像の変更内容とが共通しているという感覚を得ることが可能となる。このように、本実施形態によれば、ユーザの操作と表の変更内容との間に共通性をもたせることが可能となる。   As described above, according to the present embodiment, the user designates an object representing a program in a part of a time zone while viewing the program table on a specific date, and displays the contents of the program on a different date in this object unit. Can be confirmed. Thus, the user can simultaneously compare the contents of programs with different dates without going back and forth between program schedules prepared for different dates. In addition, when the user performs a touch operation on the front surface of the display device 100, the user can have an image of pushing the specified object backward from the operation mode. Since it is moved and displayed so as to be pushed into the back side, it is possible to obtain a feeling that its own operational feeling and the contents of image change are common. In addition, when the user performs a touch operation on the back surface of the display device 100, the user can have an image of pushing the specified object forward from the operation mode. Since the image is moved and displayed so as to be pushed out to the front side, it is possible to obtain a feeling that the user's own operation feeling and the image change content are also common. As described above, according to the present embodiment, it is possible to provide commonality between user operations and table changes.

<変形例>
以上の実施形態は次のように変形可能である。尚、以下の変形例は適宜組み合わせて実施してもよい。
<Modification>
The above embodiment can be modified as follows. Note that the following modifications may be combined as appropriate.

<変形例1>
実施形態においては、ユーザによるタッチ操作に応じて制御部10が行う処理は、最前面に表示されるオブジェクトを変更して表示させるというものであったが、これに加えて次のようにしてもよい。図15は、変形例1に係るオブジェクトの展開表示を表す図である。図15上段には、図6と同内容の番組表を表すオブジェクト群が表示面200に表示されている。図15上段において、ユーザが、指300を用いて、表示面200に表示されるオブジェクトのうち、日付が「4/1」、チャンネルが「4」、開始時刻が「9:00」、終了時刻が「9:58」の番組表データに基づくオブジェクトを指定して、表示面200上で展開操作を行っている。ここで展開操作とは、ユーザが、指定したオブジェクトを展開させて表示させるための操作のことである。また、ここで、制御部10は、所定の時間内に同一のオブジェクトを指定したタッチを2回検出すると(いわゆるダブルクリック)、これを展開操作であるとみなす。制御部10は、オブジェクトを指定して展開操作が行われたことを検出すると、この指定されたオブジェクトを展開して表示面200に表示させる。
<Modification 1>
In the embodiment, the process performed by the control unit 10 in response to the touch operation by the user is to change and display the object displayed on the foreground. Good. FIG. 15 is a diagram illustrating an expanded display of an object according to the first modification. In the upper part of FIG. 15, an object group representing a program guide having the same content as FIG. 6 is displayed on the display surface 200. In the upper part of FIG. 15, among the objects displayed on the display surface 200 using the finger 300, the date is “4/1”, the channel is “4”, the start time is “9:00”, and the end time. Specifies an object based on the program guide data of “9:58”, and performs an expansion operation on the display surface 200. Here, the expansion operation is an operation for the user to expand and display a specified object. Further, when the control unit 10 detects a touch that designates the same object twice within a predetermined time (so-called double click), it is regarded as an unfolding operation. When the control unit 10 detects that an expansion operation has been performed by specifying an object, the control unit 10 expands the specified object and displays it on the display surface 200.

図15下段は、制御部10が、指定されたオブジェクトを展開して表示面200に表示させた様子を表している。オブジェクトは、ブロック状の直方体で表示されているから、制御部10は、オブジェクトを展開することで、予め前面に表示されていた面と、この面の上下左右の面と合わせて5面を、表示面200の最前面に表示させる。そして制御部10は、背後のオブジェクト群をグレーアウトすることで、これらのオブジェクト群に対する操作を受け付けないようにするとともに、最前面に表示される展開後のオブジェクトをユーザが視認しやすいようにする。   The lower part of FIG. 15 shows a state in which the control unit 10 expands the designated object and displays it on the display surface 200. Since the object is displayed in a block-shaped rectangular parallelepiped, the control unit 10 expands the object so that five surfaces including the surface displayed in front in advance and the upper, lower, left, and right surfaces of this surface are combined. It is displayed on the foreground of the display surface 200. Then, the control unit 10 grays out the object group behind so as not to accept an operation on these object groups and to make it easier for the user to visually recognize the expanded object displayed on the foreground.

変形例1では、図3の番組表データ21において、各々のデータが、「出演者」、「概要」及び「キーワード」といった項目を追加で保持している。制御部10は、展開後のオブジェクトに、これらの項目の情報を表示させる。例えば図15下段における展開後のオブジェクトでは、中央に番組の番組名が表示され、中央からみて上の面には番組が放送される予定の日時とチャンネルが表示され、中央からみて右の面には出演者の名前が表示され、中央からみて左の面には番組の概要が表示され、中央からみて下の面には番組に関するキーワードが表示されている。ここで、上記キーワードとは、ユーザが番組を検索するときに使用される文字列である。例えば、ユーザが「時代劇」という文字列を指定して番組の検索を行うと、制御部10は、番組表データ21の項目「キーワード」に、「時代劇」という文字列を保持する番組を検索結果として表示させる、といった具合である。ユーザが展開後のオブジェクトに対して再び展開操作を行うと、制御部10は、このオブジェクトをたたんで、展開される前のブロック状の直方体として表示させるとともに、オブジェクト群のグレーアウトを解除して、オブジェクト群に対する操作を受け付けるようにする。このように、ユーザによりオブジェクトを指定して展開操作が行われると、制御部10は、「番組名」のほか、指定されたオブジェクトに関連し且つ「番組名」とは異なる内容の画像を表示させる。つまり、表示制御手段11として機能する制御部10は、表示手段に表示されている複数の情報のうちいずれかが指定されて所定の操作が行われると、当該情報が表記された画像と、当該情報と関連し且つ当該情報とは異なる情報が表記された画像とを表示させる。   In the first modification, in the program guide data 21 of FIG. 3, each data additionally holds items such as “performer”, “outline”, and “keyword”. The control unit 10 displays information on these items on the expanded object. For example, in the expanded object in the lower part of FIG. 15, the program name of the program is displayed in the center, the date and channel on which the program is scheduled to be broadcasted are displayed on the upper side when viewed from the center, and the right side when viewed from the center. The name of the performer is displayed, the overview of the program is displayed on the left side when viewed from the center, and the keywords relating to the program are displayed on the lower surface when viewed from the center. Here, the keyword is a character string used when the user searches for a program. For example, when the user searches for a program by designating a character string “period drama”, the control unit 10 selects a program holding the character string “period drama” in the item “keyword” of the program table data 21. For example, it is displayed as a search result. When the user performs the expansion operation on the expanded object again, the control unit 10 collapses the object and displays it as a block-shaped rectangular parallelepiped before expansion, and cancels the grayout of the object group. The operation for the object group is accepted. As described above, when the expansion operation is performed by designating the object by the user, the control unit 10 displays an image having contents different from the “program name” related to the designated object in addition to the “program name”. Let In other words, when one of a plurality of pieces of information displayed on the display unit is designated and a predetermined operation is performed, the control unit 10 functioning as the display control unit 11 performs an image displaying the information, An image related to information and displaying information different from the information is displayed.

図16は、変形例1に係るオブジェクトを展開表示する処理の流れを示すフローチャートである。制御部10は、展開操作が行われたことを検出すると(ステップS200;YES)、このオブジェクトが展開済みであるか否かを判定する(ステップS210)。この展開操作は、例えば上述したように、オブジェクトを指定したダブルクリックである。このほかに、同一のオブジェクトを指定したタッチが所定の時間以上持続した場合に、制御部10が、展開操作が行われたことを検出するようにしてもよい。制御部10は、展開操作が行われたことを検出しない場合(ステップS200;NO)、ステップS200の判定を繰り返す。制御部10は、指定されたオブジェクトが展開されていない場合(ステップS210;NO)、このオブジェクトを展開して表示面200の最前面に表示させるとともに、その他のオブジェクト群をグレーアウトして、ユーザによる操作を受け付けなくすると(ステップS220)、処理をステップS200に戻す。一方、制御部10は、指定されたオブジェクトが展開済みである場合(ステップS210;YES)、このオブジェクトをたたんでブロック状の直方体として表示面200に表示させるとともに、その他のオブジェクト群のグレーアウトを解除して、ユーザによる操作を受け付けるようにすると(ステップS230)、処理をステップS200に戻す。   FIG. 16 is a flowchart showing a flow of processing for expanding and displaying an object according to the first modification. When detecting that the unfolding operation has been performed (step S200; YES), the controller 10 determines whether or not this object has been unfolded (step S210). This unfolding operation is, for example, a double click designating an object as described above. In addition, the control unit 10 may detect that the unfolding operation has been performed when a touch specifying the same object has continued for a predetermined time or longer. When it is not detected that the unfolding operation has been performed (step S200; NO), the control unit 10 repeats the determination in step S200. When the designated object is not expanded (step S210; NO), the control unit 10 expands the object and displays it on the foreground of the display surface 200, and grays out the other object group so that the user can If no operation is accepted (step S220), the process returns to step S200. On the other hand, when the designated object has been expanded (step S210; YES), the control unit 10 folds the object and displays it on the display surface 200 as a block-shaped rectangular parallelepiped, and grays out other object groups. If it cancels | releases and it accepts operation by a user (step S230), a process will be returned to step S200.

このようにすれば、ユーザは、表示面200に表示された番組表を表すオブジェクトのうち、番組名を見て内容が気になった番組などについて、展開操作を行うことで、この番組のより詳細な内容を知ることができるようになる。   In this way, the user can perform a deployment operation on a program or the like whose contents are of interest by looking at the program name among the objects representing the program guide displayed on the display surface 200. You will be able to know the details.

<変形例2>
ユーザによるタッチ操作の速度に応じて、制御部10が、表示面200に表示されるオブジェクトを移動させる速度を変更してもよい。変形例2において、記憶部20は、移動速度テーブル23を記憶している。図17は、変形例2に係る移動速度テーブル23の内容を表す図である。移動速度テーブル23は、「タッチ速度」及び「オブジェクト移動速度」といった複数の項目からなる。「タッチ速度」という項目には、予め区分されたタッチ速度(m/s)の範囲が記述されている。「オブジェクト移動速度」という項目には、表示面200に表示されるオブジェクトのZ軸方向への移動速度(cm/s)が記述されている。例えば、タッチ速度が「2以上3未満」のとき、オブジェクト移動速度は「4」であるから、制御部10は、選択されたオブジェクトを、「4cm/s」の速さでZ軸方向に移動させて表示面200に表示させる。
<Modification 2>
The control unit 10 may change the speed of moving the object displayed on the display surface 200 according to the speed of the touch operation by the user. In the second modification, the storage unit 20 stores a moving speed table 23. FIG. 17 is a diagram illustrating the contents of the moving speed table 23 according to the second modification. The moving speed table 23 includes a plurality of items such as “touch speed” and “object moving speed”. In the item “touch speed”, a range of touch speed (m / s) divided in advance is described. In the item “object moving speed”, the moving speed (cm / s) of the object displayed on the display surface 200 in the Z-axis direction is described. For example, when the touch speed is “2 or more and less than 3”, the object moving speed is “4”. Therefore, the control unit 10 moves the selected object in the Z-axis direction at a speed of “4 cm / s”. To be displayed on the display surface 200.

変形例2において、表示装置100は、背面近接センサ53に加えて、その前面にも近接センサ(前面近接センサという)を備えている。前面近接センサあるいは背面近接センサ53は、ユーザの指と表示装置100の前面あるいは背面との垂直方向の距離が所定の長さ以内になると、指の近接を検出し、検出結果を表す検出信号を制御部10に出力する。ここで所定の長さとは、例えば5mmであり、記憶部20に予め記憶されている。制御部10は、この検出信号を受けてからタッチが検出されるまでにかかった時間を計時機能より取得する。そして制御部10は、上記所定の距離を取得した時間で除算することで、上述したタッチ速度を算出する。制御部10は、算出したタッチ速度に基づいて移動速度テーブル23を参照し、オブジェクト移動速度を決定する。   In the second modification, the display device 100 includes a proximity sensor (referred to as a front proximity sensor) on the front surface in addition to the back proximity sensor 53. The front proximity sensor or the back proximity sensor 53 detects the proximity of the finger when the vertical distance between the user's finger and the front or back of the display device 100 is within a predetermined length, and generates a detection signal indicating the detection result. Output to the control unit 10. Here, the predetermined length is, for example, 5 mm and is stored in the storage unit 20 in advance. The control unit 10 acquires the time taken from receiving this detection signal until a touch is detected from the time measuring function. Then, the control unit 10 calculates the touch speed described above by dividing the predetermined distance by the acquired time. The control unit 10 refers to the moving speed table 23 based on the calculated touch speed and determines the object moving speed.

変形例2では、図13のフローチャートにおいて、ステップS100の前に、制御部10は、前面近接センサあるいは背面近接センサ53から、ユーザの指と表示装置100の前面あるいは背面との垂直方向の距離が所定の長さ以内に近接したことを表す検出信号を受け取る。そしてステップS120とステップS130との間に、制御部10は、タッチ速度を算出すると、算出したタッチ速度に基づいて移動速度テーブル23を参照し、オブジェクト移動速度を決定する。そしてステップS160において、制御部10は、決定したオブジェクト移動速度でオブジェクトを移動させて表示面200に表示させる。つまり、表示制御手段11として機能する制御部10は、物理量検出手段により検出された物理量に応じて、情報群特定手段12により特定された情報群を奥行き方向の奥側又は手前側に移動させる速度を変えて表示させる。   In the second modification, in the flowchart of FIG. 13, before step S <b> 100, the control unit 10 determines that the vertical distance between the user's finger and the front or back of the display device 100 is from the front proximity sensor or the back proximity sensor 53. A detection signal indicating proximity within a predetermined length is received. And between step S120 and step S130, if the control part 10 calculates a touch speed, it will refer to the moving speed table 23 based on the calculated touch speed, and will determine an object moving speed. In step S <b> 160, the control unit 10 moves the object at the determined object moving speed and displays the object on the display surface 200. That is, the control unit 10 functioning as the display control unit 11 moves the information group specified by the information group specifying unit 12 to the back side or the front side in the depth direction according to the physical quantity detected by the physical quantity detection unit. Change to display.

このようにすれば、ユーザは、タッチ操作の速度を変更するという直感的な操作によって、オブジェクトを移動させる速度を変更することが可能となる。これにより、ユーザは、例えば、番組の内容を確認したい日付が基準日から離れている場合などには、速くタッチ操作を行うことで、オブジェクトの移動速度を速いものとして、自らの望む日付のオブジェクトをより早く最前面に表示させることができる。また、ユーザは、例えば、異なる日付の番組の内容をじっくり確認したい場合などには、ゆっくりタッチ操作を行うことで、オブジェクトの移動速度を遅いものとして、最前面に表示されるオブジェクトを一つずつ確認することが可能となる。   In this way, the user can change the speed at which the object is moved by an intuitive operation of changing the speed of the touch operation. As a result, for example, when the date on which the content of the program is to be confirmed is far from the reference date, the user can quickly move the object to make the object move at a higher speed by performing a touch operation. Can be displayed in the foreground more quickly. In addition, for example, when the user wants to carefully check the contents of a program on a different date, the object displayed on the foreground is displayed one by one by slowly performing a touch operation so that the moving speed of the object is slow. It becomes possible to confirm.

<変形例3>
実施形態においては、制御部10が、表示装置100に加えられる加速度に基づいてオブジェクトの移動量を決定していたが、これに限らず、次のようにしてもよい。変形例3において、前面タッチセンサ51又は背面タッチセンサ52から、タッチ操作が行われたことを表す検出信号が出力されていないときは、実施形態と同様に、制御部10は、オブジェクトを移動させて表示させることはない。一方、変形例3において、ユーザが、表示面200又は表示装置100の背面に対して指がタッチした状態を維持する間、制御部10は、オブジェクトを移動させる処理を継続する。具体的には、前面タッチセンサ51又は背面タッチセンサ52から、閾値以上の期間にわたって同じ位置にタッチ操作が行われていることを表す検出信号が出力される場合、制御部10は、上記期間にわたって、指定されたオブジェクトを含みZ軸方向に配列されたオブジェクト群を移動させて表示する処理を継続する。上記閾値は、例えば「2秒」であり、パラメータとして予め記憶部20に記憶されている。このパラメータは、操作部30を用いて、ユーザにより変更可能としてもよい。また、このときのオブジェクトの移動速度は、例えば「1cm/s」であり、パラメータとして予め記憶部20に記憶されている。このパラメータは、操作部30を用いて、ユーザにより変更可能としてもよい。
<Modification 3>
In the embodiment, the control unit 10 determines the amount of movement of the object based on the acceleration applied to the display device 100. However, the present invention is not limited to this, and the following may be performed. In Modification 3, when the detection signal indicating that the touch operation has been performed is not output from the front touch sensor 51 or the back touch sensor 52, the control unit 10 moves the object as in the embodiment. Is not displayed. On the other hand, in the third modification, the control unit 10 continues the process of moving the object while the user maintains a state where the user touches the display surface 200 or the back surface of the display device 100. Specifically, when the front touch sensor 51 or the back touch sensor 52 outputs a detection signal indicating that a touch operation is performed at the same position over a period equal to or greater than the threshold, the control unit 10 The process of moving and displaying the object group including the designated object and arranged in the Z-axis direction is continued. The threshold value is, for example, “2 seconds”, and is stored in advance in the storage unit 20 as a parameter. This parameter may be changed by the user using the operation unit 30. Further, the moving speed of the object at this time is “1 cm / s”, for example, and is stored in the storage unit 20 as a parameter in advance. This parameter may be changed by the user using the operation unit 30.

このようにすれば、ユーザは、「指をタッチさせ続ける」という動作と、「指をタッチさせない」という動作との、2種類の動作を使い分けることで、オブジェクトを移動させて表示させることが可能となる。従って、ユーザは、複数回に渡るタッチ操作という煩雑な操作を行うことなく、望みの日付のオブジェクトを最前面に表示させることができる。   In this way, the user can move and display the object by properly using two types of actions: “Keep the finger touched” and “Do not touch the finger”. It becomes. Therefore, the user can display the object having the desired date in the foreground without performing a complicated operation such as a touch operation over a plurality of times.

<変形例4>
実施形態においては、ユーザが、単一のオブジェクトを指定することで、制御部10が、このオブジェクトを移動させて表示内容を変更させていたが、これに加えて次のようにしてもよい。図18は、変形例4に係るオブジェクトの移動に伴う表示内容の変更を表す図である。変形例4において、ユーザは、オブジェクトを指定する際に、単一のオブジェクトのみならず、複数のオブジェクトを一度に指定することが可能である。まず、ユーザは、表示面200にタッチした状態を維持したまま指300を移動させる、いわゆるドラッグ操作を行って表示内容を変更させたいオブジェクトを選択する。制御部10は、ドラッグ操作の開始位置の操作点と、ドラッグ操作の終了位置の操作点とを対角に持つ矩形を特定する。この矩形を選択範囲という。そして制御部10は、オブジェクトの表示面200に平行な面を表す矩形が上記選択範囲に含まれる場合、このオブジェクトを、表示内容を変更する対象のオブジェクトとして特定する。図18上段では、ユーザが、ドラッグ操作を行うことにより、日付が「4/1」、開始時刻が「9:00」、終了時刻が「9:58」であって、チャンネルが「4」、「5」及び「6」の3つのオブジェクトを選択した様子を表している。制御部10は、例えば図18に示すように、選択範囲を破線の矩形として表示させる。制御部10は、このようなドラッグ操作に基づく選択範囲を、表示面200に対するタッチ操作から特定するだけでなく、表示装置100の背面に対してのタッチ操作からも特定することができる。この場合、制御部10は、背面タッチセンサ52が検出するドラッグ操作の開始位置の操作点及び終了位置の操作点を対角に持つ矩形を、選択範囲として特定する。
<Modification 4>
In the embodiment, the user designates a single object, and the control unit 10 moves the object to change the display content. However, in addition to this, the following may be performed. FIG. 18 is a diagram illustrating a change in display content that accompanies movement of an object according to the fourth modification. In the modified example 4, when the user designates an object, the user can designate not only a single object but also a plurality of objects at a time. First, the user selects an object whose display content is to be changed by performing a so-called drag operation in which the finger 300 is moved while keeping the touched state on the display surface 200. The control unit 10 specifies a rectangle having diagonally the operation point at the start position of the drag operation and the operation point at the end position of the drag operation. This rectangle is called a selection range. When the selection range includes a rectangle representing a plane parallel to the display surface 200 of the object, the control unit 10 identifies this object as an object whose display content is to be changed. In the upper part of FIG. 18, when the user performs a drag operation, the date is “4/1”, the start time is “9:00”, the end time is “9:58”, the channel is “4”, This shows a state where three objects “5” and “6” are selected. For example, as illustrated in FIG. 18, the control unit 10 displays the selection range as a broken-line rectangle. The control unit 10 can specify the selection range based on such a drag operation not only from the touch operation on the display surface 200 but also from the touch operation on the back surface of the display device 100. In this case, the control unit 10 specifies a rectangle having the operation point at the start position and the end point of the drag operation detected by the back touch sensor 52 as a selection range.

図18下段は、図18上段に示すように選択されたオブジェクトに対して、ユーザが、表示面200上でタッチ操作を行った結果を表す。図18下段に示すように、チャンネルが「4」、「5」及び「6」、開始時刻が「9:00」、終了時刻が「9:58」の3つのオブジェクトは、最前面に表示されるオブジェクトの日付が「3/31」となっている。なお、図18では、ユーザが、同一の時間帯についてチャンネルが異なる複数のオブジェクトを選択する例を示したが、これに限らず、ユーザは、同一のチャンネルについて時間帯が異なる複数のオブジェクトを選択してもよいし、複数のチャンネルにおける複数の時間帯のオブジェクトを選択してもよい。このようにすれば、ユーザは、複数のチャンネル及び複数の時間帯に渡って異なる日付の番組内容を確認したい場合に、一度の操作で確認を行うことが可能となる。   The lower part of FIG. 18 represents the result of the user performing a touch operation on the display surface 200 for the selected object as shown in the upper part of FIG. As shown in the lower part of FIG. 18, the three objects whose channels are “4”, “5” and “6”, the start time is “9:00”, and the end time is “9:58” are displayed in the foreground. The date of the object is “3/31”. FIG. 18 shows an example in which the user selects a plurality of objects with different channels for the same time zone. However, the present invention is not limited to this, and the user selects a plurality of objects with different time zones for the same channel. Alternatively, objects in a plurality of time zones in a plurality of channels may be selected. In this way, when the user wants to check the contents of a program with different dates over a plurality of channels and a plurality of time zones, the user can check with a single operation.

<変形例5>
制御部10が画像を立体的に表示させる方法は、視差バリア方式や、レンチキュラーレンズ方式、或いは時分割方式などを用いて3次元で表示させる方法以外に、前述したように斜視図により画像を表示させる方法であってもよい。この場合、オブジェクト群の画像が斜視図により表示されるだけであるから、画像の飛出し量及び奥行き量は生じないが、制御部10が行う処理の内容は実施形態と同様に奥行き方向のオブジェクトの位置を変えるというものになる。なお、制御部10は、画像を3次元で表示させたり、斜視図により表示させたりするのに限らず、画像が幅方向と高さ方向と奥行き方向との3軸を持ち立体的に表示させるものであれば、そのほかの方法を用いてもよい。
<Modification 5>
The control unit 10 displays the image in a three-dimensional manner using a parallax barrier method, a lenticular lens method, a time division method, or the like, as described above. It is also possible to use a method. In this case, since the image of the object group is only displayed in a perspective view, the amount of projection and depth of the image does not occur, but the content of the processing performed by the control unit 10 is the object in the depth direction as in the embodiment. It will be to change the position of. Note that the control unit 10 is not limited to displaying an image in three dimensions or in a perspective view, and the image has a three-dimensional display in the width direction, the height direction, and the depth direction and is displayed in a three-dimensional manner. Other methods may be used as long as they are appropriate.

<変形例6>
実施形態においては、タッチ操作により表示装置100に生じる加速度とオブジェクトの移動量とを対応付け、また、変形例2においては、タッチ操作の速度とオブジェクトの移動速度とを対応付けていた。ユーザが表示面又は背面に対して位置を指定する操作の速度又は強度に応じた物理量と、制御部10の処理内容との対応関係はこれらの内容に限ったものではない。例えば、タッチ操作の速度とオブジェクトの移動量とを対応付けたテーブルを記憶部20が記憶してもよいし、タッチ操作により表示装置100に生じる加速度とオブジェクトの移動速度とを対応付けたテーブルを記憶部20が記憶しており、制御部10が、これらのテーブルに基づいて表示内容の制御を行うようにしてもよい。ユーザは、操作部30を用いて、どのテーブルを参照すべきかを変更可能である。また、表示装置100に生じる加速度やタッチ操作の速度に限らず、ユーザが表示面又は背面に対して位置を指定する操作の速度又は強度に応じた物理量であれば、どのようなものであってもよい。
<Modification 6>
In the embodiment, the acceleration generated in the display device 100 by the touch operation is associated with the amount of movement of the object, and in the second modification, the speed of the touch operation is associated with the movement speed of the object. The correspondence relationship between the physical quantity according to the speed or intensity of the operation in which the user designates the position with respect to the display surface or the back surface and the processing contents of the control unit 10 is not limited to these contents. For example, the storage unit 20 may store a table in which the speed of the touch operation is associated with the amount of movement of the object, or the table in which the acceleration generated in the display device 100 by the touch operation is associated with the speed of movement of the object. The storage unit 20 stores the information, and the control unit 10 may control display contents based on these tables. The user can change which table should be referred to using the operation unit 30. Further, not only the acceleration generated in the display device 100 and the speed of the touch operation, but also any physical quantity according to the speed or intensity of the operation in which the user designates the position with respect to the display surface or the back surface. Also good.

<変形例7>
本発明は、表示装置以外にも、これらを実現するための方法、及びコンピュータに表示機能を実現させるためのプログラムとしても把握される。かかるプログラムは、これを記憶させた光ディスク等の記録媒体の形態で提供されたり、インターネット等を介して、コンピュータにダウンロードさせ、これをインストールして利用させるなどの形態でも提供されたりする。
<Modification 7>
In addition to the display device, the present invention can be understood as a method for realizing these and a program for causing a computer to realize a display function. Such a program may be provided in the form of a recording medium such as an optical disk storing the program, or may be provided in the form of being downloaded to a computer via the Internet or the like and installed and used.

10…制御部、20…記憶部、21…番組表データ、22…移動量テーブル、23…移動速度テーブル、30…操作部、31…操作子、40…表示部、41…3Dディスプレイ、50…検出部、51…前面タッチセンサ、52…背面タッチセンサ、53…背面近接センサ、54…加速度センサ、60…通信部、70…バス、100…表示装置、200…表示面、300…指   DESCRIPTION OF SYMBOLS 10 ... Control part, 20 ... Memory | storage part, 21 ... Program guide data, 22 ... Movement amount table, 23 ... Movement speed table, 30 ... Operation part, 31 ... Operator, 40 ... Display part, 41 ... 3D display, 50 ... Detection unit, 51 ... front touch sensor, 52 ... back touch sensor, 53 ... back proximity sensor, 54 ... acceleration sensor, 60 ... communication unit, 70 ... bus, 100 ... display device, 200 ... display surface, 300 ... finger

Claims (8)

筐体と、
前記筐体の前面に設けられた表示面に画像を表示する表示手段と、
ユーザにより前記表示面に対して指定された位置及びユーザにより前記筐体の背面に対して指定された位置を検出する指定位置検出手段と、
幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表を、前記表示手段に立体的に表示させる表示制御手段と、
前記表に含まれる複数の情報のうち、前記指定位置検出手段により検出された位置に対応する前記表示面の領域に表示されている情報を含んで前記奥行き方向に配列された情報群を特定する情報群特定手段とを備え、
前記表示制御手段は、
ユーザにより前記表示面に対して位置が指定された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、ユーザにより前記筐体の背面に対して前記位置が指定された場合には、前記情報群特定手段により特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させる
ことを特徴とする表示装置。
A housing,
Display means for displaying an image on a display surface provided on the front surface of the housing;
Designated position detecting means for detecting a position designated by the user with respect to the display surface and a position designated by the user with respect to the back surface of the housing;
Display control means for three-dimensionally displaying a table in which information is arranged in each of the width direction, the height direction, and the depth direction on the display means;
Among the plurality of pieces of information included in the table, the information group arranged in the depth direction is specified including information displayed in the area of the display surface corresponding to the position detected by the designated position detecting unit. Information group specifying means,
The display control means includes
When a position is specified with respect to the display surface by the user, the information group specified by the information group specifying means is moved and displayed in the depth direction in the table, and the user moves the housing. When the position is specified with respect to the back of the body, the information group specified by the information group specifying means is moved to the front side in the depth direction in the table and displayed. apparatus.
前記ユーザが前記表示面又は前記筐体の背面に対して位置を指定する操作の速度又は強度に応じた物理量を検出する物理量検出手段を備え、
前記表示制御手段は、
前記物理量検出手段により検出された物理量に応じた量だけ、前記情報群特定手段により特定された情報群を移動させて表示させる
ことを特徴とする請求項1記載の表示装置。
A physical quantity detection means for detecting a physical quantity according to a speed or intensity of an operation in which the user designates a position with respect to the display surface or the back surface of the housing;
The display control means includes
The display device according to claim 1, wherein the information group specified by the information group specifying unit is moved and displayed by an amount corresponding to the physical quantity detected by the physical quantity detecting unit.
前記ユーザが前記表示面又は前記筐体の背面に対して位置を指定する操作の速度又は強度に応じた物理量を検出する物理量検出手段を備え、
前記表示制御手段は、
前記物理量検出手段により検出された物理量に応じて、前記情報群特定手段により特定された情報群を前記奥行き方向の奥側又は手前側に移動させる速度を変えて表示させる
ことを特徴とする請求項1記載の表示装置。
A physical quantity detection means for detecting a physical quantity according to a speed or intensity of an operation in which the user designates a position with respect to the display surface or the back surface of the housing;
The display control means includes
The display is performed by changing a speed at which the information group specified by the information group specifying unit is moved to the far side or the near side in the depth direction according to the physical quantity detected by the physical quantity detecting unit. The display device according to 1.
前記表示制御手段は、
前記情報群特定手段により閾値以上の期間にわたって同じ情報群が特定されている場合、前記情報群特定手段により特定された情報群を当該期間にわたって移動させ続ける表示を行う
ことを特徴とする請求項1〜3のいずれか1項に記載の表示装置。
The display control means includes
2. When the same information group is specified over a period equal to or greater than a threshold by the information group specifying means, the information group specified by the information group specifying means is displayed continuously moving over the period. The display apparatus of any one of -3.
前記筐体の背面に対して位置を指定するためにユーザにより用いられる操作手段が当該筐体の背面に接していないときに、前記筐体の背面において前記操作手段に最も近い位置を検出する近接位置検出手段と、
前記近接位置検出手段によって検出された位置に対応する前記表示面の領域に表示されている情報を特定する情報特定手段とを備え、
前記表示制御手段は、
前記情報特定手段により特定された情報の表示態様を他の情報の表示態様と異ならせて表示させ、
前記指定位置検出手段は、
前記筐体の背面において前記操作手段が接した位置を検出する
ことを特徴とする請求項1〜4のいずれか1項に記載の表示装置。
Proximity for detecting a position closest to the operation means on the back surface of the housing when the operation means used by the user to specify the position with respect to the back surface of the housing is not in contact with the back surface of the housing Position detecting means;
Information specifying means for specifying information displayed in the area of the display surface corresponding to the position detected by the proximity position detecting means,
The display control means includes
The display mode of information specified by the information specifying means is displayed differently from the display mode of other information,
The designated position detecting means includes
The display device according to claim 1, wherein a position where the operation unit is in contact with a back surface of the housing is detected.
前記表示制御手段は、
前記表示手段に表示されている複数の情報のうち、前記表示面に対して指定され前記指定位置検出手段により検出された位置に対応する情報を特定し、所定の操作が行われると、当該情報が表記された画像と、当該情報と関連し且つ当該情報とは異なる内容の情報が表記された画像とを表示させる
ことを特徴とする請求項1〜5のいずれか1項に記載の表示装置。
The display control means includes
Among a plurality of pieces of information displayed on the display means, information corresponding to the position designated on the display surface and detected by the designated position detection means is specified, and when a predetermined operation is performed, the information 6. The display device according to claim 1, wherein an image on which information is described and an image on which information related to the information and information different from the information are described are displayed. .
筐体の前面に表示面が設けられた表示装置が行う表示制御方法であって
幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表を前記表示面に立体的に表示させる第1の表示制御工程と、
ユーザにより前記表示面に対して指定された位置及びユーザにより前記筐体の背面に対して指定された位置を検出する指定位置検出工程と、
前記表に含まれる複数の情報のうち、前記指定位置検出工程において検出された位置に対応する前記表示面の領域に表示されている情報を含んで前記奥行き方向に配列された情報群を特定する情報群特定工程と、
ユーザにより前記表示面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、ユーザにより前記筐体の背面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させる第2の表示制御工程と
を備えることを特徴とする表示制御方法。
A display control method performed by a display device having a display surface on a front surface of a housing, wherein a table in which information is arranged in each of a width direction, a height direction, and a depth direction is three-dimensionally displayed on the display surface. Display control process of
A designated position detecting step for detecting a position designated by the user with respect to the display surface and a position designated by the user with respect to the back surface of the housing;
Among a plurality of pieces of information included in the table, the information group arranged in the depth direction is specified including information displayed in the area of the display surface corresponding to the position detected in the designated position detecting step. Information group identification process;
When a position is specified with respect to the display surface by the user, the information group specified in the information group specifying step is moved and displayed on the back side in the depth direction in the table. A second display control step of displaying the information group specified in the information group specifying step by moving the information group specified in the information group specifying step to the near side in the depth direction in the table when the position is specified with respect to the back of the body; A display control method comprising:
筐体、当該筐体の前面に設けられた表示面に画像を表示する表示手段及びユーザにより前記表示面に対して指定された位置及びユーザにより前記筐体の背面に対して指定された位置を検出する指定位置検出手段を備えたコンピュータに、
幅方向、高さ方向及び奥行き方向にそれぞれ情報が配列された表を前記表示面に立体的に表示させる第1の表示制御工程と、
前記表に含まれる複数の情報のうち、前記指定位置検出手段によって検出された位置に対応する前記表示面の領域に表示されている情報を含んで前記奥行き方向に配列された情報群を特定する情報群特定工程と、
ユーザにより前記表示面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の奥側に移動させて表示させ、ユーザにより前記筐体の背面に対して位置が指定された場合には、前記情報群特定工程において特定された情報群を、前記表において前記奥行き方向の手前側に移動させて表示させる第2の表示制御工程と
を実行させるためのプログラム。
A housing, display means for displaying an image on a display surface provided on a front surface of the housing, a position designated by the user with respect to the display surface, and a position designated by the user with respect to the back surface of the housing In a computer equipped with a designated position detecting means for detecting,
A first display control step for stereoscopically displaying a table in which information is arranged in each of the width direction, the height direction, and the depth direction on the display surface;
Among a plurality of pieces of information included in the table, the information group arranged in the depth direction is specified including information displayed in the area of the display surface corresponding to the position detected by the designated position detecting unit. Information group identification process;
When a position is specified with respect to the display surface by the user, the information group specified in the information group specifying step is moved and displayed on the back side in the depth direction in the table. A second display control step of displaying the information group specified in the information group specifying step by moving the information group specified in the information group specifying step to the near side in the depth direction in the table when the position is specified with respect to the back of the body; A program for running
JP2011106428A 2011-05-11 2011-05-11 Display device, display control method, and program Active JP5734732B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011106428A JP5734732B2 (en) 2011-05-11 2011-05-11 Display device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011106428A JP5734732B2 (en) 2011-05-11 2011-05-11 Display device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2012238162A true JP2012238162A (en) 2012-12-06
JP5734732B2 JP5734732B2 (en) 2015-06-17

Family

ID=47461012

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011106428A Active JP5734732B2 (en) 2011-05-11 2011-05-11 Display device, display control method, and program

Country Status (1)

Country Link
JP (1) JP5734732B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017062987A1 (en) * 2015-10-08 2017-04-13 Tilko, L.L.C. Systems and methods for multi-dimensional computer-aided searching

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1198431A (en) * 1997-09-16 1999-04-09 Victor Co Of Japan Ltd Program information display device
JP2003330611A (en) * 2002-05-16 2003-11-21 Sony Corp Input method and input device
JP2009055103A (en) * 2007-08-23 2009-03-12 Funai Electric Co Ltd Digital broadcast receiver
JP2009157908A (en) * 2007-12-07 2009-07-16 Sony Corp Information display terminal, information display method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1198431A (en) * 1997-09-16 1999-04-09 Victor Co Of Japan Ltd Program information display device
JP2003330611A (en) * 2002-05-16 2003-11-21 Sony Corp Input method and input device
JP2009055103A (en) * 2007-08-23 2009-03-12 Funai Electric Co Ltd Digital broadcast receiver
JP2009157908A (en) * 2007-12-07 2009-07-16 Sony Corp Information display terminal, information display method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017062987A1 (en) * 2015-10-08 2017-04-13 Tilko, L.L.C. Systems and methods for multi-dimensional computer-aided searching
GB2560645A (en) * 2015-10-08 2018-09-19 Tiiko L L C Systems and methods for multi-dimensional computer-aided searching

Also Published As

Publication number Publication date
JP5734732B2 (en) 2015-06-17

Similar Documents

Publication Publication Date Title
JP5710381B2 (en) Display device, display control method, and program
US9977590B2 (en) Mobile terminal and method for controlling the same
JP5638896B2 (en) Display control program, display control device, display control system, and display control method
US9104239B2 (en) Display device and method for controlling gesture functions using different depth ranges
US20130342525A1 (en) Focus guidance within a three-dimensional interface
US9330489B2 (en) Mobile apparatus displaying a 3D image comprising a plurality of layers and display method thereof
EP2372512A1 (en) Vehicle user interface unit for a vehicle electronic device
CN104641318A (en) Apparatus and method of providing user interface on head mounted display and head mounted display thereof
CN105190477A (en) Head-mounted device for user interactions in an amplified reality environment
CN104115096A (en) Display apparatus and method of changing screen mode using the same
CN102595159A (en) Information processing apparatus, stereoscopic display method, and program
CN102566902A (en) Apparatus and method for selecting item using movement of object
JPWO2012053033A1 (en) 3D stereoscopic display device and 3D stereoscopic display processing device
JP2013016018A (en) Display control apparatus, control method, and program
JP2012068726A (en) Display control program, display control device, display control system, and display control method
TW201336294A (en) Stereoscopic imaging system and method thereof
CN104094209A (en) Information processing device, information processing method, and computer program
JP6065908B2 (en) Stereoscopic image display device, cursor display method thereof, and computer program
AU2011244907A1 (en) Information processing apparatus, stereoscopic display method, and program
US20120120061A1 (en) Information processing apparatus, stereoscopic display method, and program
US20160026244A1 (en) Gui device
TW201503050A (en) Three dimensional data visualization
US20160321968A1 (en) Information processing method and electronic device
JP5734732B2 (en) Display device, display control method, and program
US20130176301A1 (en) 3d display apparatus and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141022

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150415

R150 Certificate of patent or registration of utility model

Ref document number: 5734732

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250