JP2012068705A - 3d content display device, and 3d content display method - Google Patents

3d content display device, and 3d content display method Download PDF

Info

Publication number
JP2012068705A
JP2012068705A JP2010210645A JP2010210645A JP2012068705A JP 2012068705 A JP2012068705 A JP 2012068705A JP 2010210645 A JP2010210645 A JP 2010210645A JP 2010210645 A JP2010210645 A JP 2010210645A JP 2012068705 A JP2012068705 A JP 2012068705A
Authority
JP
Japan
Prior art keywords
pointer
display
objects
content
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010210645A
Other languages
Japanese (ja)
Inventor
Masayuki Kuoka
正幸 工岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010210645A priority Critical patent/JP2012068705A/en
Publication of JP2012068705A publication Critical patent/JP2012068705A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a 3D content display device and a 3D content display method in which a user can visually recognize an object arranged in the back with a simple operation.SOLUTION: A 3D content display device 100 includes: an input device 102 (106); a display 101; a memory 111 for storing 3D contents for displaying a plurality of objects; and a processor 110 for displaying the plurality of objects and a pointer on the display. The processor moves the pointer based on a pointer moving instruction received via the input device and displays, on the display, the objects displayed in front of the pointer in a non-display or a transparent manner on the basis of a position of the pointer and positions of the plurality of objects.

Description

本発明は、静止画像や動画像などの3Dのコンテンツを表示するための3Dコンテンツ表示装置および3Dコンテンツ表示方法に関する。   The present invention relates to a 3D content display device and a 3D content display method for displaying 3D content such as a still image and a moving image.

3Dの静止画像や3Dの動画像を立体的に表示することが可能なコンテンツ表示装置が知られている。また、近年では、視聴者の目の錯覚を利用して、静止画像および動画像を3Dで表示させるための様々な方式が知られている。   There is known a content display device capable of displaying a 3D still image or a 3D moving image in a three-dimensional manner. In recent years, various methods for displaying still images and moving images in 3D using the optical illusion of the viewer are known.

たとえば、特開2007−72269号公報(特許文献1)には、立体表示装置が開示されている。特開2007−72269号公報(特許文献1)によると、立体表示装置は、画像を表示するための光を背面から照射するバックライトと、複数の画素を備えた画像表示部と、3D画像を立体的に表示するために左右眼に対応した画像に分離する為の視差バリアと、水平面に表示装置をおいた際に立体画像をゆがみなく適切な位置から見るための指標を提示する液晶により構成される観察角度提示バリアからなり、光の透過位置を変えることにより適切な観察角度を提示する。   For example, Japanese Unexamined Patent Application Publication No. 2007-72269 (Patent Document 1) discloses a stereoscopic display device. According to Japanese Patent Laid-Open No. 2007-72269 (Patent Document 1), a stereoscopic display device includes a backlight that emits light for displaying an image from the back, an image display unit including a plurality of pixels, and a 3D image. Consists of a parallax barrier for separating images into right and left eyes for stereoscopic display, and a liquid crystal that presents an index for viewing the stereoscopic image from an appropriate position without distortion when the display device is placed on a horizontal plane An appropriate observation angle is presented by changing the light transmission position.

また、特開2005−49668号公報(特許文献2)には、データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体が開示されている。特開号2005−49668公報(特許文献2)によると、オブジェクトが有する属性(使用頻度、重要度、ユーザの嗜好等)の少なくとも一部をオブジェクト属性抽出部が抽出する。データ変換部は、抽出された属性に応じてオブジェクトの立体表示形態(飛び出し量、立体表示期間等)を決定し、決定された立体表示形態を実現するように、オブジェクトを表示するためのデータを変換する。   Japanese Patent Laid-Open No. 2005-49668 (Patent Document 2) discloses a data conversion device, a display device, a data conversion method, a program, and a recording medium. According to Japanese Patent Laying-Open No. 2005-49668 (Patent Document 2), an object attribute extraction unit extracts at least a part of attributes (usage frequency, importance, user preference, etc.) of an object. The data conversion unit determines the 3D display form (the pop-out amount, 3D display period, etc.) of the object according to the extracted attributes, and sets the data for displaying the object so as to realize the determined 3D display form. Convert.

特開2007−72269号公報JP 2007-72269 A 特開2005−49668号公報JP 2005-49668 A

しかしながら、3Dのコンテンツとして複数のオブジェクトが重なって表示されている場合には、ユーザは手前に表示されるオブジェクトを見ることはできるが、奥に配置されるオブジェクトの一部または全部を見ることができない場合がある。これでは、3Dのコンテンツを記憶していることや3Dのコンテンツを表示しているメリットが低減されてしまう。   However, when a plurality of objects are displayed as 3D contents as being overlapped, the user can see the object displayed in the foreground, but can view a part or all of the objects arranged in the back. There are cases where it is not possible. This reduces the merit of storing 3D content and displaying 3D content.

本発明は、かかる問題を解決するためになされたものであり、その目的は、ユーザが奥に配置されているオブジェクトを簡単な操作で視認することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法を提供することにある。   The present invention has been made to solve such a problem, and an object of the present invention is to provide a 3D content display device and a 3D content display method that allow a user to visually recognize an object placed in the back by a simple operation. It is to provide.

この発明のある局面に従うと、入力装置と、ディスプレイと、複数のオブジェクトを表示するための3Dコンテンツを記憶するためのメモリと、複数のオブジェクトとポインタとをディスプレイに表示させるためのプロセッサとを備える3Dコンテンツ表示装置が提供される。プロセッサは、入力装置を介して受け付けたポインタの移動命令に基づいて、ポインタを移動させ、ポインタの位置と複数のオブジェクトの位置とに基づいて、ディスプレイに、ポインタよりも手前に表示されているオブジェクトを非表示または半透明にさせる。   According to an aspect of the present invention, an input device, a display, a memory for storing 3D content for displaying a plurality of objects, and a processor for causing the display to display a plurality of objects and a pointer are provided. A 3D content display device is provided. The processor moves the pointer based on the pointer movement command received via the input device, and the object displayed on the display in front of the pointer based on the position of the pointer and the positions of the plurality of objects. Is hidden or translucent.

好ましくは、プロセッサは、3Dコンテンツに基づいて、ディスプレイに、ユーザにオブジェクトがディスプレイから飛び出しているように見えるように当該オブジェクトを表示させる。   Preferably, the processor causes the display to display the object based on the 3D content so that the user can see the object popping out of the display.

好ましくは、プロセッサは、ポインタの位置と複数のオブジェクトの位置とに基づいて、ディスプレイに、ポインタよりも手前に表示されており、かつ、ポインタと重なっている、オブジェクトを非表示または半透明にさせる。   Preferably, based on the position of the pointer and the positions of the plurality of objects, the processor hides or translucently displays the object that is displayed in front of the pointer and overlaps the pointer. .

好ましくは、入力装置は、スクロールボタンを含む。プロセッサは、スクロールボタンを介して、ポインタの奥行き方向の移動命令を受け付ける。   Preferably, the input device includes a scroll button. The processor receives an instruction to move the pointer in the depth direction via the scroll button.

好ましくは、入力装置は、外部の物体による接触面積の変化を移動命令として検知するタッチパネルを含む。プロセッサは、タッチパネルを介して、接触面積が大きくなるほどポインタの奥行き方向へ移動させる。   Preferably, the input device includes a touch panel that detects a change in contact area due to an external object as a movement command. The processor moves the pointer in the depth direction as the contact area increases through the touch panel.

好ましくは、入力装置は、外部の物体による押し圧の変化を移動命令として検知するタッチパネルを含む。プロセッサは、タッチパネルを介して、押し圧が大きくなるほどポインタを奥行き方向へ移動させる。   Preferably, the input device includes a touch panel that detects a change in pressing pressure due to an external object as a movement command. The processor moves the pointer in the depth direction as the pressing pressure increases via the touch panel.

好ましくは、3Dコンテンツ表示装置は、スピーカをさらに備える。プロセッサは、オブジェクトを非表示または半透明にさせたときに、スピーカに効果音を出力させる。   Preferably, the 3D content display device further includes a speaker. The processor causes the speaker to output sound effects when the object is hidden or translucent.

この発明の別の局面に従うと、入力装置と、ディスプレイと、複数のオブジェクトを表示するための3Dコンテンツを記憶するためのメモリと、プロセッサとを含む3Dコンテンツ表示装置における3Dコンテンツ表示方法が提供される。3Dコンテンツ表示方法は、プロセッサが、3Dコンテンツに基づいて、複数のオブジェクトとポインタとをディスプレイに表示させるステップと、プロセッサが、入力装置を介して受け付けたポインタの移動命令に基づいて、ポインタを移動させるステップと、プロセッサが、ポインタの位置と複数のオブジェクトの位置とに基づいて、ディスプレイに、ポインタよりも手前に表示されているオブジェクトを非表示または半透明にさせるステップとを備える。   According to another aspect of the present invention, there is provided a 3D content display method in a 3D content display device including an input device, a display, a memory for storing 3D content for displaying a plurality of objects, and a processor. The In the 3D content display method, the processor causes the display to display a plurality of objects and pointers based on the 3D content, and the processor moves the pointer based on a pointer movement command received via the input device. And a step of causing the display to hide or translucent the object displayed in front of the pointer based on the position of the pointer and the positions of the plurality of objects.

以上のように、本発明によって、ユーザが奥に配置されているオブジェクトを簡単な操作で視認することができる3Dコンテンツ表示装置および3Dコンテンツ表示方法が提供される。   As described above, according to the present invention, there are provided a 3D content display device and a 3D content display method that allow a user to visually recognize an object placed in the back by a simple operation.

本実施の形態に係る携帯電話100の外観を示すイメージ図である。It is an image figure which shows the external appearance of the mobile telephone 100 which concerns on this Embodiment. 実施の形態1に係る携帯電話100の動作概要を示すイメージ図である。3 is an image diagram showing an outline of operation of mobile phone 100 according to Embodiment 1. FIG. 本実施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the mobile telephone 100 which concerns on this Embodiment. ポインタのZ方向の移動命令の第1の入力方法を示すイメージ図である。It is an image figure which shows the 1st input method of the movement command of a pointer in the Z direction. ポインタのZ方向の移動命令の第2の入力方法を示すイメージ図である。It is an image figure which shows the 2nd input method of the movement instruction | indication of a pointer in the Z direction. ポインタのZ方向の移動命令の第3の入力方法を示すイメージ図である。It is an image figure which shows the 3rd input method of the movement instruction | indication of a pointer in the Z direction. 実施の形態1に係る携帯電話100におけるコンテンツ表示処理の処理手順を示すフローチャートである。3 is a flowchart showing a processing procedure of content display processing in mobile phone 100 according to Embodiment 1. 実施の形態2に係る携帯電話100の動作概要を示すイメージ図である。6 is an image diagram showing an outline of operation of mobile phone 100 according to Embodiment 2. FIG. 実施の形態2に係る携帯電話100におけるコンテンツ表示処理の処理手順を示すフローチャートである。10 is a flowchart showing a processing procedure of content display processing in mobile phone 100 according to Embodiment 2.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

本実施の形態においては、携帯電話100を「コンテンツ表示装置」の代表例として説明を行う。ただし、表示装置は、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、ゲーム機、電子辞書、電子BOOK、パーソナルコンピュータなどのような、ディスプレイを有する他の情報機器であってもよい。なお、コンテンツ表示装置は、ネットワークに接続可能であって、他の機器との間でデータの送受信が可能な情報通信機器であることが好ましい。   In the present embodiment, mobile phone 100 will be described as a representative example of “content display device”. However, the display device may be another information device having a display such as a PND (Personal Navigation Device), a PDA (Personal Data Assistance), a game machine, an electronic dictionary, an electronic BOOK, or a personal computer. The content display device is preferably an information communication device that can be connected to a network and can transmit and receive data to and from other devices.

そして、本実施の形態に係るディスプレイは、3Dの静止画像や3Dの動画像を、3Dで表示したり、2Dで表示したりすることができる。すなわち、ディスプレイは、ユーザがディスプレイからオブジェクトが飛び出しているように見えるように当該オブジェクトを表示する。   The display according to the present embodiment can display a 3D still image or a 3D moving image in 3D or in 2D. That is, the display displays the object so that the user looks as if the object is protruding from the display.

現在、静止画像や動画像を3Dの表示で表示するための多数の方式が提案されている。たとえば、メガネを用いる方式として、液晶アクティブシャッターメガネ方式および偏向板方式が挙げられる。また、メガネを用いない方式として、視差バリア方式およびレンチキュラー方式が挙げられる。本実施の形態に係る3Dの表示方式は、上記の方式に限定されるものではない。   Currently, many methods for displaying still images and moving images in 3D display have been proposed. For example, a method using glasses includes a liquid crystal active shutter glasses method and a deflection plate method. Further, as a method that does not use glasses, a parallax barrier method and a lenticular method can be given. The 3D display method according to the present embodiment is not limited to the above method.

[実施の形態1]
<携帯電話100の全体構成>
まず、本実施の形態に係る携帯電話100の全体構成について説明する。図1は、本実施の形態に係る携帯電話100の外観を示すイメージ図である。
[Embodiment 1]
<Overall configuration of mobile phone 100>
First, the overall configuration of mobile phone 100 according to the present embodiment will be described. FIG. 1 is an image diagram showing an appearance of mobile phone 100 according to the present embodiment.

図1を参照して、本実施の形態に係る携帯電話100は、ディスプレイ101と、タブレット102と、スクロールボタン(方向キー)106とを含む。ディスプレイ101は、3Dのコンテンツを表示する。より詳細には、ディスプレイ101は、後述するCPU(Central Processing Unit)からの信号に基づいて、3Dのコンテンツとして、複数の立体画像(オブジェクト)とポインタとを表示する。   Referring to FIG. 1, mobile phone 100 according to the present embodiment includes a display 101, a tablet 102, and scroll buttons (direction keys) 106. The display 101 displays 3D content. More specifically, the display 101 displays a plurality of stereoscopic images (objects) and pointers as 3D content based on a signal from a CPU (Central Processing Unit) described later.

本実施の形態に係るタッチパネル103は、CPU110からの信号に基づいて、複数のオブジェクトとポインタとを3D表示する。より詳細には、オブジェクトとポインタとが3D表示されている場合、本実施の形態に係る携帯電話100のユーザは、複数のオブジェクトとポインタとがタッチパネル103から飛び出しているように見える。   Touch panel 103 according to the present embodiment displays a plurality of objects and pointers in 3D based on a signal from CPU 110. More specifically, when the object and the pointer are displayed in 3D, the user of the mobile phone 100 according to the present embodiment appears to have a plurality of objects and pointers protruding from the touch panel 103.

<携帯電話100の動作概要>
次に、本実施の形態に係る携帯電話100の動作概要について説明する。図2は、本実施の形態に係る携帯電話100の動作概要を示すイメージ図である。より詳細には、図2(a)は、ポインタが複数のオブジェクトA,B,Cの手前に位置する状態を示す斜視図である。このようなポインタをZ1と示す。図2(b)は、ポインタが複数のオブジェクトA,B,Cの手前に位置する状態を示す平面図である。図2(c)は、ポインタがオブジェクトAの背後に位置する状態を示す斜視図である。このようなポインタをZ2と示す。図2(d)は、ポインタがオブジェクトAの背後に位置する状態を示す平面図である。図2(e)は、ポインタがオブジェクトCの背後に位置する状態を示す斜視図である。図2(f)は、ポインタがオブジェクトCの背後に位置する状態を示す平面図である。
<Outline of operation of mobile phone 100>
Next, an outline of the operation of mobile phone 100 according to the present embodiment will be described. FIG. 2 is an image diagram showing an outline of operation of mobile phone 100 according to the present embodiment. More specifically, FIG. 2A is a perspective view showing a state where the pointer is positioned in front of a plurality of objects A, B, and C. Such a pointer is denoted as Z1. FIG. 2B is a plan view showing a state in which the pointer is positioned in front of a plurality of objects A, B, and C. FIG. 2C is a perspective view showing a state where the pointer is located behind the object A. FIG. Such a pointer is denoted as Z2. FIG. 2D is a plan view showing a state in which the pointer is located behind the object A. FIG. 2E is a perspective view showing a state where the pointer is located behind the object C. FIG. FIG. 2F is a plan view showing a state where the pointer is located behind the object C. FIG.

図2(a)(b)を参照して、ディスプレイ101が複数のオブジェクトA,B,Cを表示しているものとする。オブジェクトA,Cは、オブジェクトBよりも手前に位置するものとする。ポインタが全てのオブジェクトA,B,Cよりも手前に位置する場合、携帯電話100は、全てのオブジェクトA,B,Cを通常通りに表示する。すなわち、オブジェクトBの一部が、オブジェクトA,Cによって見えない。   2A and 2B, it is assumed that the display 101 displays a plurality of objects A, B, and C. It is assumed that the objects A and C are positioned in front of the object B. When the pointer is positioned in front of all the objects A, B, and C, the mobile phone 100 displays all the objects A, B, and C as usual. That is, a part of the object B cannot be seen by the objects A and C.

図2(c)(d)を参照して、ポインタが奥行き方向(Z方向)に移動して、ポインタがオブジェクトAの背後に位置するものとする。このとき、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cのうち、正面視においてポインタと重なるオブジェクトAを非表示にする。あるいは、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cのうち、正面視においてポインタと重なるオブジェクトAを半透明にする。これによって、ユーザは、オブジェクトBが見易くなる。   2C and 2D, it is assumed that the pointer moves in the depth direction (Z direction) and the pointer is positioned behind the object A. At this time, the mobile phone 100 hides the object A that overlaps the pointer in front view among the objects A and C positioned in front of the pointer. Alternatively, the mobile phone 100 makes the object A that overlaps the pointer in front view out of the objects A and C positioned in front of the pointer semi-transparent. This makes it easier for the user to see the object B.

図2(e)(f)を参照して、ポインタが奥行きと垂直の方向(X,Y方向)に移動して、ポインタがオブジェクトCの背後に位置するものとする。このとき、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cのうち、正面視においてポインタと重なるオブジェクトCを非表示にする。あるいは、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cのうち、正面視においてポインタと重なるオブジェクトCを半透明にする。これによって、ユーザは、オブジェクトBが見易くなる。   2E and 2F, it is assumed that the pointer moves in the direction (X, Y direction) perpendicular to the depth, and the pointer is located behind the object C. At this time, the cellular phone 100 hides the object C that overlaps the pointer in front view among the objects A and C positioned in front of the pointer. Alternatively, the mobile phone 100 makes the object C overlapping the pointer in front view out of the objects A and C positioned in front of the pointer semi-transparent. This makes it easier for the user to see the object B.

なお、ポインタがオブジェクトBよりも奥に位置する場合には、携帯電話100は、全てのオブジェクトA,B,Cを非表示にする。あるいは、ポインタがオブジェクトBよりも奥に位置する場合には、携帯電話100は、全てのオブジェクトA,B,Cを半透明にする。   When the pointer is located behind the object B, the mobile phone 100 hides all the objects A, B, and C. Alternatively, when the pointer is located behind the object B, the mobile phone 100 makes all the objects A, B, and C translucent.

以上のように、本実施の形態に係る携帯電話100においては、ユーザがポインタの位置を変更することによって、当該ポインタの手前に位置するオブジェクトのうち、ポインタと重なって表示されるオブジェクトを非表示あるいは半透明にする。これによって、ユーザが奥に配置されているオブジェクトを簡単な操作で視認することができる。   As described above, in mobile phone 100 according to the present embodiment, when the user changes the position of the pointer, objects displayed in a manner overlapping with the pointer among objects positioned in front of the pointer are hidden. Or make it translucent. Thereby, the user can visually recognize the object arranged in the back by a simple operation.

以下、このような機能を実現するための携帯電話100の構成について詳述する。
<携帯電話100のハードウェア構成>
本実施の形態に係る携帯電話100のハードウェア構成について説明する。図3は、本実施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。
Hereinafter, the configuration of the mobile phone 100 for realizing such a function will be described in detail.
<Hardware configuration of mobile phone 100>
A hardware configuration of mobile phone 100 according to the present embodiment will be described. FIG. 3 is a block diagram showing a hardware configuration of mobile phone 100 according to the present embodiment.

図3に示すように、本実施の形態に係る携帯電話100は、ディスプレイ101と、タブレット102と、ボタン104と、通信インターフェイス105と、スクロールボタン106と、マイク107と、スピーカ108と、メモリインターフェイス109と、CPU110と、メモリ111とを含む。   As shown in FIG. 3, the mobile phone 100 according to the present embodiment includes a display 101, a tablet 102, a button 104, a communication interface 105, a scroll button 106, a microphone 107, a speaker 108, and a memory interface. 109, a CPU 110, and a memory 111.

ディスプレイ101は、CPU110によって制御されることによって、様々な情報を表示する。タブレット102は、ユーザの指やスタイラスペンによるタッチ操作を検出して、タッチ座標をCPU110に入力する。あるいは、タブレット102は、ユーザの指とタブレット102との接触面積を検出して、接触面積をCPU110に入力する。あるいは、タブレット102は、ユーザの指やスタイラスペンによる押し圧を検出して、押し圧をCPU110に入力する。すなわち、CPU110は、タブレット102を介して、ユーザからの命令を受け付けることができる。   The display 101 displays various information by being controlled by the CPU 110. The tablet 102 detects a touch operation with a user's finger or stylus pen, and inputs the touch coordinates to the CPU 110. Alternatively, the tablet 102 detects the contact area between the user's finger and the tablet 102 and inputs the contact area to the CPU 110. Alternatively, the tablet 102 detects the pressing pressure by the user's finger or stylus pen and inputs the pressing pressure to the CPU 110. That is, the CPU 110 can accept a command from the user via the tablet 102.

図1に示すように、ディスプレイ101とタブレット102とが別々に携帯電話100に配置されてもよいし、ディスプレイ101の表面にタブレット102が敷設されていてもよい。すなわち、ディスプレイ101とタブレット102とがタッチパネル103を構成してもよい。   As shown in FIG. 1, the display 101 and the tablet 102 may be separately disposed on the mobile phone 100, or the tablet 102 may be laid on the surface of the display 101. That is, the display 101 and the tablet 102 may constitute the touch panel 103.

ボタン104は、携帯電話100の表面に配置される決定キー104aやテンキーなどを含む。ボタン104は、ユーザから様々な命令を受け付ける。ボタン104は、ユーザからの命令をCPU110に入力する。ただし、上記のタッチパネル103に表示されるソフトウェアボタンが、ボタン104の役割を果たしてもよい。たとえば、決定キー104aが押下されたことがCPU110に入力されると、CPU110は、ポインタの直後に位置するオブジェクトを選択状態にする。   The button 104 includes an enter key 104 a and a numeric keypad that are arranged on the surface of the mobile phone 100. The button 104 receives various commands from the user. The button 104 inputs a command from the user to the CPU 110. However, the software button displayed on the touch panel 103 may serve as the button 104. For example, when the CPU 110 inputs that the enter key 104a has been pressed, the CPU 110 selects the object located immediately after the pointer.

通信インターフェイス105は、CPU110によって制御されることによって、ネットワークを介して、外部の端末やサーバとデータ通信を行う。たとえば、CPU110は、通信インターフェイス105を介して、外部のサーバからコンテンツデータやプログラムを受信する。   The communication interface 105 is controlled by the CPU 110 to perform data communication with an external terminal or server via a network. For example, the CPU 110 receives content data and programs from an external server via the communication interface 105.

スクロールボタン106は、ポインタをディスプレイ101に垂直な方向に移動させるための命令を受け付ける。スクロールボタン106は、表示対象のコンテンツのうちの表示エリアを移動させるための命令を受け付ける。スクロールボタン106は、それらの命令をCPU110に入力する。   The scroll button 106 receives a command for moving the pointer in a direction perpendicular to the display 101. The scroll button 106 receives a command for moving the display area of the display target content. The scroll button 106 inputs those commands to the CPU 110.

なお、図1に示すように、方向キーがスクロールボタン106の役割を果たしてもよいし、スクロールボタン106と方向キーとが別々に携帯電話100に配置されてもよい。たとえば、上下キーが、ポインタをディスプレイ101に垂直な方向に移動させるための命令を受け付けてもよい。さらに、マウス113が、スクロールボタン106とタブレット102の役割を果たしてもよい。   As shown in FIG. 1, the direction key may serve as the scroll button 106, or the scroll button 106 and the direction key may be separately arranged on the mobile phone 100. For example, an up / down key may accept a command for moving the pointer in a direction perpendicular to the display 101. Further, the mouse 113 may serve as the scroll button 106 and the tablet 102.

マイク107は、音声を受け付けて、音声信号を生成する。マイク107は、音声信号をCPU110に入力する。   The microphone 107 receives audio and generates an audio signal. The microphone 107 inputs an audio signal to the CPU 110.

スピーカ108は、CPU110によって制御されることによって、様々な情報(たとえば、音声メッセージやビープ音など)を出力する。   The speaker 108 outputs various information (for example, a voice message, a beep sound, etc.) by being controlled by the CPU 110.

メモリインターフェイス109は、着脱可能な(接続可能な)外部の記録媒体からデータを読み出すことによってCPU110に当該データを入力したり、CPU110からのデータを当該記録媒体に格納したりする。   The memory interface 109 reads the data from a removable (connectable) external recording medium, and inputs the data to the CPU 110 or stores the data from the CPU 110 in the recording medium.

なお、記憶媒体としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。   As storage media, CD-ROM (Compact Disc-Read Only Memory), DVD-ROM (Digital Versatile Disk-Read Only Memory), USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk , Magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory) And the like, for example, a medium for storing the program in a nonvolatile manner.

メモリ111は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。たとえば、メモリ111は、読取用のインターフェイスを介して利用される、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体などによっても実現される。   The memory 111 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), a hard disk, and the like. For example, the memory 111 is a USB (Universal Serial Bus) memory, a CD-ROM (Compact Disc-Read Only Memory), a DVD-ROM (Digital Versatile Disk-Read Only Memory), which is used via a reading interface. USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory cards) It is also realized by a medium for storing a program in a nonvolatile manner such as an optical card, a mask ROM, an EPROM, and an EEPROM (Electronically Erasable Programmable Read-Only Memory).

メモリ111は、CPU110によって実行される制御プログラムや、3Dのコンテンツデータなどを記憶する。3Dのコンテンツデータは、3Dの静止画像を表示するための3Dの静止画像データ、3Dの動画像を表示するための3Dの動画像データを含む。   The memory 111 stores a control program executed by the CPU 110, 3D content data, and the like. The 3D content data includes 3D still image data for displaying a 3D still image, and 3D moving image data for displaying a 3D moving image.

CPU110は、メモリ111に記憶されている各種のプログラムを実行する。携帯電話100における処理(たとえば、図7および図9に示す処理など。)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ111に予め記憶されている場合がある。また、ソフトウェアは、記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。   The CPU 110 executes various programs stored in the memory 111. The processing in the mobile phone 100 (for example, the processing shown in FIGS. 7 and 9, etc.) is realized by each hardware and software executed by the CPU 110. Such software may be stored in the memory 111 in advance. The software may be stored in a storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.

このようなソフトウェアは、図示しない読取装置を利用することによってその記憶媒体から読み取られて、あるいは、通信インターフェイス105を利用することによってダウンロードされて、メモリ111に一旦格納される。CPU110は、ソフトウェアを実行可能なプログラムの形式でメモリ111に格納してから、当該プログラムを実行する。   Such software is read from the storage medium by using a reading device (not shown), or downloaded by using the communication interface 105 and temporarily stored in the memory 111. The CPU 110 stores the software in the form of an executable program in the memory 111 and then executes the program.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

CPU110は、メモリ111に格納されている3Dのコンテンツデータに基づいて、ディスプレイ101に3Dのコンテンツとして立体画像(オブジェクト)を表示させる。CPU110は、ディスプレイ101にオブジェクトをその奥行きが認識できるように表示させる。たとえば、CPU110は、オブジェクトを2D表示してもよいし3D表示してもよい。   The CPU 110 displays a stereoscopic image (object) as 3D content on the display 101 based on the 3D content data stored in the memory 111. The CPU 110 displays the object on the display 101 so that the depth can be recognized. For example, the CPU 110 may display the object in 2D or 3D.

CPU110は、ディスプレイ101にオブジェクトとともにポインタを表示させる。CPU110は、タブレット102、タッチパネル103、あるいは方向キーを介して、ポインタをディスプレイ101に並行な方向(X,Y方向)に移動させる。CPU110は、スクロールボタン106、タブレット102、あるいはタッチパネル103を介して、ポインタをディスプレイ101に垂直な方向(Z方向)に移動させる。   The CPU 110 causes the display 101 to display a pointer along with the object. The CPU 110 moves the pointer in the direction parallel to the display 101 (X and Y directions) via the tablet 102, the touch panel 103, or the direction key. The CPU 110 moves the pointer in a direction (Z direction) perpendicular to the display 101 via the scroll button 106, the tablet 102, or the touch panel 103.

より詳細には、以下のような方式に基づいて、CPU110は、ポインタのZ方向の移動命令を受け付ける。図4は、ポインタのZ方向の移動命令の第1の入力方法を示すイメージ図である。   More specifically, based on the following method, CPU 110 accepts a pointer movement command in the Z direction. FIG. 4 is an image diagram showing a first input method of a movement command for the pointer in the Z direction.

図4を参照して、CPU110は、スクロールボタン106を介して、ポインタのZ方向の移動命令を受け付ける。たとえば、CPU110は、スクロールボタン106が前方向に回転されたことを検知して(S1→S2→S3)、ポインタをZ方向へ(ディスプレイ101の奥へ)と移動させる(Z1→Z2→Z3)。逆に、CPU110は、スクロールボタン106が後方向に回転されたことを検知して、ポインタをZ方向の逆方向へ(ディスプレイ101の手前へ)と移動させる(Z3→Z2→Z1)。   Referring to FIG. 4, CPU 110 accepts a pointer movement command in the Z direction via scroll button 106. For example, the CPU 110 detects that the scroll button 106 has been rotated forward (S1 → S2 → S3), and moves the pointer in the Z direction (to the back of the display 101) (Z1 → Z2 → Z3). . Conversely, the CPU 110 detects that the scroll button 106 has been rotated backward, and moves the pointer in the reverse direction of the Z direction (toward the display 101) (Z3 → Z2 → Z1).

あるいは、CPU110は、スクロールボタン106の上部が押されたことを検知して、ポインタをZ方向へ(ディスプレイ101の奥へ)と移動させる(Z1→Z2→Z3)。逆に、CPU110は、スクロールボタン106の下部が押されたことを検知して、ポインタをZ方向の逆方向へ(ディスプレイ101の手前へ)と移動させる(Z3→Z2→Z1)。   Alternatively, the CPU 110 detects that the upper part of the scroll button 106 has been pressed, and moves the pointer in the Z direction (to the back of the display 101) (Z1 → Z2 → Z3). Conversely, the CPU 110 detects that the lower part of the scroll button 106 has been pressed, and moves the pointer in the direction opposite to the Z direction (to the front of the display 101) (Z3 → Z2 → Z1).

図5は、ポインタのZ方向の移動命令の第2の入力方法を示すイメージ図である。ここでは、タブレット102あるいはタッチパネル103が、外部の物体の接触面積を取得することができる静電式のタブレットを含む。   FIG. 5 is an image diagram showing a second method of inputting a pointer movement command in the Z direction. Here, the tablet 102 or the touch panel 103 includes an electrostatic tablet that can acquire the contact area of an external object.

図5を参照して、CPU110は、タブレット102あるいはタッチパネル103を介して、ポインタのZ方向の移動命令を受け付ける。たとえば、CPU110は、タブレット102あるいはタッチパネル103と外部の物体との接触面積が増加したことを検知して(A1→A2→A3)、ポインタをZ方向へ(ディスプレイ101の奥へ)と移動させる(Z1→Z2→Z3)。逆に、CPU110は、タブレット102あるいはタッチパネル103と外部の物体との接触面積が低減したことを検知して(A3→A2→A1)、ポインタをZ方向の逆方向へ(ディスプレイ101の手前へ)と移動させる(Z3→Z2→Z1)。   Referring to FIG. 5, CPU 110 accepts a pointer movement command in the Z direction via tablet 102 or touch panel 103. For example, the CPU 110 detects that the contact area between the tablet 102 or the touch panel 103 and an external object has increased (A1 → A2 → A3), and moves the pointer in the Z direction (to the back of the display 101) ( Z1 → Z2 → Z3). Conversely, the CPU 110 detects that the contact area between the tablet 102 or the touch panel 103 and an external object has decreased (A3 → A2 → A1), and moves the pointer in the direction opposite to the Z direction (to the front of the display 101). (Z3 → Z2 → Z1).

図6は、ポインタのZ方向の移動命令の第3の入力方法を示すイメージ図である。ここでは、タブレット102あるいはタッチパネル103が、外部の物体による押し圧を取得することができる感圧式のタブレットを含む。   FIG. 6 is an image diagram showing a third method for inputting a pointer movement command in the Z direction. Here, the tablet 102 or the touch panel 103 includes a pressure-sensitive tablet that can acquire a pressing force by an external object.

図6を参照して、CPU110は、タブレット102あるいはタッチパネル103を介して、ポインタのZ方向の移動命令を受け付ける。たとえば、CPU110は、タブレット102あるいはタッチパネル103への外部の物体による押し圧が増加したことを検知して(P1→P2→P3)、ポインタをZ方向へ(ディスプレイ101の奥へ)と移動させる(Z1→Z2→Z3)。逆に、CPU110は、タブレット102あるいはタッチパネル103への外部の物体による押し圧が低減したことを検知して(P3→P2→P1)、ポインタをZ方向の逆方向へ(ディスプレイ101の手前へ)と移動させる(Z3→Z2→Z1)。   Referring to FIG. 6, CPU 110 accepts a pointer movement command in the Z direction via tablet 102 or touch panel 103. For example, the CPU 110 detects that the pressure applied by the external object to the tablet 102 or the touch panel 103 has increased (P1 → P2 → P3), and moves the pointer in the Z direction (to the back of the display 101) ( Z1 → Z2 → Z3). Conversely, the CPU 110 detects that the pressure applied by the external object to the tablet 102 or the touch panel 103 has decreased (P3 → P2 → P1), and moves the pointer in the reverse direction of the Z direction (to the front of the display 101). (Z3 → Z2 → Z1).

図2および図3を参照して、CPU110は、タブレット102、タッチパネル103、あるいはスクロールボタン(方向キー)106を介してユーザからポインタの移動命令を受け付けて、ポインタをX,Y,Z方向へ移動させる。そして、本実施の形態に係るCPU110は、ディスプレイ101に、ポインタの手前に位置するオブジェクトA,Cのうち、ポインタと重なって表示されるオブジェクトを非表示あるいは半透明にさせる。   2 and 3, CPU 110 accepts a pointer movement command from the user via tablet 102, touch panel 103, or scroll button (direction key) 106, and moves the pointer in the X, Y, and Z directions. Let Then, CPU 110 according to the present embodiment causes display 101 to hide or semi-transparent an object that is displayed overlapping with the pointer among objects A and C positioned in front of the pointer.

<携帯電話100におけるコンテンツ表示処理>
次に、本実施の形態に係る携帯電話100におけるコンテンツ表示処理について説明する。図7は、本実施の形態に係る携帯電話100におけるコンテンツ表示処理の処理手順を示すフローチャートである。
<Content display processing in mobile phone 100>
Next, content display processing in mobile phone 100 according to the present embodiment will be described. FIG. 7 is a flowchart showing a processing procedure of content display processing in mobile phone 100 according to the present embodiment.

図7を参照して、まず、携帯電話100のCPU110は、ユーザからのコンテンツを指定するための命令に従って、メモリから3Dのコンテンツデータを読み出す。CPU110は、3Dのコンテンツデータに基づいて、ディスプレイ101に3Dのコンテンツとしての複数のオブジェクトとポインタとを表示させる(ステップS102)。CPU110は、ポインタのX,Y,Z座標を取得する(ステップS104)。   Referring to FIG. 7, first, CPU 110 of mobile phone 100 reads 3D content data from the memory in accordance with an instruction for designating content from the user. Based on the 3D content data, the CPU 110 displays a plurality of objects and pointers as 3D content on the display 101 (step S102). CPU110 acquires the X, Y, Z coordinate of a pointer (step S104).

CPU110は、ポインタの手前にオブジェクトが表示されているか否かを判断する(ステップS106)。ポインタの手前にオブジェクトが表示されていない場合(ステップS106においてNOである場合)、CPU110は、ステップS114からの処理を実行する。   CPU 110 determines whether an object is displayed in front of the pointer (step S106). If the object is not displayed in front of the pointer (NO in step S106), CPU 110 executes the processing from step S114.

ポインタの手前にオブジェクトが表示されている場合(ステップS106においてYESである場合)、CPU110は、ポインタの手前にオブジェクトの中に、ポインタと重なるオブジェクトが存在するか否かを判断する(ステップS108)。ポインタの手前のオブジェクトの中に、ポインタと重なるオブジェクトが存在しない場合(ステップS108においてNOである場合)、CPU110は、ステップS114からの処理を実行する。   If an object is displayed in front of the pointer (YES in step S106), CPU 110 determines whether there is an object overlapping the pointer in the object before the pointer (step S108). . If there is no object that overlaps the pointer among the objects in front of the pointer (NO in step S108), CPU 110 executes the processing from step S114.

ポインタの手前のオブジェクトの中に、ポインタと重なるオブジェクトが存在する場合(ステップS108においてYESである場合)、CPU110は、ディスプレイ101に、ポインタと重なるオブジェクトを非表示にさせる(ステップS110)。あるいは、CPU110は、ディスプレイ101に、ポインタと重なるオブジェクトを半透明にさせる。   If there is an object that overlaps the pointer among the objects before the pointer (YES in step S108), CPU 110 causes display 101 to hide the object that overlaps the pointer (step S110). Alternatively, the CPU 110 causes the display 101 to make the object overlapping the pointer semi-transparent.

これによって、ユーザは、当該ポインタと重なるオブジェクトの背後のオブジェクトを見易くなる。   This makes it easier for the user to see the object behind the object that overlaps the pointer.

CPU110は、スピーカ108に、ポインタを非表示(半透明)にした旨を報知するためのサウンドを出力させる(ステップS112)。CPU110は、タブレット102、タッチパネル103、あるいは、スクロールボタン106を介して、ポインタの移動命令を受け付けたか否かを判断する(ステップS114)。CPU110は、ポインタの移動命令を受け付けなかった場合(ステップS114においてNOである場合)、ステップS114からの処理を繰り返す。   CPU 110 causes speaker 108 to output a sound for notifying that the pointer has been hidden (translucent) (step S112). CPU 110 determines whether a pointer movement command has been received via tablet 102, touch panel 103, or scroll button 106 (step S114). CPU110 repeats the process from step S114, when the movement command of a pointer is not received (when it is NO in step S114).

CPU110は、ポインタの移動命令を受け付けた場合(ステップS114においてYESである場合)、ディスプレイ101にポインタを移動させる(ステップS116)。CPU110は、ステップS104からの処理を繰り返す。   CPU110 moves a pointer to the display 101, when the movement command of a pointer is received (when it is YES in step S114) (step S116). CPU110 repeats the process from step S104.

[実施の形態2]
次に、本発明の実施の形態2について説明する。上述の実施の形態1に係る携帯電話100は、ポインタの手前に表示されるオブジェクトのうちの、ポインタと重なるオブジェクトを非表示(半透明)にするものであった。しかしながら、本実施の形態に係る携帯電話100は、ポインタの手前に表示されるオブジェクトを非表示(半透明)にするものである。
[Embodiment 2]
Next, a second embodiment of the present invention will be described. The mobile phone 100 according to Embodiment 1 described above hides (semi-transparent) an object that overlaps the pointer among the objects displayed in front of the pointer. However, mobile phone 100 according to the present embodiment hides (semi-transparent) the object displayed in front of the pointer.

なお、以下では、実施の形態1に係る携帯電話100と同様の構成については、説明を繰り返さない。たとえば、本実施の形態に係る、携帯電話100の全体構成(図1)、携帯電話100のハードウェア構成(図3)、ポインタの奥行き方向への移動命令の入力方法(図4、図5、図6)などは、実施の形態1のそれらと同様であるため、ここでは説明を繰り返さない。   Hereinafter, the description of the same configuration as that of mobile phone 100 according to Embodiment 1 will not be repeated. For example, according to the present embodiment, the overall configuration of the mobile phone 100 (FIG. 1), the hardware configuration of the mobile phone 100 (FIG. 3), and a method of inputting a movement command in the depth direction of the pointer (FIGS. 4, 5, Since FIG. 6) and the like are the same as those of the first embodiment, description thereof will not be repeated here.

<携帯電話100の動作概要>
次に、本実施の形態に係る携帯電話100の動作概要について説明する。図8は、本実施の形態に係る携帯電話100の動作概要を示すイメージ図である。より詳細には、図8(a)は、ポインタが複数のオブジェクトA,B,Cの手前に位置する状態を示す斜視図である。図8(b)は、ポインタが複数のオブジェクトA,B,Cの手前に位置する状態を示す平面図である。図8(c)は、ポインタがオブジェクトAの背後に位置する状態を示す斜視図である。図8(d)は、ポインタがオブジェクトAの背後に位置する状態を示す平面図である。図8(e)は、ポインタがオブジェクトCの背後に位置する状態を示す斜視図である。図8(f)は、ポインタがオブジェクトCの背後に位置する状態を示す平面図である。
<Outline of operation of mobile phone 100>
Next, an outline of the operation of mobile phone 100 according to the present embodiment will be described. FIG. 8 is an image diagram showing an outline of operation of mobile phone 100 according to the present embodiment. More specifically, FIG. 8A is a perspective view showing a state in which the pointer is positioned in front of a plurality of objects A, B, and C. FIG. 8B is a plan view showing a state in which the pointer is positioned in front of a plurality of objects A, B, and C. FIG. 8C is a perspective view showing a state where the pointer is located behind the object A. FIG. FIG. 8D is a plan view showing a state where the pointer is located behind the object A. FIG. 8E is a perspective view showing a state where the pointer is located behind the object C. FIG. FIG. 8F is a plan view showing a state in which the pointer is located behind the object C.

図8(a)(b)を参照して、ディスプレイ101が複数のオブジェクトA,B,Cを表示しているものとする。オブジェクトA,Cは、オブジェクトBよりも手前に位置するものとする。ポインタが全てのオブジェクトA,B,Cよりも手前に位置する場合、携帯電話100は、全てのオブジェクトA,B,Cを通常に表示する。すなわち、オブジェクトBの一部が、オブジェクトA,Cによって見えない。   8A and 8B, it is assumed that the display 101 displays a plurality of objects A, B, and C. It is assumed that the objects A and C are positioned in front of the object B. When the pointer is positioned in front of all the objects A, B, and C, the mobile phone 100 normally displays all the objects A, B, and C. That is, a part of the object B cannot be seen by the objects A and C.

図8(c)(d)を参照して、ポインタが奥行き方向(Z方向)に移動して、ポインタがオブジェクトAの背後に位置するものとする。このとき、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cを非表示にする。あるいは、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cを半透明にする。これによって、ユーザは、オブジェクトBが見易くなる。   8C and 8D, it is assumed that the pointer moves in the depth direction (Z direction) and the pointer is located behind the object A. At this time, the mobile phone 100 hides the objects A and C located in front of the pointer. Alternatively, the mobile phone 100 makes the objects A and C located in front of the pointer translucent. This makes it easier for the user to see the object B.

図8(e)(f)を参照して、ポインタが奥行きと垂直の方向(X,Y方向)に移動して、ポインタがオブジェクトCの背後に位置するものとする。本実施の形態においては、このときも、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cを非表示にする。あるいは、携帯電話100は、ポインタの手前に位置するオブジェクトA,Cを半透明にする。これによって、ユーザは、オブジェクトBが見易くなる。   8E and 8F, it is assumed that the pointer moves in the direction (X, Y direction) perpendicular to the depth, and the pointer is located behind the object C. In the present embodiment, mobile phone 100 also hides objects A and C located in front of the pointer at this time. Alternatively, the mobile phone 100 makes the objects A and C located in front of the pointer translucent. This makes it easier for the user to see the object B.

なお、ポインタがオブジェクトBよりも奥に位置する場合には、携帯電話100は、全てのオブジェクトA,B,Cを非表示にする。あるいは、ポインタがオブジェクトBよりも奥に位置する場合には、携帯電話100は、全てのオブジェクトA,B,Cを半透明にする。   When the pointer is located behind the object B, the mobile phone 100 hides all the objects A, B, and C. Alternatively, when the pointer is located behind the object B, the mobile phone 100 makes all the objects A, B, and C translucent.

以上のように、本実施の形態に係る携帯電話100においては、ユーザがポインタの位置を変更することによって、当該ポインタの手前に位置するオブジェクトを非表示あるいは半透明にする。これによって、ユーザが奥に配置されているオブジェクトを簡単な操作で視認することができる。   As described above, in the mobile phone 100 according to the present embodiment, when the user changes the position of the pointer, the object positioned in front of the pointer is hidden or translucent. Thereby, the user can visually recognize the object arranged in the back by a simple operation.

<携帯電話100におけるコンテンツ表示処理>
次に、本実施の形態に係る携帯電話100におけるコンテンツ表示処理について説明する。図9は、本実施の形態に係る携帯電話100におけるコンテンツ表示処理の処理手順を示すフローチャートである。
<Content display processing in mobile phone 100>
Next, content display processing in mobile phone 100 according to the present embodiment will be described. FIG. 9 is a flowchart showing a processing procedure of content display processing in mobile phone 100 according to the present embodiment.

図9を参照して、まず、携帯電話100のCPU110は、ユーザからのコンテンツを指定するための命令に従って、メモリから3Dのコンテンツデータを読み出す。CPU110は、3Dのコンテンツデータに基づいて、ディスプレイ101に3Dのコンテンツとしての複数のオブジェクトとポインタとを表示させる(ステップS202)。CPU110は、ポインタのX,Y,Z座標を取得する(ステップS204)。   Referring to FIG. 9, first, CPU 110 of mobile phone 100 reads 3D content data from the memory in accordance with an instruction for designating content from the user. Based on the 3D content data, the CPU 110 displays a plurality of objects and pointers as 3D content on the display 101 (step S202). CPU110 acquires the X, Y, Z coordinate of a pointer (step S204).

CPU110は、ポインタの手前にオブジェクトが表示されているか否かを判断する(ステップS206)。ポインタの手前にオブジェクトが表示されていない場合(ステップS206においてNOである場合)、CPU110は、ステップS214からの処理を実行する。   CPU 110 determines whether an object is displayed in front of the pointer (step S206). If the object is not displayed in front of the pointer (NO in step S206), CPU 110 executes the processing from step S214.

ポインタの手前にオブジェクトが表示されている場合(ステップS206においてYESである場合)、CPU110は、ディスプレイ101に、ポインタの手前のオブジェクトを非表示にさせる(ステップS210)。あるいは、CPU110は、ディスプレイ101に、ポインタの手前のオブジェクトを半透明にさせる。   If an object is displayed in front of the pointer (YES in step S206), CPU 110 causes display 101 to hide the object in front of the pointer (step S210). Alternatively, the CPU 110 causes the display 101 to make the object in front of the pointer translucent.

これによって、ユーザは、ポインタより奥に位置するオブジェクトを見易くなる。
CPU110は、スピーカ108に、ポインタを非表示(半透明)にした旨を報知するためのサウンドを出力させる(ステップS212)。CPU110は、タブレット102、タッチパネル103、あるいは、スクロールボタン106を介して、ポインタの移動命令を受け付けたか否かを判断する(ステップS214)。CPU110は、ポインタの移動命令を受け付けなかった場合(ステップS214においてNOである場合)、ステップS214からの処理を繰り返す。
This makes it easier for the user to see an object located behind the pointer.
CPU 110 causes speaker 108 to output a sound for notifying that the pointer has been hidden (translucent) (step S212). The CPU 110 determines whether or not a pointer movement command has been received via the tablet 102, the touch panel 103, or the scroll button 106 (step S214). CPU110 repeats the process from step S214, when the movement command of a pointer is not received (when it is NO in step S214).

CPU110は、ポインタの移動命令を受け付けた場合(ステップS214においてYESである場合)、ディスプレイ101にポインタを移動させる(ステップS216)。CPU110は、ステップS204からの処理を繰り返す。   When CPU 110 receives a pointer movement command (YES in step S214), CPU 110 moves the pointer to display 101 (step S216). CPU110 repeats the process from step S204.

<本実施の形態に係る携帯電話100のその他の適用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other application examples of mobile phone 100 according to the present embodiment>
It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 携帯電話、101 ディスプレイ、102 タブレット、103 タッチパネル、104 ボタン、104a 決定キー、105 通信インターフェイス、106 スクロールボタン(方向キー)、107 マイク、108 スピーカ、109 メモリインターフェイス、110 CPU、111 メモリ、113 マウス、A,B,C オブジェクト。   100 mobile phone, 101 display, 102 tablet, 103 touch panel, 104 button, 104a determination key, 105 communication interface, 106 scroll button (direction key), 107 microphone, 108 speaker, 109 memory interface, 110 CPU, 111 memory, 113 mouse , A, B, C objects.

Claims (8)

入力装置と、
ディスプレイと、
複数のオブジェクトを表示するための3Dコンテンツを記憶するためのメモリと、
前記複数のオブジェクトとポインタとを前記ディスプレイに表示させるためのプロセッサとを備え、
前記プロセッサは、
前記入力装置を介して受け付けた前記ポインタの移動命令に基づいて、前記ポインタを移動させ、
前記ポインタの位置と前記複数のオブジェクトの位置とに基づいて、前記ディスプレイに、前記ポインタよりも手前に表示されている前記オブジェクトを非表示または半透明にさせる、3Dコンテンツ表示装置。
An input device;
Display,
A memory for storing 3D content for displaying a plurality of objects;
A processor for causing the display to display the plurality of objects and a pointer;
The processor is
Based on the pointer movement instruction received via the input device, the pointer is moved,
A 3D content display device that causes the display to make the object displayed in front of the pointer invisible or translucent on the display based on the position of the pointer and the positions of the plurality of objects.
前記プロセッサは、前記3Dコンテンツに基づいて、前記ディスプレイに、ユーザに前記オブジェクトが前記ディスプレイから飛び出しているように見えるように当該オブジェクトを表示させる、請求項1に記載の3Dコンテンツ表示装置。   The 3D content display device according to claim 1, wherein the processor causes the display to display the object such that the object appears to protrude from the display on the display based on the 3D content. 前記プロセッサは、
前記ポインタの位置と前記複数のオブジェクトの位置とに基づいて、前記ディスプレイに、前記ポインタよりも手前に表示されており、かつ、前記ポインタと重なっている、前記オブジェクトを非表示または半透明にさせる、請求項1または2に記載の3Dコンテンツ表示装置。
The processor is
Based on the position of the pointer and the positions of the plurality of objects, the object that is displayed in front of the pointer on the display and overlaps the pointer is hidden or made translucent. The 3D content display device according to claim 1 or 2.
前記入力装置は、スクロールボタンを含み、
前記プロセッサは、前記スクロールボタンを介して、前記ポインタの奥行き方向の前記移動命令を受け付ける、請求項1から3のいずれか1項に記載の3Dコンテンツ表示装置。
The input device includes a scroll button;
4. The 3D content display device according to claim 1, wherein the processor receives the movement command in the depth direction of the pointer via the scroll button. 5.
前記入力装置は、外部の物体による接触面積の変化を前記移動命令として検知するタッチパネルを含み、
前記プロセッサは、前記タッチパネルを介して、前記接触面積が大きくなるほど前記ポインタの奥行き方向へ移動させる、請求項1から4のいずれか1項に記載の3Dコンテンツ表示装置。
The input device includes a touch panel that detects a change in contact area due to an external object as the movement command,
5. The 3D content display device according to claim 1, wherein the processor moves the pointer in the depth direction as the contact area increases through the touch panel. 6.
前記入力装置は、外部の物体による押し圧の変化を前記移動命令として検知するタッチパネルを含み、
前記プロセッサは、前記タッチパネルを介して、前記押し圧が大きくなるほど前記ポインタを奥行き方向へ移動させる、請求項1から5のいずれか1項に記載の3Dコンテンツ表示装置。
The input device includes a touch panel that detects a change in pressing pressure due to an external object as the movement command,
6. The 3D content display device according to claim 1, wherein the processor moves the pointer in the depth direction as the pressing pressure increases via the touch panel. 7.
スピーカをさらに備え、
前記プロセッサは、前記オブジェクトを非表示または半透明にさせたときに、前記スピーカに効果音を出力させる、請求項1から6のいずれか1項に記載の3Dコンテンツ表示装置。
A speaker,
The 3D content display device according to any one of claims 1 to 6, wherein the processor causes the speaker to output a sound effect when the object is hidden or translucent.
入力装置と、ディスプレイと、複数のオブジェクトを表示するための3Dコンテンツを記憶するためのメモリと、プロセッサとを含む3Dコンテンツ表示装置における3Dコンテンツ表示方法であって、
前記プロセッサが、前記3Dコンテンツに基づいて、前記複数のオブジェクトとポインタとを前記ディスプレイに表示させるステップと、
前記プロセッサが、前記入力装置を介して受け付けた前記ポインタの移動命令に基づいて、前記ポインタを移動させるステップと、
前記プロセッサが、前記ポインタの位置と前記複数のオブジェクトの位置とに基づいて、前記ディスプレイに、前記ポインタよりも手前に表示されている前記オブジェクトを非表示または半透明にさせるステップとを備える、3Dコンテンツ表示方法。
A 3D content display method in a 3D content display device, including an input device, a display, a memory for storing 3D content for displaying a plurality of objects, and a processor,
The processor causing the display to display the plurality of objects and pointers based on the 3D content;
The processor moving the pointer based on the pointer movement command received via the input device;
And 3D including causing the display to hide or translucent the object displayed in front of the pointer based on the position of the pointer and the positions of the plurality of objects. Content display method.
JP2010210645A 2010-09-21 2010-09-21 3d content display device, and 3d content display method Withdrawn JP2012068705A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010210645A JP2012068705A (en) 2010-09-21 2010-09-21 3d content display device, and 3d content display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010210645A JP2012068705A (en) 2010-09-21 2010-09-21 3d content display device, and 3d content display method

Publications (1)

Publication Number Publication Date
JP2012068705A true JP2012068705A (en) 2012-04-05

Family

ID=46165967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010210645A Withdrawn JP2012068705A (en) 2010-09-21 2010-09-21 3d content display device, and 3d content display method

Country Status (1)

Country Link
JP (1) JP2012068705A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101623409B1 (en) * 2014-10-06 2016-05-24 경북대학교 산학협력단 Touchscreen device, method for operating touchscreen device, and terminal device employing the same
JP2017138571A (en) * 2016-09-26 2017-08-10 京セラ株式会社 Display control device
KR101771837B1 (en) * 2016-02-17 2017-08-25 (주)휴맥스 Remote controller providing force input in a media system and method of driving the same
KR20170101168A (en) * 2017-08-21 2017-09-05 (주)휴맥스 Control device for controlling an image processing terminal according to a sensing level and method of driving the same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101623409B1 (en) * 2014-10-06 2016-05-24 경북대학교 산학협력단 Touchscreen device, method for operating touchscreen device, and terminal device employing the same
KR101771837B1 (en) * 2016-02-17 2017-08-25 (주)휴맥스 Remote controller providing force input in a media system and method of driving the same
JP2017138571A (en) * 2016-09-26 2017-08-10 京セラ株式会社 Display control device
KR20170101168A (en) * 2017-08-21 2017-09-05 (주)휴맥스 Control device for controlling an image processing terminal according to a sensing level and method of driving the same
KR101881410B1 (en) * 2017-08-21 2018-07-24 (주)휴맥스 Control device for controlling an image processing terminal according to a sensing level and method of driving the same

Similar Documents

Publication Publication Date Title
JP5710934B2 (en) Content display device and content display method
US10539806B2 (en) Enhanced transparent display screen for mobile device and methods of operation
US9088771B2 (en) Mobile terminal and operation control method thereof
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
KR101674957B1 (en) Mobile terminal and method for controlling thereof
EP2385500A2 (en) Mobile terminal capable of providing multiplayer game and operating method thereof
US9967553B1 (en) Enhanced transparent display screen for mobile device and methods of operation
KR20120015165A (en) Method for controlling depth of image and mobile terminal using this method
KR20130020543A (en) Portable device with integrated user interface for microfluidic display
CN111448542B (en) Display application
WO2020220956A1 (en) Screen display method and terminal
CN112044065B (en) Virtual resource display method, device, equipment and storage medium
CN112148404B (en) Head portrait generation method, device, equipment and storage medium
JP2012068705A (en) 3d content display device, and 3d content display method
WO2023092950A1 (en) Material processing method and apparatus for virtual scenario, and electronic device, storage medium and computer program product
CN111131867B (en) Song singing method, device, terminal and storage medium
CN110300275B (en) Video recording and playing method, device, terminal and storage medium
JP2012105200A (en) Three-dimensional content display device and three-dimensional content display method
WO2020220957A1 (en) Screen display method and terminal
CN114327197B (en) Message sending method, device, equipment and medium
US20180125605A1 (en) Method and system for correlating anatomy using an electronic mobile device transparent display screen
WO2012090920A1 (en) Content display device, content display method, and recording medium
KR20150118036A (en) Head mounted display apparatus and method for displaying a content
CN117032851A (en) Display method of chessboard layout object, electronic equipment and readable storage medium
CN114546228A (en) Expression image sending method, device, equipment and medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20131203