JP2012093820A - Content display device and content display method - Google Patents

Content display device and content display method Download PDF

Info

Publication number
JP2012093820A
JP2012093820A JP2010238239A JP2010238239A JP2012093820A JP 2012093820 A JP2012093820 A JP 2012093820A JP 2010238239 A JP2010238239 A JP 2010238239A JP 2010238239 A JP2010238239 A JP 2010238239A JP 2012093820 A JP2012093820 A JP 2012093820A
Authority
JP
Japan
Prior art keywords
content
pressure
display
pressure sensor
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010238239A
Other languages
Japanese (ja)
Other versions
JP5710934B2 (en
Inventor
Juri Sugiyama
樹利 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010238239A priority Critical patent/JP5710934B2/en
Priority to PCT/JP2011/074008 priority patent/WO2012056960A1/en
Publication of JP2012093820A publication Critical patent/JP2012093820A/en
Application granted granted Critical
Publication of JP5710934B2 publication Critical patent/JP5710934B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/23Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof
    • H04M1/236Construction or mounting of dials or of equivalent devices; Means for facilitating the use thereof including keys on side or rear faces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a content display device and a content display method which enables a user to easily switch between three-dimensional display and two-dimensional display.SOLUTION: A content display device 100 comprises: a case 150; a memory for storing contents; a display 101 capable of displaying a content in three-dimensions or two-dimensions; pressure sensors 106R and 106L arranged in edge parts of the case 150; and a processor for displaying content on the display 101. When a pressure measured by the pressure sensor is less than a first predetermined value, the processor displays a content in two-dimensions on the display 101, and when a pressure measured by the pressure sensor is equal to or more than the first predetermined value, the processor displays the content in three-dimensions on the display 101.

Description

本発明は、静止画像や動画像などのコンテンツを表示するためのコンテンツ表示装置に関し、特に、コンテンツを3D表示および2D表示することが可能なコンテンツ表示装置、およびコンテンツ表示方法に関する。   The present invention relates to a content display device for displaying content such as a still image and a moving image, and more particularly to a content display device capable of 3D display and 2D display of content, and a content display method.

3Dの静止画像や3Dの動画像を3D表示することが可能なコンテンツ表示装置が知られている。近年では、ユーザが静止画像および動画像を3Dで視聴するための様々な方式が知られている。   There is known a content display device capable of displaying a 3D still image or a 3D moving image in 3D. In recent years, various methods for allowing a user to view a still image and a moving image in 3D are known.

たとえば、特開2007−72269号公報(特許文献1)には、立体表示装置が開示されている。特開2007−72269号公報(特許文献1)によると、立体表示装置は、画像を表示するための光を背面から照射するバックライトと、複数の画素を備えた画像表示部と、3D画像を立体的に表示するために左右眼に対応した画像に分離する為の視差バリアと、水平面に表示装置をおいた際に立体画像をゆがみなく適切な位置から見るための指標を提示する液晶により構成される観察角度提示バリアからなり、光の透過位置を変えることにより適切な観察角度を提示する。   For example, Japanese Unexamined Patent Application Publication No. 2007-72269 (Patent Document 1) discloses a stereoscopic display device. According to Japanese Patent Laid-Open No. 2007-72269 (Patent Document 1), a stereoscopic display device includes a backlight that emits light for displaying an image from the back, an image display unit including a plurality of pixels, and a 3D image. Consists of a parallax barrier for separating images into right and left eyes for stereoscopic display, and a liquid crystal that presents an index for viewing the stereoscopic image from an appropriate position without distortion when the display device is placed on a horizontal plane An appropriate observation angle is presented by changing the light transmission position.

また、特開2005−49668号公報(特許文献2)には、データ変換装置、表示装置、データ変換方法、プログラム及び記録媒体が開示されている。特開号2005−49668公報(特許文献2)によると、オブジェクトが有する属性(使用頻度、重要度、ユーザの嗜好等)の少なくとも一部をオブジェクト属性抽出部が抽出する。データ変換部は、抽出された属性に応じてオブジェクトの立体表示形態(飛び出し量、立体表示期間等)を決定し、決定された立体表示形態を実現するように、オブジェクトを表示するためのデータを変換する。   Japanese Patent Laid-Open No. 2005-49668 (Patent Document 2) discloses a data conversion device, a display device, a data conversion method, a program, and a recording medium. According to Japanese Patent Laying-Open No. 2005-49668 (Patent Document 2), an object attribute extraction unit extracts at least a part of attributes (usage frequency, importance, user preference, etc.) of an object. The data conversion unit determines the 3D display form (the pop-out amount, 3D display period, etc.) of the object according to the extracted attributes, and sets the data for displaying the object so as to realize the determined 3D display form. Convert.

特開2007−72269号公報JP 2007-72269 A 特開2005−49668号公報JP 2005-49668 A

ユーザにとっては、コンテンツを3Dで視聴したい場合もあればと2Dで視聴したい場合もある。このような観点から、ユーザがコンテンツ表示装置に3D表示と2D表示とを切り替えるための命令を容易に入力できれば有用である。   For the user, there are cases where the user wants to view the content in 3D and the user wants to view the content in 2D. From this point of view, it is useful if the user can easily input a command for switching between 3D display and 2D display to the content display device.

本発明は、かかる問題を解決するためになされたものであり、その目的は、ユーザが3D表示と2D表示とを容易に切り替えることができるコンテンツ表示装置およびコンテンツ表示方法を提供することにある。   The present invention has been made to solve such a problem, and an object thereof is to provide a content display device and a content display method that allow a user to easily switch between 3D display and 2D display.

この発明のある局面に従うと、筐体と、コンテンツを記憶するメモリと、コンテンツを3D表示および2D表示することが可能なディスプレイと、筐体の端部に配置される圧力センサと、ディスプレイにコンテンツを表示させるためのプロセッサとを備えるコンテンツ表示装置が提供される。プロセッサは、圧力センサからの圧力が第1の所定値未満である場合に、ディスプレイにコンテンツを2Dで表示させ、圧力センサからの圧力が第1の所定値以上である場合に、ディスプレイにコンテンツを3Dで表示させる。   According to one aspect of the present invention, a housing, a memory for storing content, a display capable of 3D display and 2D display of content, a pressure sensor disposed at an end of the housing, and content on the display A content display device comprising a processor for displaying the content is provided. The processor displays the content in 2D on the display when the pressure from the pressure sensor is less than the first predetermined value, and displays the content on the display when the pressure from the pressure sensor is greater than or equal to the first predetermined value. Display in 3D.

好ましくは、コンテンツは3Dの静止画像を含む。プロセッサは、3Dの静止画像が3Dで表示されているときに、圧力センサからの圧力が高くなるにつれて、3Dの静止画像の飛び出し量を増加させる。   Preferably, the content includes a 3D still image. When the 3D still image is displayed in 3D, the processor increases the pop-out amount of the 3D still image as the pressure from the pressure sensor increases.

好ましくは、プロセッサは、圧力センサからの圧力が第1の所定値以上かつ第2の所定値未満である場合に、3Dの静止画像の飛び出し量を一定に保ち、圧力センサからの圧力が第2の所定値以上である場合に、圧力センサからの圧力が高くなるにつれて、3Dの静止画像の飛び出し量を増加させる。   Preferably, when the pressure from the pressure sensor is greater than or equal to the first predetermined value and less than the second predetermined value, the processor keeps the amount of pop-up of the 3D still image constant, and the pressure from the pressure sensor is When the pressure value is equal to or greater than the predetermined value, the pop-out amount of the 3D still image is increased as the pressure from the pressure sensor increases.

好ましくは、コンテンツは3Dの静止画像を含む。プロセッサは、3Dの静止画像が3Dで表示されているときに、圧力センサからの圧力が高くなるにつれて、圧力センサからの圧力が高くなるにつれて、3Dの静止画像を拡大させる。   Preferably, the content includes a 3D still image. When the 3D still image is displayed in 3D, the processor enlarges the 3D still image as the pressure from the pressure sensor increases and as the pressure from the pressure sensor increases.

好ましくは、プロセッサは、圧力センサからの圧力が第1の所定値以上かつ第2の所定値未満である場合に、3Dの静止画像の大きさを一定に保ち、圧力センサからの圧力が第2の所定値以上である場合に、圧力センサからの圧力が高くなるにつれて、3Dの静止画像を拡大させる。   Preferably, the processor keeps the size of the 3D still image constant when the pressure from the pressure sensor is greater than or equal to the first predetermined value and less than the second predetermined value, and the pressure from the pressure sensor is As the pressure from the pressure sensor increases, the 3D still image is enlarged.

好ましくは、コンテンツは3Dの動画像を含む。プロセッサは、3Dの動画像が3Dで表示されているときに、圧力センサからの圧力が高くなるにつれて、3Dの動画像の再生速度を増加させる。   Preferably, the content includes a 3D moving image. When the 3D moving image is displayed in 3D, the processor increases the playback speed of the 3D moving image as the pressure from the pressure sensor increases.

好ましくは、プロセッサは、圧力センサからの圧力が第1の所定値以上かつ第2の所定値未満である場合に、3Dの動画像を所定の速度で再生し、圧力センサからの圧力が第2の所定値以上である場合に、圧力センサからの圧力が高くなるにつれて、3Dの動画像の再生速度を増加させる。   Preferably, the processor reproduces the 3D moving image at a predetermined speed when the pressure from the pressure sensor is greater than or equal to the first predetermined value and less than the second predetermined value, and the pressure from the pressure sensor is When the pressure is higher than the predetermined value, the playback speed of the 3D moving image is increased as the pressure from the pressure sensor increases.

好ましくは、メモリは、2Dのコンテンツとして2Dの静止画像をさらに記憶する。プロセッサは、2Dの静止画像が表示されているときに、圧力センサからの圧力が高くなるにつれて、2Dの静止画像の拡大率を増加させる。   Preferably, the memory further stores a 2D still image as 2D content. When the 2D still image is displayed, the processor increases the magnification of the 2D still image as the pressure from the pressure sensor increases.

好ましくは、メモリは、2Dのコンテンツとして2Dの動画像をさらに記憶する。プロセッサは、2Dの動画像が表示されているときに、圧力センサからの圧力が高くなるにつれて、2Dの動画像の再生速度を増加させる。   Preferably, the memory further stores a 2D moving image as 2D content. When the 2D moving image is displayed, the processor increases the playback speed of the 2D moving image as the pressure from the pressure sensor increases.

好ましくは、プロセッサは、コンテンツの表示位置を変更するための命令を受け付けて、当該命令に基づいてディスプレイに対するコンテンツの表示位置を変更する。   Preferably, the processor receives a command for changing the display position of the content, and changes the display position of the content on the display based on the command.

好ましくは、コンテンツ表示装置は、姿勢センサをさらに備える。プロセッサは、姿勢センサを介して筐体の傾きを取得することによって、筐体の傾きに基づいてディスプレイに対するコンテンツの表示位置を変更する。   Preferably, the content display device further includes an attitude sensor. The processor changes the display position of the content with respect to the display based on the tilt of the casing by acquiring the tilt of the casing via the attitude sensor.

好ましくは、メモリは、コンテンツの各々をテキストに関連付けて記憶する。プロセッサは、圧力センサからの圧力が第1の所定値未満である場合に、ディスプレイにコンテンツを2Dで表示させるとともに、当該コンテンツに対応するテキストを表示させ、圧力センサからの圧力が第1の所定値以上である場合に、ディスプレイにコンテンツを中央部に3Dで表示させる。   Preferably, the memory stores each of the contents in association with the text. When the pressure from the pressure sensor is less than the first predetermined value, the processor displays the content in 2D on the display and displays text corresponding to the content, and the pressure from the pressure sensor is the first predetermined value. If the value is greater than or equal to the value, the content is displayed in 3D in the center on the display.

この発明の別の局面に従うと、筐体と、コンテンツを記憶するメモリと、コンテンツを3D表示および2D表示することが可能なディスプレイと、筐体の端部に配置される圧力センサと、プロセッサとを含むコンテンツ表示装置におけるコンテンツ表示方法が提供される。コンテンツ表示方法は、プロセッサが、圧力センサからの圧力が第1の所定値以上であるか否かを判断するステップと、プロセッサが、圧力センサからの圧力が第1の所定値未満である場合に、ディスプレイにコンテンツを2Dで表示させるステップと、プロセッサが、圧力センサからの圧力が第1の所定値以上である場合に、ディスプレイにコンテンツを3Dで表示させるステップとを備える。   According to another aspect of the present invention, a housing, a memory for storing content, a display capable of 3D display and 2D display of content, a pressure sensor disposed at an end of the housing, a processor, The content display method in the content display apparatus containing is provided. In the content display method, the processor determines whether or not the pressure from the pressure sensor is equal to or higher than a first predetermined value, and the processor displays the pressure from the pressure sensor is lower than the first predetermined value. , Displaying the content in 2D on the display, and causing the processor to display the content in 3D on the display when the pressure from the pressure sensor is equal to or higher than the first predetermined value.

以上のように、本発明によって、ユーザが3D表示と2D表示とを容易に切り替えることができるコンテンツ表示装置およびコンテンツ表示方法が提供される。   As described above, according to the present invention, a content display device and a content display method that allow a user to easily switch between 3D display and 2D display are provided.

本実施の形態に係る携帯電話100における動作概要を示すイメージ図である。It is an image figure which shows the operation | movement outline | summary in the mobile telephone 100 which concerns on this Embodiment. 本実施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the mobile telephone 100 which concerns on this Embodiment. 本実施の形態に係る画像と説明文とを表示している携帯電話100を示すイメージ図である。It is an image figure which shows the mobile telephone 100 which is displaying the image and explanatory note which concern on this Embodiment. 本実施の形態に係る携帯電話100におけるコンテンツ表示処理の処理手順を示す第1のフローチャートである。It is a 1st flowchart which shows the process sequence of the content display process in the mobile telephone 100 which concerns on this Embodiment. 本実施の形態に係る携帯電話100におけるコンテンツ表示処理の処理手順を示す第2のフローチャートである。It is a 2nd flowchart which shows the process sequence of the content display process in the mobile telephone 100 which concerns on this Embodiment. 本実施の形態に係るタッチパネル103の中央に画像を表示する携帯電話100を示すイメージ図である。It is an image figure which shows the mobile telephone 100 which displays an image in the center of the touch panel 103 which concerns on this Embodiment. 本実施の形態に係る3D深度コントロールプロセスを示すイメージ図である。It is an image figure which shows the 3D depth control process which concerns on this Embodiment. 本実施の形態に係る拡大率コントロールプロセスを示すイメージ図である。It is an image figure which shows the expansion rate control process which concerns on this Embodiment. 本実施の形態に係る再生速度コントロールプロセスを示すイメージ図である。It is an image figure which shows the reproduction speed control process which concerns on this Embodiment. 本実施の形態に係る携帯電話100における画像表示位置変更処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the image display position change process in the mobile telephone 100 which concerns on this Embodiment. タッチパネル103の中央に画像を表示する携帯電話100を示すイメージ図である。2 is an image diagram showing a mobile phone 100 displaying an image in the center of a touch panel 103. FIG. タッチパネル103の下部に画像を表示する携帯電話100を示すイメージ図である。FIG. 3 is an image diagram showing a mobile phone 100 that displays an image at the bottom of a touch panel 103.

以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the following description, the same parts are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

本実施の形態においては、携帯電話100を「コンテンツ表示装置」の代表例として説明を行う。ただし、表示装置は、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、ゲーム機、電子辞書、電子BOOK、ノート型のパーソナルコンピュータなどのような、ディスプレイを有する他の情報機器であってもよい。なお、コンテンツ表示装置は、ネットワークに接続可能であって、他の機器との間でデータの送受信が可能な情報通信機器であることが好ましい。   In the present embodiment, mobile phone 100 will be described as a representative example of “content display device”. However, the display device may be another information device having a display such as a PND (Personal Navigation Device), a PDA (Personal Data Assistance), a game machine, an electronic dictionary, an electronic BOOK, or a notebook personal computer. Good. The content display device is preferably an information communication device that can be connected to a network and can transmit and receive data to and from other devices.

そして、本実施の形態に係るディスプレイは、静止画像や動画像を、3Dで表示したり、2Dで表示したりすることができる。現在、静止画像や動画像を3Dの表示で表示するための多数の方式が提案されている。たとえば、メガネを用いる方式として、液晶アクティブシャッターメガネ方式および偏向板方式が挙げられる。また、メガネを用いない方式として、視差バリア方式およびレンチキュラー方式が挙げられる。本実施の形態に係る3Dの表示方式は、上記の方式に限定されるものではない。   The display according to the present embodiment can display a still image or a moving image in 3D or 2D. Currently, many methods for displaying still images and moving images in 3D display have been proposed. For example, a method using glasses includes a liquid crystal active shutter glasses method and a deflection plate method. Further, as a method that does not use glasses, a parallax barrier method and a lenticular method can be given. The 3D display method according to the present embodiment is not limited to the above method.

<携帯電話100の全体的な動作概要>
まず、本実施の形態に係る携帯電話100の動作概要について説明する。図1は、本実施の形態に係る携帯電話100における動作概要を示すイメージ図である。より詳細には、図1(A)は、ユーザが携帯電話100を弱く握った状態を示す携帯電話100を示すイメージ図である。図1(B)は、ユーザが携帯電話100を強く握った状態を示す携帯電話100を示すイメージ図である。
<Overview of overall operation of mobile phone 100>
First, an outline of operation of mobile phone 100 according to the present embodiment will be described. FIG. 1 is an image diagram showing an outline of operation in mobile phone 100 according to the present embodiment. More specifically, FIG. 1A is an image diagram showing the mobile phone 100 showing a state where the user grips the mobile phone 100 weakly. FIG. 1B is an image diagram showing the mobile phone 100 showing a state where the user firmly holds the mobile phone 100.

図1を参照して、本実施の形態に係る携帯電話100は、筐体150と、タッチパネル103と、圧力センサ106(右の圧力センサ106Rと左の圧力センサ106L)と、マイク107と、スピーカ108を含む。ただし、タッチパネル103は、タブレットを有さない単なるディスプレイ101であってもよい。また、携帯電話100は、ボタン104を有していてもよい。   Referring to FIG. 1, mobile phone 100 according to the present embodiment includes a housing 150, a touch panel 103, a pressure sensor 106 (right pressure sensor 106R and left pressure sensor 106L), a microphone 107, and a speaker. 108. However, the touch panel 103 may be a simple display 101 that does not have a tablet. Further, the mobile phone 100 may have a button 104.

タッチパネル103(あるいは単なるディスプレイ101)は、コンテンツを表示する。より詳細には、タッチパネル103は、後述するCPU(Central Processing Unit)からの信号に基づいて、コンテンツとして、3Dの静止画像、3Dの動画像、2Dの静止画像、2Dの動画像などを表示することができる。   The touch panel 103 (or just the display 101) displays content. More specifically, the touch panel 103 displays a 3D still image, a 3D moving image, a 2D still image, a 2D moving image, and the like as content based on a signal from a CPU (Central Processing Unit) described later. be able to.

上述したように、本実施の形態に係る携帯電話100は、3Dの静止画像データに基づいて、3Dの静止画像と2Dの静止画像とを切り替えて表示することができる。ただし、携帯電話100は、コンテンツデータとして2Dの静止画像データと3Dの静止画像データとをともに記憶し、それらを選択的に表示してもよい。また、携帯電話100は、2Dの静止画像データから3Dの静止画像データを生成できるものであってもよい。   As described above, the mobile phone 100 according to the present embodiment can switch between a 3D still image and a 2D still image based on the 3D still image data. However, the mobile phone 100 may store both 2D still image data and 3D still image data as content data and selectively display them. The mobile phone 100 may be capable of generating 3D still image data from 2D still image data.

また、本実施の形態に係る携帯電話100は、3Dの動画像データに基づいて、3Dの動画像と2Dの動画像とを切り替えて表示することができる。ただし、携帯電話100は、コンテンツデータとして2Dの動画像データと3Dの動画像データとをともに記憶し、それらを選択的に表示してもよい。また、携帯電話100は、2Dの静止画像データから3Dの静止画像データを生成できるものであってもよい。   In addition, the mobile phone 100 according to the present embodiment can switch and display a 3D moving image and a 2D moving image based on 3D moving image data. However, the mobile phone 100 may store both 2D moving image data and 3D moving image data as content data and selectively display them. The mobile phone 100 may be capable of generating 3D still image data from 2D still image data.

タッチパネル103が静止画像を表示している場合、携帯電話100は以下のように動作する。圧力センサ106によって計測された圧力に基づいて、携帯電話100は、ユーザが強い力で携帯電話100を握っているのか、ユーザが弱い力で携帯電話100を保持しているのかを判断する。   When the touch panel 103 displays a still image, the mobile phone 100 operates as follows. Based on the pressure measured by the pressure sensor 106, the mobile phone 100 determines whether the user is holding the mobile phone 100 with a strong force or whether the user is holding the mobile phone 100 with a weak force.

タッチパネル103は、ユーザが弱い力で携帯電話100を保持している場合、図1(A)に示すように、3Dの静止画像データに基づいて静止画像を2Dで表示する。一方、タッチパネル103は、ユーザが強い力で携帯電話100を保持している場合、図1(B)に示すように、3Dの静止画像データに基づいて静止画像を3Dで表示する。   When the user holds the mobile phone 100 with a weak force, the touch panel 103 displays a still image in 2D based on 3D still image data as shown in FIG. On the other hand, when the user holds the mobile phone 100 with a strong force, the touch panel 103 displays a still image in 3D based on the 3D still image data as illustrated in FIG.

後述するように、タッチパネル103が静止画像を3Dで表示している場合、計測された圧力値が高まるにつれて、3Dの静止画像の飛び出し量が増加する。また、タッチパネル103が静止画像を3Dで表示している場合、計測された圧力値が高まるにつれて、3Dの静止画像が拡大する。なお、タッチパネル103が2Dの静止画像データに基づいて2Dの静止画像を表示している場合、計測された圧力値が高まるにつれて、2Dの静止画像が拡大する。   As will be described later, when the touch panel 103 displays a still image in 3D, the pop-out amount of the 3D still image increases as the measured pressure value increases. When the touch panel 103 displays a still image in 3D, the 3D still image is enlarged as the measured pressure value increases. When the touch panel 103 displays a 2D still image based on the 2D still image data, the 2D still image is enlarged as the measured pressure value increases.

同様に、タッチパネル103が動画像を表示している場合、携帯電話100は以下のように動作する。圧力センサ106によって計測された圧力に基づいて、携帯電話100は、ユーザが強い力で携帯電話100を握っているのか、ユーザが弱い力で携帯電話100を保持しているのかを判断する。   Similarly, when the touch panel 103 displays a moving image, the mobile phone 100 operates as follows. Based on the pressure measured by the pressure sensor 106, the mobile phone 100 determines whether the user is holding the mobile phone 100 with a strong force or whether the user is holding the mobile phone 100 with a weak force.

タッチパネル103は、ユーザが弱い力で携帯電話100を保持している場合、図1(A)に示すように、3Dの動画像データに基づいて動画像を2Dで表示(再生)する。一方、タッチパネル103は、ユーザが強い力で携帯電話100を保持している場合、図1(B)に示すように、3Dの動画像データに基づいて動画像を3Dで表示する。   When the user holds the mobile phone 100 with a weak force, the touch panel 103 displays (reproduces) a moving image in 2D based on the 3D moving image data as illustrated in FIG. On the other hand, when the user holds the mobile phone 100 with a strong force, the touch panel 103 displays a moving image in 3D based on the 3D moving image data as illustrated in FIG.

後述するように、タッチパネル103が動画像を3Dで表示している場合、計測された圧力値が高まるにつれて、3Dの動画像の再生速度が増加する。また、タッチパネル103が動画像を3Dで表示している場合、計測された圧力値が高まるにつれて、3Dの動画像の飛び出し量が増加する。なお、タッチパネル103が2Dの動画像データに基づいて2Dの動画像を表示している場合、計測された圧力値が高まるにつれて、2Dの動画像の再生速度が速まる。   As will be described later, when the touch panel 103 displays a moving image in 3D, the reproduction speed of the 3D moving image increases as the measured pressure value increases. Further, when the touch panel 103 displays a moving image in 3D, the pop-out amount of the 3D moving image increases as the measured pressure value increases. Note that when the touch panel 103 displays a 2D moving image based on the 2D moving image data, the playback speed of the 2D moving image increases as the measured pressure value increases.

以上のように、本実施の形態に係る携帯電話100においては、ユーザが携帯電話100を弱く握った場合に、3Dのコンテンツデータに基づいてコンテンツを2Dで表示し、ユーザが携帯電話100を強く握った場合に、3Dのコンテンツデータに基づいてコンテンツを3Dで表示する。   As described above, in the mobile phone 100 according to the present embodiment, when the user grips the mobile phone 100 weakly, the content is displayed in 2D based on the 3D content data, and the user strongly presses the mobile phone 100. When gripped, the content is displayed in 3D based on the 3D content data.

以下、このような機能を実現するための携帯電話100の構成について詳述する。
<携帯電話100のハードウェア構成>
本実施の形態に係る携帯電話100のハードウェア構成について説明する。図2は、本実施の形態に係る携帯電話100のハードウェア構成を示すブロック図である。
Hereinafter, the configuration of the mobile phone 100 for realizing such a function will be described in detail.
<Hardware configuration of mobile phone 100>
A hardware configuration of mobile phone 100 according to the present embodiment will be described. FIG. 2 is a block diagram showing a hardware configuration of mobile phone 100 according to the present embodiment.

図2に示すように、本実施の形態に係る携帯電話100は、ディスプレイ101と、タブレット102と、ボタン104と、通信インターフェイス105と、圧力センサ106と、マイク107と、スピーカ108と、メモリインターフェイス109と、CPU110と、メモリ111と、姿勢センサ112とを含む。   As shown in FIG. 2, the mobile phone 100 according to the present embodiment includes a display 101, a tablet 102, a button 104, a communication interface 105, a pressure sensor 106, a microphone 107, a speaker 108, and a memory interface. 109, a CPU 110, a memory 111, and an attitude sensor 112.

ディスプレイ101は、CPU110によって制御されることによって、様々な情報を表示する。タブレット102は、ユーザの指によるタッチ操作を検出して、タッチ座標などをCPU110に入力する。CPU110は、タブレット102を介して、ユーザからの命令を受け付ける。   The display 101 displays various information by being controlled by the CPU 110. The tablet 102 detects a touch operation with a user's finger and inputs touch coordinates or the like to the CPU 110. The CPU 110 receives a command from the user via the tablet 102.

本実施の形態においては、ディスプレイ101の表面にタブレット102が敷設されている。すなわち、本実施の形態においては、ディスプレイ101とタブレット102とがタッチパネル103を構成する。ただし、携帯電話100は、タブレット102を有していなくとも良い。   In the present embodiment, a tablet 102 is laid on the surface of the display 101. That is, in the present embodiment, the display 101 and the tablet 102 constitute the touch panel 103. However, the mobile phone 100 does not have to include the tablet 102.

ボタン104は、携帯電話100の表面に配置される。テンキーなどの複数のボタンが携帯電話100に配置されても良い。ボタン104は、ユーザから様々な命令を受け付ける。ボタン104は、ユーザからの命令をCPU110に入力する。ただし、携帯電話100は、タッチパネル103を有する場合、ボタン104を有していなくともよい。   Button 104 is arranged on the surface of mobile phone 100. A plurality of buttons such as a numeric keypad may be arranged on the mobile phone 100. The button 104 receives various commands from the user. The button 104 inputs a command from the user to the CPU 110. However, when the mobile phone 100 includes the touch panel 103, the mobile phone 100 does not need to include the button 104.

通信インターフェイス105は、CPU110によって制御されることによって、ネットワークを介して、外部の端末やサーバとデータ通信を行う。たとえば、CPU110は、通信インターフェイス105を介して、外部のサーバからコンテンツデータやプログラムを受信する。   The communication interface 105 is controlled by the CPU 110 to perform data communication with an external terminal or server via a network. For example, the CPU 110 receives content data and programs from an external server via the communication interface 105.

圧力センサ106は、右圧力センサ106Rと左圧力センサ106Lとを含む。右圧力センサ106Rは、携帯電話100の筐体150の右端部に配置される。左圧力センサ106Lは、携帯電話100の筐体150の左端部に配置される。   The pressure sensor 106 includes a right pressure sensor 106R and a left pressure sensor 106L. The right pressure sensor 106 </ b> R is disposed at the right end portion of the casing 150 of the mobile phone 100. The left pressure sensor 106 </ b> L is disposed at the left end portion of the casing 150 of the mobile phone 100.

圧力センサ106は、ユーザが筐体150を弱く握ると、低い圧力値をCPU110に入力する。圧力センサ106は、ユーザが筐体150を強く握ると、高い圧力値をCPU110に入力する。CPU110は、メモリ111に格納されている第1の所定値および第2の所定値と、圧力センサ106からの圧力値とに基づいて、ユーザが筐体150を強く握っているか弱く握っているかを判断することができる。   When the user grips the housing 150 weakly, the pressure sensor 106 inputs a low pressure value to the CPU 110. The pressure sensor 106 inputs a high pressure value to the CPU 110 when the user firmly holds the housing 150. Based on the first predetermined value and the second predetermined value stored in the memory 111 and the pressure value from the pressure sensor 106, the CPU 110 determines whether the user is holding the housing 150 strongly or weakly. Judgment can be made.

マイク107は、音声を受け付けて、音声信号を生成する。マイク107は、音声信号をCPU110に入力する。   The microphone 107 receives audio and generates an audio signal. The microphone 107 inputs an audio signal to the CPU 110.

スピーカ108は、CPU110によって制御されることによって、様々な情報(たとえば、音声メッセージやビープ音など)を出力する。   The speaker 108 outputs various information (for example, a voice message, a beep sound, etc.) by being controlled by the CPU 110.

メモリインターフェイス109は、着脱可能な(接続可能な)外部の記録媒体からデータを読み出すことによってCPU110に当該データを入力したり、CPU110からのデータを当該記録媒体に格納したりする。   The memory interface 109 reads the data from a removable (connectable) external recording medium, and inputs the data to the CPU 110 or stores the data from the CPU 110 in the recording medium.

なお、記憶媒体としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。   As storage media, CD-ROM (Compact Disc-Read Only Memory), DVD-ROM (Digital Versatile Disk-Read Only Memory), USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk , Magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory card), optical card, mask ROM, EPROM, EEPROM (Electronically Erasable Programmable Read-Only Memory) And the like, for example, a medium for storing the program in a nonvolatile manner.

姿勢センサ112は、携帯電話100の姿勢(傾き)を検知する。姿勢センサ112は、携帯電話100の姿勢をCPU110に入力する。   The attitude sensor 112 detects the attitude (tilt) of the mobile phone 100. The attitude sensor 112 inputs the attitude of the mobile phone 100 to the CPU 110.

メモリ111は、各種のRAM(Random Access Memory)や、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。たとえば、メモリ111は、読取用のインターフェイスを介して利用される、USB(Universal Serial Bus)メモリ、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体などによっても実現される。   The memory 111 is realized by various types of RAM (Random Access Memory), ROM (Read-Only Memory), a hard disk, and the like. For example, the memory 111 is a USB (Universal Serial Bus) memory, a CD-ROM (Compact Disc-Read Only Memory), a DVD-ROM (Digital Versatile Disk-Read Only Memory), which is used via a reading interface. USB (Universal Serial Bus) memory, memory card, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, MO (Magnetic Optical Disc), MD (Mini Disc), IC (Integrated Circuit) card (excluding memory cards) It is also realized by a medium for storing a program in a nonvolatile manner such as an optical card, a mask ROM, an EPROM, and an EEPROM (Electronically Erasable Programmable Read-Only Memory).

メモリ111は、CPU110によって実行される制御プログラムや、コンテンツデータなどを記憶する。コンテンツデータは、3Dの静止画像を表示するための3Dの静止画像データ、3Dの動画像を表示するための3Dの動画像データ、2Dの静止画像を表示するための2Dの静止画像データ、2Dの動画像を表示するための2Dの動画像データを含む。   The memory 111 stores a control program executed by the CPU 110, content data, and the like. The content data includes 3D still image data for displaying 3D still images, 3D moving image data for displaying 3D moving images, 2D still image data for displaying 2D still images, and 2D. 2D moving image data for displaying a moving image.

より詳細には、本実施の形態に係るメモリ111は、3Dの静止画像データ、3Dの動画像データ、2Dの静止画像データ、および2Dの動画像データの少なくともいずれかと、テキストデータとを対応付けて記憶する。たとえば、画像データと、当該画像データが示すオブジェクトの説明文とを対応付けて記憶する。   More specifically, the memory 111 according to the present embodiment associates text data with at least one of 3D still image data, 3D moving image data, 2D still image data, and 2D moving image data. Remember. For example, the image data and the description of the object indicated by the image data are stored in association with each other.

図3は、本実施の形態に係る画像と説明文とを表示している携帯電話100を示すイメージ図である。たとえば、図3に示すように、携帯電話100は、メモリ111のデータを参照して、電子辞書として、静止画像あるいは動画像と説明文とを表示することができる。   FIG. 3 is an image diagram showing mobile phone 100 displaying an image and an explanatory note according to the present embodiment. For example, as shown in FIG. 3, the mobile phone 100 can display a still image or a moving image and an explanatory text as an electronic dictionary with reference to data in the memory 111.

図2に戻って、メモリ111は、第1の所定値と、第2の所定値とを記憶する。後述するように、CPU110は、圧力センサ106によって計測される圧力値が第1の所定値未満である場合には、圧力値がレベル1に属すると判断する。CPU110は、圧力センサ106によって計測される圧力値が第1の所定値以上かつ第2の所定値未満である場合には、圧力値がレベル2に属すると判断する。CPU110は、圧力センサ106によって計測される圧力値が第2の所定値以上である場合には、圧力値がレベル3に属すると判断する。   Returning to FIG. 2, the memory 111 stores the first predetermined value and the second predetermined value. As will be described later, the CPU 110 determines that the pressure value belongs to the level 1 when the pressure value measured by the pressure sensor 106 is less than the first predetermined value. CPU 110 determines that the pressure value belongs to level 2 when the pressure value measured by pressure sensor 106 is equal to or greater than the first predetermined value and less than the second predetermined value. CPU 110 determines that the pressure value belongs to level 3 when the pressure value measured by pressure sensor 106 is equal to or greater than the second predetermined value.

CPU110は、メモリ111に記憶されている各種のプログラムを実行する。携帯電話100における処理(たとえば、図4に示す処理など。)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ111に予め記憶されている場合がある。また、ソフトウェアは、記憶媒体に格納されて、プログラム製品として流通している場合もある。あるいは、ソフトウェアは、いわゆるインターネットに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。   The CPU 110 executes various programs stored in the memory 111. The processing (for example, the processing shown in FIG. 4) in the mobile phone 100 is realized by each hardware and software executed by the CPU 110. Such software may be stored in the memory 111 in advance. The software may be stored in a storage medium and distributed as a program product. Alternatively, the software may be provided as a program product that can be downloaded by an information provider connected to the so-called Internet.

このようなソフトウェアは、図示しない読取装置を利用することによってその記憶媒体から読み取られて、あるいは、通信インターフェイス105を利用することによってダウンロードされて、メモリ111に一旦格納される。CPU110は、ソフトウェアを実行可能なプログラムの形式でメモリ111に格納してから、当該プログラムを実行する。   Such software is read from the storage medium by using a reading device (not shown), or downloaded by using the communication interface 105 and temporarily stored in the memory 111. The CPU 110 stores the software in the form of an executable program in the memory 111 and then executes the program.

ここでいうプログラムとは、CPUにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラム等を含む。   The program here includes not only a program directly executable by the CPU but also a program in a source program format, a compressed program, an encrypted program, and the like.

<携帯電話100におけるコンテンツ表示処理>
次に、本実施の形態に係る携帯電話100におけるコンテンツ表示処理について説明する。図4は、本実施の形態に係る携帯電話100におけるコンテンツ表示処理の処理手順を示す第1のフローチャートである。図5は、本実施の形態に係る携帯電話100におけるコンテンツ表示処理の処理手順を示す第2のフローチャートである。
<Content display processing in mobile phone 100>
Next, content display processing in mobile phone 100 according to the present embodiment will be described. FIG. 4 is a first flowchart showing a processing procedure of content display processing in mobile phone 100 according to the present embodiment. FIG. 5 is a second flowchart showing a processing procedure of content display processing in mobile phone 100 according to the present embodiment.

図4および図5を参照して、まず、携帯電話100のCPU110は、ユーザからの命令に従って、タッチパネル103に、画像と説明文とを表示している。より詳細には、CPU110は、メモリ111の3Dの静止画像データに基づいてタッチパネル103に静止画像を2Dで表示しながら、メモリ111のテキストデータに基づいてタッチパネル103に説明文を表示する。あるいは、CPU110は、メモリ111の3Dの動画像データに基づいてタッチパネル103に動画像を2Dで表示しながら、メモリ111のテキストデータに基づいてタッチパネル103に説明文を表示する。あるいは、CPU110は、メモリ111の2Dの静止画像データに基づいてタッチパネル103に静止画像を2Dで表示しながら、メモリ111のテキストデータに基づいてタッチパネル103に説明文を表示する。あるいは、CPU110は、メモリ111の2Dの動画像データに基づいてタッチパネル103に動画像を2Dで表示しながら、メモリ111のテキストデータに基づいてタッチパネル103に説明文を表示する。   4 and 5, first, CPU 110 of mobile phone 100 displays an image and an explanatory note on touch panel 103 in accordance with an instruction from the user. More specifically, the CPU 110 displays an explanatory text on the touch panel 103 based on the text data in the memory 111 while displaying a still image in 2D on the touch panel 103 based on the 3D still image data in the memory 111. Alternatively, the CPU 110 displays the explanatory text on the touch panel 103 based on the text data in the memory 111 while displaying the moving image in 2D on the touch panel 103 based on the 3D moving image data in the memory 111. Alternatively, the CPU 110 displays the explanatory text on the touch panel 103 based on the text data in the memory 111 while displaying the still image in 2D on the touch panel 103 based on the 2D still image data in the memory 111. Alternatively, the CPU 110 displays the explanatory text on the touch panel 103 based on the text data in the memory 111 while displaying the moving image in 2D on the touch panel 103 based on the 2D moving image data in the memory 111.

次に、CPU110は、圧力センサ106から圧力値を取得する(ステップS102)。CPU110は、圧力値がレベル1に属するか否かを判断する。すなわち、CPU110は、圧力が第1の所定値未満であるか否かを判断する。圧力値がレベル1に属する場合(ステップS102にてLevel1である場合)、CPU110は、ステップS102からの処理を繰り返す。   Next, CPU110 acquires a pressure value from the pressure sensor 106 (step S102). CPU 110 determines whether or not the pressure value belongs to level 1. That is, the CPU 110 determines whether or not the pressure is less than the first predetermined value. When the pressure value belongs to level 1 (when it is Level 1 in step S102), CPU 110 repeats the processing from step S102.

圧力値がレベル2あるいはレベル3に属する場合(ステップS102においてLevel2or3である場合)、CPU110は、テキスト以外のコンテンツがタッチパネル103に表示されているか否かを判断する(ステップS104)。テキスト以外のコンテンツがタッチパネル103に表示されていない場合(ステップS104においてNOである場合)、CPU110は、ステップS102からの処理を繰り返す。   When the pressure value belongs to level 2 or level 3 (in the case of Level 2 or 3 in step S102), CPU 110 determines whether content other than text is displayed on touch panel 103 (step S104). When content other than text is not displayed on touch panel 103 (NO in step S104), CPU 110 repeats the processing from step S102.

テキスト以外のコンテンツがタッチパネル103に表示されている場合(ステップS104においてYESである場合)、すなわち、画像がタッチパネル103に表示されている場合、CPU110は、コンテンツデータが3Dの画像データ(静止画像データあるいは動画像データ)であるか否かを判断する(ステップS106)。コンテンツデータが3Dの画像データである場合(ステップS106においてYESである場合)、CPU110は、画像データに基づいてタッチパネル103の中央に画像を3Dで表示させる(ステップS108)。   When content other than text is displayed on touch panel 103 (YES in step S104), that is, when an image is displayed on touch panel 103, CPU 110 has 3D image data (still image data). Alternatively, it is determined whether it is moving image data) (step S106). If the content data is 3D image data (YES in step S106), CPU 110 causes the image to be displayed in 3D at the center of touch panel 103 based on the image data (step S108).

図6は、本実施の形態に係るタッチパネル103の中央に画像を表示する携帯電話100を示すイメージ図である。図6に示すように、CPU110は、タッチパネル103の中央に画像を3Dで表示させる。   FIG. 6 is an image diagram showing mobile phone 100 displaying an image at the center of touch panel 103 according to the present embodiment. As illustrated in FIG. 6, the CPU 110 displays an image in 3D at the center of the touch panel 103.

図4に戻って、CPU110は、画像データが、3Dの静止画像データであるか否かを判断する(ステップS110)。画像データが3Dの静止画像データである場合(ステップS110においてYESである場合)、CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS112)。すなわち、CPU110は、圧力値が、第1の所定値未満であるか、第1の所定値以上かつ第2の所定値未満であるか、第2の所定値以上であるかを判断する。   Returning to FIG. 4, the CPU 110 determines whether the image data is 3D still image data (step S <b> 110). If the image data is 3D still image data (YES in step S110), CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3. Is determined (step S112). That is, CPU 110 determines whether the pressure value is less than a first predetermined value, greater than a first predetermined value, less than a second predetermined value, or greater than a second predetermined value.

CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル2である場合、ステップS112からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、3D深度コントロールプロセスを実行する(ステップS114)。   When the pressure value is level 1, CPU 110 repeats the processing from step S102. When the pressure value is level 2, CPU 110 repeats the process from step S112. When the pressure value is level 3, the CPU 110 executes a 3D depth control process (step S114).

図7は、本実施の形態に係る3D深度コントロールプロセスを示すイメージ図である。図7を参照して、CPU110は、圧力値が第1の所定値以上である場合に、静止画像を3Dで表示する。このとき、CPU110は、画像の飛び出し量を初期値(所定量)に設定する。CPU110は、圧力値が第2の所定値以上である場合に、画像の飛び出し量を初期値から増加させていく。   FIG. 7 is an image diagram showing a 3D depth control process according to the present embodiment. Referring to FIG. 7, CPU 110 displays a still image in 3D when the pressure value is greater than or equal to a first predetermined value. At this time, the CPU 110 sets the image pop-out amount to an initial value (predetermined amount). When the pressure value is equal to or greater than the second predetermined value, the CPU 110 increases the image pop-out amount from the initial value.

図4に戻って、CPU110は、ステップS114において、3D深度コントロールの代わりに、あるいは3D深度コントロールと並行して、拡大率コントロールプロセスを実行してもよい。   Returning to FIG. 4, in step S <b> 114, the CPU 110 may execute the enlargement ratio control process instead of the 3D depth control or in parallel with the 3D depth control.

図8は、本実施の形態に係る拡大率コントロールプロセスを示すイメージ図である。図8を参照して、CPU110は、圧力値が第2の所定値以上である場合に、画像の拡大率を「1」から増加させていく。   FIG. 8 is an image diagram showing an enlargement ratio control process according to the present embodiment. Referring to FIG. 8, CPU 110 increases the image enlargement ratio from “1” when the pressure value is equal to or greater than the second predetermined value.

図4に戻って、CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS116)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、ステップS114からの処理を繰り返す。   Returning to FIG. 4, CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3 (step S116). When the pressure value is level 1, CPU 110 repeats the processing from step S102. When the pressure value is level 3, CPU 110 repeats the processing from step S114.

CPU110は、圧力値がレベル2である場合、3D深度(画像の飛び出し量)あるいは拡大率を初期値に戻す(ステップS118)。CPU110は、ステップS112からの処理を繰り返す。   When the pressure value is level 2, the CPU 110 returns the 3D depth (image pop-out amount) or the enlargement ratio to the initial value (step S118). CPU110 repeats the process from step S112.

画像データが3Dの動画像データである場合(ステップS110においてNOである場合)、CPU110は、3Dの動画像データに基づいて、動画像の再生を開始する(ステップS120)。CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS122)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル2である場合、ステップS122からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、再生速度コントロールプロセスを実行する(ステップS124)。   When the image data is 3D moving image data (NO in step S110), CPU 110 starts reproduction of the moving image based on the 3D moving image data (step S120). CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3 (step S122). When the pressure value is level 1, CPU 110 repeats the processing from step S102. When the pressure value is level 2, CPU 110 repeats the processing from step S122. When the pressure value is level 3, the CPU 110 executes a regeneration speed control process (step S124).

図9は、本実施の形態に係る再生速度コントロールプロセスを示すイメージ図である。図9を参照して、CPU110は、圧力値が第1の所定値以上である場合に、動画像を3Dで表示する。このとき、CPU110は、画像の飛び出し量を初期値(所定速度)に設定するとともに、動画像の再生を開始する。CPU110は、圧力値が第2の所定値以上である場合に、動画像の再生速度を増加させていく。   FIG. 9 is an image diagram showing a playback speed control process according to the present embodiment. Referring to FIG. 9, CPU 110 displays a moving image in 3D when the pressure value is equal to or greater than a first predetermined value. At this time, the CPU 110 sets the image pop-out amount to an initial value (predetermined speed) and starts the reproduction of the moving image. CPU110 increases the reproduction speed of a moving image, when a pressure value is more than a 2nd predetermined value.

図4に戻って、CPU110は、ステップS124において、再生速度コントロールの代わりに、あるいは再生速度コントロールと並行して、3D深度コントロールプロセスあるいは拡大率コントロールプロセスを実行してもよい。すなわち、CPU110は、圧力値が第2の所定値以上である場合に、画像の飛び出し量を初期値から増加させてもよい。あるいは、CPU110は、圧力値が第2の所定値以上である場合に、画像の拡大率を「1」から増加させてもよい。   Returning to FIG. 4, the CPU 110 may execute a 3D depth control process or an enlargement ratio control process in step S <b> 124 instead of or in parallel with the playback speed control. That is, the CPU 110 may increase the amount of image pop-up from the initial value when the pressure value is equal to or greater than the second predetermined value. Alternatively, the CPU 110 may increase the image enlargement ratio from “1” when the pressure value is equal to or greater than the second predetermined value.

CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS126)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、ステップS124からの処理を繰り返す。   CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3 (step S126). When the pressure value is level 1, CPU 110 repeats the processing from step S102. When the pressure value is level 3, CPU 110 repeats the process from step S124.

CPU110は、圧力値がレベル2である場合、再生速度、3D深度(画像の飛び出し量)あるいは拡大率を初期値に戻す(ステップS128)。CPU110は、ステップS122からの処理を繰り返す。   If the pressure value is level 2, CPU 110 returns the playback speed, 3D depth (image pop-out amount), or enlargement ratio to the initial value (step S128). CPU110 repeats the process from step S122.

次に、コンテンツデータが2Dの画像データである場合(ステップS106においてNOである場合)について説明する。図5を参照して、CPU110は、画像データに基づいてタッチパネル103の中央に画像を2Dで表示させる(ステップS132)。   Next, a case where the content data is 2D image data (NO in step S106) will be described. Referring to FIG. 5, CPU 110 displays an image in 2D at the center of touch panel 103 based on the image data (step S132).

CPU110は、画像データが、2Dの静止画像データであるか否かを判断する(ステップS134)。画像データが2Dの静止画像データである場合(ステップS134においてYESである場合)、CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS136)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル2である場合、ステップS136からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、拡大率コントロールプロセス(図8を参照。)を実行する(ステップS138)。   The CPU 110 determines whether the image data is 2D still image data (step S134). If the image data is 2D still image data (YES in step S134), CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3. Is determined (step S136). When the pressure value is level 1, CPU 110 repeats the processing from step S102. When the pressure value is level 2, CPU 110 repeats the process from step S136. When the pressure value is level 3, the CPU 110 executes an enlargement ratio control process (see FIG. 8) (step S138).

CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS140)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、ステップS138からの処理を繰り返す。   CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3 (step S140). When the pressure value is level 1, CPU 110 repeats the processing from step S102. If the pressure value is level 3, CPU 110 repeats the processing from step S138.

CPU110は、圧力値がレベル2である場合、拡大率を初期値に戻す(ステップS142)。CPU110は、ステップS136からの処理を繰り返す。   When the pressure value is level 2, CPU 110 returns the enlargement ratio to the initial value (step S142). CPU110 repeats the process from step S136.

画像データが2Dの動画像データである場合(ステップS134においてNOである場合)、CPU110は、2Dの動画像データに基づいて、動画像の再生を開始する(ステップS144)。CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS146)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル2である場合、ステップS146からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、再生速度コントロールプロセス(図9を参照。)を実行する(ステップS148)。   If the image data is 2D moving image data (NO in step S134), CPU 110 starts reproduction of the moving image based on the 2D moving image data (step S144). CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3 (step S146). When the pressure value is level 1, CPU 110 repeats the processing from step S102. When the pressure value is level 2, CPU 110 repeats the processing from step S146. When the pressure value is level 3, CPU 110 executes a regeneration speed control process (see FIG. 9) (step S148).

CPU110は、ステップS148において、再生速度コントロールの代わりに、あるいは再生速度コントロールと並行して、拡大率コントロールプロセスを実行してもよい。すなわち、CPU110は、圧力値が第2の所定値以上である場合に、画像の拡大率を「1」から増加させてもよい。   In step S148, the CPU 110 may execute an enlargement ratio control process instead of the playback speed control or in parallel with the playback speed control. That is, the CPU 110 may increase the image enlargement ratio from “1” when the pressure value is equal to or greater than the second predetermined value.

CPU110は、圧力センサ106からの圧力値が、レベル1に属するか、レベル2に属するか、レベル3に属するかを判断する(ステップS150)。CPU110は、圧力値がレベル1である場合、ステップS102からの処理を繰り返す。CPU110は、圧力値がレベル3である場合、ステップS148からの処理を繰り返す。   CPU 110 determines whether the pressure value from pressure sensor 106 belongs to level 1, level 2, or level 3 (step S150). When the pressure value is level 1, CPU 110 repeats the processing from step S102. If the pressure value is level 3, CPU 110 repeats the processing from step S148.

CPU110は、圧力値がレベル2である場合、再生速度あるいは拡大率を初期値に戻す(ステップS152)。CPU110は、ステップS146からの処理を繰り返す。   When the pressure value is level 2, CPU 110 returns the reproduction speed or enlargement ratio to the initial value (step S152). CPU110 repeats the process from step S146.

<画像表示位置変更処理>
次に、タッチパネル103が静止画像あるいは動画像を表示しているときに、実行される画像表示位置変更処理について説明する。図10は、本実施の形態に係る携帯電話100における画像表示位置変更処理の処理手順を示すフローチャートである。図11は、タッチパネル103の中央に画像を表示する携帯電話100を示すイメージ図である。図12は、タッチパネル103の下部に画像を表示する携帯電話100を示すイメージ図である。
<Image display position change processing>
Next, an image display position changing process that is executed when the touch panel 103 displays a still image or a moving image will be described. FIG. 10 is a flowchart showing a processing procedure of image display position change processing in mobile phone 100 according to the present embodiment. FIG. 11 is an image diagram showing the mobile phone 100 displaying an image at the center of the touch panel 103. FIG. 12 is an image diagram showing the mobile phone 100 displaying an image on the lower part of the touch panel 103.

図10、図11(A)を参照して、CPU110は、たとえば、ステップS108において、タッチパネル103の中心と画像の中心とが一致するように、タッチパネル103に画像を表示させる(ステップS1082)。この状態で、CPU110が拡大率コントロール処理を実行すると、図11(B)に示すように、タッチパネル103の中心と画像の中心とが一致した状態で画像が拡大する。   Referring to FIGS. 10 and 11A, CPU 110 causes touch panel 103 to display an image so that the center of touch panel 103 and the center of the image coincide with each other in step S108, for example (step S1082). When the CPU 110 executes the enlargement ratio control process in this state, as shown in FIG. 11B, the image is enlarged in a state where the center of the touch panel 103 and the center of the image coincide with each other.

CPU110は、タッチパネル103に静止画像あるいは動画像を表示させているときに、タッチパネル103、ボタン104、姿勢センサ112を介して、ユーザから画像の表示位置を変更するための命令を受け付けたか否かを判断する(ステップS1084)。CPU110は、当該命令に応じて、図12(A)に示すように、画像の中心位置を変更する(ステップS1086)。   Whether the CPU 110 has received a command for changing the display position of the image from the user via the touch panel 103, the button 104, and the attitude sensor 112 while displaying a still image or a moving image on the touch panel 103. Judgment is made (step S1084). In response to the command, the CPU 110 changes the center position of the image as shown in FIG. 12A (step S1086).

たとえば、CPU110は、タッチパネル103を介して、ユーザが画像の1点にタッチしたことを検知することによって、当該1点がタッチパネル103の中心に一致するように、画像を移動させる。あるいは、CPU110は、タッチパネル103を介してユーザの指がタッチパネル103上をスライドしたことを検知することによって、スライド方向あるいはその逆方向に、画像を移動させる。あるいは、CPU110は、方向キー(ボタン104)の押下に応じて、画像を移動させる。あるいは、CPU110は、姿勢センサ112から携帯電話100の姿勢を取得することによって、携帯電話100の傾斜方向に画像を移動させる。   For example, the CPU 110 detects that the user has touched one point on the image via the touch panel 103, and moves the image so that the one point coincides with the center of the touch panel 103. Alternatively, the CPU 110 detects that the user's finger has slid on the touch panel 103 via the touch panel 103, thereby moving the image in the sliding direction or the opposite direction. Alternatively, the CPU 110 moves the image in response to pressing of the direction key (button 104). Alternatively, the CPU 110 acquires the orientation of the mobile phone 100 from the orientation sensor 112, thereby moving the image in the tilt direction of the mobile phone 100.

この状態で、CPU110が拡大率コントロール処理を実行すると、図12(B)に示すように、画像の上部がタッチパネル103に拡大されて表示される。   When the CPU 110 executes the enlargement ratio control process in this state, the upper part of the image is enlarged and displayed on the touch panel 103 as shown in FIG.

なお、ここでは、ステップS108において、CPU110が、画像表示位置変更処理を実行するものとしたが、このような形態に限定されるものではない。たとえば、CPU110は、ステップS110〜ステップS152においても、割り込み処理として、画像表示位置変更処理を実行してもよい。   Here, in step S108, the CPU 110 executes the image display position changing process. However, the present invention is not limited to such a form. For example, the CPU 110 may execute an image display position change process as an interrupt process also in steps S110 to S152.

具体的には、図11(B)に示すように、タッチパネル103が拡大した静止画像あるいは動画像を表示しているときに、CPU110は、画像の表示位置を変更するための命令を受け付けてもよい。すなわち、ユーザは、左手で携帯電話100を強く握った状態で、右手で当該命令を入力したり、左手で携帯電話100を傾けたりしてもよい。この場合には、CPU110は、タッチパネル103を図12(B)に示す画面を表示させる。   Specifically, as shown in FIG. 11B, when the touch panel 103 is displaying an enlarged still image or moving image, the CPU 110 may accept a command for changing the display position of the image. Good. That is, the user may input the command with the right hand or tilt the mobile phone 100 with the left hand while holding the mobile phone 100 with the left hand. In this case, the CPU 110 causes the touch panel 103 to display a screen shown in FIG.

<本実施の形態に係る携帯電話100のその他の適用例>
本発明は、システム或いは装置にプログラムを供給することによって達成される場合にも適用できることはいうまでもない。そして、本発明を達成するためのソフトウェアによって表されるプログラムを格納した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU)が記憶媒体に格納されたプログラムコードを読出し実行することによっても、本発明の効果を享受することが可能となる。
<Other application examples of mobile phone 100 according to the present embodiment>
It goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program to a system or apparatus. Then, a storage medium storing a program represented by software for achieving the present invention is supplied to the system or apparatus, and the computer (or CPU or MPU) of the system or apparatus stores the program code stored in the storage medium It is possible to enjoy the effects of the present invention also by reading and executing.

この場合、記憶媒体から読出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。   In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.

また、コンピュータが読出したプログラムコードを実行することにより、前述した実施の形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an OS (operating system) running on the computer based on the instruction of the program code However, it is needless to say that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施の形態の機能が実現される場合も含まれることは言うまでもない。   Further, after the program code read from the storage medium is written to a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer, the function expansion is performed based on the instruction of the program code. It goes without saying that the CPU or the like provided in the board or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

100 携帯電話、101 ディスプレイ、102 タブレット、103 タッチパネル、104 ボタン、105 通信インターフェイス、106,106L,106R 圧力センサ、107 マイク、108 スピーカ、109 メモリインターフェイス、110 CPU、111 メモリ、112 姿勢センサ、150 筐体。   100 mobile phone, 101 display, 102 tablet, 103 touch panel, 104 button, 105 communication interface, 106, 106L, 106R pressure sensor, 107 microphone, 108 speaker, 109 memory interface, 110 CPU, 111 memory, 112 attitude sensor, 150 housing body.

Claims (13)

筐体と、
コンテンツを記憶するメモリと、
前記コンテンツを3D表示および2D表示することが可能なディスプレイと、
前記筐体の端部に配置される圧力センサと、
前記ディスプレイに前記コンテンツを表示させるためのプロセッサとを備え、
前記プロセッサは、
前記圧力センサからの圧力が第1の所定値未満である場合に、前記ディスプレイに前記コンテンツを2Dで表示させ、
前記圧力センサからの圧力が前記第1の所定値以上である場合に、前記ディスプレイに前記コンテンツを3Dで表示させる、コンテンツ表示装置。
A housing,
A memory for storing content;
A display capable of 3D display and 2D display of the content;
A pressure sensor disposed at an end of the housing;
A processor for displaying the content on the display;
The processor is
When the pressure from the pressure sensor is less than a first predetermined value, the content is displayed in 2D on the display;
A content display device that displays the content in 3D on the display when the pressure from the pressure sensor is equal to or higher than the first predetermined value.
前記コンテンツは3Dの静止画像を含み、
前記プロセッサは、前記3Dの静止画像が3Dで表示されているときに、前記圧力センサからの圧力が高くなるにつれて、前記3Dの静止画像の飛び出し量を増加させる、請求項1に記載のコンテンツ表示装置。
The content includes a 3D still image,
The content display according to claim 1, wherein when the 3D still image is displayed in 3D, the processor increases the pop-out amount of the 3D still image as the pressure from the pressure sensor increases. apparatus.
前記プロセッサは、
前記圧力センサからの圧力が前記第1の所定値以上かつ第2の所定値未満である場合に、前記3Dの静止画像の飛び出し量を一定に保ち、
前記圧力センサからの圧力が前記第2の所定値以上である場合に、前記圧力センサからの圧力が高くなるにつれて、前記3Dの静止画像の飛び出し量を増加させる、請求項2に記載のコンテンツ表示装置。
The processor is
When the pressure from the pressure sensor is not less than the first predetermined value and less than the second predetermined value, the pop-out amount of the 3D still image is kept constant,
The content display according to claim 2, wherein when the pressure from the pressure sensor is equal to or higher than the second predetermined value, the pop-out amount of the 3D still image is increased as the pressure from the pressure sensor increases. apparatus.
前記コンテンツは3Dの静止画像を含み、
前記プロセッサは、前記3Dの静止画像が3Dで表示されているときに、前記圧力センサからの圧力が高くなるにつれて、前記圧力センサからの圧力が高くなるにつれて、前記3Dの静止画像を拡大させる、請求項1に記載のコンテンツ表示装置。
The content includes a 3D still image,
The processor enlarges the 3D still image as the pressure from the pressure sensor increases and the pressure from the pressure sensor increases when the 3D still image is displayed in 3D. The content display device according to claim 1.
前記プロセッサは、
前記圧力センサからの圧力が前記第1の所定値以上かつ第2の所定値未満である場合に、前記3Dの静止画像の大きさを一定に保ち、
前記圧力センサからの圧力が前記第2の所定値以上である場合に、前記圧力センサからの圧力が高くなるにつれて、前記3Dの静止画像を拡大させる、請求項4に記載のコンテンツ表示装置。
The processor is
When the pressure from the pressure sensor is not less than the first predetermined value and less than the second predetermined value, the size of the 3D still image is kept constant,
The content display device according to claim 4, wherein when the pressure from the pressure sensor is equal to or higher than the second predetermined value, the 3D still image is enlarged as the pressure from the pressure sensor increases.
前記コンテンツは3Dの動画像を含み、
前記プロセッサは、前記3Dの動画像が3Dで表示されているときに、前記圧力センサからの圧力が高くなるにつれて、前記3Dの動画像の再生速度を増加させる、請求項1から5のいずれか1項に記載のコンテンツ表示装置。
The content includes a 3D moving image,
6. The processor according to claim 1, wherein when the 3D moving image is displayed in 3D, the processor increases the playback speed of the 3D moving image as the pressure from the pressure sensor increases. The content display device according to item 1.
前記プロセッサは、
前記圧力センサからの圧力が前記第1の所定値以上かつ第2の所定値未満である場合に、前記3Dの動画像を所定の速度で再生し、
前記圧力センサからの圧力が前記第2の所定値以上である場合に、前記圧力センサからの圧力が高くなるにつれて、前記3Dの動画像の再生速度を増加させる、請求項6に記載のコンテンツ表示装置。
The processor is
When the pressure from the pressure sensor is not less than the first predetermined value and less than the second predetermined value, the 3D moving image is reproduced at a predetermined speed,
The content display according to claim 6, wherein when the pressure from the pressure sensor is equal to or higher than the second predetermined value, the playback speed of the 3D moving image is increased as the pressure from the pressure sensor increases. apparatus.
前記メモリは、2Dのコンテンツとして2Dの静止画像をさらに記憶し、
前記プロセッサは、前記2Dの静止画像が表示されているときに、前記圧力センサからの圧力が高くなるにつれて、前記2Dの静止画像の拡大率を増加させる、請求項1から7のいずれか1項に記載のコンテンツ表示装置。
The memory further stores a 2D still image as 2D content;
8. The processor according to claim 1, wherein when the 2D still image is displayed, the processor increases the magnification of the 2D still image as the pressure from the pressure sensor increases. 9. The content display device described in 1.
前記メモリは、2Dのコンテンツとして2Dの動画像をさらに記憶し、
前記プロセッサは、前記2Dの動画像が表示されているときに、前記圧力センサからの圧力が高くなるにつれて、前記2Dの動画像の再生速度を増加させる、請求項1から8のいずれか1項に記載のコンテンツ表示装置。
The memory further stores a 2D moving image as 2D content,
9. The processor according to claim 1, wherein when the 2D moving image is displayed, the processor increases the playback speed of the 2D moving image as the pressure from the pressure sensor increases. The content display device described in 1.
前記プロセッサは、前記コンテンツの表示位置を変更するための命令を受け付けて、当該命令に基づいて前記ディスプレイに対する前記コンテンツの表示位置を変更する、請求項1から9のいずれか1項に記載のコンテンツ表示装置。   The content according to any one of claims 1 to 9, wherein the processor receives a command for changing the display position of the content, and changes the display position of the content with respect to the display based on the command. Display device. 姿勢センサをさらに備え、
前記プロセッサは、前記姿勢センサを介して前記筐体の傾きを取得することによって、前記筐体の傾きに基づいて前記ディスプレイに対する前記コンテンツの表示位置を変更する、請求項10に記載のコンテンツ表示装置。
A posture sensor,
The content display device according to claim 10, wherein the processor changes the display position of the content with respect to the display based on the tilt of the casing by acquiring the tilt of the casing via the attitude sensor. .
前記メモリは、前記コンテンツの各々をテキストに関連付けて記憶し、
前記プロセッサは、
前記圧力センサからの圧力が第1の所定値未満である場合に、前記ディスプレイに前記コンテンツを2Dで表示させるとともに、当該コンテンツに対応するテキストを表示させ、
前記圧力センサからの圧力が前記第1の所定値以上である場合に、前記ディスプレイに前記コンテンツを中央部に3Dで表示させる、請求項1から11のいずれか1項に記載のコンテンツ表示装置。
The memory stores each of the contents in association with a text;
The processor is
When the pressure from the pressure sensor is less than a first predetermined value, the content is displayed in 2D on the display, and the text corresponding to the content is displayed,
12. The content display device according to claim 1, wherein when the pressure from the pressure sensor is equal to or higher than the first predetermined value, the content is displayed on the display in 3D at a central portion.
筐体と、コンテンツを記憶するメモリと、前記コンテンツを3D表示および2D表示することが可能なディスプレイと、前記筐体の端部に配置される圧力センサと、プロセッサとを含むコンテンツ表示装置におけるコンテンツ表示方法であって、
前記プロセッサが、前記圧力センサからの圧力が第1の所定値以上であるか否かを判断するステップと、
前記プロセッサが、前記圧力センサからの圧力が前記第1の所定値未満である場合に、前記ディスプレイに前記コンテンツを2Dで表示させるステップと、
前記プロセッサが、前記圧力センサからの圧力が前記第1の所定値以上である場合に、前記ディスプレイに前記コンテンツを3Dで表示させるステップとを備える、コンテンツ表示方法。
Content in a content display device including a housing, a memory for storing content, a display capable of 3D display and 2D display of the content, a pressure sensor disposed at an end of the housing, and a processor Display method,
The processor determining whether the pressure from the pressure sensor is greater than or equal to a first predetermined value;
The processor causing the display to display the content in 2D when the pressure from the pressure sensor is less than the first predetermined value;
And a step of displaying the content in 3D on the display when the pressure from the pressure sensor is equal to or higher than the first predetermined value.
JP2010238239A 2010-10-25 2010-10-25 Content display device and content display method Expired - Fee Related JP5710934B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010238239A JP5710934B2 (en) 2010-10-25 2010-10-25 Content display device and content display method
PCT/JP2011/074008 WO2012056960A1 (en) 2010-10-25 2011-10-19 Content display device and content display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010238239A JP5710934B2 (en) 2010-10-25 2010-10-25 Content display device and content display method

Publications (2)

Publication Number Publication Date
JP2012093820A true JP2012093820A (en) 2012-05-17
JP5710934B2 JP5710934B2 (en) 2015-04-30

Family

ID=45993673

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010238239A Expired - Fee Related JP5710934B2 (en) 2010-10-25 2010-10-25 Content display device and content display method

Country Status (2)

Country Link
JP (1) JP5710934B2 (en)
WO (1) WO2012056960A1 (en)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016502209A (en) * 2012-12-29 2016-01-21 アップル インコーポレイテッド Device, method and graphical user interface for transitioning between relationships from touch input to display output
US9602729B2 (en) 2015-06-07 2017-03-21 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9612741B2 (en) 2012-05-09 2017-04-04 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US9619076B2 (en) 2012-05-09 2017-04-11 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
CN109144393A (en) * 2018-08-28 2019-01-04 维沃移动通信有限公司 A kind of image display method and mobile terminal
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09192349A (en) * 1996-01-19 1997-07-29 Taito Corp Parallax adjustment device of game machine capable of visualizing three-dimensional image
JPH1028276A (en) * 1996-07-10 1998-01-27 Hitachi Ltd Image-display device, image-transmitting device, image-display system and image-display method
JPH11305918A (en) * 1998-04-22 1999-11-05 Nec Corp Portable terminal and picture display method therefor
JP2002290529A (en) * 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd Portable communication terminal, information display device, control input device and control input method
JP2007013443A (en) * 2005-06-29 2007-01-18 Nec Corp Electronic equipment and power saving control method
JP2007037619A (en) * 2005-08-01 2007-02-15 Seiko Epson Corp Display device and game machine
WO2008083858A1 (en) * 2007-01-12 2008-07-17 Sony Ericsson Mobile Communications Ab Portable device with three-dimensional content-navigation systems interacting on opposing surfaces
JP2009200665A (en) * 2008-02-20 2009-09-03 Nec Corp Mobile terminal unit, its control method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09192349A (en) * 1996-01-19 1997-07-29 Taito Corp Parallax adjustment device of game machine capable of visualizing three-dimensional image
JPH1028276A (en) * 1996-07-10 1998-01-27 Hitachi Ltd Image-display device, image-transmitting device, image-display system and image-display method
JPH11305918A (en) * 1998-04-22 1999-11-05 Nec Corp Portable terminal and picture display method therefor
JP2002290529A (en) * 2001-03-28 2002-10-04 Matsushita Electric Ind Co Ltd Portable communication terminal, information display device, control input device and control input method
JP2007013443A (en) * 2005-06-29 2007-01-18 Nec Corp Electronic equipment and power saving control method
JP2007037619A (en) * 2005-08-01 2007-02-15 Seiko Epson Corp Display device and game machine
WO2008083858A1 (en) * 2007-01-12 2008-07-17 Sony Ericsson Mobile Communications Ab Portable device with three-dimensional content-navigation systems interacting on opposing surfaces
JP2009200665A (en) * 2008-02-20 2009-09-03 Nec Corp Mobile terminal unit, its control method, and program

Cited By (117)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664097B1 (en) 2011-08-05 2020-05-26 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10338736B1 (en) 2011-08-05 2019-07-02 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10345961B1 (en) 2011-08-05 2019-07-09 P4tents1, LLC Devices and methods for navigating between user interfaces
US10365758B1 (en) 2011-08-05 2019-07-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10386960B1 (en) 2011-08-05 2019-08-20 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10540039B1 (en) 2011-08-05 2020-01-21 P4tents1, LLC Devices and methods for navigating between user interface
US10649571B1 (en) 2011-08-05 2020-05-12 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10656752B1 (en) 2011-08-05 2020-05-19 P4tents1, LLC Gesture-equipped touch screen system, method, and computer program product
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9971499B2 (en) 2012-05-09 2018-05-15 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US9619076B2 (en) 2012-05-09 2017-04-11 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US9612741B2 (en) 2012-05-09 2017-04-04 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10114546B2 (en) 2012-05-09 2018-10-30 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10101887B2 (en) 2012-12-29 2018-10-16 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
US9857897B2 (en) 2012-12-29 2018-01-02 Apple Inc. Device and method for assigning respective portions of an aggregate intensity to a plurality of contacts
US10185491B2 (en) 2012-12-29 2019-01-22 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or enlarge content
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9965074B2 (en) 2012-12-29 2018-05-08 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US9996233B2 (en) 2012-12-29 2018-06-12 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
JP2016502209A (en) * 2012-12-29 2016-01-21 アップル インコーポレイテッド Device, method and graphical user interface for transitioning between relationships from touch input to display output
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9645709B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US9916080B2 (en) 2015-06-07 2018-03-13 Apple Inc. Devices and methods for navigating between user interfaces
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US9602729B2 (en) 2015-06-07 2017-03-21 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US9706127B2 (en) 2015-06-07 2017-07-11 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11842029B2 (en) 2018-08-28 2023-12-12 Vivo Mobile Communication Co., Ltd. Image display method and mobile terminal
CN109144393B (en) * 2018-08-28 2020-08-07 维沃移动通信有限公司 Image display method and mobile terminal
CN109144393A (en) * 2018-08-28 2019-01-04 维沃移动通信有限公司 A kind of image display method and mobile terminal

Also Published As

Publication number Publication date
WO2012056960A1 (en) 2012-05-03
WO2012056960A9 (en) 2012-08-02
JP5710934B2 (en) 2015-04-30

Similar Documents

Publication Publication Date Title
JP5710934B2 (en) Content display device and content display method
CN108499105B (en) Method, device and storage medium for adjusting visual angle in virtual environment
CN105988666B (en) Mobile terminal and control method thereof
US10228728B2 (en) Apparatus including multiple touch screens and method of changing screens therein
US8780076B2 (en) Mobile terminal and method for controlling the same
US9586147B2 (en) Coordinating device interaction to enhance user experience
KR102198473B1 (en) Mobile terminal and method for controlling the same
EP2461257B1 (en) Mobile terminal and operation control method thereof
EP2475179B1 (en) Display Control Program, Display, Display System, and Display Control Method
CN108737897B (en) Video playing method, device, equipment and storage medium
JP5766019B2 (en) Binocular imaging device, control method thereof, control program, and computer-readable recording medium
KR20140111088A (en) Mobile apparatus providing preview by detecting rub gesture and control method thereof
JP2010066899A (en) Input device
US9833701B2 (en) Gaming device with an inclined surface
US20140347264A1 (en) Device and method for displaying an electronic document using a double-sided display
WO2008062586A1 (en) Display, display method, display program, and recording medium
CN105474159A (en) Mobile terminal
CN114546545B (en) Image-text display method, device, terminal and storage medium
JP2012068705A (en) 3d content display device, and 3d content display method
KR101978760B1 (en) User interface method and apparatus in device for displaying 3-dimensional image
JP2012113385A (en) Electronic apparatus, display control method and program
WO2020220957A1 (en) Screen display method and terminal
WO2012070425A1 (en) Electronic device, display control method, and program
US20180125605A1 (en) Method and system for correlating anatomy using an electronic mobile device transparent display screen
JP2012138776A (en) Content display device, content display method, and program for content display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150305

R150 Certificate of patent or registration of utility model

Ref document number: 5710934

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees