JP2012138776A - コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラム - Google Patents

コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラム Download PDF

Info

Publication number
JP2012138776A
JP2012138776A JP2010289971A JP2010289971A JP2012138776A JP 2012138776 A JP2012138776 A JP 2012138776A JP 2010289971 A JP2010289971 A JP 2010289971A JP 2010289971 A JP2010289971 A JP 2010289971A JP 2012138776 A JP2012138776 A JP 2012138776A
Authority
JP
Japan
Prior art keywords
content
display
pop
amount
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010289971A
Other languages
English (en)
Inventor
Juri Sugiyama
樹利 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2010289971A priority Critical patent/JP2012138776A/ja
Priority to PCT/JP2011/080033 priority patent/WO2012090920A1/ja
Publication of JP2012138776A publication Critical patent/JP2012138776A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Abstract

【課題】観察者の身体の動きに応じて立体コンテンツの表示内容を実質的に変更させる。
【解決手段】携帯電話100では、(A)〜(C)に示されるように、携帯電話100の筐体がその奥行き方向(両矢印A10方向)に傾けられるときに立体コンテンツの表示の飛び出し量が変更される。また、携帯電話100では、(D)〜(F)に示すように、左右方向(両矢印A20方向)に傾けられると、当該立体コンテンツの表示対象となる部分が、左右方向の傾きに応じて変更される。
【選択図】図11

Description

本発明は、コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラムに関し、特に、立体コンテンツを表示させるコンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラムに関する。
従来から、立体コンテンツの表示に関し、種々の技術が開示されている。
たとえば、特許文献1(特開2007−19666号公報)では、立体コンテンツの観察者が身体を動かした場合に当該観察者の水平方向および垂直方向の視差に対応するために、観察者の垂直方向の視線方向を検出し、当該視線方向に基づいて、表示する立体画像(多視点画像)を変更する技術が開示されている。これにより、立体コンテンツの観察者が視線方向を変えても、当該観察者が自然に当該立体コンテンツを観察できるようにしている。
特開2007−19666号公報
近年、ゲームなどの多くのコンテンツに立体コンテンツが採用されることとなり、立体コンテンツの表示に際し、観察者の身体の動きを反映させる試みが種々なされている。このような中で、特許文献1に開示されているような、観察者が自然に観察できるなどの、表示内容の実質的な変更を伴わないものも、観察者の動きが反映された表示としては効果を奏している。しかしながら、コンテンツの表示に関する技術が急速に進歩する中、観察者の動きによって実質的にコンテンツの表示内容を変更し、立体コンテンツの表示をバラエティに富んだものとすることが期待されている。
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、観察者の身体の動きに応じて立体コンテンツの表示内容を実質的に変更させることである。
本発明に従ったコンテンツ表示装置は、筐体と、表示装置と、立体コンテンツを記憶するためのメモリと、メモリに記憶された立体コンテンツを表示装置に表示させるための制御手段と、筐体の第1の方向の傾きを検出するための検出手段とを備え、制御手段は、検出手段が、第1の方向の一方の向きの傾きを検出した場合には立体コンテンツの飛び出し量を増加するように変更し、第1の方向の一方の向きとは異なる他方の向きの傾きを検出した場合には立体コンテンツの飛び出し量を減少するように変更する。
また、本発明のコンテンツ表示装置では、検出手段は、筐体の第1の方向の傾きの量を検出し、制御手段は、傾きの量に応じた量だけ、立体コンテンツの飛び出し量を変更することが好ましい。
また、本発明のコンテンツ表示装置では、制御手段は、傾きの量が特定の量を超えたことを条件として、立体コンテンツの飛び出し量を変更することが好ましい。
また、本発明のコンテンツ表示装置では、検出手段は、筐体の、第1の方向と交わる第2の方向の傾きを検出し、制御手段は、検出手段が第2の方向の傾きを検出した場合には、立体コンテンツにおける表示装置での表示対象を、第2の方向に沿って変更することが好ましい。
本発明に従ったコンテンツ表示方法は、筐体、表示装置、および、立体コンテンツを記憶するためのメモリを備えたコンテンツ表示装置において実行される立体コンテンツの表示方法であって、筐体の第1の方向の傾きを検出するステップと、第1の方向の一方の向きの傾きを検出した場合には立体コンテンツの飛び出し量を増加するように変更し、第1の方向の一方の向きとは異なる他方の向きの傾きを検出した場合には立体コンテンツの飛び出し量を減少するように変更するステップとを備える。
本発明に従ったコンテンツ表示用プログラムは、筐体、表示装置、および、立体コンテンツを記憶するためのメモリを備えたコンピュータをコンテンツ表示装置として機能させるためのコンピュータ読取可能なコンテンツ表示用プログラムであって、コンピュータを、筐体の第1の方向の傾きを検出する検出手段、および、第1の方向の一方の向きの傾きを検出した場合には立体コンテンツの飛び出し量を増加するように変更し、第1の方向の一方の向きとは異なる他方の向きの傾きを検出した場合には立体コンテンツの飛び出し量を減少するように変更する表示制御手段として機能させる。
本発明によれば、コンテンツ表示装置は、筐体が第1の方向の傾きに応じて、表示装置に表示される立体コンテンツの飛び出し量を変更する。
これにより、筐体を持つ観察者の身体の動きに応じて、表示装置に表示される立体コンテンツの表示内容を、実質的に変更させることができる。
コンテンツ表示装置の一実施の形態である携帯電話の外観を示す図である。 コンテンツ表示装置の筐体がユーザの左手に保持され、操作スイッチが当該ユーザによって押下されて筐体内に収容されている状態を示す図である。 図1の携帯電話のハードウェア構成を示す図である。 図1の携帯電話の機能ブロック図である。 図1の携帯電話における、筐体の移動の向きと、立体コンテンツにおけるオブジェクトの飛び出し量の関係を説明するための図である。 図1の携帯電話における、筐体の移動の向きと、立体コンテンツにおけるオブジェクトの飛び出し量の関係を説明するための図である。 図1の携帯電話における、筐体の移動の向きと、立体コンテンツにおけるオブジェクトの飛び出し量の関係を説明するための図である。 図3のCPU(Central Processing Unit)が実行する、画像飛び出し量調整処理のフローチャートである。 図1の携帯電話における筐体の傾きと立体コンテンツのオブジェクトの飛び出し量との関係の一例を模式的に示す図である。 図1の携帯電話における、加速度センサの加速度の検出方向を説明するための図である。 図1の携帯電話における、筐体の移動の向きを説明するための図である。 図1の携帯電話の変形例(1)を説明するための図である。 図1の携帯電話の変形例(1)を説明するための図である。 図1の携帯電話の変形例(5)を説明するための図である。 図1の携帯電話の変形例(6)を説明するための図である。 図1の携帯電話の変形例(6)を説明するための図である。 図1の携帯電話の変形例(4)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。 図1の携帯電話の変形例(3)を説明するための図である。 図1の携帯電話の変形例(3)を説明するための図である。 図1の携帯電話の変形例(3)を説明するための図である。 図1の携帯電話の変形例(3)を説明するための図である。 図1の携帯電話の変形例(2)を説明するための図である。
以下、図面を参照しつつ、本発明の実施の形態について説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。
<コンテンツ表示装置の外観構成>
図1は、コンテンツ表示装置の一例である携帯電話100の外観を示す図である。携帯電話100は、ディスプレイ101を有する。
本実施の形態においては、携帯電話100を「コンテンツ表示装置」の代表例として説明を行う。ただし、当該表示装置は、PND(Personal Navigation Device)、PDA(Personal Data Assistance)、ゲーム機、電子辞書、電子ブックリーダーデバイス、パーソナルコンピュータなどのような、ディスプレイを有する他の情報機器であってもよい。
携帯電話100は、従来の平面コンテンツに加えて、立体コンテンツ(3D(three-dimensional)の静止画像および3Dの動画像を含む。以下、適宜「3Dコンテンツ」ともいう)を表示する。つまり、携帯電話100は、オブジェクトが当該携帯電話100のディスプレイ101から飛び出しているように、当該オブジェクトを表示できる。
現在、静止画像や動画像を3Dで表示するための多数の方式が提案されている。たとえば、専用のメガネを用いる方式として、液晶アクティブシャッターメガネ方式および偏向板方式が挙げられる。また、専用のメガネを用いない方式として、視差バリア方式およびレンチキュラー方式が挙げられる。本実施の形態に係る3Dコンテンツの表示方式は、いかなる方式であってもよく、上記の方式に限定されるものではない。
携帯電話100は、その外郭を筐体150に覆われている。筐体150は、その主面にディスプレイ101を備えている。また、筐体150は、その主面に操作部104を構成する複数のボタン、音声を出力するスピーカ108、および、マイクロフォン(以下、マイクという)107を有する。なお、筐体150の側面には、操作部104の一部を構成する操作スイッチ104Aが設けられている。
操作スイッチ104Aは、押下されることにより筐体150内に収容される部材を含む。図2は、筐体150がユーザ(ディスプレイ101に表示される立体コンテンツの観察者)の左手に保持され、操作スイッチ104Aが当該ユーザによって押下されて筐体150内に収容されている状態を示す。
<コンテンツ表示装置のハードウェア構成>
図3は、本実施の形態の携帯電話100のハードウェア構成を示す図である。
図3を参照して、携帯電話100は、ディスプレイ101と、タッチセンサ102と、操作部104と、通信インターフェイス105と、加速度センサ106と、マイク107と、スピーカ108と、メモリインターフェイス109と、CPU110と、メモリ111と、RAM(Random Access Memory)112とを含む。
携帯電話100では、タッチセンサ102はディスプレイ101上に設けられている。ディスプレイ101とタッチセンサ102により、タッチパネル103が構成されている。タッチセンサ102は、外部からタッチ操作されることにより、情報の入力を受付ける。携帯電話100では、ディスプレイ101とタッチセンサ102とにより、タッチパネルが構成されている。
ディスプレイ101は、CPU110によって制御されることにより、種々の情報を表示する。タッチセンサ102は、ユーザの指やスタイラスペンによるタッチ操作を検出して、当該タッチ操作が行なわれた座標をCPU110に入力する。また、タッチセンサ102は、タッチ操作がなされたときのタッチセンサ102に対する接触面積を検出し、当該接触面積をCPU110に入力する。また、タッチセンサ102は、当該タッチセンサ102に対するタッチ操作における、当該タッチセンサ102を押下された際の圧力を検出し、当該圧力をCPU110に入力する。
操作部104は、操作スイッチ104A等の複数のボタンおよびタッチセンサ102を含む。ただし、操作部104は、操作スイッチ104Aのみから構成されてもよいし、また、操作スイッチ104Aは、タッチパネル103に表示されるソフトウェアボタンとして、携帯電話100に設けられてもよい。
通信インターフェイス105は、CPU110によって制御されることにより、ネットワークを介して、外部の端末やサーバとデータ通信を行なう。CPU110は、たとえば、通信インターフェイス105を介して、外部のサーバからコンテンツデータやプログラムを受信する。
マイク107は、音声を受付けて、音声信号を生成する。マイク107は、音声信号をCPU110に入力する。スピーカ108は、CPU110によって制御されることにより、さまざまな情報(たとえば、音声メッセージやビープ音など)を出力する。
メモリインターフェイス109は、筐体150に対して着脱可能な記録媒体からデータを読出すことによってCPU110に当該データを入力したり、CPU110からのデータを当該記録媒体に格納したりする。
なお、記憶媒体としては、CD−ROM(Compact Disc - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disc)、MD(Mini Disc)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read-Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
また、メモリ111は、各種のRAMや、ROM(Read-Only Memory)や、ハードディスクなどによって実現される。たとえば、メモリ111は、読取用のインターフェイスを介して利用される、USBメモリ、CD−ROM、DVD−ROM、メモリカード、FD、ハードディスク、磁気テープ、カセットテープ、MO、MD、ICカード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROMなどの、不揮発的にデータを格納する媒体などによっても実現される。
メモリ111は、CPU110によって実行される制御プログラムや、3Dコンテンツデータなどを記憶する。3Dコンテンツデータは、3Dの静止画像を表示するためのデータや、3Dの動画像を表示するためのデータを含む。
CPU110は、メモリ111に記憶されている各種のプログラムを実行する。携帯電話100における処理(たとえば、図8のフローチャートに示される処理)は、各ハードウェアおよびCPU110により実行されるソフトウェアによって実現される。このようなソフトウェアは、メモリ111に予め記憶されている場合もあれば、記憶媒体に格納されてプログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、ネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。
このようなソフトウェアは、図示しない読取装置を利用することによって当該記憶媒体から読取られて、あるいは、通信インターフェイス105を利用することによってダウンロードされて、メモリ111に一旦格納される。CPU110は、ソフトウェアを実行可能なプログラムの形式でメモリ111に格納してから、当該プログラムを実行する。
ここでいうプログラムとは、CPU110のようなプロセッサにより直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラムを含む。
RAM112は、CPU110がプログラムを実行する際のワークエリアとして機能する。
加速度センサ106は、筐体150に対して加えられた加速度を検出し、筐体150の内部に収容されていてもよいし、筐体150の外部に取付けられていてもよい。また、加速度センサ106は、たとえば、3軸方向についての加速度を検出する。図10は、加速度センサ106の加速度の検出方向を説明するための図である。
携帯電話100では、図10の(A)に示されるように、筐体150の長手方向をY軸方向とし、筐体150の短手方向をX軸方向とした場合、加速度センサ106は、図10の(B)に示されるように、X軸方向、Y軸方向、および、図10の(A)の奥行き方向(Z軸方向)の3軸方向の加速度を検出する。
<コンテンツ表示装置の機能>
図4は、携帯電話100の機能ブロック図である。
携帯電話100は、その機能として、中央処理部191、飛び出し量取得部192、表示情報生成部193、姿勢検出部194、および、通信部195を含む。
中央処理部191は、携帯電話100の動作を全体的に制御し、たとえば、CPU110がプログラムを実行することにより実現される。
飛び出し量取得部192は、携帯電話100の状態に基づいて、ディスプレイ101に表示させる3Dコンテンツ(の各オブジェクト)についての、表示させるべき飛び出し量を取得し、たとえば、CPU110がプログラムを実行することにより実現される。
表示情報生成部193は、ディスプレイ101に表示させる画像データを生成し、たとえば、CPU110がプログラムを実行することにより実現される。なお、表示情報生成部193は、グラフィックボードなどの専用の回路によって実現されてもよい。
姿勢検出部194は、筐体150の傾きを検出し、たとえば、加速度センサ106によって実現される。
通信部195は、他の機器と通信するための処理を実行し、たとえば、通信インターフェイス105によって実現される。
<コンテンツ表示装置における立体コンテンツの表示>
携帯電話100では、筐体150の傾きが変えられることによって、ディスプレイ101に表示される立体コンテンツ(のオブジェクト)の飛び出し量を制御することができる。
このことを、図5〜図7を参照して、より詳細に説明する。
図5(A)には、ユーザが手で携帯電話100を保持し、ディスプレイ101に表示されている立体表示コンテンツを視聴している状態が示されている。このときの、ディスプレイ101に表示されている立体コンテンツの飛び出し量が、図5(B)に模式的に示されている。図5(B)では、立体コンテンツのオブジェクト900が表示される際のディスプレイ101の表示面901からの飛び出し度合いが、模式的に示されている。図5(B)において、ディスプレイ101を見るユーザの目が、Eとして模式的に示されている。
図6(A)は、図5(A)に示された状態から、携帯電話100が矢印A12の向きに傾けられた状態が示されている。
図6(A)に示された状態は、図5(A)に示された状態から、矢印A12の向きに、つまり、ディスプレイ101が設けられた面を筐体150の正面とした場合、筐体150の上端が後ろ側に傾けられた状態に相当する。
筐体150がこのように傾けられると、表示される立体コンテンツの飛び出し量が少なくなるように、ディスプレイ101の表示が制御される。これは、加速度センサ106において検出されるZ軸方向について、後ろ向きの加速度(図10(B)のZ軸方向の+側の向きの加速度)が検出されたことに基づく。
以上のように、図5(A)から、携帯電話100が矢印A12の向きに傾けられると、図5(B)に示された立体コンテンツの飛び出し量は、図6(B)に示されるように変更される。図6(B)では、図5(B)に示された状態と比較して、オブジェクト900は、表示面901に対して、ユーザの目Eから離れる向きに、その飛び出し量が変更されている。
図7(A)は、図5(A)に示された状態から、携帯電話100が矢印A11の向きに傾けられた状態が示されている。
図7(A)に示された状態は、図5(A)に示された状態から、矢印A11の向きに、つまり、ディスプレイ101が設けられた面を筐体150の正面とした場合、筐体150の上端が前側に傾けられた状態に相当する。
筐体150がこのように傾けられると、表示される立体コンテンツの飛び出し量が多くなるように、ディスプレイ101の表示が制御される。これは、加速度センサ106において検出されるZ軸方向について、前向きの加速度(図10(B)のZ軸方向の−側の向きの加速度)が検出されたことに基づく。
以上のように、図5(A)から、携帯電話100が矢印A11の向きに傾けられると、図5(B)に示された立体コンテンツの飛び出し量は、図7(B)に示されるように変更される。図7(B)では、図5(B)に示された状態と比較して、オブジェクト900は、表示面901に対して、ユーザの目Eに近づく向きに、その飛び出し量が変更されている。
<コンテンツ表示装置における立体コンテンツの表示制御>
図8は、CPU110が実行する、ディスプレイ101に表示される立体コンテンツの飛び出し量を調整するための処理(画像飛び出し量調整処理)のフローチャートである。
CPU110は、ディスプレイ101に立体コンテンツを表示するアプリケーションが実行されているときに、そのバックグラウンドで画像飛び出し量調整処理を実行し、これにより、立体コンテンツの飛び出し量を調整する。
図8を参照して、画像飛び出し量調整処理では、CPU110は、まずステップS10で、加速度センサ106を初期化して、ステップS20へ処理を進める。
ステップS20では、CPU110は、操作スイッチ104AがONされたか否かを判断し、ONされたと判断するとステップS30へ処理を進め、ONされていないと判断するとステップS10へ処理を戻す。
ここで、操作スイッチ104AがONされるとは、図2を参照して説明したように、操作スイッチ104Aが押下されて、筐体150内へ収納された状態をいう。CPU110は、たとえば、携帯電話100を構成する電気回路における、所定の部分の通電状態や電位の変化の有無を検出することにより、操作スイッチ104AがONされたか否かを判断する。
ステップS30では、CPU110は、ステップS20で操作スイッチ104AがONされてから、加速度センサ106において、Z軸方向(図10の(B)参照)についての加速度の検出状態に変化があったか否かを判断し、変化があったと判断するとステップS40へ処理を進め、当該変化が検出されなければステップS20へ処理を戻す。
ステップS40では、CPU110は、筐体150の傾きに応じた立体コンテンツの飛び出し量を取得し、その時点でディスプレイ101に表示させている立体コンテンツが当該飛び出し量で表示されるように画像データを生成し、当該画像データをディスプレイ101に表示させる。ここで、「筐体150の傾き」とは、ステップS30で検出された、加速度センサ106のZ軸方向の加速度の検出値に基づいて決定される。メモリ111には、筐体150の傾きに関連付けられて、立体コンテンツの飛び出し量が記憶されている。
メモリ111には、たとえば、図5(A)の矢印A12の向きの傾き(つまり、Z軸方向で検出された正の値の加速度)に関連付けられて、図6(B)に示されるような、初期時状態(図5(B))よりも飛び出し量が増しているような飛び出し量が記憶され、また、図5(A)の矢印A11の向きの傾き(つまり、Z軸方向で検出された負の値の加速度)に関連付けられて、図7(B)に示されるような、初期時状態(図5(B))よりも飛び出し量が減少しているような飛び出し量が記憶される。
そして、CPU110は、ステップS40で立体コンテンツの飛び出し量が変化するようにディスプレイ101の表示を更新した後、ステップS50へ処理を進める。
ステップS50では、CPU110は、操作スイッチ104AがOFFされたか否かを判断し、OFFされていないと判断するとステップS30へ処理を戻し、OFFされたと判断すると、ステップS10へ処理を戻す。
ここで、操作スイッチ104AがOFFされたとは、たとえば、図1に示されるように、操作スイッチ104Aの押下が解除された状態をいう。CPU110は、たとえば、携帯電話100内の電気回路における、所定の部分の通電状態や電位の変化の有無を検出することにより、操作スイッチ104AがOFFされたか否かを判断する。
以上説明した画像飛び出し量調整処理では、操作スイッチ104AがON(押下)されている期間中に、筐体150のZ軸方向(図10(B)参照)方向の傾きが変化することにより、ディスプレイ101に表示される立体コンテンツの飛び出し量が当該傾きに応じて変更される。
なお、このような立体コンテンツの飛び出し量の変更は、操作スイッチ104AがON(押下)されている期間中に限定されるものではない。つまり、ディスプレイ101に立体コンテンツが表示されているときには、操作スイッチ104Aの押下という特別な操作を必要とされることなく筐体150のZ軸方向の傾きに応じて、立体コンテンツの飛び出し量が変更されてもよい。この場合には、図8のステップS20およびステップS50の処理が省略される。具体的には、ステップS10で加速度センサ106が初期化された後、ステップS30で加速度センサ106の状態が監視され、状態に変化があったと判断されると、ステップS40で、変化に応じた飛び出し量で表示されるようにディスプレイ101におけるコンテンツの表示が更新される。
また、立体コンテンツの飛び出し量の変更の条件として操作される部位の形態は、操作スイッチ104Aのようなボタン形状のものに限定されない。たとえば、筐体150の側面の、操作スイッチ104Aが設けられているような部位に、人間の指で覆うことができるような小孔が設けられ、当該小孔が人間の指などで覆われている期間のみ、筐体150の傾きに応じて立体コンテンツの飛び出し量が調整されてもよい。つまり、ステップS20の処理は、当該小孔がユーザの指などで覆われているかを検出し、覆われていればステップS30へ処理が進められるように変更されてもよい。また、ステップS50は、当該小孔がユーザの指などで覆われていないかを検出し、覆われていない場合にステップS10へ処理が戻されるように変更されてもよい。CPU110は、当該小孔が指などで覆われているか否かを、たとえば、小孔を介して筐体150の外部から入力される光を検出できるか否かに基づいて判断する。具体的には、筐体150内部に小孔を介して入射する光を受ける受光素子が設けられ、CPU110は、当該受光素子の受光量が所定量未満となった場合には当該小孔が指などで覆われていると判断し、当該所定量以上の場合には当該小孔が指などで覆われていない状態であると判断する。
本実施の形態では、上記したように、メモリ111に、Z軸方向で検出された正の値の加速度と負の値の加速度のそれぞれに関連付けられて、立体コンテンツの飛び出し量が記憶されている。
なお、メモリ111に記憶される飛び出し量は、正負によってのみでなく、加速度の値の大きさに対応して多段階で記憶されていても良い。これにより、携帯電話100は、筐体150を傾ける向きだけでなく、傾ける大きさ(傾ける角度の大きさ、および/または、傾ける際に筐体150に加えられる力の大きさ)に応じて、ディスプレイ101に表示される立体コンテンツの飛び出し量を制御できる。
さらに、メモリ111には、加速度の値と飛び出し量とが、関数等によって関連付けられていても良い。この場合、たとえば図9に示されるように、傾き(検出される加速度の絶対値)が小さい場合には、立体コンテンツの飛び出し量が変更されないことが好ましい。
図9では、筐体150の傾きに対する立体コンテンツの飛び出し量の変化量が、線L1で示されている。変化量とは、その時点(たとえば、図8のステップS30で加速度が検出された時点)で表示されている飛び出し量からの、飛び出し量の変化量をいう。また、筐体の傾きとは、Z軸方向の傾きをいい、また、筐体の傾きが0である場合とは、ステップS20において操作スイッチ104AがONされた時点での加速度センサ106の検出出力が基準とされる。
このように、筐体150の傾きが小さい場合(加速度センサ106が検出する加速度の値が特定の値よりも小さい場合)に立体コンテンツの飛び出し量を変更されないことにより、ユーザが、立体コンテンツの飛び出し量の変更を意図しないときに、筐体150の微妙な揺れに応じて当該飛び出し量が変更されることを回避できる。
<変形例(1)>
以上説明した本実施の形態では、ディスプレイ101に表示される立体コンテンツの飛び出し量が、図5(A)〜図7(A)を参照して説明したように、筐体150の奥行き方向に傾きが変化したことに応じて、変更された。
携帯電話100では、さらに、筐体150が左右方向に傾けられたときに、当該左右方向の傾きに応じて、立体コンテンツの表示位置が変更されてもよい。
つまり、携帯電話100では、図11の(A)〜(C)に示されるように、携帯電話100の筐体150がその奥行き方向に傾けられるときに立体コンテンツの飛び出し量が変更されるのに加えて、図11の(D)〜(F)に示すように、左右方向に傾けられたときにも、当該立体コンテンツの表示態様が変更される。
図11の(A)〜(C)に示すような奥行き方向の傾きの変化に応じた立体コンテンツの飛び出し量の変更は、図5(B)〜図7(B)を参照して説明したとおりである。
一方、筐体150が左右方向に傾けられたとき、つまり、図11(E)に示された状態から、両矢印A20の方向に傾けられて、図11(D)または図11(F)に示された状態とされることにより、表示された立体コンテンツの表示位置が、左右に移動する。
ディスプレイ101において、立体コンテンツの表示される位置が左右方向に変更されることについて、さらに図12〜図13の(B)を参照して説明する。
図12は、筐体150が図11(E)に示された状態とされているときの、ディスプレイ101における立体コンテンツの表示態様の一例を模式的に示す図である。図12では、ディスプレイ101において、その左右方向のほぼ中心に、立体コンテンツ181が表示されている。
図13の(A)は、筐体150が、図11(E)に示された状態から図11(F)に示されるように左側に傾けられたときの、ディスプレイ101における立体コンテンツの表示態様の一例を模式的に示す図である。図13の(A)では、参考のために、図12に示された立体コンテンツの表示位置が破線182で示されている。そして、図13の(A)では、ディスプレイ101において、立体コンテンツ181が、図12に示された位置よりも左側に表示されている。
図13の(B)は、筐体150が、図11(E)に示された状態から図11(D)に示されるように右側に傾けられたときの、ディスプレイ101における立体コンテンツの表示態様の一例を模式的に示す図である。図13の(B)では、参考のために、図12に示された立体コンテンツの表示位置が破線182で示されている。そして、図13の(B)では、ディスプレイ101において、立体コンテンツ181が、図12に示された位置よりも右側に表示されている。
なお、本変形例において、CPU110は、ディスプレイ101の表示領域の中で立体コンテンツの表示に用いる領域の位置(場所)を変更することにより、立体コンテンツの表示位置が変更されてもよい。つまり、CPU110は、ディスプレイ101に立体コンテンツを表示するためのアプリケーションが実行されているときに、そのバックグラウンドで立体コンテンツの移動量を筐体150が左右方向に傾きの量に応じて調整するための処理を実行し、これにより、ディスプレイ101の表示領域の中で立体コンテンツの表示に用いる領域の位置(場所)を変更する。
<変形例(2)>
本変形例では、変形例(1)と同様に、筐体150が左右方向に傾けられたときに、立体コンテンツ中の、ディスプレイ101での表示対象となる断面が、傾けられた向きに応じた位置向きに変更される。
筐体150の前後方向の傾きに応じた、立体コンテンツのディスプレイ101に表示される範囲の変更について、図18〜図23を参照して説明する。
図18には、立体コンテンツの一例であるコンテンツ1201が示されている。また、コンテンツ1201は、より大きなコンテンツ1200の一部である(図19)。
本変形例では、ディスプレイ101に、コンテンツ1200の一部分であるコンテンツ1201が表示されている状態で、筐体150において検出された加速度センサ106がZ軸方向の加速度が検出されると、立体コンテンツのディスプレイ101に表示される範囲が変更される。より具体的には、筐体150が図5(A)に示した状態から図6(A)に示すように背面側へ傾けられると、図20に示されるように、ディスプレイ101に表示される内容は、コンテンツ1211へと変更される。なお、図21には、コンテンツ1200の中のコンテンツ1211の位置が示されている。
一方、筐体150が図5(A)に示した状態から図7(A)に示すように手前背面側へ傾けられると、図22に示されるように、ディスプレイ101に表示される内容は、コンテンツ1212へと変更される。なお、図23には、コンテンツ1200の中のコンテンツ1212の位置が示されている。
図21に示されるように、コンテンツ1211は、コンテンツ1200において、コンテンツ1201に対して手前側に位置する表示範囲である。また、図23に示されるように、コンテンツ1212は、コンテンツ1200において、コンテンツ1201に対して奥側に位置する表示範囲である。また、図18〜図23において、破線DLは、コンテンツ1201,1211,1212で表される面とディスプレイ101が交わる線を表している。
なお、本変形例においても、加速度センサ106によって検出される傾きの量に応じて、コンテンツ1200上の表示範囲の変更量が決定されてもよい。また、当該変更量が判断される場合、図9を参照して説明したように、傾きがある程度小さい場合には、表示範囲の変更は行なわれないようにすることが好ましい。
また、図19のコンテンツ1200の一例として、3次元表示された地図を挙げることができる。そして、当該地図に、オブジェクト(建物等)毎にタグが付されている場合、筐体150が図5(A)の矢印A12の向きに傾けられたことに応じて、タグを用いて表示内容を変更する制御が考えられる。具体的には、コンテンツを表示するアプリケーションが起動されると、デフォルトで指定されるタグに対応したオブジェクトを中心とした範囲の画像が、ディスプレイ101に表示される。コンテンツは、複数のオブジェクトを含み、さらに、当該複数のオブジェクトの中の1以上のオブジェクトのそれぞれに対応したタグを含む。複数のタグは、各タグが対応するオブジェクトの地図上の配置に関連付けられて、記憶されている。そして、矢印A12の向きに傾けられると、指定されるタグが、コンテンツにおいて矢印A12の向きに関連付けられた向きの、次の位置に配置されたタグへと変更される。そして、ディスプレイ101における表示は、変更後のタグに対応するオブジェクトを中心としたものに更新される。
具体的には、たとえば図28に示すように、コンテンツ1200において、オブジェクト1281とオブジェクト1282についてタグが含まれ、また、コンテンツ1200における矢印A12の向きに対応した向きが矢印A120で示される向きであるとする。そして、ディスプレイ101において、オブジェクト1281を中心とする範囲1291が表示されているとする。このときに、筐体150が矢印A12(図5(A))の向きに傾けられると、ディスプレイ101に表示される範囲は、範囲1291から、範囲1292へ変更される。範囲1292は、オブジェクト1282を中心とする範囲である。そして、オブジェクト1282のタグに関連付けられた配置は、矢印A120の向きにおいて、オブジェクト1281のタグに関連付けられた配置の次に位置する。
なお、筐体150の複数の方向についての傾きが検出される場合(たとえば、図11を参照して説明したように、両矢印A10方向地図における表示範囲の中心が両矢印A81方向に配列されたオブジェクトの中で、現在表示の中心となっているオブジェクトから、D2側の次に配列された、タグを付されたオブジェクトへと変更されてもよい。この場合、図5(A)の矢印A11の向きに、ステップS30において、傾けられたことを検出されると、地図コンテンツ801において、ディスプレイ101に表示される始点を含む面が、両矢印A81のD1側の次のオブジェクトへと変更される。
<変形例(3)>
以上説明した本実施の形態では、ディスプレイ101に表示される立体コンテンツの飛び出し量が、図5(A)〜図7(A)を参照して説明したように、筐体150の奥行き方向(前後方向)に傾きが変化したことに応じて、変更された。
携帯電話100では、さらに、筐体150が左右方向に傾けられたときに、当該左右方向の傾きに応じて、コンテンツの表示態様が変更されてもよい。
つまり、携帯電話100では、図11の(A)〜(C)に示されるように、携帯電話100の筐体150がその奥行き方向に傾けられるときに立体コンテンツの飛び出し量が変更されるのに加えて、図11の(D)〜(F)に示すように、左右方向に傾けられたときにも、当該立体コンテンツの表示態様が変更される。
図11の(A)〜(C)に示すような奥行き方向の傾きの変化に応じた立体コンテンツの飛び出し量の変更は、図5(B)〜図7(B)を参照して説明したとおりである。
一方、筐体150が左右方向に傾けられたとき、つまり、図11(E)に示された状態から、両矢印A20の方向に傾けられて、図11(D)または図11(F)に示された状態とされることにより、立体コンテンツのディスプレイ101に表示される範囲が変更される。立体コンテンツの、ディスプレイ101に表示される範囲が左右方向に変更されることについて、さらに図18,図19,図24〜図27を参照して説明する。
上記したように、図18には、立体コンテンツの一例であるコンテンツ1201が示されている。また、コンテンツ1201は、より大きなコンテンツ1200の一部である(図19)。
図11(E)の状態にあるディスプレイ101に、コンテンツ1200の一部分であるコンテンツ1201が表示されている状態(図18)で、ユーザが、筐体150を、時計回りに傾けることにより図11(D)に示す状態にすると、ディスプレイ101に表示される内容は、図24に示されるように、コンテンツ1202へと変更される。コンテンツ1202は、図25に示されるように、コンテンツ1200において、コンテンツ1201に対して左側に位置する表示範囲である。
図11(E)の状態にあるディスプレイ101に、コンテンツ1200の一部分であるコンテンツ1201が表示されている状態(図18)で、ユーザが、筐体150を、反時計回りに傾けることにより図11(F)に示す状態にすると、ディスプレイ101に表示される内容は、図26に示されるように、コンテンツ1203へと変更される。コンテンツ1203は、図27に示されるように、コンテンツ1200において、コンテンツ1201に対して右側に位置する表示範囲である。
なお、図18,図19,図24〜図27において、破線DLは、コンテンツ1201〜1203で表される面とディスプレイ101が交わる線を表している。
以上説明したように、本変形例では、筐体150が左右方向に傾けられると立体コンテンツのディスプレイ101に表示される範囲が、傾けられた向きに応じた位置に変更される。
<変形例(4)>
以上説明した変形例(2)では、筐体150が前後方向に傾けられると(図11の(A)〜(C))、ディスプレイ101に表示されるコンテンツの飛び出し量が変更され(図5〜図7)、また、左右方向に傾けられると(図11の(D)〜(F))、コンテンツにおける、ディスプレイ101での表示対象となる断面が左右方向に移動するように変更された。また、変形例(3)では、筐体150が前後方向に傾けられると、コンテンツにおける、ディスプレイ101での表示対象となる断面が前後方向に移動するように変更された。
本変形例では、携帯電話100は、立体コンテンツを表示している間、筐体150の傾きに合わせて、コンテンツにおける表示範囲を移動させるモード、飛び出し量を変更するモード、および、コンテンツを左右に移動させるモードで動作する。
図17に、本変形例において実行される画像飛び出し量調整処理の一例のフローチャートを示す。本変形例の画像飛び出し量調整処理は、図8に示した画像飛び出し量調整処理に対して、ステップS60〜ステップS80の処理が追加されたものに相当する。以下、具体的に内容を説明する。
図17を参照して、本変形例の画像飛び出し量調整処理では、CPU110は、まずステップS10で、加速度センサ106を初期化して、ステップS20へ処理を進める。
ステップS20では、CPU110は、操作スイッチ104AがONされたか否かを判断し、ONされたと判断するとステップS30へ処理を進め、ONされていないと判断するとステップS60へ処理を進める。
ステップS30では、CPU110は、ステップS20で操作スイッチ104AがONされてから、加速度センサ106において、X軸方向またはZ軸方向(図10の(B)参照)についての加速度の検出状態に変化があったか否かを判断し、変化があったと判断するとステップS40へ処理を進め、当該変化が検出されなければステップS20へ処理を戻す。
ステップS40では、CPU110は、筐体150の傾きに応じた立体コンテンツの飛び出し量を取得し、その時点でディスプレイ101に表示させている立体コンテンツが当該飛び出し量で表示されるように画像データを生成し、当該画像データをディスプレイ101に表示させるようにディスプレイ101の表示を更新し、ステップS50へ処理を進める。
ステップS50では、CPU110は、操作スイッチ104AがOFFされたか否かを判断し、OFFされていないと判断するとステップS30へ処理を戻し、OFFされたと判断すると、ステップS10へ処理を戻す。
一方、ステップS60では、CPU110は、ステップS20で操作スイッチ104AがONされてから、加速度センサ106において、X軸方向またはZ軸方向(図10の(B)参照)についての加速度の検出状態に変化があったか否かを判断し、変化があったと判断するとステップS70へ処理を進め、当該変化が検出されなければステップS20へ処理を戻す。
ステップS70では、CPU110は、筐体150の傾きに応じて、図12または図13を参照して説明した態様で断面を移動するようにディスプレイ101の表示を更新させて、ステップS80へ処理を進める。
ステップS80では、CPU110は、操作スイッチ104AがONされているか否かを判断し、ONされていると判断するとステップS10へ処理を戻し、ONされていないと判断するとステップS60へ処理を戻す。
以上説明したように、本変形例では、操作スイッチ104がONされているときの筐体150の傾きに応じてコンテンツの飛び出し量が制御され、操作スイッチ104がONされていないときの筐体150の傾きに応じてコンテンツにおける表示対象とされる断面の位置が制御される。なお、操作スイッチ104がONされているときに、筐体150の傾きに応じてコンテンツにおける表示対象とされる断面の位置が制御され、操作スイッチ104がONされていないときに、筐体150の傾きに応じてコンテンツの飛び出し量が制御されても良い。
<変形例(5)>
以上説明した本実施の形態では、筐体150の傾きに応じて、立体コンテンツの飛び出し量等が、表示コンテンツ全体として変更されていた。
本変形例では、コンテンツに含まれるオブジェクト毎に、表示における飛び出し量が決定されてもよい。
図14は、ステップS40(図8参照)における飛び出し量の決定についてのサブルーチンのフローチャートである。
図14を参照して、本変形例では、CPU110は、ステップS41で、立体コンテンツに含まれるN番目のオブジェクトの種類を取得する。オブジェクトの種類とは、たとえば、オブジェクトのファイル名などに基づいて取得される。
次に、CPU110は、ステップS42で、オブジェクトの種類に応じた飛び出し量の変更態様を取得して、ステップS43へ処理を進める。メモリ111には、オブジェクトの種類に応じて、たとえば、筐体150が一方側(Z軸方向の+側)に傾けられたときに、飛び出し量を多くするか、または、飛び出し量を少なくするかを決定する情報が記憶されている。そして、ステップ42では、ステップS41で取得したオブジェクトの種類が、これらの中のどちらの変更態様であるかを取得する。
ステップS43では、CPU110は、筐体150の傾きの変化の量に応じた飛び出し量を取得して、ステップS44へ処理を進める。
メモリ111には、傾きの変化の量に応じた飛び出し量が記憶されている。CPU110は、加速度センサ106の検出出力に基づいて、筐体150の傾きの変化の量を取得する。そして、取得した傾きの変化の量に応じた飛び出し量を、上記した記憶内容に基づいて、取得する。
ステップS44では、CPU110は、ディスプレイ101の表示対象となっている立体コンテンツに含まれるすべてのオブジェクトについて、ステップS43で飛び出し量を決定したか否かを判断し、決定したと判断すると当該決定した飛び出し量で各オブジェクトをディスプレイ101に表示させて、処理を図8へリターンさせる。一方、まだすべてのオブジェクトの飛び出し量を決定していないと判断すると、ステップS45でNを1インクリメントして、ステップS41へ処理を戻す。
なお、本変形例において、Nは、図14の処理開始時に、1に初期化されている。
以上説明した本変形例では、筐体150がある向きに傾けられたとき、立体コンテンツに含まれる一部のオブジェクトは飛び出し量が多くなるように、他のオブジェクトは飛び出し量が少なくなるように、表示が更新される。
これにより、たとえば、立体コンテンツに複数のキャラクタが含まれる場合、筐体150がある向きに傾けられると、一部のキャラクタについては飛び出し量が多くなるように、残りのキャラクタについては飛び出し量が少なくなるように、ディスプレイ101の表示が変更される。なお、筐体150が逆の向きに傾けられると、それぞれのキャラクタの飛び出し量が逆向きに変更されても良い。
他の例としては、立体コンテンツにテキストとキャラクタが含まれる場合、筐体150がある向きに傾けられると、キャラクタについては飛び出し量が多くなるように、テキストについては飛び出し量が少なくなるように、ディスプレイ101の表示が変更される。なお、筐体150が逆の向きに傾けられると、キャラクタとテキストの飛び出し量がそれぞれ逆向きに変更されても良い。また、筐体150が傾けられる前は、当該コンテンツにおいて、テキストもキャラクタも同じ平面上に位置するように表示され、筐体150が傾けられると、上記のように、テキストとキャラクタ(または複数種類のキャラクタ)の飛び出し量が変更されるように、各オブジェクトの飛び出し量が制御されても良い。
また、1つのキャラクタでも、その部分毎に飛び出し量の変更態様が調整されてもよい。つまり、たとえば、図5(A)の矢印A11の向きに筐体150が傾けられた場合、キャラクタの上半身は飛び出し量が多くなるように、そして、当該キャラクタの下半身は飛び出し量が少なくなるように、ディスプレイ101の表示が変更されてもよい。
<変形例(6)>
以上説明した本実施の形態では、加速度センサ106により筐体150の傾きが検出されたが、本発明のコンテンツ表示装置における筐体の傾きの検出は、これに限定されない。たとえば、携帯電話100は、図15に示すように、加速度センサ106の代わりにカメラ106Aを備え、当該カメラ106Aによって撮影される画像を処理することにより、筐体150の傾きを検出することができる。
図16は、本変形例の携帯電話100の機能ブロック図である。
図16を参照して、本変形例では、姿勢検出部194(図4参照)の代わりに、画像処理部196が備えられている。
画像処理部196は、カメラ106Aによって異なるタイミングで撮影された複数の画像を処理することにより筐体150の傾きを検出し、たとえば、CPU110が所定のプログラムを実行することにより実現されるが、専用の回路によって実現されても良い。
画像処理部196は、たとえば、2つの異なるタイミングで撮影された画像において、正規化相互相関法により重なり部分を検出することにより、当該2つの画像が空間に配置された場合の、異なる2つのタイミングの間でのカメラ106Aの移動の向きを算出する。本変形例では、当該算出された移動の向きが、筐体150の移動の向きとされる。
なお、本変形例では、撮影された画像に基づいて筐体150の移動の向きが算出されるのであれば、いかなる他の方法に基づいた算出方法を採用することができる。
<その他の変形例>
以上説明した本実施の形態およびその変形例では、表示装置の一例であるディスプレイ101は、筐体150と一体的に設けられていたが、本発明はこれに限定されない。ディスプレイ101における立体コンテンツの飛び出し量は、当該ディスプレイ101と別体で構成される筐体150の傾きに応じて変更されてもよい。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
100 携帯電話、101 ディスプレイ、102 タッチセンサ、103 タッチパネル、104 操作部、104A 操作スイッチ、106 加速度センサ、106A カメラ、107 マイク、108 スピーカ、109 メモリインターフェイス、150 筐体、191 中央処理部、192 飛び出し量取得部、193 表示情報生成部、194 姿勢検出部、195 通信部、196 画像処理部、900 オブジェクト、1200 コンテンツ。

Claims (6)

  1. 筐体と、
    表示装置と、
    立体コンテンツを記憶するためのメモリと、
    前記メモリに記憶された立体コンテンツを前記表示装置に表示させるための制御手段と、
    前記筐体の第1の方向の傾きを検出するための検出手段とを備え、
    前記制御手段は、前記検出手段が、前記第1の方向の一方の向きの傾きを検出した場合には前記立体コンテンツの飛び出し量を増加するように変更し、前記第1の方向の前記一方の向きとは異なる他方の向きの傾きを検出した場合には前記立体コンテンツの飛び出し量を減少するように変更する、コンテンツ表示装置。
  2. 前記検出手段は、前記筐体の前記第1の方向の傾きの量を検出し、
    前記制御手段は、前記傾きの量に応じた量だけ、前記立体コンテンツの飛び出し量を変更する、請求項1に記載のコンテンツ表示装置。
  3. 前記制御手段は、前記傾きの量が特定の量を超えたことを条件として、前記立体コンテンツの飛び出し量を変更する、請求項2に記載のコンテンツ表示装置。
  4. 前記検出手段は、前記筐体の、前記第1の方向と交わる第2の方向の傾きを検出し、
    前記制御手段は、前記検出手段が前記第2の方向の傾きを検出した場合には、前記立体コンテンツにおける前記表示装置での表示対象を、前記第2の方向に沿って変更する、請求項1〜請求項3のいずれかに記載のコンテンツ表示装置。
  5. 筐体、表示装置、および、立体コンテンツを記憶するためのメモリを備えたコンテンツ表示装置において実行される立体コンテンツの表示方法であって、
    前記筐体の第1の方向の傾きを検出するステップと、
    前記第1の方向の一方の向きの傾きを検出した場合には前記立体コンテンツの飛び出し量を増加するように変更し、前記第1の方向の前記一方の向きとは異なる他方の向きの傾きを検出した場合には前記立体コンテンツの飛び出し量を減少するように変更するステップとを備える、コンテンツ表示方法。
  6. 筐体、表示装置、および、立体コンテンツを記憶するためのメモリを備えたコンピュータをコンテンツ表示装置として機能させるためのコンピュータ読取可能なコンテンツ表示用プログラムであって、
    前記コンピュータを、
    前記筐体の第1の方向の傾きを検出する検出手段、および、
    前記第1の方向の一方の向きの傾きを検出した場合には前記立体コンテンツの飛び出し量を増加するように変更し、前記第1の方向の前記一方の向きとは異なる他方の向きの傾きを検出した場合には前記立体コンテンツの飛び出し量を減少するように変更する表示制御手段として機能させるための、コンテンツ表示用プログラム。
JP2010289971A 2010-12-27 2010-12-27 コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラム Withdrawn JP2012138776A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010289971A JP2012138776A (ja) 2010-12-27 2010-12-27 コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラム
PCT/JP2011/080033 WO2012090920A1 (ja) 2010-12-27 2011-12-26 コンテンツ表示装置、コンテンツ表示方法、および、記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010289971A JP2012138776A (ja) 2010-12-27 2010-12-27 コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラム

Publications (1)

Publication Number Publication Date
JP2012138776A true JP2012138776A (ja) 2012-07-19

Family

ID=46383023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010289971A Withdrawn JP2012138776A (ja) 2010-12-27 2010-12-27 コンテンツ表示装置、コンテンツ表示方法、および、コンテンツ表示用プログラム

Country Status (2)

Country Link
JP (1) JP2012138776A (ja)
WO (1) WO2012090920A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169911A (ja) * 2011-02-15 2012-09-06 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP2013174864A (ja) * 2012-12-04 2013-09-05 Nintendo Co Ltd 表示システム、表示制御装置、情報処理プログラム及び表示方法
WO2017022302A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8342961B2 (en) * 2007-12-28 2013-01-01 Capcom Co., Ltd. Computer, program, and storage medium
JP5158606B2 (ja) * 2009-04-23 2013-03-06 Necカシオモバイルコミュニケーションズ株式会社 端末装置、表示方法、及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012169911A (ja) * 2011-02-15 2012-09-06 Nintendo Co Ltd 表示制御プログラム、表示制御装置、表示制御システム、および、表示制御方法
JP2013174864A (ja) * 2012-12-04 2013-09-05 Nintendo Co Ltd 表示システム、表示制御装置、情報処理プログラム及び表示方法
WO2017022302A1 (ja) * 2015-08-03 2017-02-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
WO2012090920A1 (ja) 2012-07-05

Similar Documents

Publication Publication Date Title
US11209865B2 (en) Method for providing image using foldable display and electronic device for supporting the same
US9507428B2 (en) Electronic device, control method, and control program
CN108710525B (zh) 虚拟场景中的地图展示方法、装置、设备及存储介质
US9501204B2 (en) Display device
JP5739671B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
US8024004B2 (en) Device having display buttons and display method and medium for the device
JP2014135086A (ja) 動き特性を使用することによるディスプレイへの三次元ユーザインターフェイス効果
CN112044065B (zh) 虚拟资源的显示方法、装置、设备及存储介质
EP2690524B1 (en) Electronic device, control method and control program
CN112245912B (zh) 虚拟场景中的声音提示方法、装置、设备及存储介质
JP2005245619A (ja) ゲーム装置およびゲームプログラム
US9619048B2 (en) Display device
WO2012090920A1 (ja) コンテンツ表示装置、コンテンツ表示方法、および、記録媒体
EP3403165B1 (en) Auto-aligner for virtual reality display
CN112717409B (zh) 虚拟车辆控制方法、装置、计算机设备及存储介质
JP2012252592A (ja) 表示制御プログラム、表示制御装置、表示制御方法及び表示制御システム
KR20150118036A (ko) 머리 착용형 디스플레이 장치 및 머리 착용형 디스플레이 장치의 콘텐트 표시방법
JP6126195B2 (ja) 表示機器
JP2015109092A (ja) 表示機器
JP5926008B2 (ja) 電子機器、制御方法および制御プログラム
JP5776964B2 (ja) 情報表示装置、表示制御方法及びプログラム
JP2020074062A (ja) 表示制御装置及びプログラム
JP2020074061A (ja) 表示制御装置及びプログラム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304