JP2012089007A - 携帯端末およびメニュー画面表示方法 - Google Patents

携帯端末およびメニュー画面表示方法 Download PDF

Info

Publication number
JP2012089007A
JP2012089007A JP2010236529A JP2010236529A JP2012089007A JP 2012089007 A JP2012089007 A JP 2012089007A JP 2010236529 A JP2010236529 A JP 2010236529A JP 2010236529 A JP2010236529 A JP 2010236529A JP 2012089007 A JP2012089007 A JP 2012089007A
Authority
JP
Japan
Prior art keywords
virtual camera
mobile terminal
virtual
menu screen
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010236529A
Other languages
English (en)
Inventor
Ryo Takahashi
諒 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Casio Mobile Communications Ltd
Original Assignee
NEC Casio Mobile Communications Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Casio Mobile Communications Ltd filed Critical NEC Casio Mobile Communications Ltd
Priority to JP2010236529A priority Critical patent/JP2012089007A/ja
Publication of JP2012089007A publication Critical patent/JP2012089007A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザが携帯端末の複数のメニュー画面を直感的に認識することが可能になる携帯端末およびメニュー画面表示方法を提供する。
【解決手段】メニュー画面を表示する携帯端末は、仮想カメラと複数のメニュー画面とが配置された仮想空間を表す空間情報を記憶する記憶手段と、携帯端末の移動量を検出する検出手段と、検出手段にて検出された携帯端末の移動量に基づいて空間情報を変更することによって、仮想カメラの視界を変更する制御手段と、仮想空間内の複数のメニュー画面のうちのいくつかが仮想カメラの視界に入っている場合に、仮想カメラの視界に入っているメニュー画面を表す画像を表示する表示手段と、を含む。
【選択図】図1

Description

本発明は、携帯端末およびメニュー画面表示方法に関する。
特許文献1には、初期メニューを表示可能な携帯端末が記載されている。
特許文献1に記載の携帯端末は、携帯端末の筐体に対して行われるタップ操作を、加速度センサで検出し、その検出結果に応じた入力指示、例えば、初期メニューを表示する旨の入力指示を受け付ける。特許文献1に記載の携帯端末は、初期メニューを表示する旨の入力指示を受け付けると、初期メニューをディスプレイに表示する。
なお、特許文献1には、初期メニューの具体例は示されていないが、一般的に、携帯端末では、初期メニューは、階層構造を有する複数のメニュー画面のうちの最上位の階層のメニュー画面となる。
特開2008−176641号公報
携帯端末では、メニュー画面は、階層構造を有しており、携帯端末の画面上には、1つのメニュー画面しか表示されない。このため、ユーザは、次階層のメニュー画面を直感的に認識することが難しく、よって、複数のメニュー画面を直感的に認識することが難しいという課題があった。
本発明の目的は、上述した課題を解決可能な携帯端末およびメニュー画面表示方法を提供することである。
本発明の携帯端末は、メニュー画面を表示する携帯端末であって、仮想カメラと複数の前記メニュー画面とが配置された仮想空間を表す空間情報を記憶する記憶手段と、前記携帯端末の移動量を検出する検出手段と、前記検出手段にて検出された携帯端末の移動量に基づいて前記空間情報を変更することによって、前記仮想カメラの視界を変更する制御手段と、前記仮想空間内の複数のメニュー画面のうちのいくつかが、前記仮想カメラの視界に入っている場合に、前記仮想カメラの視界に入っているメニュー画面を表す画像を表示する表示手段と、を含む。
本発明のメニュー画面表示方法は、メニュー画面を表示する携帯端末が行うメニュー画面表示方法であって、仮想カメラと複数の前記メニュー画面とが配置された仮想空間を表す空間情報を記憶手段に記憶する記憶ステップと、前記携帯端末の移動量を検出する検出ステップと、前記携帯端末の移動量に基づいて前記空間情報を変更することによって、前記仮想カメラの視界を変更する制御ステップと、前記仮想空間内の複数のメニュー画面のうちのいくつかが、前記仮想カメラの視界に入っている場合に、前記仮想カメラの視界に入っているメニュー画面を表す画像を表示する表示ステップと、を含む。
本発明によれば、ユーザが携帯端末の複数のメニュー画面を直感的に認識することが可能になる。
本発明の一実施形態の携帯端末10を示したブロック図である。 携帯端末2の動作を説明するためのフローチャートである。 仮想3次元空間内のメニュー画面の配置と、ステップS3で表示パネル5bに表示される画像と、を示した図である。 仮想3次元空間内のメニュー画面の配置と、携帯端末10が傾けられた際に表示パネル5bに表示される画像と、を示した図である。 仮想3次元空間内のメニュー画面の配置と、携帯端末10の位置が変更された際に表示パネル5bに表示される画像と、を示した図である。
以下、本発明の一実施形態を図面を参照して説明する。
図1は、本発明の一実施形態の携帯端末10を示したブロック図である。
図1において、携帯端末10は、例えば、携帯電話機である。なお、携帯端末10は、携帯電話機に限るものではない。
携帯端末10は、携帯端末10に設定された仮想空間に配置されたメニュー画面を表示する。本実施形態では、携帯端末10は、携帯端末10に設定された仮想3次元空間(仮想空間)に配置された仮想カメラの視界に入っているメニュー画面を表す画像を表示する。
携帯端末10は、メニュー画面として、電話帳を表示するための電話帳メニュー画面と、Web画面を表示するためのWebメニュー画面と、電子メールを扱う画面を表示するためのメールメニュー画面と、アルバムを表示するためのアルバムメニュー画面と、を有する。なお、メニュー画面は、上記に限らず適宜変更可能である。
携帯端末10は、入力部1と、記憶部2と、検出部3と、制御部4と、表示部5と、通信部6と、を含む。検出部3は、加速度センサ3aと、角速度センサ3bと、を含む。表示部5は、グラフィック処理部5aと、表示パネル5bと、を含む。
入力部1は、一般的に受付手段と呼ぶことができる。
入力部1は、複数の入力キーまたはタッチパネルからなり、ユーザからの入力を受け付ける。入力部1は、例えば、仮想3次元空間内での複数のメニュー画面の位置を特定する特定情報を受け付ける。
記憶部2は、一般的に記憶手段と呼ぶことができる。
記憶部2は、仮想カメラと複数のメニュー画面とが配置された仮想3次元空間を表す空間情報を記憶する。
本実施形態では、記憶部2には、入力部1が受け付けた特定情報にて特定される位置に複数のメニュー画面が配置され仮想カメラが予め定められた位置(デフォルトの位置)に配置された仮想空間情報が記憶される。なお、仮想空間情報は、空間情報の一例であり、制御部4にて生成される。
仮想空間情報は、例えば、仮想3次元空間を規定するX軸、Y軸およびZ軸を表す座標軸情報と、メニュー画面情報と、メニュー画面位置情報と、仮想カメラ位置情報と、仮想カメラ姿勢情報と、を有する。
メニュー画面情報は、デフォルトの情報であり、複数のメニュー画面を表す。なお、メニュー画面情報は、入力部1が受け付けるユーザからのメニュー画面変更指示によって、変更されてもよいし、削除されてもよいし、追加されてもよい。
メニュー画面位置情報は、仮想3次元空間内での複数のメニュー画面の位置を表す。仮想カメラ位置情報は、仮想3次元空間内での仮想カメラの位置を表す。仮想カメラ姿勢情報は、仮想3次元空間内での仮想カメラの姿勢を表す。携帯端末10の動作開始時には、仮想カメラ位置情報および仮想カメラ姿勢情報として、デフォルトの情報が設定される。
なお、仮想3次元空間内での複数のメニュー画面の位置と、仮想3次元空間内での仮想カメラの位置とは、仮想3次元空間のXYZ座標にて規定される。また、仮想3次元空間内での仮想カメラの姿勢は、仮想3次元空間を規定するX軸、Y軸およびZ軸のそれぞれについての仮想基準位置(デフォルト位置)からの姿勢変化量である、Yaw(ヨー)角、Pitch(ピッチ)角およびRoll(ロール)角によって規定される。
検出部3は、一般的に検出手段と呼ぶことができる。
検出部3は、携帯端末10の移動量を検出する。本実施形態では、検出部3は、携帯端末10の移動量として、携帯端末10の移動距離と、携帯端末10の移動角度と、を検出する。
加速度センサ3aは、携帯端末10の移動距離を検出する。本実施形態では、加速度センサ3aは、実空間上での直交3軸を成すx、yおよびz軸の各軸方向の携帯端末10の基準位置からの移動量を検出する。
角速度センサ3bは、携帯端末10の移動角度を検出する。本実施形態では、角速度センサ3bは、実空間上での直交3軸を成すx、yおよびz軸の各軸周りの携帯端末10の基準位置からの姿勢変化角(Yaw角、Pitch角およびRoll角)を検出する。
制御部4は、一般的に制御手段と呼ぶことができる。
制御部4は、携帯端末10の動作を制御する。例えば、制御部4は、検出部3にて検出された携帯端末10の移動量に基づいて、仮想カメラの視界を変更する。なお、制御部4は、携帯端末10の移動量に基づいて記憶部2内の空間情報(仮想カメラ位置情報と仮想カメラ姿勢情報とのいずれか一方または両方)を変更することによって、仮想カメラの視界を変更する。
本実施形態では、制御部4は、加速度センサ3aにて検出された携帯端末10の移動距離に応じて仮想カメラの位置を移動し、かつ、角速度センサ3bにて検出された携帯端末10の移動角度に応じて仮想カメラの姿勢を傾けることによって、仮想カメラの視界を変更する。この場合、制御部4は、加速度センサ3aにて検出された携帯端末10の移動距離に応じて仮想カメラの位置が移動し、かつ、角速度センサ3bにて検出された携帯端末10の移動角度に応じて仮想カメラの姿勢が傾くように、記憶部2内の空間情報(仮想カメラ位置情報と仮想カメラ姿勢情報とのいずれか一方または両方)を変更することによって、仮想カメラの視界を変更する。
制御部4は、携帯端末10の移動距離に比例した量だけ仮想カメラの位置を移動し、かつ、携帯端末10の移動角度に比例した量だけ仮想カメラの姿勢を傾けることによって、仮想カメラの視界を変更する。この場合、制御部4は、携帯端末10の移動距離に比例した量だけ仮想カメラの位置が移動し、かつ、携帯端末10の移動角度に比例した量だけ仮想カメラの姿勢が傾くように、記憶部2内の空間情報(仮想カメラ位置情報と仮想カメラ姿勢情報とのいずれか一方または両方)を変更することによって、仮想カメラの視界を変更する。
例えば、制御部4は、x軸方向の携帯端末10の移動量に比例した量だけ、X軸方向の仮想カメラの位置が移動し、y軸方向の携帯端末10の移動量に比例した量だけ、Y軸方向の仮想カメラの位置が移動し、z軸方向の携帯端末10の移動量に比例した量だけ、Z軸方向の仮想カメラの位置が移動するように、記憶部2内の空間情報(仮想カメラ位置情報)を変更する。そして、制御部4は、x軸周りの携帯端末10の姿勢変化量(Pitch角)に比例した量だけ、X軸方向の仮想カメラの姿勢が傾き、y軸周りの携帯端末10の姿勢変化量(Roll角)に比例した量だけ、Y軸方向の仮想カメラの姿勢が傾き、z軸周りの携帯端末10の姿勢変化量(Yaw角)に比例した量だけ、Z軸方向の仮想カメラの姿勢が傾くように、記憶部2内の空間情報(仮想カメラ姿勢情報)を変更する。
また、制御部4は、入力部1が特定情報を受け付けると、その特定情報にて特定される位置に複数のメニュー画面が配置され仮想カメラが予め定められた位置(デフォルトの位置)に配置された仮想空間情報を生成する。制御部4は、仮想空間情報を、空間情報として記憶部2に記憶する。
表示部5は、一般的に表示手段と呼ぶことができる。
表示部5は、仮想3次元空間内の複数のメニュー画面のうちのいくつかが、仮想カメラの視界に入っている場合、仮想カメラの視界に入っているメニュー画面を表す画像を表示する。
例えば、表示部5は、仮想カメラの視界に入っている仮想3次元空間を仮想カメラにて透視変換した2次元画像を表示する。なお、仮想3次元空間の画像を表示する技術、および、仮想カメラの視界に入っている仮想3次元空間を仮想カメラにて透視変換した2次元画像を表示する技術は、公知技術であるため、その詳細な説明は割愛する。
グラフィック処理部5aは、記憶部2内の空間情報(仮想空間情報)を使用して3次元グラフィック処理を行うことによって、仮想カメラの視界に入っている仮想3次元空間を仮想カメラにて透視変換した2次元画像を生成する。
表示パネル5bは、グラフィック処理部5aが生成した2次元画像を表示する。
通信部6は、携帯電話網(不図示)を使った通信を行う。
次に、動作を説明する。
図2は、携帯端末2の動作を説明するためのフローチャートである。以下、図2を参照して、携帯端末2の動作を説明する。
まず、ユーザは、入力部1を操作して、仮想3次元空間内での複数のメニュー画面の位置を特定する特定情報を入力する。例えば、特定情報は、仮想3次元空間内での複数のメニュー画面の位置として、デフォルトの姿勢でデフォルト位置にある仮想カメラに対する各メニュー画面の相対的な位置(距離関係)を表す。制御部4は、入力部1が特定情報を受け付けると、仮想空間情報を生成し、その仮想空間情報を、空間情報として記憶部2に記憶する(ステップS1)。
続いて、ユーザは、入力部1を操作して、実空間での携帯端末10の位置および姿勢の基準位置(初期位置)を特定する旨の初期設定指示を入力する。
制御部4は、入力部1が初期設定指示を受け付けると、そのときの加速度センサ3aおよび角速度センサ3bの検出結果を読み取り、加速度センサ3aおよび角速度センサ3bの検出結果から実空間での携帯端末10の位置および姿勢を特定し、その特定された携帯端末10の位置および姿勢を、実空間での携帯端末10の位置および姿勢の基準位置(初期位置)として決定する(ステップS2)。
続いて、制御部4は、グラフィック処理部5aに、記憶部2内の空間情報を参照させ、仮想カメラの視界に入っている仮想3次元空間を仮想カメラにて透視変換した2次元画像を生成させる。表示パネル5bは、グラフィック処理部5aが生成した2次元画像を表示する(ステップS3)。
図3は、仮想3次元空間内のメニュー画面の配置と、ステップS3で表示パネル5bに表示される画像と、を示した図である。
その後、制御部4は、加速度センサ3aおよび角速度センサ3bの検出結果を監視し、実空間での携帯端末10の位置および姿勢が、実空間での携帯端末10の位置および姿勢の基準位置と異なっているかを判断する(ステップS4)。
実空間での携帯端末10の位置および姿勢が、実空間での携帯端末10の位置および姿勢の基準位置と異なると、制御部4は、加速度センサ3aにて検出された携帯端末10の移動距離に応じて仮想カメラの位置が移動され、かつ、角速度センサ3bにて検出された携帯端末10の移動角度に応じて仮想カメラの姿勢が傾くように、記憶部2内の仮想カメラ位置情報および仮想カメラ姿勢情報と変更することによって、仮想カメラの視界を変更する。
本実施形態では、制御部4は、x軸方向の携帯端末10の移動量に比例した量だけ、X軸方向の仮想カメラの位置が移動し、y軸方向の携帯端末10の移動量に比例した量だけ、Y軸方向の仮想カメラの位置が移動し、z軸方向の携帯端末10の移動量に比例した量だけ、Z軸方向の仮想カメラの位置が移動し、x軸周りの携帯端末10の姿勢変化量(Pitch角)に比例した量だけ、X軸方向の仮想カメラの姿勢が傾き、y軸周りの携帯端末10の姿勢変化量(Roll角)に比例した量だけ、Y軸方向の仮想カメラの姿勢が傾き、z軸周りの携帯端末10の姿勢変化量(Yaw角)に比例した量だけ、Z軸方向の仮想カメラの姿勢が傾くように、記憶部2内の仮想カメラ位置情報および仮想カメラ姿勢情報と変更することによって、仮想カメラの視界を変更する。
仮想カメラの視界が変更されることによって、表示パネル5bに表示される画像が切り替わる(ステップS5)。
図4は、仮想3次元空間内のメニュー画面の配置と、携帯端末10が図3に示した位置から傾けられた際に表示パネル5bに表示される画像と、を示した図である。
図5は、仮想3次元空間内のメニュー画面の配置と、携帯端末10が図3に示した位置から移動された際に表示パネル5bに表示される画像と、を示した図である。
その後、制御部4は、再度、入力部1が初期設定指示を受け付けたかを判断する(ステップS6)。
入力部1が、再度、初期設定指示を受け付けた場合、制御部4は、仮想カメラの位置および姿勢をデフォルトの状態に戻し、その後、ステップS2を実行する。このため、入力部1が、再度、初期設定指示を受け付けた場合、表示パネル5bに表示される画像が初期状態に戻る。
ステップS6の後、制御部4は、いずれかのメニュー画面が決定(選択)されたかを判断する(ステップS7)。なお、ユーザがメニュー画面を決定する手法は、任意である。例えば、ユーザが入力部1を操作してメニュー画面を決定してもよい。
メニュー画面が決定されると、制御部4は、決定されたメニュー画面に応じた画像を表示部5に表示する(ステップS8)。
なお、メニュー画面が決定されない場合、制御部4は、処理をステップS4に戻す。
本実施形態によれば、複数のメニュー画面が配置された仮想3次元空間内の仮想カメラの視界が、携帯端末10の移動量に基づいて変更される。表示部5は、仮想3次元空間内の複数のメニュー画面のうちのいくつかが、仮想カメラの視界に入っている場合に、仮想カメラの視界に入っているメニュー画面を表す画像を表示する。
このため、仮想3次元空間内の複数のメニュー画面を表示部5に表示することが可能になり、ユーザは携帯端末10を動かすことによって、簡単に、他のメニュー画面を確認することが可能になる。よって、ユーザが携帯端末10の複数のメニュー画面を直感的に認識することが可能になる。
なお、上記作用効果は、記憶部2と検出部3と制御部4と表示部5とからなる携帯端末でも奏するものである。
また、本実施形態では、検出部3は、携帯端末10の移動量として、携帯端末10の移動距離と、携帯端末10の移動角度と、を検出する。制御部4は、携帯端末10の移動距離に応じて仮想カメラの位置が移動し、かつ、携帯端末10の移動角度に応じて仮想カメラの姿勢が傾くように、記憶部2内の空間情報を変更することによって、仮想カメラの視界を変更する。
この場合、携帯端末10の移動状態と仮想カメラの視界の変更状態とを対応させることができ、ユーザは、仮想カメラの視界の変更を直感的に行うことが可能になる。
また、本実施形態では、制御部4は、携帯端末10の移動距離に比例した量だけ仮想カメラの位置が移動し、かつ、携帯端末10の移動角度に比例した量だけ仮想カメラの姿勢が傾くように、記憶部2内の空間情報を変更することによって、仮想カメラの視界を変更する。
この場合、携帯端末10の移動状態と仮想カメラの視界の変更状態とをより対応させることができ、ユーザは、仮想カメラの視界の変更をより直感的に行うことが可能になる。
また、本実施形態では、入力部1は、仮想3次元空間内での複数のメニュー画面の位置を特定する特定情報を受け付ける。制御部4は、その特定情報にて特定される位置に複数のメニュー画面が配置され仮想カメラが予め定められた位置(デフォルトの位置)に配置された仮想空間情報を生成し、その仮想空間情報を記憶部4に記憶する。
この場合、ユーザは、仮想3次元空間内での複数のメニュー画面の位置を任意に設定することが可能になる。
なお、特定情報が、さらに、仮想3次元空間内に配置されるメニュー画面の大きさ、個数および傾きを表してもよい。この場合、ユーザは、さらに、仮想3次元空間内に配置されるメニュー画面の大きさ、個数および傾きを任意に設定することが可能になる。
本実施形態によれば、ユーザは、直感的に数多くのメニュー画面を見ることが可能になる。また、ユーザは、携帯端末10の位置や姿勢を変更するだけで、表示パネル5bに表示されるメニュー画面を変更することが可能になる。
本実施形態では、携帯端末10として、スマートフォンをはじめとする物理キーを持たない携帯端末が用いられると、ユーザは、携帯端末に表示されるメニュー画面を直感的に変更することが可能になる。
以上説明した実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
10 携帯端末
1 入力部
2 記憶部
3 検出部
3a 加速度センサ
3b 角速度センサ
4 制御部
5 表示部
5a グラフィック処理部
5b 表示パネル
6 通信部

Claims (8)

  1. メニュー画面を表示する携帯端末であって、
    仮想カメラと複数の前記メニュー画面とが配置された仮想空間を表す空間情報を記憶する記憶手段と、
    前記携帯端末の移動量を検出する検出手段と、
    前記検出手段にて検出された携帯端末の移動量に基づいて前記空間情報を変更することによって、前記仮想カメラの視界を変更する制御手段と、
    前記仮想空間内の複数のメニュー画面のうちのいくつかが、前記仮想カメラの視界に入っている場合に、前記仮想カメラの視界に入っているメニュー画面を表す画像を表示する表示手段と、を含む携帯端末。
  2. 請求項1に記載の携帯端末において、
    前記検出手段は、前記携帯端末の移動量として、前記携帯端末の移動距離と、前記携帯端末の移動角度と、を検出し、
    前記制御手段は、前記携帯端末の移動距離に応じて前記仮想カメラの位置が移動し、かつ、前記携帯端末の移動角度に応じて前記仮想カメラの姿勢が傾くように、前記空間情報を変更することによって、前記仮想カメラの視界を変更する、携帯端末。
  3. 請求項2に記載の携帯端末において、
    前記制御手段は、前記携帯端末の移動距離に比例した量だけ前記仮想カメラの位置が移動し、かつ、前記携帯端末の移動角度に比例した量だけ前記仮想カメラの姿勢が傾くように、前記空間情報を変更することによって、前記仮想カメラの視界を変更する、携帯端末。
  4. 請求項1から3のいずれか1項に記載の携帯端末において、
    前記仮想空間内での前記複数のメニュー画面の位置を特定する特定情報を受け付ける受付手段をさらに含み、
    前記制御手段は、前記特定情報にて特定される位置に前記複数のメニュー画面が配置され前記仮想カメラが予め定められた位置に配置された仮想空間情報を、前記空間情報として生成し、当該仮想空間情報を、前記記憶手段に記憶する、携帯端末。
  5. メニュー画面を表示する携帯端末が行うメニュー画面表示方法であって、
    仮想カメラと複数の前記メニュー画面とが配置された仮想空間を表す空間情報を記憶手段に記憶する記憶ステップと、
    前記携帯端末の移動量を検出する検出ステップと、
    前記携帯端末の移動量に基づいて前記空間情報を変更することによって、前記仮想カメラの視界を変更する制御ステップと、
    前記仮想空間内の複数のメニュー画面のうちのいくつかが、前記仮想カメラの視界に入っている場合に、前記仮想カメラの視界に入っているメニュー画面を表す画像を表示する表示ステップと、を含むメニュー画面表示方法。
  6. 請求項5に記載のメニュー画面表示方法において、
    前記検出ステップでは、前記携帯端末の移動量として、前記携帯端末の移動距離と、前記携帯端末の移動角度と、を検出し、
    前記制御ステップでは、前記携帯端末の移動距離に応じて前記仮想カメラの位置が移動し、かつ、前記携帯端末の移動角度に応じて前記仮想カメラの姿勢が傾くように、前記空間情報を変更することによって、前記仮想カメラの視界を変更する、メニュー画面表示方法。
  7. 請求項6に記載のメニュー画面表示方法において、
    前記制御ステップでは、前記携帯端末の移動距離に比例した量だけ前記仮想カメラの位置が移動し、かつ、前記携帯端末の移動角度に比例した量だけ前記仮想カメラの姿勢が傾くように、前記空間情報を変更することによって、前記仮想カメラの視界を変更する、メニュー画面表示方法。
  8. 請求項5から7のいずれか1項に記載のメニュー画面表示方法において、
    前記仮想空間内での前記複数のメニュー画面の位置を特定する特定情報を受け付ける受付ステップと、
    前記特定情報にて特定される位置に前記複数のメニュー画面が配置され前記仮想カメラが予め定められた位置に配置された仮想空間情報を、前記空間情報として生成する生成ステップと、をさらに含み、
    前記記憶ステップでは、前記仮想空間情報を前記記憶手段に記憶する、メニュー画面表示方法。
JP2010236529A 2010-10-21 2010-10-21 携帯端末およびメニュー画面表示方法 Pending JP2012089007A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010236529A JP2012089007A (ja) 2010-10-21 2010-10-21 携帯端末およびメニュー画面表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010236529A JP2012089007A (ja) 2010-10-21 2010-10-21 携帯端末およびメニュー画面表示方法

Publications (1)

Publication Number Publication Date
JP2012089007A true JP2012089007A (ja) 2012-05-10

Family

ID=46260550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010236529A Pending JP2012089007A (ja) 2010-10-21 2010-10-21 携帯端末およびメニュー画面表示方法

Country Status (1)

Country Link
JP (1) JP2012089007A (ja)

Similar Documents

Publication Publication Date Title
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
JP5869177B1 (ja) 仮想現実空間映像表示方法、及び、プログラム
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
JP5315111B2 (ja) 端末装置、情報提示システム及び端末画面表示方法
JP5205557B2 (ja) 端末の角度に応じて互いに異なる映像情報を提供するための方法、端末およびコンピュータ読取可能な記録媒体
US20070120846A1 (en) Three-dimensional motion graphic user interface and apparatus and method for providing three-dimensional motion graphic user interface
US20120062564A1 (en) Mobile electronic device, screen control method, and storage medium storing screen control program
JP2010026064A (ja) 携帯型画像表示装置、その制御方法、プログラム及び情報記憶媒体
KR20130051697A (ko) 단말의 움직임에 따라 이미지 표시를 제어하기 위한 장치 및 방법
JP6409644B2 (ja) 表示制御方法、表示制御プログラム、及び情報処理装置
JP2014053794A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
JP6100497B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
CN204945943U (zh) 用于为外部显示设备提供远程控制信号的远程控制设备
JP2014211720A (ja) 表示装置および表示制御プログラム
JP5106610B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
CN106445334B (zh) 显示界面的调节方法及调节系统
JP2009003799A (ja) ポータブル機器およびポータブル機器における仮想空間の提供方法
JP6099237B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
JP6174646B2 (ja) 仮想空間内のオブジェクトを3軸操作するためのコンピュータ・プログラム
JP2011248811A (ja) 携帯端末、画像制御方法及びプログラム
JP6188377B2 (ja) 表示制御装置、その制御方法、および制御プログラム
JP2004271671A (ja) 画像表示装置及びそれを備えた端末装置
US11386612B2 (en) Non-transitory computer-readable medium, image processing method, and image processing system for controlling progress of information processing in response to a user operation
JP2017059196A (ja) 仮想現実空間映像表示方法、及び、プログラム
CN109033100A (zh) 提供页面内容的方法及装置