JP2014078073A - 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法 - Google Patents

情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法 Download PDF

Info

Publication number
JP2014078073A
JP2014078073A JP2012224310A JP2012224310A JP2014078073A JP 2014078073 A JP2014078073 A JP 2014078073A JP 2012224310 A JP2012224310 A JP 2012224310A JP 2012224310 A JP2012224310 A JP 2012224310A JP 2014078073 A JP2014078073 A JP 2014078073A
Authority
JP
Japan
Prior art keywords
state
display unit
information processing
display
display range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012224310A
Other languages
English (en)
Other versions
JP6100497B2 (ja
Inventor
Hiroshi Matsunaga
浩志 松永
Yugo Hayashi
悠吾 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2012224310A priority Critical patent/JP6100497B2/ja
Priority to US13/724,525 priority patent/US9805695B2/en
Publication of JP2014078073A publication Critical patent/JP2014078073A/ja
Application granted granted Critical
Publication of JP6100497B2 publication Critical patent/JP6100497B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/34Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators for rolling or scrolling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser

Abstract

【課題】装置の姿勢に応じて表示範囲を変化させる操作の操作性を向上する。
【解決手段】情報処理装置は、ユーザが把持可能な表示部の姿勢が第1状態であるか第2状態であるかを判定する。表示部の姿勢が第1状態であると判定される場合、情報処理装置は、所定領域のうちで表示部に表示される表示範囲を表示部の姿勢に応じて設定する。表示部の姿勢が第2状態であると判定される場合、情報処理装置は、表示部の姿勢に関係なく表示範囲を設定する。
【選択図】図4

Description

本発明は、装置の姿勢に応じて表示範囲を変化させて画像を表示する情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法に関する。
従来、仮想空間の画像を表示装置に表示する技術がある。また、ユーザが把持する装置の姿勢(傾き)を変化させることによって、表示装置に表示される表示範囲を変化させることが行われている(例えば、特許文献1参照)。
特開2012−88782号公報
装置の姿勢に応じて表示範囲を変化させる従来の技術においては、表示範囲を変化させる操作がユーザにとって面倒であったり、あるいは、負担となったりする場合があった。
それ故、本発明の目的は、装置の姿勢に応じて表示範囲を変化させる操作の操作性を向上することができる情報処理装置等を提供することである。
上記の課題を解決すべく、本発明は、以下の(1)〜(14)の構成を採用した。
(1)
本発明の一例は、情報処理装置のコンピュータで実行される情報処理プログラムである。情報処理プログラムは、姿勢判定手段と、表示範囲設定手段としてコンピュータを機能させる。姿勢判定手段は、ユーザが把持可能な表示部の姿勢が第1状態であるか第2状態であるかを判定する。表示範囲設定手段は、表示部の姿勢が第1状態であると判定される場合、所定領域のうちで表示部に表示される表示範囲を表示部の姿勢に応じて設定し、表示部の姿勢が第2状態であると判定される場合、表示部の姿勢に関係なく表示範囲を設定する。
上記(1)の構成によれば、ユーザは、表示部の姿勢を第1状態とすることによって、表示部の姿勢を変化させるという直感的な操作で表示範囲を制御させることができる。また、ユーザは、表示部を第2状態とすることによって、表示部の姿勢による表示範囲の制御を容易に停止することができる。これによって、表示範囲の操作を容易にすることができ、操作性を向上することができる。また、第1状態と第2状態との切り替えは、表示部の姿勢の変化によって行われる。したがって、ユーザは、表示部の姿勢の操作とは異なる他の操作を行うことなく切り替えを行うことができる。これによって、表示範囲に対する操作をシンプルな操作にすることができ、操作性を向上することができる。
(2)
表示範囲設定手段は、表示部の姿勢が第1状態から第2状態へ変化した場合、予め定められた基準範囲を表示範囲として設定してもよい。
上記(2)の構成によれば、第2状態となったことに応じて基準範囲が表示部に表示される。したがって、ユーザは、表示部の姿勢を第2状態とすることによって、表示範囲を基準の位置(基準範囲の位置)へと容易に戻すことができる。これによって、表示範囲の移動操作の操作性を向上することができる。
(3)
表示範囲設定手段は、表示部の姿勢が第2状態から第1状態へ変化した場合、基準範囲と実質的に同じ範囲を初期表示範囲として設定してもよい。
上記(3)の構成によれば、表示部の姿勢が第1状態となった初期の時点では、基準範囲が表示範囲となる。したがって、ユーザは、第1状態となった時点における姿勢および表示範囲を基準として、その後の表示範囲の操作を行うことができる。これによって、表示範囲の操作の操作性を向上することができる。
(4)
情報処理プログラムは、表示部の姿勢が第1状態である場合において表示部の姿勢が所定期間の間実質的に停止しているか否かを判定する停止判定手段としてコンピュータをさらに機能させてもよい。このとき、表示範囲設定手段は、表示部の姿勢が所定期間の間実質的に停止していると判定される場合、予め定められた基準範囲を表示範囲として設定してもよい。
上記(4)の構成によれば、表示部の姿勢が所定期間の間実質的に停止している場合には、基準範囲が表示範囲となる。上記の場合には、表示部は他の物に立てかけて載置されていると想定することができ、ユーザが表示範囲を移動させる意図が無いと判断することができる。したがって、上記(4)の構成によれば、ユーザが表示範囲を移動させる意図が無い場合には基準範囲を表示することができるので、ユーザの意図に沿ったより適切な表示範囲を表示することができる。
(5)
姿勢判定手段は、少なくとも表示部の画面が鉛直方向に平行である場合には第1状態であると判定し、少なくとも表示部の画面が水平方向に平行であってかつ鉛直上向きとなる場合には第2状態であると判定してもよい。
上記(5)の構成によれば、画面が垂直に立った状態においては少なくとも第1状態と判定され、画面が上向きに寝た状態においては少なくとも第2状態と判定される。これによれば、ユーザは、表示部を立てたり寝かせたりするといった自然な操作によって表示範囲制御機能のオン/オフを行うことができる。これによって、表示範囲操作の操作性を向上することができる。
(6)
表示範囲設定手段は、第1状態において表示部の画面が鉛直方向を軸として回転するように姿勢が変化することに応じて表示範囲を左右方向に移動させてもよい。
上記(6)の構成によれば、表示部の画面が鉛直方向を軸として回転することに応じて表示範囲が左右方向に移動する。したがって、ユーザは、(表示部の画面を立てた状態において)表示部の姿勢を左右方向に変化させることによって表示範囲を移動させることができる。また、上記(5)の構成によれば、ユーザは、表示部の姿勢を上下方向に変化させることによって、表示範囲制御機能の有効/無効を切り替えることができる。したがって、上記(5)および(6)の構成を組み合わせる場合には、切り替え操作が表示範囲の移動操作の邪魔にならず、かつ、ユーザは自然な操作感覚で表示部を操作することができる。これによって、表示範囲操作の操作性を向上することができる。
(7)
情報処理プログラムは、オブジェクト配置手段と、オブジェクト処理実行手段としてコンピュータをさらに機能させてもよい。オブジェクト配置手段は、所定領域に複数のオブジェクトを配置し、表示範囲が左右方向に移動することに応じて、複数のオブジェクトのうちで表示範囲に含まれるオブジェクトが変更されるように複数のオブジェクトを所定方向に並べて配置する。オブジェクト処理実行手段は、表示部に表示されているオブジェクトを指定する操作が行われた場合に当該オブジェクトに応じた処理を実行する。
上記(7)の構成によれば、表示範囲が左右方向に移動することによって、表示部に表示されるオブジェクトが変更される。したがって、上記(5)から(7)の構成によれば、ユーザは、表示部の姿勢を上下方向に変化させることによって、表示範囲制御機能の有効/無効を切り替えるとともに、表示部の姿勢を左右方向に変化させることによって表示されるオブジェクトを変更することができる。これによって、表示範囲を移動することで表示されるオブジェクトを変更する操作を、操作性の良いものにすることができる。
(8)
情報処理プログラムは、表示部の姿勢が第2状態であると判定される場合、所定領域に配置される複数のオブジェクトのうちの少なくともいくつかのオブジェクトを移動させ、表示部の姿勢が第1状態であると判定される場合、当該いくつかのオブジェクトの移動を停止させる移動制御手段としてコンピュータをさらに機能させてもよい。
上記(8)の構成によれば、表示部の姿勢に応じた表示範囲の移動が不可能な第2状態においては上記いくつかのオブジェクトは移動し、表示部の姿勢に応じて表示範囲を移動可能な第1状態においては上記いくつかのオブジェクトは移動しない。これによれば、第2状態において多くの情報をユーザに提示することができるとともに、第1状態において表示範囲の操作を行いやすくすることができる。
(9)
姿勢判定手段は、表示部の画面の向きと閾値との大小関係を用いて第1状態であるか第2状態であるかを判定してもよい。このとき、閾値は、第1状態において第1状態が維持される姿勢の範囲と、第2状態において第2状態が維持される姿勢の範囲とが一部重複するように、第1状態と第2状態とで異なる値に設定されてもよい。
上記(9)の構成によれば、上記2つの範囲が重複するように各状態で異なる閾値が用いられる。これによれば、表示部の画面の向きが閾値の付近で変化しても第1状態と第2状態とが頻繁に切り替わることがないので、第1状態と第2状態とが頻繁に切り替わる可能性を低減することができる。これによって、切り替え操作の操作性を向上することができる。
(10)
表示部が設けられる筐体には、操作部がさらに設けられてもよい。このとき、情報処理プログラムは、表示部の姿勢が第2状態であることを条件として、操作部に対する所定の入力に応じた情報処理を実行する入力処理実行手段としてコンピュータをさらに機能させてもよい。
上記(10)の構成によれば、表示部の姿勢が第2状態であることを条件として操作部に対する所定の入力が受け付けられる。これによれば、第1状態において端末装置2の姿勢を動かしている際にユーザが上記所定の入力を誤って行ってしまうことによって、ユーザの意図しない情報処理が実行される可能性を低減することができる。
(11)
表示範囲設定手段は、表示部の姿勢が第1状態であると判定される場合、表示範囲を表示部の姿勢の変化に応じて変化させ、表示部の姿勢が第2状態であると判定される場合、表示部の姿勢の変化に応じて変化しないように表示範囲を設定してもよい。
上記(11)の構成によれば、ユーザは、第1状態において表示部の姿勢を変化させる操作によって表示範囲を容易に移動させることができる。また、ユーザは、表示部を第2状態とすることによって表示範囲を容易に固定することができる。これによって、表示範囲の操作がより容易になり、操作性を向上することができる。
(12)
表示部が設けられる筐体には、慣性センサがさらに設けられてもよい。このとき、情報処理プログラムは、慣性センサの出力に基づいて表示部の姿勢を算出する姿勢算出手段としてコンピュータをさらに機能させてもよい。
上記(12)の構成によれば、慣性センサの出力を用いることによって表示部の姿勢を容易に算出することができる。
(13)
表示部は、情報処理装置とは別体の端末装置であって、情報処理装置と通信可能な端末装置に含まれてもよい。
上記(13)の構成によれば、情報処理装置とは別体の端末装置における表示部の表示範囲を制御する操作の操作性を向上することができる。
(14)
情報処理装置は、ユーザが把持可能であり、表示部を含んでもよい。
上記(14)の構成によれば、ユーザが把持可能な(換言すれば可搬型の)情報処理装置における表示部の表示範囲を制御する操作の操作性を向上することができる。
なお、本発明の別の一例は、上記(1)〜(14)の情報処理プログラムを実行することによって実現される各手段と同等の手段を備える情報処理装置あるいは情報処理システムであってもよいし、上記(1)〜(14)において実行される画像表示方法であってもよい。
本発明によれば、表示範囲を制御する機能の有効/無効を表示部の姿勢に応じて切り替えることによって、表示範囲の操作を容易にすることができる。
本実施形態に係る情報処理システムの一例を示すブロック図 端末装置2の表示部4に表示される画像の一例を示す図 端末装置2の姿勢と表示範囲との関係の一例を示す図 表示範囲制御機能の切り替え方法の一例を示す図 端末装置2の姿勢が第2状態である場合における姿勢と閾値との関係の一例を示す図 端末装置2の姿勢が第1状態である場合における姿勢と閾値との関係の一例を示す図 第2状態において表示部4に表示される画像の一例を示す図 表示範囲を移動させる動作の一例を示す図 所定領域である仮想空間の一例を示す図 本実施形態において情報処理システム1の記憶部(メモリ8)に設定されるデータ領域の一例を示す図 本実施形態において情報処理装置3のCPU7が実行する情報処理の流れの一例を示すフローチャート
[1.情報処理システムの構成]
以下、本実施形態の一例に係る情報処理システム、情報処理装置、情報処理プログラム、および画像表示方法について説明する。図1は、本実施形態に係る情報処理システムの一例を示すブロック図である。本実施形態における情報処理システム1は、端末装置2の画面に表示される表示範囲を、端末装置2を用いた操作に応じて制御するものである。
図1において、情報処理システム1は、端末装置2および情報処理装置3を含む。端末装置2と情報処理装置3とは、互いに通信可能である。端末装置2と情報処理装置3との通信は、無線によって行われてもよいし、有線によって行われてもよい。本実施形態においては、情報処理装置3は画像を生成し、生成した画像は端末装置2へ送信され、端末装置2は画像を表示する。
端末装置2は表示部4を備える。端末装置2は、画像を表示する機能を有するので、表示装置ということもできる。本実施形態において、端末装置2は可搬型である。換言すれば、端末装置2は、ユーザが把持可能な装置である。
表示部4は、所定領域の画像を表示する。所定領域はどのような空間(領域)であってもよい。所定領域は、例えば、3次元の仮想空間であってもよいし、2次元平面であってもよい。また、所定領域の画像は、カメラで撮像される、実世界(実空間)の画像であってもよい。ここでは、所定領域のうちで表示部4に表示される範囲を「表示範囲」と呼ぶ。
端末装置2は操作部5を備える。操作部5は、1以上の任意の操作装置で構成される。本実施形態においては、端末装置2は、ボタン(キー)、スティック、およびタッチパネルを操作部5として備えている。端末装置2は、操作部5に対する操作を表すデータを操作データとして情報処理装置3へ送信する。
端末装置2は、慣性センサ6を備える。慣性センサ6は、端末装置2の姿勢を算出(推定)することが可能な情報を出力するセンサ(姿勢センサ)の一例であり、具体的には、ジャイロセンサおよび/または加速度センサである。慣性センサ6は、端末装置2の所定軸方向(本実施形態では3軸方向とするが、1軸以上でよい)の姿勢に関する情報を出力する。本実施形態においては、端末装置2は、慣性センサ6によって検出されたデータを操作データとして情報処理装置3へ送信する。情報処理装置3は、慣性センサ6によって検出されたデータに基づいて端末装置2の姿勢を算出(推定)する。
なお、端末装置2の姿勢を算出する方法はどのような方法であってもよい。例えば他の実施形態においては、情報処理システム1は、端末装置2を撮影可能なカメラ、あるいは、端末装置2に設けられるカメラによって撮像される画像に基づいて端末装置2の姿勢を算出してもよい。
他の実施形態においては、端末装置2は、操作部5および/または慣性センサ6を備えていない構成であってもよい。また、端末装置2は、上記の各部4〜6に加えて他の構成を備えていてもよい。例えば、他の実施形態においては、端末装置2は、情報処理装置3以外の他の装置との通信機能、および/または、インターネット等のネットワークに接続する機能を有していてもよい。
情報処理装置3は、表示部4に表示する画像を生成する。本実施形態においては、情報処理装置3は、操作部5および慣性センサ6からのデータを含む操作データを端末装置2から受信する。そして、情報処理装置3は、操作データに基づいて上記所定領域の画像を生成する。さらに、情報処理装置3は、生成した画像を端末装置2へ送信する。端末装置2は、情報処理装置3から送信された画像を受信し、受信した画像を表示部4に表示する。
本実施形態においては、情報処理装置3は、CPU(制御部)7およびメモリ8を有し、CPU7がメモリ8を用いて所定の情報処理プログラムを実行することによって、情報処理装置3における各種機能(図11に示す情報処理)が実現される。なお、情報処理装置3は、端末装置2からの操作データに基づいて画像を生成して送信する処理を実行することが可能な任意の構成であってもよい。
以上のように、本実施形態においては、情報処理システム1は、情報処理装置3と、情報処理装置3とは別体の端末装置2とを含む構成である。なお、他の実施形態においては、情報処理システム1は、1つの装置によって構成されてもよい。すなわち、情報処理システム1は、画像を生成する機能と、画像を表示する機能とを有する1つの情報処理装置であってもよい。このとき、情報処理装置は、ユーザが把持可能であり、表示部を含む。例えば、情報処理システム1は、携帯電話、スマートフォン、または携帯ゲーム装置等の携帯端末であってもよい。
[2.本実施形態における表示範囲の設定処理]
本実施形態においては、情報処理システム1は、端末装置2の姿勢の変化に応じて表示部4の表示範囲を変化させる機能(表示範囲制御機能)を有する。また、本実施形態においては、端末装置2の姿勢の状態を切り替えることで、表示範囲制御機能の有効/無効(オン/オフ)が切り替わる。以下、本実施形態における表示範囲の設定方法について説明する。
(2−1)端末装置2の姿勢に基づく表示範囲制御機能
図2は、端末装置2の表示部4に表示される画像の一例を示す図である。本実施形態においては、上記所定領域として、メニュー画面を表す仮想空間が構築され、図2に示すようなメニュー画面が表示部4に表示される場合を例として説明する(仮想空間の詳細については後述する)。表示部4には、メニュー画面を表す仮想空間のうちで表示範囲内の領域が表示され、表示範囲は、端末装置2の姿勢に応じて移動(スクロール)する。なお、所定領域(仮想空間)には、複数のオブジェクト(図2に示すオブジェクト11a,11b,12a,および12b等)が配置される。これらのオブジェクトの1つが選択された場合、選択されたオブジェクトに関連付けられた情報処理が実行される。
本実施形態においては、情報処理システム1は、端末装置2の姿勢変化に応じて表示範囲を移動させることができる。図3は、端末装置2の姿勢と表示範囲との関係の一例を示す図である。図3に示すように、本実施形態においては、仮想空間に仮想カメラ14が設定され、仮想カメラ14の視野範囲が表示範囲21となる。情報処理システム1は、端末装置2の姿勢に基づいて仮想カメラ14の姿勢(視線方向)を算出する。例えば、仮想空間における仮想カメラ14の姿勢は、現実空間の端末装置2の姿勢に対応するように算出される。具体的には、端末装置2の姿勢がある状態から上下左右のいずれかの方向を向くように変化したことに応じて、仮想カメラ14は、端末装置2の姿勢が変化した方向(に対応する仮想空間における方向)へと姿勢を変化させる(図3に示す矢印参照)。これによって、図3に示すように、表示範囲21が上下左右に移動する。なお、他の実施形態においては、表示範囲の制御は、仮想カメラを用いる方法に限らず、端末装置2の姿勢の変化に応じて表示範囲が移動する任意の方法で行われてもよい。
上記のように、本実施形態によれば、端末装置2の姿勢に応じて表示範囲が移動(スクロール)するので、ユーザは、端末装置2を用いた直感的な操作で表示範囲を移動させることができる。これによって、表示範囲を移動する操作の操作性を向上することができる。
(2−2)表示範囲制御機能の切り替え
次に、表示範囲制御機能の切り替え(有効/無効の切り替え)について説明する。上述のように、本実施形態においては、端末装置2の姿勢に応じて表示範囲が変化する。しかし、表示範囲が端末装置2の姿勢を常に反映して変化するとすれば、表示範囲の操作がユーザにとって面倒であったり、あるいは、負担となったりする可能性がある。例えば、ユーザが表示範囲を固定(停止)したい場合に、端末装置2を一定の姿勢に保つことはユーザにとって面倒である。そこで、本実施形態においては、情報処理システム1は、端末装置2の姿勢に基づく表示範囲制御機能の切り替えを可能とする。これによって、表示範囲を変化させる操作をより容易にすることができる。以下、詳細を説明する。
図4は、表示範囲制御機能の切り替え方法の一例を示す図である。本実施形態においては、端末装置2の表示部4の画面が立った状態(図4に示す(a)の状態。以下、「第1状態」と呼ぶ)においては、表示範囲制御機能が有効となる。つまり、第1状態においては、端末装置2の姿勢の変化によって表示範囲が変化する。したがって、端末装置2を把持するユーザは、端末装置2を立てた状態で端末装置2の姿勢を変更することによって、表示範囲を移動させることができる。
一方、表示部4の画面が上向きで寝た状態(図4に示す(b)の状態。以下、「第2状態」と呼ぶ。)においては、表示範囲制御機能が無効となる。つまり、第2状態においては、端末装置2の姿勢の変化が生じても表示範囲は移動しない。したがって、ユーザは、端末装置2を画面が上向きで寝た状態とすることによって、表示範囲を固定させることができる。
なお、第2状態において表示範囲は移動不可能である必要は無い。例えば、端末装置2の姿勢操作とは異なる他の操作(例えば、端末装置2の十字キーに対する操作)によって表示範囲が移動してもよい。
具体的には、情報処理システム1は、ユーザが把持可能な表示部4(端末装置2)の姿勢が第1状態(立った状態)であるか第2状態(上向きで寝た状態)であるかを判定する。そして、表示部4の姿勢が第1状態であると判定される場合、情報処理システム1は、表示範囲を表示部4の姿勢の変化に応じて変化させて設定する。一方、表示部4の姿勢が第2状態であると判定される場合、情報処理システム1は、表示部4の姿勢の変化に応じて変化しないように表示範囲を設定する。
上記によれば、ユーザは、端末装置2を第1状態とすることによって、端末装置2の姿勢を変化させるという直感的な操作で表示範囲を移動させることができる。また、ユーザは、端末装置2を第2状態とすることによって、表示範囲を容易に固定することができる。これによって、表示範囲の操作を容易にすることができ、操作性を向上することができる。また、第1状態と第2状態との切り替えは、端末装置2の姿勢の変化によって行われる。したがって、ユーザは、端末装置2の姿勢の操作とは異なる他の操作を行うことなく切り替えを行うことができる。これによって、表示範囲に対する操作をシンプルな操作にすることができ、操作性を向上することができる。
(2−3)姿勢判定
図5および図6を参照して、端末装置2(表示部4)の姿勢の状態を判定する方法について説明する。上述のように、本実施形態においては、表示部4の画面が立った状態を第1状態とし、画面が上向きに寝た状態を第2状態とする。すなわち、情報処理システム1は、表示部4の画面が鉛直方向に平行である場合には少なくとも、端末装置2の姿勢が第1状態であると判定する。また、情報処理システム1は、表示部の画面が水平方向に平行であってかつ鉛直上向きとなる場合には少なくとも、第2状態であると判定する。したがって、本実施形態においては、ユーザは、板状の端末装置2を立てたり寝かせたりするといった自然な操作(図4参照)によって表示範囲制御機能のオン/オフを行うことができる。これによって、表示範囲操作の操作性を向上することができる。
本実施形態において、端末装置2の姿勢が第1状態であるか第2状態であるかの判定(姿勢判定)は、表示部4の画面の向き(具体的には、画面の角度)と閾値との大小関係によって行われる。ここで、本実施形態においては、第1状態である場合と第2状態である場合とで異なる値の閾値が用いられる(閾値が変化する)。以下、図5および図6を参照して上記姿勢判定の詳細を説明する。
図5は、端末装置2の姿勢が第2状態である場合における姿勢と閾値との関係の一例を示す図である。本実施形態においては、端末装置2の姿勢を表す情報として、図5に示すベクトルVが用いられる。ベクトルVは、表示部4の画面に垂直で、かつ、画面の手前から奥への方向を向くベクトルである。なお、本実施形態において、情報処理システム1は、慣性センサ6の出力に基づいてベクトルVを算出する。他の実施形態においては、端末装置2の姿勢(ベクトルV)はどのような方法で算出されてもよい。
第2状態においては、図5に示す第1閾値θ1を用いて上記姿勢判定が行われる。すなわち、第2状態の場合、情報処理システム1は、鉛直下方向に対するベクトルVの角度θが第1閾値θ1を上回った場合に第1状態である(第1状態へ移行する)と判定する(図5参照)。一方、上記角度θが第1閾値θ1以下である場合には第2状態である(第2状態が維持される)と判定する。
図6は、端末装置2の姿勢が第1状態である場合における姿勢と閾値との関係の一例を示す図である。第1状態においては、図6に示す第2閾値θ2を用いて上記姿勢判定が行われる。すなわち、第1状態の場合、情報処理システム1は、鉛直下方向に対するベクトルVの角度θが第2閾値θ2を下回った場合に第2状態である(第2状態へ移行する)と判定する(図6参照)。一方、上記角度θが第2閾値θ2以上である場合には第1状態である(第1状態が維持される)と判定する。したがって、本実施形態においては、角度θが第2閾値θ2以上となる範囲で端末装置2の姿勢が変化することに応じて表示範囲が移動する。また、本実施形態においては、角度θが90°以上となる場合(すなわち、画面が下を向く場合)には第1状態であると判定される。つまり、本実施形態における第2状態とは、表示部4の画面が水平に近い姿勢となり、かつ、画面が上を向く姿勢となる状態である。
ここで、図5および図6に示されるように、第1閾値θ1は、第2閾値θ2よりも大きい値に設定される。したがって、第1状態において第1状態が維持される範囲(図6に示す斜線範囲)と、第2状態において第2状態が維持される範囲(図5に示す斜線範囲)とは一部重複するように、各閾値θ1およびθ2が設定される。このように、上記2つの範囲が重複するように各状態で異なる閾値を用いることによって、第1状態と第2状態とが頻繁に切り替わる可能性を低減することができる。すなわち、角度θが閾値の付近で変化しても第1状態と第2状態とが頻繁に切り替わる可能性を低減することができ、切り替え操作の操作性を向上することができる。なお、第1閾値θ1は、例えば60°≦θ1≦80°の範囲で設定されてもよく、第2閾値θ2は、例えば10°≦θ2≦30°の範囲で設定されてもよい。
以上のように、本実施形態においては、情報処理システム1は、表示部4の画面の向き(ベクトルVの向き、換言すれば角度θ)が第1閾値(θ1)をまたいで所定方向(鉛直上方向)に近づいた場合、表示部4の姿勢が第1状態であると判定する。また、画面の向きが第2閾値(θ2)をまたいで上記所定方向から離れた場合、表示部4の姿勢が第2状態であると判定する。そして、第1閾値が表す向きは、第2の閾値が表す向きに比べて上記所定方向に近くなるように各閾値が設定される。
なお、他の実施形態においては、上記姿勢判定はどのような方法で行われてもよい。例えば他の実施形態においては、第1状態と第2状態とで同じ閾値が用いられてもよい。
また、本実施形態においては、水平に近い(かつ上向きとなる)状態を第2状態とし、そうでない状態を第1状態としたが、表示範囲制御機能の有効/無効を切り替えるための2つの状態はどのように設定されてもよい。例えば、他の実施形態においては、端末装置2が横向きとなる姿勢(画面が横長となる向きとなる姿勢)を第1状態とし、端末装置2が縦向きとなる姿勢(画面が縦長となる向きとなる姿勢)を第2状態としてもよい。これによれば、ユーザは、画面を横向きとするか縦向きとするかの操作によって、表示範囲制御機能の有効/無効を切り替えることができる。また例えば、他の実施形態においては、端末装置2が画面の上下方向を軸に所定の基準状態から180°以上回転した状態を第1状態とし、所定の基準状態からの回転量が180°未満である状態を第2状態としてもよい。これによれば、ユーザは、画面を自分の方を向けるか他人の方に向けるかの操作によって、表示範囲制御機能の有効/無効を切り替えることができる。
(2−4)第2状態における表示範囲
次に、端末装置2の姿勢が第2状態にある場合における表示範囲について説明する。上述のように、第2状態における表示範囲は、端末装置2の姿勢に応じて変化せず、固定される(他の方法によって移動されてもよい)。ここで、本実施形態において、端末装置2の姿勢が第1状態から第2状態へ変化した場合、情報処理システム1は、予め定められた基準範囲を表示範囲として設定する。図7は、第2状態において表示部4に表示される画像の一例を示す図である。本実施形態においては、図7に示す表示範囲が基準範囲である。
上記のように、第2状態において表示範囲が基準範囲となる場合、ユーザは、端末装置2の姿勢を第2状態とする(画面を寝かす)ことによって、表示範囲を基準範囲の位置へと容易に戻すことができる。このように、表示範囲を基準の位置へと戻す操作を容易にすることによって、表示範囲の移動操作の操作性を向上することができる。
なお、基準範囲はどのように設定されてもよいが、例えば利用頻度の高い(選択される回数が多い)オブジェクトが表示されるように設定されてもよい。例えば、利用頻度が高いと想定されるオブジェクトが予めわかっている場合には、そのオブジェクトが画面の中央付近に表示されるように基準範囲が設定されてもよい。なお、他の実施形態においては、情報処理システム1は、利用頻度が高いオブジェクトが基準範囲に含まれるように、オブジェクトの配置および/または基準範囲の位置を適宜のタイミングで変更してもよい。利用頻度の高いオブジェクトが基準範囲に含まれる場合、ユーザが端末装置2の姿勢を第1状態にして動かさなくとも第2状態のままで所望のオブジェクトを選択することができる機会が増える。これによって、オブジェクトの選択操作の操作性を向上することができる。
(2−5)第1状態における表示範囲
次に、端末装置2の姿勢が第1状態にある場合における表示範囲について説明する。上述のように、第1状態においては、表示範囲は、端末装置2の姿勢変化に応じて変化する。
(第2状態から第1状態へ変化したときの表示範囲)
端末装置2の姿勢が第2状態から第1状態へ変化した場合、情報処理システム1は、上記基準範囲を初期表示範囲として設定する。したがって、表示範囲を操作するためにユーザが端末装置2の姿勢を第1状態にすると、第1状態となった時点における端末装置2の姿勢によらず、常に一定の表示範囲(基準範囲)が最初に表示される。これによれば、ユーザは、第1状態となった時点における姿勢および表示範囲を基準として、その後の表示範囲の操作を行うことができる。これによって、表示範囲の操作の操作性を向上することができる。例えば、表示範囲の移動操作中において基準範囲を表示したい場合、ユーザは端末装置2の姿勢を一旦第2状態としてから再度第1状態にすることで、表示範囲をリセット(基準範囲に戻す)ことができる。
なお、第2状態から第1状態へと変化した場合の初期表示範囲は、基準範囲と厳密に同一である必要はなく、基準範囲と実質的に同じ範囲であっても、表示範囲の操作の操作性を向上することができる。すなわち、情報処理システム1は、第2状態から第1状態へと変化する場合において表示範囲を移動させてもよい。
図8は、表示範囲を移動させる動作の一例を示す図である。図8に示すように、情報処理システム1は、第2状態から第1状態へと変化した場合、表示範囲(基準範囲)21を一時的に所定方向(図8では上方向)へ移動させてから元の位置(基準範囲の位置)に戻すようにしてもよい。これによれば、第2状態から第1状態へと変化したことをユーザに明確に認識させることができる。また、情報処理システム1は、(基準範囲と実質的に同じ範囲であって)基準範囲から少しだけずれた範囲を初期表示範囲としてもよい。これによっても、第2状態から第1状態へ変化した場合に表示範囲が若干移動するので、第2状態から第1状態へと変化したことをユーザに明確に認識させることができる。
(姿勢に基づく表示範囲の設定)
第1状態においては、情報処理システム1は、端末装置2の姿勢と基準範囲とに基づいて表示範囲を設定する。すなわち、基準範囲から表示範囲が変化する方向は、端末装置2の姿勢が基準姿勢から変化する方向に応じて決められる。また、基準範囲からの表示範囲の変化量は、端末装置2の姿勢が基準姿勢から変化した量に応じて決められる。なお、基準姿勢とは、第2状態から第1状態へと変化した時点の姿勢である。
なお、本実施形態においては、情報処理システム1は、端末装置2の(基準姿勢からの)姿勢変化に応じて仮想カメラ14の姿勢を変化させることで表示範囲を変化させる。なお、仮想カメラ14の姿勢が取り得る範囲に制限を設けてもよいし、設けなくてもよい。制限を設ける場合、情報処理システム1は、例えば、基準範囲に対応する仮想カメラ14の姿勢を中心として左右方向に関して180°の範囲内で仮想カメラ14の姿勢を変化させるようにしてもよい。
また、本実施形態においては、第1状態において、端末装置2の姿勢の変化方向に対応する方向へ表示範囲が移動する(図3参照)。例えば、表示部4の画面が鉛直方向を軸として回転するように端末装置2の姿勢が変化する(端末装置2の姿勢が左右方向に変化する)ことに応じて、表示範囲は左右方向に移動する。したがって、本実施形態においては、ユーザは、端末装置2の姿勢を上下方向に変化させることによって、表示範囲制御機能の有効/無効を切り替えるとともに、端末装置2の姿勢を左右方向に変化させることによって表示範囲を移動させることができる。これによれば、切り替え操作が表示範囲の移動操作の邪魔にならず、かつ、ユーザは自然な操作感覚で端末装置2を操作することができる。これによって、端末装置2の操作性を向上することができる。
また、図3には示していないが、端末装置2のロール方向(画面に垂直な線を軸とした回転の方向)の姿勢変化に応じても他の方向と同様に表示範囲が変化する。つまり、情報処理システム1は、端末装置2の姿勢のロール方向の変化に応じて、仮想カメラ14をロール方向(視線方向を軸とした回転の方向)に変化させる。なお、ロール方向に関しては、情報処理システム1は、端末装置2の姿勢の変化方向と仮想カメラ14の姿勢の変化方向とが反対方向となるように仮想カメラ14の姿勢を制御する。これによって、端末装置2をロール方向に回転させてもユーザから見たときの所定領域の向きが変化しないように表示範囲を設定することができる。
(姿勢が実質的に停止する場合の処理)
ここで、端末装置2は、専用のスタンド(例えば充電装置)あるいは他の物に立てかけた状態で使用される場合もあり得る。この場合には、ユーザが端末装置2を把持していないことから、端末装置2の姿勢に応じた表示範囲の移動制御を行う意図がユーザには無いと考えられる。したがって、本実施形態においては、情報処理システム1は、端末装置2(表示部4)が第1状態であってかつ停止された状態であるか否かの判定(停止判定)を行う。そして、端末装置2が第1状態であってかつ載置された状態である場合、上記基準範囲を表示範囲として設定する。これによって、ユーザが表示範囲を移動させる意図が無い場合には基準範囲を表示することができるので、ユーザの意図に沿ったより適切な表示範囲を表示することができる。
なお、上記停止判定は、例えば、端末装置2の姿勢が第1状態である場合において当該姿勢が所定期間の間実質的に停止しているか否かによって行われる。より具体的には、上記停止判定は、慣性センサ6の出力に基づいて算出される端末装置2の姿勢の変化が、上記所定期間の間、所定値以下であるか否かによって行われてもよい。
(2−6)所定領域内におけるオブジェクトの配置
以下、表示対象である所定領域の詳細について説明する。本実施形態においては、所定領域として、メニュー画面を表す仮想空間が構築される。図2および図7に示すように、所定領域(仮想空間)には、複数のオブジェクト(オブジェクト11a,11b,12a,および12b等)が配置される。
本実施形態においては、上記オブジェクトとして、情報提示オブジェクト(オブジェクト11aおよび11b等)およびアプリオブジェクト(オブジェクト12aおよび12b)が配置される。
情報提示オブジェクトは、何らかの情報を提示する機能を有するオブジェクトである。例えばオブジェクト11aは、所定のアプリケーションに関する統計結果のグラフを表す。また、オブジェクト11bは、ユーザに対して通知する情報が記載された伝言板を表す。したがって、ユーザは、提示情報オブジェクトを選択しなくとも、表示部4に提示情報オブジェクトが表示されることによって情報を得ることができる。また、提示情報オブジェクトが選択された場合、選択されたオブジェクトに関連付けられた情報処理が実行されることによって、例えばより詳細な情報が表示部4に表示されてもよい。
アプリオブジェクトは、それに関連付けられるアプリケーションを表すオブジェクトである。本実施形態においては、オブジェクト12aは、あるアプリケーションAを表し、オブジェクト12bは、あるアプリケーションBを表す。アプリオブジェクトが選択されることによって、選択されたアプリオブジェクトに関連づけられるアプリケーションが実行(起動)される。
なお、所定領域に配置されるオブジェクトは、上記情報提示オブジェクトあるいはアプリオブジェクトに限らず、どのようなものであってもよい。オブジェクトは、選択可能である(選択されることに応じて情報処理が実行される)ものであってもよいし、選択可能でない(単に表示されるだけ)ものでもよい。
図9は、所定領域である仮想空間の一例を示す図である。図9に示すように、本実施形態においては、複数の情報提示オブジェクト(オブジェクト11a〜11c等)は仮想カメラ14の周囲に環状に配置される。そして、仮想カメラ14の姿勢が端末装置2の姿勢に応じて変化することによって表示範囲が移動し(図3参照)、表示部4に表示されるオブジェクトが変更される。なお、他の実施形態では、所定領域は平面であってもよく、平面上に設定される表示範囲が端末装置2の姿勢に応じて移動するように設定されてもよい。
上記より、本実施形態においては、表示範囲が左右方向に移動する場合には、表示範囲に含まれるオブジェクトが変更されることとなる。情報処理システム1は、表示範囲に含まれるオブジェクトが表示範囲の左右方向の移動に応じて変更されるように、複数のオブジェクトを所定方向に並べて配置する。したがって、本実施形態においては、ユーザは、端末装置2の姿勢を上下方向に変化させることによって、表示範囲制御機能の有効/無効を切り替えるとともに、端末装置2の姿勢を左右方向に変化させることによって表示されるオブジェクトを変更することができる。
また、本実施形態においては、端末装置2の姿勢が第2状態である場合、情報処理システム1は、所定領域内において上記情報提示オブジェクトを移動させる。具体的には、図9に示すように、各情報提示オブジェクトは、仮想カメラ14を中心とする円周に沿って移動する(図9に示す矢印参照)。したがって、本実施形態においては、基準範囲が表示される第2状態において、情報提示オブジェクトが画面上において移動して表示される(図7に示す矢印参照)。このように、本実施形態においては、第2状態においては表示範囲が基準範囲に固定されているものの、各情報提示オブジェクトが移動することによって、表示部4に表示される情報提示オブジェクトが順次変更される。したがって、ユーザは、第2状態においても各情報提示オブジェクトを見ることができる。なお、本実施形態においては、アプリオブジェクト(オブジェクト12a〜12c等)は所定領域内を移動しない。
一方、端末装置2の姿勢が第1状態である場合、情報処理システム1は上記情報提示オブジェクトを停止させる。第1状態においては、ユーザが自身の操作によって表示範囲を移動させることによって所望の情報提示オブジェクトを表示することができるからである。また、情報提示オブジェクトを停止させることによって、表示範囲を移動させる操作をユーザにとってより容易にすることができる。なお、他の実施形態においては、情報処理システム1は、第1状態においても第2状態と同様に情報提示オブジェクトを移動させてもよい。
以上のように、本実施形態においては、所定領域に配置される複数のオブジェクトのうち、第1オブジェクト(情報提示オブジェクト)は移動可能に設定され、第2オブジェクト(アプリオブジェクト)は固定して設定される。また、第2オブジェクトのいくつかは、基準範囲内に配置される。これによれば、第2状態において、移動する各第1オブジェクトによって多くの情報をユーザに提示することができるとともに、基準範囲内に固定的に表示される第2オブジェクトをユーザが選択しやすくすることができる。これによって、複数のオブジェクトを表示するメニュー画面の操作性を向上することができる。また、本実施形態においては、第1オブジェクトは、第2オブジェクトよりも多くの情報を表す(第2オブジェクトよりも情報量が多い)。これによって、オブジェクトを用いてユーザにより効果的に情報を提示することができる。
なお、情報処理システム1は、所定の条件が満たされたことに応じて、各情報提示オブジェクトのうちで特定の情報提示オブジェクトが表示範囲に含まれるように、情報提示オブジェクトの位置を変更してもよい。これによれば、より適切な内容の情報提示オブジェクトをユーザに提示することができる。例えば、所定のアプリケーションの実行が終了した後で上記メニュー画面が表示される場合、当該所定のアプリケーションに関する情報を表す情報提示オブジェクトが表示範囲(あるいは基準範囲)に含まれるように配置されてもよい。なお、所定のアプリケーションに関する情報を表す情報提示オブジェクトとは、例えば、所定のアプリケーションの利用状況や、利用実績や、あるいは成績等の情報を表すオブジェクトである。
また、本実施形態においては、図2および図7に示すように、固定オブジェクト13が表示部4に表示される。固定オブジェクト13は、表示範囲の位置とは独立して、画面上の所定位置に表示されるオブジェクトである。本実施形態において、固定オブジェクト13は、あるアプリケーションCを表すアプリオブジェクトである。なお、固定オブジェクト13は、どのような種類のものであってもよく、上記情報提示オブジェクトであってもよいし、他の種類のオブジェクトであってもよい。
また、情報処理システム1は、第1状態において固定オブジェクト13を表示せず、第2状態において(のみ)固定オブジェクト13を表示してもよい。これによれば、表示範囲を移動可能な第1状態において、固定オブジェクト13が邪魔にならず、表示範囲をより見やすくすることができる。これによって、表示範囲の操作の操作性を向上することができる。
(2−7)操作部に対する入力
次に、端末装置2の姿勢を変化させる操作以外の他の操作について説明する。本実施形態においては、ユーザは、端末装置2の操作部5に対する操作を行うことが可能である。具体的には、例えば以下の(a)〜(c)の操作が可能である。
(a)タッチパネルを用いて画面上のオブジェクトを選択する操作
(b)タッチパネルを用いて画面上に方向を入力する操作
(c)十字キーを用いて表示範囲を移動させる操作
情報処理システム1は、上記操作に応じて所定の情報処理を実行する。この所定の情報処理は、例えば、表示範囲を変化させる処理、または、表示範囲に含まれる所定領域内のオブジェクトに対する処理である。なお、オブジェクトに対する処理とは、例えば、オブジェクトを移動させる処理、および、オブジェクトが選択された場合に実行される(オブジェクトに関連づけられる)処理等である。具体的には、情報処理システム1は、上記(a)の操作に応じて、選択されたオブジェクトに関連づけられる処理を実行する。また、情報処理システム1は、上記(b)の操作に応じて、入力された方向に情報提示オブジェクトを移動させる処理を実行する。また、情報処理システム1は、上記(c)の操作に応じて表示範囲を移動させる。
ここで、情報処理システム1は、端末装置2(表示部4)の姿勢が第2状態であることを条件として、操作部に対する所定の入力に応じた上記所定の情報処理を実行してもよい。本実施形態においては、上記(c)の操作による入力に応じた情報処理は、端末装置2の姿勢が第2状態である場合にのみ実行される。つまり、上記(c)の操作は、端末装置2の姿勢が第2状態である場合にのみ受け付けられる。このように、情報処理システム1は、端末装置2(表示部4)の姿勢が第2状態であることを条件として操作部に対する所定の入力を受け付ける。これによれば、第1状態において端末装置2の姿勢を動かしている際にユーザが上記所定の入力を誤って行ってしまうことによって、ユーザの意図しない情報処理が実行される可能性を低減することができる。
また、他の実施形態においては、情報処理システム1は、例えばタッチパネルに対する所定の入力(より具体的には、文字入力および/またはジェスチャー入力等の線を描く入力)を、第2状態の場合にのみ受け付けるようにしてもよい。これによれば、タッチパネルに対する上記所定の入力が行いやすい第2状態(画面が上向きとなる状態)において当該入力を行うことができるので、タッチパネルに対する入力を容易にすることができる。
[3.情報処理システムで実行される具体的な処理例]
(3−1)情報処理に用いられるデータ
以下、図10〜図11を参照して、本実施形態において情報処理システム1(情報処理装置3)で実行される具体的な処理の一例について説明する。図10は、本実施形態において情報処理システム1の記憶部(メモリ8)に設定されるデータ領域の一例を示す図である。図10に示すように、情報処理装置3のメモリ8は、プログラム格納領域31、操作データ格納領域33、および処理用データ格納領域36を有する。なお、メモリ8には、図10に示すデータの他、表示部4へ出力すべき画像やそれを生成するために用いられる画像のデータ等が記憶される。
プログラム格納領域31には、情報処理プログラム32が記憶される。情報処理プログラム32は、情報処理装置3のコンピュータ(CPU7)に実行させるためのプログラムである。なお、情報処理プログラム32は、情報処理装置3がアクセス可能であって情報処理装置3の内部または外部に設けられるプログラム格納部(記憶装置または記憶媒体等)に記憶されている。プログラム格納部に記憶される情報処理プログラム32の一部または全部が適宜のタイミングで読み込まれてメモリ8に記憶され、CPU7によって実行される。また、情報処理プログラム32の一部または全部は、情報処理プログラム32を実行する情報処理装置内に(例えばライブラリとして)予め記憶されていてもよい。
操作データ格納領域33には、端末装置2から送信されてくる操作データが記憶される。本実施形態においては、操作データ格納領域33には、操作データとして、操作部出力データ34およびセンサ出力データ35が記憶される。操作部出力データ34は、操作部5から出力されるデータであり、操作部5に対する操作を表す。センサ出力データ35は、慣性センサ6から出力されるデータであり、慣性センサ6の検出結果を表す。本実施形態においては、端末装置2は、所定時間に1回の割合で操作データを情報処理装置3へ繰り返し送信する。これに応じて、情報処理装置3は操作データを逐次受信する。情報処理装置3は、受信した操作データをメモリ8の操作データ格納領域33に記憶する。
処理用データ格納領域36には、情報処理装置3において実行される情報処理(図11に示す情報処理)において用いられる各種のデータが記憶される。処理用データ格納領域36には、姿勢データ37、表示範囲データ38、基準範囲データ39、閾値データ40、およびオブジェクトデータ41が記憶される。上記のデータの他、メモリ8には、情報処理装置3における情報処理(図11)において用いられるデータが記憶される。
姿勢データ37は、端末装置2の姿勢を表すデータである。姿勢データ37は、センサ出力データ35に基づいて生成される。なお、端末装置2の姿勢は、本実施形態においては3次元(例えば3次元ベクトル)で表されるが、2次元で表されてもよい。
表示範囲データ38は、表示範囲を表すデータである。表示範囲データ38は、表示範囲を決定することができる任意の情報でよい。例えば、表示範囲データ38は、仮想カメラ14に関する設定データ(姿勢、視線方向、および/または視野範囲等)を表すものであってもよい。また、基準範囲データ39は、上記基準範囲を表すデータである。基準範囲データ39は表示範囲データ38と同様、表示範囲を決定することができる任意の情報でよい。基準範囲データ39は、上記情報処理プログラム32によって予め定められる。
閾値データ40は、上述した姿勢判定において用いられる閾値を表す。本実施形態においては、閾値データ40は、第1状態においては上記第2閾値を表し、第2状態においては上記第1閾値を表すように設定される。
オブジェクトデータ41は、所定領域内に配置されるオブジェクトに関するデータである。具体的には、オブジェクトデータ41は、所定領域内におけるオブジェクトの位置を表す。また、オブジェクトデータ41は、オブジェクトに関連づけられる処理(またはアプリケーション)を表してもよい。
(3−2)情報処理の具体例
次に、本実施形態における情報処理の詳細な流れを説明する。図11は、本実施形態において情報処理装置3のCPU7が実行する情報処理の流れの一例を示すフローチャートである。本実施形態においては、情報処理システム1が起動されると、情報処理装置3のCPU7は、メモリ8等の記憶部を初期化し、プログラム格納部から情報処理プログラム32をメモリ8に読み込む。そして、CPU7によって当該情報処理プログラム32の実行が開始される。
なお、図11に示すフローチャートにおける各ステップの処理は、単なる一例に過ぎず、同様の結果が得られるのであれば、各ステップの処理順序を入れ替えてもよいし、各ステップの処理に加えて(または代えて)別の処理が実行されてもよい。また、本実施形態では、上記フローチャートの各ステップの処理をCPU7が実行するものとして説明するが、上記フローチャートにおける一部のステップの処理を、CPU7以外のプロセッサや専用回路が実行するようにしてもよい。
本実施形態においては、まずステップS1において、CPU7は、初期処理を実行する。本実施形態において、初期処理は、所定領域にオブジェクトを配置する処理、および、図11に示す処理で用いる各種の情報(データ)を処理化する処理を含む。オブジェクトの配置は、例えば、上記“(2−6)所定領域内におけるオブジェクトの配置”で述べた方法で行われる。具体的な処理としては、CPU7は、各オブジェクトの位置を表すデータをオブジェクトデータ41としてメモリ8に記憶する。また、ステップS1において、CPU7は、第1閾値を表すデータを閾値データ40としてメモリ8に記憶する。つまり、本実施形態においては、処理開始時は端末装置2が第2状態であるものと仮定して閾値が設定される。なお、他の実施形態においては、処理開始時は端末装置2が第1状態であるものと仮定して閾値が設定されてもよい。
ステップS2において、CPU7は、端末装置2(表示部4)の姿勢を算出する。本実施形態においては、端末装置2の姿勢は、慣性センサ6の検出結果に基づいて算出される。具体的な姿勢算出方法はどのような方法であってもよい。慣性センサ6が例えばジャイロセンサおよび/または加速度センサである場合には、これらのセンサの検出結果を用いる周知の方法で姿勢が算出されてもよい。具体的な処理としては、CPU7は、メモリ8から読み出したセンサ出力データ35に基づいて姿勢を算出する。そして、算出された姿勢を表すデータを姿勢データ37としてメモリ8に記憶する。
ステップS3において、CPU7は、端末装置2(表示部4)の姿勢が第1状態であるか否か(第1状態であるか第2状態であるか)を判定する。ステップS3の判定は、例えば、上記“(2−3)姿勢判定”で述べた判定方法で行われる。具体的な処理としては、CPU7は、姿勢データ37および閾値データ40をメモリ8から読み出し、読み出したデータに基づいて判定を行う。ステップS3の判定結果が肯定である場合、後述するステップS6の処理が実行される。一方、ステップS3の判定結果が否定である場合、ステップS4の処理が実行される。
ステップS4において、CPU7は、基準範囲を表示範囲として設定する。具体的には、表示範囲データ38として、基準範囲データ39をメモリ8に記憶する。続くステップS5において、CPU7は、上記姿勢判定に用いられる閾値として第1閾値を設定する。すなわち、CPU7は、第1閾値を表すデータを閾値データ40としてメモリ8に記憶する。ステップS5の次に、CPU7は、後述するステップS10の処理を実行する。
ステップS6において、CPU7は、端末装置2の姿勢が所定期間の間実質的に停止しているか否かを判定する。ステップS6の判定は、例えば、上記“(2−5)第1状態における表示範囲”で述べた判定方法で行われる。具体的な処理としては、CPU7は、姿勢データ37をメモリ8から読み出し、読み出した姿勢データ37に基づいて判定を行う。ステップS6の判定結果が肯定である場合、後述するステップS9の処理が実行される。一方、ステップS3の判定結果が否定である場合、ステップS7の処理が実行される。
ステップS7において、CPU7は、端末装置2の姿勢に応じて表示範囲を設定する。表示範囲の設定は、“(2−1)端末装置2の姿勢に基づく表示範囲制御機能”および“(2−5)第1状態における表示範囲”で述べた方法で行われる。具体的な処理としては、CPU7は、姿勢データ37をメモリ8から読み出し、読み出した姿勢データ37に基づいて表示範囲を算出する。そして、算出した表示範囲を表すデータを表示範囲データ38としてメモリ8に記憶する。
ステップS8において、CPU7は、上記姿勢判定に用いられる閾値として第2閾値を設定する。すなわち、CPU7は、第2閾値を表すデータを閾値データ40としてメモリ8に記憶する。ステップS8の次に、CPU7は、後述するステップS11の処理を実行する。
一方、ステップS9において、CPU7は、基準範囲を表示範囲として設定する。ステップS9の処理は上記ステップS4の処理と同じである。
ステップS10において、CPU7は、情報提示オブジェクトを移動させる。情報提示オブジェクトの移動は、例えば上記“(2−6)所定領域内におけるオブジェクトの配置”で述べた方法で行われる。具体的な処理としては、CPU7は、情報提示オブジェクトのオブジェクトデータ41をメモリ8から読み出し、情報提示オブジェクトの位置を更新する。そして、更新後の位置を表すデータをオブジェクトデータ41としてメモリ8に記憶する。ステップS10の次に、CPU7は、後述するステップS11の処理を実行する。
ステップS11において、CPU7は、操作部5に対する入力に応じた情報処理を実行する。具体的には、CPU7は、上記“(2−7)操作部に対する入力”で述べた(a)〜(c)の操作(入力)を受け付け、受け付けられた入力に応じた処理を実行する。
ステップS12において、CPU7は、表示範囲の画像を表示部4に表示させる。具体的には、CPU7は、表示範囲データ38をメモリ8から読み出し、所定領域のうちで表示範囲に対応する領域の画像を生成し、生成した画像を表示部4に出力する(端末装置2へ送信する)。これによって、表示部4は画像を表示する。なお、図11においては図示しないが、例えばオブジェクトを選択する入力が行われた場合には、オブジェクトに関連づけられたアプリケーションの実行が開始される結果、所定領域とは異なる画像が表示部4に表示されることがある。上記ステップS12が繰り返し実行されることによって、表示範囲が移動(スクロール)したり、情報提示オブジェクトが移動して表示されたりする。
ステップS13において、CPU7は、処理を終了するか否かを判定する。この判定はどのように行われてもよく、例えば、ユーザによって所定の終了指示が行われたか否かによって行われる。ステップS13の判定結果が否定の場合、ステップS2の処理が再度実行される。一方、ステップS13の判定結果が肯定の場合、CPU7は図11に示す情報処理を終了する。以降、ステップS2〜S13の一連の処理は、ステップS13で処理を終了すると判定されるまで繰り返し実行される。以上によって、図11に示す情報処理の説明を終了する。
[4.変形例]
(第2状態における表示範囲の変形例)
上記実施形態においては、第2状態においては予め定められた基準範囲が表示範囲として設定された。ここで、第2状態における表示範囲は、基準範囲に限らない。例えば他の実施形態においては、情報処理システム1は、第2状態へと移行する前の第1状態における表示範囲に基づいて、第2状態における表示範囲を設定してもよい。例えば、第2状態における表示範囲は、第1状態から第2状態へと移行する直前(あるいは移行時の所定時間前)における表示範囲に設定されてもよい。上記によれば、ユーザは、所望の表示範囲を固定的に表示させる操作を容易に行うことができる。例えば、第1状態においてユーザがある表示範囲を見ていた際に腕が疲れた場合であっても、ユーザは、端末装置2を下ろして同じ表示範囲を見続けることができる。
以上のように、本発明は、装置の姿勢に応じて表示範囲を変化させる操作の操作性を向上すること等を目的として、例えばゲームシステム、ゲーム装置、ゲームプログラム等に利用することが可能である。
1 情報処理システム
2 端末装置
3 情報処理装置
4 表示部
5 操作部
6 慣性センサ
7 CPU
8 メモリ
11 情報提示オブジェクト
12 アプリオブジェクト
14 仮想カメラ
32 情報処理プログラム

Claims (17)

  1. 情報処理装置のコンピュータで実行される情報処理プログラムであって、
    ユーザが把持可能な表示部の姿勢が第1状態であるか第2状態であるかを判定する姿勢判定手段と、
    前記表示部の姿勢が第1状態であると判定される場合、所定領域のうちで前記表示部に表示される表示範囲を前記表示部の姿勢に応じて設定し、前記表示部の姿勢が第2状態であると判定される場合、前記表示部の姿勢に関係なく前記表示範囲を設定する表示範囲設定手段として前記コンピュータを機能させる、情報処理プログラム。
  2. 前記表示範囲設定手段は、前記表示部の姿勢が第1状態から第2状態へ変化した場合、予め定められた基準範囲を前記表示範囲として設定する、請求項1に記載の情報処理プログラム。
  3. 前記表示範囲設定手段は、前記表示部の姿勢が前記第2状態から前記第1状態へ変化した場合、前記基準範囲と実質的に同じ範囲を初期表示範囲として設定する、請求項2に記載の情報処理プログラム。
  4. 前記情報処理プログラムは、前記表示部の姿勢が前記第1状態である場合において前記表示部の姿勢が所定期間の間実質的に停止しているか否かを判定する停止判定手段として前記コンピュータをさらに機能させ、
    前記表示範囲設定手段は、前記表示部の姿勢が前記所定期間の間実質的に停止していると判定される場合、予め定められた基準範囲を前記表示範囲として設定する、請求項1から請求項3のいずれか1項に記載の情報処理プログラム。
  5. 前記姿勢判定手段は、少なくとも前記表示部の画面が鉛直方向に平行である場合には前記第1状態であると判定し、少なくとも前記表示部の画面が水平方向に平行であってかつ鉛直上向きとなる場合には前記第2状態であると判定する、請求項1から請求項4のいずれか1項に記載の情報処理プログラム。
  6. 前記表示範囲設定手段は、前記第1状態において前記表示部の画面が鉛直方向を軸として回転するように姿勢が変化することに応じて前記表示範囲を左右方向に移動させる、請求項5に記載の情報処理プログラム。
  7. 前記情報処理プログラムは、
    前記所定領域に複数のオブジェクトを配置し、前記表示範囲が左右方向に移動することに応じて、前記複数のオブジェクトのうちで前記表示範囲に含まれるオブジェクトが変更されるように前記複数のオブジェクトを所定方向に並べて配置するオブジェクト配置手段と、
    前記表示部に表示されているオブジェクトを指定する操作が行われた場合に当該オブジェクトに応じた処理を実行するオブジェクト処理実行手段として前記コンピュータをさらに機能させる、請求項6に記載の情報処理プログラム。
  8. 前記情報処理プログラムは、前記表示部の姿勢が前記第2状態であると判定される場合、前記所定領域に配置される複数のオブジェクトのうちの少なくともいくつかのオブジェクトを移動させ、前記表示部の姿勢が前記第1状態であると判定される場合、当該いくつかのオブジェクトの移動を停止させる移動制御手段として前記コンピュータをさらに機能させる、請求項1から請求項7のいずれか1項に記載の情報処理プログラム。
  9. 前記姿勢判定手段は、前記表示部の画面の向きと閾値との大小関係を用いて前記第1状態であるか第2状態であるかを判定し、
    前記閾値は、前記第1状態において第1状態が維持される姿勢の範囲と、前記第2状態において第2状態が維持される姿勢の範囲とが一部重複するように、第1状態と第2状態とで異なる値に設定される、請求項1から請求項8のいずれか1項に記載の情報処理プログラム。
  10. 前記表示部が設けられる筐体には、操作部がさらに設けられ、
    前記情報処理プログラムは、前記表示部の姿勢が前記第2状態であることを条件として、前記操作部に対する所定の入力に応じた情報処理を実行する入力処理実行手段として前記コンピュータをさらに機能させる、請求項1から請求項9のいずれか1項に記載の情報処理プログラム。
  11. 前記表示範囲設定手段は、前記表示部の姿勢が第1状態であると判定される場合、前記表示範囲を前記表示部の姿勢の変化に応じて変化させ、前記表示部の姿勢が第2状態であると判定される場合、前記表示部の姿勢の変化に応じて変化しないように前記表示範囲を設定する、請求項1から請求項10のいずれか1項に記載の情報処理プログラム。
  12. 前記表示部が設けられる筐体には、慣性センサがさらに設けられ、
    前記情報処理プログラムは、前記慣性センサの出力に基づいて前記表示部の姿勢を算出する姿勢算出手段として前記コンピュータをさらに機能させる、請求項1から請求項11のいずれか1項に記載の情報処理プログラム。
  13. 前記表示部は、前記情報処理装置とは別体の端末装置であって、前記情報処理装置と通信可能な端末装置に含まれる、請求項1から請求項12のいずれか1項に記載の情報処理プログラム。
  14. 前記情報処理装置は、ユーザが把持可能であり、前記表示部を含む、請求項1から請求項12のいずれか1項に記載の情報処理プログラム。
  15. ユーザが把持可能な表示部の姿勢が第1状態であるか第2状態であるかを判定する姿勢判定部と、
    前記表示部の姿勢が第1状態であると判定される場合、所定領域のうちで前記表示部に表示される表示範囲を前記表示部の姿勢に応じて設定し、前記表示部の姿勢が第2状態であると判定される場合、前記表示部の姿勢に関係なく前記表示範囲を設定する表示範囲設定部とを備える、情報処理装置。
  16. ユーザが把持可能な表示部と、
    前記表示部の姿勢が第1状態であるか第2状態であるかを判定する姿勢判定部と、
    前記表示部の姿勢が第1状態であると判定される場合、所定領域のうちで前記表示部に表示される表示範囲を前記表示部の姿勢に応じて設定し、前記表示部の姿勢が第2状態であると判定される場合、前記表示部の姿勢に関係なく前記表示範囲を設定する表示範囲設定部とを備える、情報処理システム。
  17. ユーザが把持可能な表示部に所定領域の画像を表示する画像表示方法であって、
    前記表示部の姿勢が第1状態であるか第2状態であるかを判定し、
    前記表示部の姿勢が第1状態であると判定される場合、前記所定領域のうちで前記表示部に表示される表示範囲を前記表示部の姿勢に応じて設定し、前記表示部の姿勢が第2状態であると判定される場合、前記表示部の姿勢に関係なく前記表示範囲を設定する、画像表示方法。
JP2012224310A 2012-10-09 2012-10-09 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法 Active JP6100497B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012224310A JP6100497B2 (ja) 2012-10-09 2012-10-09 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
US13/724,525 US9805695B2 (en) 2012-10-09 2012-12-21 Display apparatus, storage medium having stored in information processing program, information processing apparatus, information processing system, and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012224310A JP6100497B2 (ja) 2012-10-09 2012-10-09 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法

Publications (2)

Publication Number Publication Date
JP2014078073A true JP2014078073A (ja) 2014-05-01
JP6100497B2 JP6100497B2 (ja) 2017-03-22

Family

ID=50432354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012224310A Active JP6100497B2 (ja) 2012-10-09 2012-10-09 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法

Country Status (2)

Country Link
US (1) US9805695B2 (ja)
JP (1) JP6100497B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392512B2 (ja) 2020-02-20 2023-12-06 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013224590B4 (de) * 2012-12-03 2019-07-18 Canon Kabushiki Kaisha Anzeigevorrichtung und deren steuerverfahren
KR102156799B1 (ko) * 2013-09-03 2020-09-21 삼성전자 주식회사 화면 제어 방법 및 장치
EP3076287A1 (de) * 2015-03-31 2016-10-05 SITEC GmbH Sicherheitseinrichtungen und technische Geräte Verfahren zum navigieren durch die auf der anzeigeeinheit eines mobilen elektronischen geräts dargestellten inhalte und mobiles elektronisches gerät mit einer anzeigeeinheit
WO2017176657A1 (en) * 2016-04-06 2017-10-12 Tudor Charles R Video broadcasting through selected video hosts
US10867445B1 (en) * 2016-11-16 2020-12-15 Amazon Technologies, Inc. Content segmentation and navigation

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309617A (ja) * 2005-04-28 2006-11-09 Nippon Telegr & Teleph Corp <Ntt> コンテンツ送信装置、コンテンツ表示装置、コンテンツ送信装置制御方法およびコンテンツ表示装置制御方法
JP2012058847A (ja) * 2010-09-06 2012-03-22 Nec Corp 携帯端末装置及びプログラム
JP2012161604A (ja) * 2011-02-02 2012-08-30 Nintendo Co Ltd 空間相関したマルチディスプレイヒューマンマシンインターフェース

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6466198B1 (en) * 1999-11-05 2002-10-15 Innoventions, Inc. View navigation and magnification of a hand-held device with a display
FI117488B (fi) * 2001-05-16 2006-10-31 Myorigo Sarl Informaation selaus näytöllä
DE10125395A1 (de) * 2001-05-23 2002-11-28 Siemens Ag Verfahren und Anordnung zum Navigieren innerhalb eines Bildes
CN101040249A (zh) * 2003-06-27 2007-09-19 索夫特斯扣普有限公司 虚拟桌面—元-组织和控制系统
US20050212760A1 (en) * 2004-03-23 2005-09-29 Marvit David L Gesture based user interface supporting preexisting symbols
US7519468B2 (en) * 2005-02-28 2009-04-14 Research In Motion Limited System and method for navigating a mobile device user interface with a directional sensing device
KR101171055B1 (ko) * 2006-02-02 2012-08-03 삼성전자주식회사 메뉴 리스트 항목의 이동 속도 제어 장치 및 방법
US8462109B2 (en) * 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US20090262074A1 (en) * 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US7903115B2 (en) * 2007-01-07 2011-03-08 Apple Inc. Animations
US7844915B2 (en) * 2007-01-07 2010-11-30 Apple Inc. Application programming interfaces for scrolling operations
JP4322942B2 (ja) * 2007-10-29 2009-09-02 株式会社東芝 情報処理装置、スクロール制御プログラムおよびスクロール制御方法
US8213999B2 (en) * 2007-11-27 2012-07-03 Htc Corporation Controlling method and system for handheld communication device and recording medium using the same
US20090153466A1 (en) * 2007-12-14 2009-06-18 Patrick Tilley Method and System for Optimizing Scrolling and Selection Activity
US8717283B1 (en) * 2008-11-25 2014-05-06 Sprint Communications Company L.P. Utilizing motion of a device to manipulate a display screen feature
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
US8890898B2 (en) * 2009-01-28 2014-11-18 Apple Inc. Systems and methods for navigating a scene using deterministic movement of an electronic device
JP5282661B2 (ja) * 2009-05-26 2013-09-04 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8913009B2 (en) * 2010-02-03 2014-12-16 Nintendo Co., Ltd. Spatially-correlated multi-display human-machine interface
US8860672B2 (en) * 2010-05-26 2014-10-14 T-Mobile Usa, Inc. User interface with z-axis interaction
JP5675260B2 (ja) 2010-10-15 2015-02-25 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、及び、画像処理方法
US9285883B2 (en) * 2011-03-01 2016-03-15 Qualcomm Incorporated System and method to display content based on viewing orientation
US9483085B2 (en) * 2011-06-01 2016-11-01 Blackberry Limited Portable electronic device including touch-sensitive display and method of controlling same
US9880640B2 (en) * 2011-10-06 2018-01-30 Amazon Technologies, Inc. Multi-dimensional interface
WO2013067526A1 (en) * 2011-11-04 2013-05-10 Remote TelePointer, LLC Method and system for user interface for interactive devices using a mobile device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006309617A (ja) * 2005-04-28 2006-11-09 Nippon Telegr & Teleph Corp <Ntt> コンテンツ送信装置、コンテンツ表示装置、コンテンツ送信装置制御方法およびコンテンツ表示装置制御方法
JP2012058847A (ja) * 2010-09-06 2012-03-22 Nec Corp 携帯端末装置及びプログラム
JP2012161604A (ja) * 2011-02-02 2012-08-30 Nintendo Co Ltd 空間相関したマルチディスプレイヒューマンマシンインターフェース

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7392512B2 (ja) 2020-02-20 2023-12-06 沖電気工業株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム

Also Published As

Publication number Publication date
US20140098139A1 (en) 2014-04-10
US9805695B2 (en) 2017-10-31
JP6100497B2 (ja) 2017-03-22

Similar Documents

Publication Publication Date Title
JP5959047B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
US11231845B2 (en) Display adaptation method and apparatus for application, and storage medium
JP6100497B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および画像表示方法
KR101625251B1 (ko) 틸팅 가능 사용자 인터페이스
TWI571790B (zh) 依感測信號更改圖示座標值的方法與電子裝置
JP5193275B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP5304577B2 (ja) 携帯情報端末および表示制御方法
JP5859298B2 (ja) 情報処理システム、情報処理装置、情報処理方法及び情報処理プログラム
JP6081769B2 (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
KR20130051697A (ko) 단말의 움직임에 따라 이미지 표시를 제어하기 위한 장치 및 방법
KR101872272B1 (ko) 제어 기기를 이용한 전자기기의 제어 방법 및 장치
JP2018084908A (ja) 端末装置およびプログラム
JP5106610B2 (ja) 情報処理装置、情報処理装置の制御方法、及びプログラム
JP6088787B2 (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
JP6018474B2 (ja) プログラム、情報処理装置、情報処理方法および情報処理システム
JP6099237B2 (ja) 表示制御システム、表示制御方法、表示制御プログラム、および表示制御装置
CN111880715A (zh) 界面中虚拟控件编辑的方法、装置、移动终端及存储介质
CN109033100A (zh) 提供页面内容的方法及装置
JP5873592B1 (ja) 3点スライド操作を判定するためのユーザ・インタフェース・プログラム
JP7168713B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および、情報処理方法
JP2019096182A (ja) 電子装置、表示方法、およびプログラム
JP6548956B2 (ja) システム、方法、およびプログラム
JP5247907B1 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム
JPWO2017217375A1 (ja) 画像表示装置、画像表示方法、及び画像表示プログラム
JP5475163B2 (ja) データ取得装置、データ取得システム、データ取得装置の制御方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161021

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170223

R150 Certificate of patent or registration of utility model

Ref document number: 6100497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250